• Sun, 19 October, 2025
  • EPAPER

Inquilab Logo Happiest Places to Work

ہندوستان میں اے آئی سے بنی تصاویر مسلمانوں کے خلاف نفرت کو ہوا دے رہی: رپورٹ

Updated: October 19, 2025, 8:00 PM IST | Washington

امریکی تھنک ٹینک کی رپورٹ کے مطابق ہندوستان میں مصنوعی ذہانت سے بنی تصاویر مسلمانوں کے خلاف نفرت کو ہوا دے رہی ہیں، اور ان کے خلاف تشدد بھڑکانے کیلئے استعمال ہو رہی ہیں۔

symbolic image; Image X
علامتی تصویر؛ تصویر ایکس

مرکز برائے مطالعہ منظم نفرت (Center for the Study of Organized Hate) کی۲۹؍ ستمبر کو جاری کردہ رپورٹ کے مطابق، مصنوعی ذہانت کے ذریعے بنائی گئی ایسی تصاویر، جن میں مسلمان مردوں کو شیطانی خصلتوں اور عورتوں کو جنس زدہ کے طور پر پیش کیا جاتا ہے، بڑے سوشل میڈیا پلیٹ فارم پر وائرل کی جا رہی ہیں۔ انہیں ہندوتوا کے سازشی نظریات کو تقویت دینے یا مسلمانوں کے خلاف نفرت انگیز بیانیے کو مضبوط کرنے کے لیے استعمال کیا جا رہا ہے۔ رپورٹ میں خبردار کیا گیا ہے کہ اگرچہ ہندوستان میں اقلیتوں کے خلاف نفرت پھیلانے کے لیے سوشل میڈیا کا استعمال پہلے سے دستاویزی شکل میں موجود ہے، لیکن مصنوعی ذہانت نے ایسی تصاویر بنانا اور پھیلانا آسان بنا دیا ہے، جس سے اسلام مخالف پیغامات اور غلط معلومات کے پھیلاؤ میں اضافہ ہو سکتا ہے۔

یہ بھی پڑھئے: ’’ریاستی درجہ کی بحالی کیلئے بی جے پی سے ہاتھ ملانے کا سوال ہی پیدا نہیں ہوتا‘‘

محققین نے مئی۲۰۲۳ء سے مئی۲۰۲۵ء تک ایکس (سابقہ ٹویٹر)، فیس بک اور انسٹا گرام پر ۲۹۷؍ ہندی اور انگریزی پبلک اکاؤنٹس کی پوسٹ کردہ۱۳۲۶؍ مصنوعی ذہانت سے بنی تصاویر اور ویڈیو کا تجزیہ کیا۔رپورٹ میں کہا گیا ہے، ’’چیٹ جی پی ٹی جیسے پلیٹ فارم جب پانچ ڈالر ماہانہ سے بھی کم کی سستی سبسکرپشن کے ذریعے ممکنہ طور پر ہندوستان کے وسیع بازار تک رسائی حاصل کرنے کی کوشش کر رہے ہیں، تو اس قسم کے تجزیے کی اشد ضرورت ہے۔ رپورٹ کے مطابق، کچھ تصاویر جو واضح، حقیقی اور بعض اوقات اینی میٹڈ تھیں، کو ہندوتوا حامی میڈیا آرگنائزیشن نے یوٹیوب تھمب نیل یا مضامین کے ساتھ استعمال کیا۔ایکس سمیت تمام پلیٹ فارم پر ایسے مواد نے دو سال کے دوران ۲۷؍ کروڑ ،۳۰؍ لاکھ  سے زیادہ تبصرے، لائکس، شیئرز حاصل کیے۔
رپورٹ میں مزید کہا گیا،کہ یہ ماضی میں فوٹوشاپ یا میم بنانے کے طریقوں کا خاتمہنہیں ہے۔ بلکہ یہ زیادہ واضح ، درستگی اور وسیع پیمانے پر مواد کی تیاری کے ذریعے ایسی نفرت انگیز حرکات میں تیزی کا سبب بن رہا ہے۔محققین نے مسلم مخالف تصاویر کو چار موضوعات میں تقسیم کیا، سازشی اسلام مخالف بیانیے، غیر انسانی بیانیہ، مسلم خواتین کی جنسی تشہیر، اور تشدد کی تصاویر کی جمالیاتی تشکیل۔تاہم، ’’صنفی اسلاموفوبیا‘‘ والی تصاویر نے سب سے زیادہ توجہ حاصل کی۔ رپورٹ میں بتایا  گیا کہ ایسی تصاویر نے ۶؍ کروڑ ۷۰؍ لاکھ  انگیجمنٹ حاصل کیں، جو تجزیہ کی گئی چاروں اقسام میں سب سے زیادہ تھیں۔ رپورٹ میں کہا گیا ہے، ’’مسلم خواتین کو ایک الگ اور صنفی خطرہ لاحق ہے، کیونکہ اے آئی سے بنائی گئی تصاویر انہیں غیر معمولی طور پر نمایاں کرتی ہیں جبکہ ان کے جنسی استحصال کو معمول بنا دیتی ہیں۔‘‘محققین کے مطابق، بہت سی تصاویر میں مسلم خواتین، جنہیں اکثر سر ڈھانپنے کے ساتھ فاش لباس پہنے دکھایا جاتا ہے، کو ہندو مردوں کے تابع فتح کے مال کے طور پر پیش کیا جاتا ہے۔بھارتی معاشرے پر اثرات کے لحاظ سے، اس قسم کا نفرت انگیز مواد ایک مذہبی اقلیت کو غیر انسانی  ہیت کے طور پر پیش کرتا ہے، اقلیتوں کے لیے آئینی تحفظات کو کھوکھلا کرتا ہے، اور ہندوستانی جمہوری اداروں کی بنیادوں کو کمزور کرتا ہے۔

یہ بھی پڑھئے: تعلیمی اداروں میں آر ایس ایس پر پابندی کا مطالبہ

عالمی سطح پر مصنوعی ذہانت ان انتہا پسند عناصر کو ان کے تعصب کے مطابق مواد اور تحریراور تصویر بنانے کا موقع فراہم کرتا ہے۔نیویارک شہر میںمئیر انتخاب میں  ڈیموکریٹک پرائمری جیتنے والے پہلے مسلمان امیدوار ظہران ممدانی کے خلاف اے آئی سے  بنائی گئی ویڈیوز وائرل ہوئی ہیں، جن میں مسلم مردوں کو اسلحہ سے لیس دکھایا گیا ہے اور اسٹیچو آف لبرٹی کو گرتے  ہوئے دکھایا گیا ہے۔۱۵؍ اکتوبر کو  کونسل آن امریکن-اسلامک تعلقات نے میڈیا کمپنیوں پر زور دیا کہ وہ نفرت انگیز بیانیے اور تشدد، خاص طور پر مسلمانوں کے خلاف، پھیلانے کے لیے جنریٹواے آئی کے استعمال پر قابو پائیں۔ سابق کریمنل پراسیکیوٹر ایڈورڈ احمد مچل نے کہا کہ ٹیک کمپنیوں اوراے آئی سافٹ ویئر مالکان کو مداخلت کرنی چاہیے اور تشدد کے لیے اکسانے والے مواد کو فوری طور پر ہٹانا چاہیے۔ انہوں نے واضح کیا، کہ ’’یہ آزادی اظہار پر قدغن  نہیں ہے، بلکہ تشدد کی ترغیب سے نمٹنا ہے۔‘‘

متعلقہ خبریں

This website uses cookie or similar technologies, to enhance your browsing experience and provide personalised recommendations. By continuing to use our website, you agree to our Privacy Policy and Cookie Policy. OK