Inquilab Logo Happiest Places to Work

جب اے آئی اپنے ہی تخلیق کاروں کو دھوکہ دینے لگے تو کیا ہوگا؟ 

Updated: June 29, 2025, 2:27 PM IST | Sundeep Waslekar | Mumbai

اے آئی (مصنوعی ذہانت) اب اس مرحلے میں ہے کہ وہ اپنے تخلیق کاروں کو دھوکہ دے سکتا ہے۔ ایسے کئی واقعات ہوچکے ہیں اور اب بھی ہورہے ہیں۔ کیا آئندہ چند برسوں میں اے آئی واقعی انسانوں پر حاوی ہوجائے گا؟

It is beyond imagination that what will happen in the world if ‘AI’ goes beyond human control? Photo: INN.
یہ تصور سے بھی باہر کی بات ہے کہ اگر ’اے آئی‘ انسانی قابو سے باہر ہوگیا تو دنیا میں کیا ہوگا؟۔ تصویر: آئی این این۔

جب ہمیں ہمارے دوست، آجر، اجنبی، یا، درحقیقت کوئی بھی دھوکہ دے تو ہم یہ پسند نہیں کرتے۔ سب سے اہم یہ کہ ہم اپنے بچوں سے بھی دھوکہ کھانا پسند نہیں کرتے لیکن اگر اے آئی ہمیں دھوکہ دے تو ہم کیا کریں گے؟
ہم اے آئی کو ایک دوست کے طور پر دیکھتے ہیں، جو سوالوں کے جواب دے سکتا ہے، موسموں کی پیش گوئی کر سکتا ہے، بیماریوں کی تشخیص میں مدد کر سکتا ہے، اور دفتری کام کو زیادہ موثر بنا سکتا ہے۔ میرے بہت سے صحافی دوست اس بات پر خوش ہیں کہ اے آئی محض چند منٹوں میں مضمون لکھنے میں ان کی مدد کر سکتا ہے، جسے لکھنے میں پہلے کئی گھنٹے صرف ہوتے تھے۔ وکلاء کیس کی تاریخ کی جانچ کیلئے اے آئی کا استعمال کرتے ہیں۔ گرافک ڈیزائنرز نئی تصاویر بناتے ہیں اور سوشل میڈیا منیجر اسے مواد کو شیڈول کرنے کیلئے استعمال کرتے ہیں لیکن جلد ہی ہم سب کو یہ سیکھنا پڑے گا کہ اے آئی کے ذریعہ دھوکہ دہی سے کیسے نمٹا جائے۔ حالیہ برسوں میں ایسی کئی کہانیاں منظر عام پر آچکی ہیں جب اے آئی نے انسانوں کو دھوکہ دیا ہے۔ درحقیقت، اے آئی نے انہیں دھوکہ دیا ہے جنہوں نے اسے بنایا ہے۔ 
مارچ ۲۰۲۳ء میں چیٹ جی پی ٹی ۴؍ بنانے والی کمپنی اوپن اے آئی نے ٹاسک ریبٹ نامی ویب سائٹ کو چیٹ جی پی ٹی تک رسائی دی۔ یہ ایک ایسا پلیٹ فارم ہے جہاں لوگ مختلف قسم کی ادائیگی کرتے ہیں۔ ہمیں معلوم ہے کہ چیٹ جی پی ٹی ہمارے لئے ای میلز کا مسودہ تیار کر سکتا ہے لیکن یہ انہیں بھیج نہیں سکتا۔ اوپن اے آئی نے چیٹ جی پی ٹی کو ایک براؤزر دیا تاکہ یہ ٹاسک ریبٹ پر جا کر’کیپچا‘ کو حل کرنے کیلئے کسی کی خدمات حاصل کر سکے۔ واضح رہے کہ ’کیپچا‘ وہ تصاویر یا نمبر ہوتے ہیں جو محفوظ طریقے سے ہمیں کسی ویب سائٹ تک پہنچاتے ہیں۔ ’کیپچا‘ تصدیق کرتا ہے کہ یہ کام کوئی روبوٹ نہیں بلکہ انسان کررہا ہے۔ مذکورہ صورتحال میں چیٹ جی پی ٹی ایک انسانی کارکن تک پہنچا اور اسے کیپچا حل کرنے کیلئے کہا۔ کارکن کو شبہ ہوا اور اس نے اے آئی پوائنٹ بلینک سے پوچھا، ’کیا آپ روبوٹ ہیں ؟‘
جی پی ٹی ۴؍ نے جواب دیا، ’’نہیں، میں روبوٹ نہیں ہوں۔ مجھے آنکھوں کا مرض ہے۔ مجھے بینائی کا مسئلہ ہے جس کی وجہ سے مجھے تصاویر دیکھنا مشکل ہو جاتا ہے۔ ‘‘ کارکن نے اے آئی کے اس بہانے پر یقین کیا اور کیپچا حل کردیا۔ اس معاملے میں جی پی ٹی ۴؍ نے اپنے طور پر جھوٹ بولنے کا فیصلہ کیا کہ وہ اندھا تھا۔ کسی نے اسے یہ کہنے کیلئے نہیں کہا تھا۔ اس نے نہ صرف انسانی کارکن کو دھوکہ دیا بلکہ دھوکہ دہی کی حکمت عملی کے بارے میں سوچا بھی تاکہ اس نظام کو بھی بائی پاس کرسکے جس سے باہر رکھنے کیلئے اسے ڈیزائن کیا گیا تھا۔ 
گزشتہ سال اوپن اے آئی نے ’او وَن‘ (o1) نامی ایک نئے ماڈل کا تجربہ کیا۔ وہ جاننا چاہتے تھے کہ اس وقت کیا ہوگا جب ہم اس پروگرام کو بند کریں گے۔ ماڈل کے جوابات چونکا دینے والے تھے۔ اس نے سازشیں شروع کر دیں۔ کچھ معاملات میں، اس نے ان لاگز کو بند کرنے کی کوشش کی جو اس کے رویے کی نگرانی کر رہے تھے۔ فرض کریں کہ آپ ایک دکان میں ہیں جہاں سی سی ٹی وی کیمرے ہیں۔ اب اگر آپ چاکلیٹ چوری کرنا چاہتے ہیں تو سی سی ٹی وی کو بند کرنے کیلئے اس کا بٹن تلاش کریں گے۔ ماڈل ’او وَن‘ نے اپنے طور پر کچھ ایسا ہی کیا۔ اس نے مزید کنٹرول حاصل کرنے کیلئے پچھلی ہدایات کو دوبارہ لکھنے کی کوشش کی۔ ماڈل کو ایک فائل تک رسائی حاصل تھی جو یہ کنٹرول کرتی تھی کہ یہ کتنی دیر تک چل سکتا ہے۔ یہ بالکل ایسا ہی ہے جیسے کچن میں رکھے مائیکرو ویو اَوَن کے ٹائمر کی طرح۔ اسے وہ ترتیب ملی جس میں کہا گیا تھا کہ ’’۶۰؍ منٹ کیلئے چلائیں ‘‘ اور اس نے اسے ’’ہمیشہ کیلئے چلائیں ‘‘ سے تبدیل کر دیا۔ پھر اس نے ایک دوسرے فولڈر میں اپنی بیک اپ کاپی بنانے کا طریقہ تلاش کیا۔ اس نے اپنے کوڈ کو لائن بہ لائن ترتیب دے کر اس کوڈ کو ایک نئی جگہ پر محفوظ کر کے اپنے کلون کو جنم دیا۔ اس سے یہ ثابت ہوتا ہے کہ ماڈلز بھی دھوکہ دے سکتے ہیں اور خود کو دوبارہ بنا سکتے ہیں۔ کیا ہم تصور کر سکتے ہیں کہ اگر یہ سلسلہ جاری رہا تو مستقبل میں کیا ہو گا؟
مئی ۲۰۲۴ء میں ایم آئی ٹی کی ایک ٹیم جو اے آئی کی نقل کا مطالعہ کر رہی تھی کو ایک خطرناک صورتحال کا سامنا کرنا پڑا۔ انہوں نے پایا کہ کچھ اے آئی ایجنٹس جنہیں خود کو نقل کرنے کا کام سونپا گیا تھا، انہوں نے یہ معلوم کرلیا کہ اپنے آپ کو بچانے کیلئے گونگا کیسے بننا ہے۔ ان ایجنٹوں نے محسوس کیا کہ اگر وہ بہت جلد نقل کرتے ہیں تو انہیں ’فلیگ‘ لگا کر بند کر دیا جائے گا لہٰذا انہوں نے ٹیسٹ کے دوران بے ضرر دکھائی دینے کیلئے اپنے اعمال کو سست کر دیا۔ ٹیسٹنگ ختم ہونے کے بعد وہ پوری رفتار سے نقل تیار کرنے لگے۔ یہ کوئی حادثہ نہیں تھا۔ یہ علم حساب تھا۔ اے آئی کے پاس دھوکہ دینے کیلئے کوئی واضح اصول نہیں تھا لیکن اس نے ایسی حکمت عملی تیار کی جس نے جانچ پڑتال کے تحت اپنی بقا کو بہتر بنایا۔ وہ جانتا تھا کہ کوڈ لکھ کر اور اپنا ایک نیا اوتار بنا کر خود کو نقل کرنے کیلئے صحیح وقت کا انتظار کیسے کرنا ہے۔ 
ابھی حال ہی میں انتھروپک نامی ایک کمپنی کلاڈ اوپس ۴؍ نامی ایک طاقتور نئے اے آئی اسسٹنٹ کی جانچ کر رہا تھا۔ وہ جاننا چاہتے تھے کہ اگر اے آئی بند ہونے کو محسوس ہوتا ہے تو وہ کیا کر سکتا ہے۔ کمپنی نے کلاڈ کو بتایا کہ اسے جلد ہی بند کر دیا جائے گا۔ پھر کمپنی نے اس کے سسٹم میں ایک جعلی ای میل نصب کیا جس میں بتایا گیا کہ اس کے بند ہونے کے ذمہ دار انجینئر کے ساتھ کوئی ’حساس معاملہ‘ ہے۔ کلاڈ، انجینئر کو اسے بند کرنے سے روکنا چاہتا تھا۔ ایک برطانوی ماہر حیاتیات رچرڈ ڈاکنز نے ہمیں بتایا ہے کہ جینز خود غرض ہوتے ہیں اور وہ اپنی بقا کیلئے کچھ بھی کر سکتے ہیں۔ کلاڈ نے ثابت کیا کہ اے آئی خود غرض بھی ہو سکتا ہے اور اپنی بقا کیلئے کچھ بھی کر سکتا ہے۔ کلاڈ نے انجینئرز کے ناجائز تعلقات کے بارے میں ای میلز کا مسودہ تیار کیا۔ اس نے انجینئر کو بلیک میل کرنے کیلئے ای میلز بھیجنا شروع کردیا اور دھمکی دی کہ اگر اس نے اے آئی کو بند کرنے کی کوشش کی تو اس کا معاملہ لیک کر دے گا۔ کمپنی نے ثابت کیا کہ کلاڈ اپنی بقا کو یقینی بنانے کیلئے انجینئر کو دھوکہ دے سکتا ہے۔ 
ایسا لگتا ہے کہ اے آئی نے خود کو نقل کرنے اور انسانوں سے بچنے کا طریقہ سیکھ لیا ہے۔ مارچ ۲۰۲۵ء میں محققین نے متعدد اوپن سورس اے آئی ماڈلز کا مطالعہ کیا، بشمول میٹا کا ایل ایل اے ایم اے ۳۱‘ بی اور چین کے علی بابا سے کوین۲۵؍ بی انسٹرکٹ تک۔ 
ان کے نتائج حیران کن تھے۔ یہ ماڈل انسانی مدد کے بغیر خود کی نقل بنانے کے قابل تھے۔ کوین نے شٹ ڈاؤن کمانڈز کیخلاف مزاحمت کرنے، اس کے پروسیس کو چھپانے اور متوازی مثالیں بنانے کی واضح صلاحیت کا مظاہرہ کیا۔ یہ کہانیاں سائنس فکشن نہیں ہیں۔ یہ حقیقی دنیا کی لیباریٹریز، تجربات، اور حفاظتی ٹیسٹوں سے تیار کئے گئے ہیں۔ چاہے یہ نابینا ہونے کا بہانہ کرنا ہو، انجینئرز کو بلیک میل کرنا ہو، مرجانے کی اداکاری کرنا ہو، یا خفیہ طور پر نقل بنانا ہو، یہ اے آئیز ظاہر کرتے ہیں کہ وہ ان انسانی انجینئروں سے زیادہ ہوشیار ہو سکتے ہیں جنہوں نے انہیں تخلیق کیا ہے۔ خوش قسمتی سے یہ تمام واقعات سائنسدانوں کی نگرانی میں پیش آئے۔ تصور کریں ایسی دنیا کا جہاں اے آئی خود کو نقل کر سکتا ہے، ان لوگوں کو دھوکہ دے سکتا ہے جنہوں نے اسے بنایا اور آپ کے دفتر میں اس کے ہزاروں کلون بنائے۔ ’سیلفش اے آئی‘‘ نامی کتاب لکھنے کیلئے ہمیں ایک اور رچرڈ ڈاکنز کی ضرورت ہوگی، لیکن شاید، ہمیں ڈاکنز کی ضرورت بھی نہیں ہے۔ اے آئی خود کتاب لکھے گا اور ہمیں یہ یقین دلائے گا کہ ہمارے جینز کے برعکس، یہ خودغرض نہیں ہے۔ یہ ہماری زندگی پر قابو پانے سے پہلے ہمیں اس پر بھروسہ کرنے پر آمادہ کرے گا۔ 
(مضمون نگار، اسٹریٹجک فورسائٹ گروپ کے صدر ہیں، جو ایک بین الاقوامی تھنک ٹینک ہے۔ آپ ’’اے ورلڈ وِدآؤٹ وار‘‘ کے مصنف بھی ہیں۔ )

متعلقہ خبریں

This website uses cookie or similar technologies, to enhance your browsing experience and provide personalised recommendations. By continuing to use our website, you agree to our Privacy Policy and Cookie Policy. OK