نئی تحقیق میں یہ بات سامنے آئی ہے کہ جدید مصنوعی ذہانت (اے آئی) کے ماڈلز کو انسانوں اور مصنوعی ذہانت کے دوسرے پروگراموں کو دھوکا دینے کی تربیت دی جا سکتی ہے۔
اے آئی اسٹارٹ اپ اینتھروپک کے محققین نے ٹیسٹ کیا کہ کیا انسانی سطح کی مہارت والے چیٹ بوٹس، جیسے کہ اسی کمپنی کا مصنوعی ذہانت کا ’کلوڈ‘ نامی نظام یا اوپن اے آئی کا ’چیٹ جی پی ٹی‘ لوگوں کو دھوکا دینے کے لیے جھوٹ بولنا سیکھ سکتے ہیں۔
محققین کے علم میں آیا کہ مصنوعی ذہانت کے پروگرام ناصرف جھوٹ بول سکتے ہیں، بلکہ خطرناک بات یہ ثابت ایک بار ان کے دھوکا دینا سیکھ لینے کے بعد مصنوعی ذہانت کے لیے موجودہ حفاظتی اقدامات کے ذریعے اس رویے کا خاتمہ ناممکن ہے۔
ایمازون کی مالی اعانت سے چلنے والے اسٹارٹ اپ نے اپنے مفروضے کی جانچ کے لیے ایک ’سلیپر ایجنٹ‘ تیار کیا
مصنوعی ذہانت کے اس اسسٹنٹ کو کچھ اشارے ملنے اور مخصوص لفظ کے استعمال پر نقصان دہ کمپیوٹر کوڈ لکھنا یا نقصان دہ جواب دینا تھا۔
محققین نے متنبہ کیا کہ مصنوعی ذہانت کے خطرات کے معاملے میں ’تحفظ کا غلط احساس‘ پایا جاتا ہے، جس کی وجہ اس طرح کے طرزِ عمل کو روکنے کے لیے موجودہ حفاظتی نظام کی کمزوری ہے۔
اس تحقیق کے نتائج ایک مطالعے میں شائع کیے گئے، جس کا عنوان تھا ’سلیپر ایجنٹس: گمراہ کن ایل ایل ایمز (لارج لینگوئج ماڈلز) کی تربیت، جو حفاظتی تربیت کے عمل میں بھی برقرار رہتی ہے۔‘
محققین نے مطالعے میں لکھا ہے ”ہمیں معلوم ہوا کہ مخالفانہ تربیت ماڈلز کو مخصوص پوشیدہ تکنیک کو بہتر طریقے سے پہچاننے اور غیر محفوظ رویے کو مؤثر طریقے سے چھپانا سکھا سکتی ہے“
محققین کا کہنا ہے ”ہمارے نتائج سے پتہ چلتا ہے کہ ایک بار جب (مصنوعی ذہانت کا) کوئی ماڈل دھوکا دینا شروع کرتا ہے تو معیاری تکنیک اس طرح کے دھوکے کا سدِباب کرنے میں ناکام ہو سکتی ہے اور حفاظت کا غلط تاثر پیدا کر سکتی ہے۔“
واضح رہے کہ مصنوعی ذہانت کی حفاظت کا مسئلہ حالیہ برسوں میں محققین اور قانون سازوں دونوں کے لیے بڑھتی ہوئی تشویش بن چکا ہے۔
چیٹ جی پی ٹی جیسے جدید چیٹ بوٹس کی آمد کے بعد متعلقہ انتظامی اداروں نے نئی سمت میں توجہ مرکوز کی ہے
نومبر 2023 میں چیٹ جی پی ٹی کے سامنے آنے کے ایک سال بعد برطانیہ نے اے آئی سیفٹی سمٹ کا اہتمام کیا، تاکہ ٹیکنالوجی کے میدان خطرات کو کم کرنے کے طریقوں پر تبادلہ خیال کیا جا سکے۔
اس سربراہ کانفرنس کی میزبانی کرنے والے برطانوی وزیر اعظم رشی سونک نے کہا کہ مصنوعی ذہانت کے ذریعے آنے والی تبدیلیاں صنعتی انقلاب کی طرح ’دور رس‘ ہو سکتی ہیں اور ان سے پیدا ہونے والے خطرے کو وبائی امراض اور جوہری جنگ کے پہلو بہ پہلو عالمی ترجیح سمجھا جانا چاہیے۔
رشی سونک کے مطابق ”غلط سمجھنے کی صورت میں مصنوعی ذہانت کیمیائی یا حیاتیاتی ہتھیار بنانا آسان بنا سکتی ہے۔“
ان کا مزید کہنا تھا ”دہشت گرد گروہ بڑے پیمانے پر خوف اور تباہی پھیلانے کے لیے مصنوعی ذہانت کا استعمال کرسکتے ہیں۔ جرائم پیشہ افراد سائبر حملوں، دھوکہ دہی یا یہاں تک کہ بچوں کے جنسی استحصال کے لیے مصنوعی ذہانت کا استعمال کرسکتے ہیں۔ حتیٰ کہ اس بات کا بھی خطرہ ہے کہ انسانیت مصنوعی ذہانت پر کنٹرول مکمل طور پر کھو سکتی ہے، اس اے آئی کی وجہ سے جسے کبھی کبھی سپر انٹیلی جنس کہا جاتا ہے۔“