مصنوعی ذہانت سے انسانیت کو خطرہ ہے: ایک ہزار ماہرین کا انتباہ

ویب ڈیسک

ایک ہزار سے زائد ماہرین نے خبردار کیا ہے کہ مصنوعی ذہانت کے تجربات سے انسانیت کو خطرہ ہے اور انہیں اس وقت تک روک دینا چاہیے، جب تک یہ یقینی نہ بنا لیا جائے کہ ان سے انسان کو کوئی خطرہ نہیں ہے

ماہرین نے کہا ہے کہ محققین کو چاہیے کہ مصنوعی ذہانت کے نظام کی تیاری پر آئندہ چھ ماہ تک کام روک دیں، اور اگر وہ ایسا نہیں کرتے تو حکومتوں کو مداخلت کرنی چاہیے

یہ نتائج ایک نئے کھلے خط میں اخذ کیے گئے ہیں اور اس پر ایلون مسک اور ایپل کمپنی کے شریک بانی اسٹیو ووزنیاک سمیت اس شعبے کے ماہرین اور ٹیکنالوجی رہنماؤں کے دستخط ہیں

خط میں لکھا ہے کہ مصنوعی ذہانت کے نمایاں امکانات مثبت ہیں۔ انسانیت ٹیکنالوجی کے ساتھ پھلتے پھولتے مستقبل سے لطف اندوز ہو سکتی ہے اور اب ہم مصنوعی ذہانت کے موسم گرما کے مزے لے سکتے ہیں، جس میں ہم ان چیزوں کو اپنا سکتے ہیں، جو پہلے سے تخلیق کردہ ہیں

لیکن اگر سائنسدان نئے ماڈلز کی تربیت کرتے رہے، تو ہو سکتا ہے دنیا کو اس سے کہیں زیادہ مشکل صورتحال کا سامنا کرنا پڑے

خط کے مصنفین نے لکھا ہے ’حالیہ مہینوں میں مصنوعی ذہانت کی لیبارٹریاں ایسے زیادہ طاقتور ڈجیٹل دماغ تیار اور استعمال کرنے کی دوڑ میں لگی ہیں، جنہیں کوئی بھی سمجھ نہیں سکتا اور ان کے متعلق پیش گوئی، یا قابل اعتماد طور پر کنٹرول نہیں ممکن نہیں

مصنوعی ذہانت کے خطرات پر مبنی خط پر ٹوئٹر، ایپل اور ٹیسلا کے بانیوں اور چیف ایگزیکٹوز کے علاوہ برکلے، پرنسٹن اور دیگر یونیورسٹیوں کے شعبے کے ماہرین کے دستخط بھی شامل ہیں

واضح رہے کہ اس وقت سب سے جدید عوامی طور پر دستیاب مصنوعی ذہانت کا سسٹم جی پی ٹی4 ہے، جسے اوپن اے آئی نامی کمپنی نے بنایا اور اس ماہ کے شروع میں ریلیز کیا تھا

خط میں کہا گیا ہے کہ مصنوعی ذہانت کی لیبارٹریوں کو اس سے زیادہ طاقتور کسی بھی نظام پر کام، کم از کم آئندہ چھ ماہ کے لیے روک دینا چاہیے

مصنفین نے لکھا ہے ’یہ وقفہ عوام کے سامنے لایا جائے اور قابل تصدیق ہونا چاہیے، اور اس میں تمام کلیدی ایکٹرز شامل ہونے چاہییں۔ اگر فوری طور پر اس طرح کا تعطل نہیں ہو سکتا، تو حکومتوں کو لازمی مداخلت کرنی اور ایک عارضی پابندی لگانی چاہیے‘

انہوں نے کہا کہ ان چھ ماہ کے دوران مصنوعی ذہانت کی لیبارٹریوں اور ماہرین دونوں کو مصنوعی ذہانت کے سسٹم کے ڈیزائن کے لیے نئے اصول بنانے پر کام کرنا چاہیے۔ ان کا مطلب یہ ہونا چاہیے کہ ان کے تحت بنایا گیا کوئی بھی نظام ’معقول شک سے بالاتر حد تک محفوظ‘ ہے

اس کا مطلب عام طور پر مصنوعی ذہانت کا کام روکنا نہیں، بلکہ نئے ماڈلز اور صلاحیتوں میں بہتری لانے کو روکنا ہوگا

اس کے بجائے اس تحقیق کو ’آج کے طاقتور، جدید ترین نظاموں کو زیادہ درست، محفوظ، قابل تشریح، شفاف، مضبوط، ہم آہنگ، قابل اعتماد اور وفادار بنانے پر دوبارہ توجہ مرکوز کیا جانا چاہیے۔‘

اسی تعطل کے دوران پالیسی سازوں کو بھی وقت مل سکتا ہے کہ کہ وہ مصنوعی ذہانت کے لیے نئے گورننس سسٹم بنائیں

اس میں ایسی اتھارٹیز کا قیام بھی شامل ہوگا، جو اس کی ترقی پر نظر رکھ سکیں اور اس بات کو یقینی بناسکیں کہ وہ خطرناک مقاصد کی طرف نہیں بڑھ رہی

فی الوقت اس خط پر پنٹریسٹ، اسکائپ، ایپل اور ٹیسلا کے بانیوں اور چیف ایگزیکٹوز کے دستخط ہیں۔ ان میں برکلے، پرنسٹن اور دیگر یونیورسٹیوں کے شعبے کے ماہرین بھی شامل ہیں

جو کمپنیاں اپنے مصنوعی ذہانت کے سسٹم پر کام کر رہی ہیں، ان میں سے کچھ، جیسا کہ گوگل کی سرپرست کمپنی الفابیٹ کی ملکیت والی برطانوی مصنوعی ذہانت کی کمپنی ڈیپ مائنڈ کے محققین نے بھی اس خط پر دستخط کیے ہیں

ایلون مسک اوپن اے آئی کے بانیوں میں سے ایک تھے، جنہوں نے 2017 کے آخر میں لانچ ہونے پر فنڈنگ کی تھی۔ لیکن حالیہ مہینوں میں وہ بظاہر اس کے کام کے زیادہ مخالف ہو گئے ہیں۔ وہ یہ دلیل دیتے ہیں اس کی توجہ نئے سسٹمز ہیں اور انہیں غلط طریقے سے منافع کمانے کے لیے بنایا جا رہا ہے۔

Related Articles

جواب دیں

آپ کا ای میل ایڈریس شائع نہیں کیا جائے گا۔ ضروری خانوں کو * سے نشان زد کیا گیا ہے

Back to top button
Close
Close