امریکہ میں ایک جعلی اغوا کی واردات میں مصنوعی ذہانت کے استعمال نے امریکی پولیس اور حکام کو چکرا کے رکھ دیا
عالمی خبر رساں ادارے اے ایف پی کے مطابق اس معاملے کا آغاز اس وقت ہوا، جب ایک امریکی ماں کو اپنے فون پر ایک کال موصول ہوئی، جس پر بظاہر ان کی بیٹی ان سے بات کر رہی تھیں
فون پر سنائی دینے والی آواز انتہائی حقیقی لگ رہی تھی۔ اس امریکی ماں نے اپنی بیٹی کو سسکیاں لیتے ہوئے سنا۔ بعد میں کسی شخص نے فون پر تاوان کا مطالبہ کر دیا
لیکن درحقیقت اس آواز کو مصنوعی ذہانت کی مدد سے تیار کیا گیا تھا اور یہ اغوا کی ایک جعلی واردات تھی
امریکی ماہرین کا کہنا ہے ”مصنوعی ذہانت کا سب سے بڑا خطرہ حقیقت اور افسانے کے درمیان موجود سرحد کو ختم کرنے کی اس کی صلاحیت ہے۔ اس سے ٹیکنالوجی کی دنیا میں جرائم پیشہ افراد کو غلط معلومات پھیلانے کے لیے سستی اور موثر سہولت میسر آ جائے گی“
ایسے اسکینڈلز کے نئے سلسلے نے امریکی حکام کو ہلا کر رکھ دیا ہے۔ دھوکے باز مصنوعی ذہانت کے ذریعے آواز کی انتہائی حقیقی نقل کرنے کے ان ٹولز کو استعمال کر رہے ہیں، جو آن لائن وسیع پیمانے پر دستیاب ہیں۔ دھوکہ باز خود کو اپنے شکار کے خاندان کا رکن ظاہر کر کے ان سے رقم بٹورتے ہیں
امریکی ریاست ایریزونا میں ماں کو ٹیلی فون لائن کے دوسرے سرے سے ایک آواز سنائی دی، جو کہہ رہی تھی ”میری مدد کریں، ماں! براہ کرم میری مدد کریں“
جینیفر ڈی سٹیفانو نامی ماں کو ’سو فیصد‘ یقین تھا کہ یہ ان کی پندرہ سالہ بیٹی ہے، جو سکیئنگ کے لیے سفر پر جا رہی تھی
ڈی سٹیفانو نے اپریل میں ایک مقامی ٹیلی ویژن سٹیشن کو بتایا ”کبھی یہ سوال پیدا نہیں ہوا کہ وہ کون ہے؟ وہ مکمل طور پر اس کی آواز تھی۔ وہ اسی طرح روتی تھی۔ میں نے کبھی ایک سیکنڈ کے لیے بھی شک نہیں کیا کہ یہ وہ نہیں ہے“
جس کے بعد نامعلوم نمبر سے کال کرنے والے دھوکہ باز نے فون لے لیا اور دا لاکھ ڈالر تاوان کا مطالبہ کیا
مصنوعی ذہانت کی مدد سے رچائے گئے اس ڈرامے کی قلعی چند منٹ میں کھل گئی، جب ڈی سٹیفانو نے اپنی بیٹی سے رابطہ کیا
لیکن اس خوفناک کیس، جس کی اب پولیس کی تفتیش کر رہی ہے، نے سائبر کرائم میں ملوث افراد کے مصنوعی ذہانت کے غلط استعمال کے امکانات کو واضح کیا ہے
بلیک برڈ ڈاٹ اے آئی کے چیف ایگزیکزیکٹیو وسیم خالد نے اے ایف پی کو بتایا ”مصنوعی ذہانت کی آواز کو نقل کرنے کی صلاحیت اب تقریباً ایسی ہو چکی ہے کہ اس میں اور انسانی آواز میں فرق کو محسوس نہیں کیا جا سکتا۔ اس طرح دھمکیاں دینے والے جعل سازوں کو متاثرہ افراد سے معلومات اور پیسے نکلوانے کا زیادہ موثر موقع مل جاتا ہے“
انہوں نے کہا ”ایک سادہ سی انٹرنیٹ سرچ سے کسی بھی شخص کی حقیقی آواز کے چھوٹے چھوٹے ٹکڑے جوڑ کر مصنوعی ذہانت کی مدد سے آواز کی نقل تیار کرنے کے لیے بڑی تعداد میں مفت ایپلیکیشنز مل جاتی ہیں۔ بعض اوقات آواز کی نقل تیار کرنے میں صرف چند سیکنڈ لگتے ہیں۔ کسی شخص کی حقیقی آواز کو آن لائن پوسٹ کیے گئے مواد سے چوری کیا جا سکتا ہے۔“
خالد کے مطابق ”آواز کا ایک مختصر نمونہ لے کر مصنوعی ذہانت کی مدد سے بنائے گئے وائس کلون کو وائس میل اور صوتی متن بنانے کے لیے استعمال کیا جا سکتا ہے۔ اسے فون کالز پر لائیو وائس چینجر کے طور پر بھی استعمال کیا جا سکتا ہے۔“
انہوں نے مزید کہا ”دھوکہ باز مختلف لہجوں اور صنفی آوازوں کو استعمال کر سکتے ہیں، حتیٰ کہ قریبی عزیزوں کے بولنے کے انداز کی بھی نقل کر سکتے ہیں۔ ٹیکنالوجی کی مدد سے یقین دلانے کی صلاحیت رکھنے والے ڈیپ فیک تیار کیے جا سکتے ہیں“
امریکہ سمیت نو ممالک کے سات ہزار افراد پر کیے گئے عالمی سروے میں ہر چار میں سے ایک شخص نے کہا کہ انہیں مصنوعی ذہانت کے وائس کلوننگ اسکینڈل کا سامنا ہو چکا ہے یا وہ کسی ایسے شخص کو جانتے ہیں، جسے کوئی ایسا تجربہ ہوا
امریکہ میں قائم میکفی لیبز کی طرف سے گذشتہ ماہ شائع ہونے والے سروے میں کہا گیا ہے ’سروے میں جواب دینے والے 70 فیصد لوگوں نے کہا کہ انہیں یقین نہیں ہے کہ وہ کلون شدہ آواز اور اصلی آواز کے درمیان فرق بیان کر سکتے ہیں‘
امریکی حکام نے نے خبردار کیا ہے کہ ’دادا دادی کے اسکینڈل‘ کے نام سے مشہور ہونے والا یہ معاملہ پھیل رہا ہے، جس میں ایک جعل ساز پریشان کن صورت حال میں پیسوں کی فوری ضرورت میں پوتا بن کر سامنے آتا ہے
یو ایس فیڈرل ٹریڈ کمیشن نے مارچ میں انتباہ کرتے ہوئے کہا ’آپ کو ٹیلی فون کال آئی۔ لائن پر گھبرائی ہوئی آواز سنائی دی۔ یہ آپ کا پوتا ہے۔ وہ کہتا ہے کہ وہ سخت پریشان ہے۔ اس کی کار حادثے کا شکار ہو چکی ہے۔ وہ جیل جا پہنچا ہے لیکن آپ رقم بھیج کراس کی مدد کر سکتے ہیں‘
’یہ بالکل پوتا ہی لگتا ہے۔ یہ کوئی دھوکہ کیسے ہو سکتا ہے؟ آواز کی نقل اس طرح اتاری جاتی ہے۔‘