اصلی اور AI تخلیق کے درمیان لائن آنکھ کے لیے بہت پتلی ہے۔

اصلی اور AI تخلیق کے درمیان لائن آنکھ کے لیے بہت پتلی ہے۔

پلاٹو بلاکچین ڈیٹا انٹیلی جنس کے لیے حقیقی اور AI تخلیق کے درمیان لائن بہت پتلی ہے۔ عمودی تلاش۔ عی

جیسا کہ تخلیقی AI ڈویلپرز اپنے ماڈلز کو نفاست کے مطابق بنانا جاری رکھے ہوئے ہیں، محققین نے انکشاف کیا کہ حقیقی تصاویر اور AI تخلیقات کے درمیان فرق کرنا بھی مشکل ہوتا جا رہا ہے۔

میں محققین کی طرف سے ایک مطالعہ واٹر لو کی یونیورسٹی یہ ثابت کیا کہ لوگوں کو ایک حقیقی شخص اور AI سے تیار کردہ شخص کی تصویر کا پتہ لگانے میں مشکل پیش آرہی ہے۔

متوقع حد سے نیچے

مطالعہ کو انجام دینے میں، واٹر لو یونیورسٹی کے محققین نے 20 شرکاء کو 260 بغیر لیبل والی تصاویر فراہم کیں۔ آدھی تصاویر اصلی لوگوں کی تھیں جو گوگل امیجز سے لی گئی تھیں جبکہ باقی آدھی AI جیسے ٹولز کا استعمال کرتے ہوئے تیار کی گئی تھیں جیسے Dall-E اور مستحکم بازی.

اس کے بعد شرکاء سے ان کے جوابات کا جواز پیش کرتے ہوئے، تصاویر پر لیبل لگانے کو کہا گیا، اگر وہ حقیقی ہیں یا AI سے تیار کردہ۔

اگرچہ 61% شرکاء حقیقی امیجز اور AI سے تیار کردہ امیجز کے درمیان فرق بتا سکتے تھے، لیکن یہ اب بھی متوقع 85% حد سے نیچے تھا۔

تصاویر کی جانچ پڑتال کے دوران، شرکاء نے آنکھوں، انگلیوں، دانتوں اور دیگر اشارے جیسی تفصیلات پر توجہ دی جو کہ AI کو تلاش کرتے وقت اشارے بناتے ہیں، لیکن "ان کے جائزے ہمیشہ درست نہیں ہوتے تھے۔"

"لوگ فرق کرنے میں اتنے ماہر نہیں ہیں جتنا وہ سمجھتے ہیں" نے کہا مطالعہ کی مرکزی مصنف اینڈریا پوکول، جو یونیورسٹی میں کمپیوٹر سائنس میں پی ایچ ڈی کی امیدوار بھی ہیں۔

اگرچہ انٹرنیٹ صارفین گزرتے ہوئے تصاویر کو دیکھ سکتے ہیں، واٹر لو کے محققین نے کہا کہ انہوں نے شرکاء کو تصاویر کا تجزیہ کرنے کے لیے اپنا وقت نکالنے کی اجازت دی۔

پوکول نے کہا، "وہ لوگ جو صرف ڈوم سکرول کر رہے ہیں یا ان کے پاس وقت نہیں ہے، وہ ان اشاروں کو قبول نہیں کریں گے۔"

مزید پڑھئے: لیونارڈو کے سی ای او نے ڈیووس میں AI کی دھمکیوں پر صارف کی حماقت کو اجاگر کیا۔

ٹیکنالوجی کا غلط استعمال

ان کی مطالعہ، عنوان "دیکھنا اب یقین نہیں کرنا: ڈیپ فیکس، اے آئی جنریٹڈ ہیومنز اور دیگر غیر تصدیق شدہ میڈیا پر ایک سروے" جو جرنل ایڈوانسز ان کمپیوٹر گرافکس میں شائع ہوتا ہے، جنریٹیو AI ٹیکنالوجی میں ترقی سے وابستہ خطرات کو بھی اجاگر کرتا ہے۔ .

محققین نے تشویش کے ساتھ یہ بھی نوٹ کیا کہ جنریٹو اے آئی ٹیکنالوجی تیزی سے تبدیل ہو رہی ہے، ہر گزرتے دن مزید نفیس ہوتی جا رہی ہے۔ علمی تحقیق اور قانون سازی پیدا کرنے والی صنعت میں ہونے والی پیش رفت کے ساتھ رفتار برقرار رکھنے میں ناکام ہو رہی ہے۔

پوکول نے کہا کہ AI تصاویر زیادہ حقیقی ہوتی جا رہی ہیں جس کی وجہ سے کچھ لوگوں کے لیے حقیقی اور AI سے تیار کردہ تصاویر میں آسانی سے فرق کرنا مشکل ہو گیا ہے۔ پوکول نے کہا کہ یہ برے اداکاروں کے لیے ایک زرخیز زمین تیار کر رہا ہے جو ٹیکنالوجی کا فائدہ اٹھا کر بددیانتی پھیلانے اور غلط معلومات پھیلانے یا لوگوں کو دھوکہ دے رہے ہیں۔

پوکول نے کہا، "غلط معلومات کوئی نئی بات نہیں ہے، لیکن غلط معلومات پھیلانے کے اوزار مسلسل بدلتے اور تیار ہو رہے ہیں۔"

"یہ اس مقام تک پہنچ سکتا ہے جہاں لوگ، چاہے وہ کتنے ہی تربیت یافتہ کیوں نہ ہوں، پھر بھی حقیقی تصاویر کو جعلی سے الگ کرنے کے لیے جدوجہد کریں گے۔ اس لیے ہمیں اس کی شناخت اور مقابلہ کرنے کے لیے آلات تیار کرنے کی ضرورت ہے۔ یہ ایک نئی AI ہتھیاروں کی دوڑ کی طرح ہے۔

محققین نے ٹیکنالوجی کو درپیش چیلنجوں کو بھی تسلیم کیا ہے خاص طور پر جب یہ ڈیپ فیکس کے پھیلاؤ کی بات آتی ہے۔

ٹیکنالوجی غلط ہاتھوں میں

اصلی اور جعلی تصاویر میں فرق کرنے میں عام لوگوں کو درپیش مشکلات کے ساتھ، ڈیپ فیکس کے پھیلاؤ میں اضافے کے خدشات بڑھ رہے ہیں۔ ماہرین نے خبردار کیا ہے کہ برے اداکار ووٹروں کو گمراہ کرنے کی کوششوں میں انتخابی جھوٹ پھیلانے کے لیے جنریٹیو اے آئی ٹیک کا فائدہ اٹھائیں گے۔

۔ مرکز برائے انسداد ڈیجیٹل نفرت (CCDH)، ایک غیر منفعتی ادارہ جو آن لائن نفرت انگیز تقریر پر نظر رکھتا ہے۔ نے خبردار کیا اپنی رپورٹ میں کہ اے آئی سے چلنے والے امیج جنریٹرز 2024 کے انتخابی غلط معلومات کو خراب کر رہے ہیں۔

سی سی ڈی ایچ کے محققین نے اپنی رپورٹ میں کہا، "اس طرح کی AI سے تیار کردہ تصاویر کا 'فوٹو شواہد' کے طور پر کام کرنے کی صلاحیت جھوٹے دعووں کے پھیلاؤ کو بڑھا سکتی ہے، جو کہ انتخابات کی سالمیت کے تحفظ کے لیے ایک اہم چیلنج بن سکتی ہے۔"

تاہم یہ ایک اعلان کے درمیان سامنے آیا ہے جس میں تقریباً 20 بڑی ٹیک کمپنیاں شامل ہیں۔ اوپنائی، مائیکروسافٹ، اور استحکام AI ایک معاہدے پر دستخط AI فریب دینے والے مواد کو "اس سال عالمی سطح پر ہونے والے انتخابات میں مداخلت سے روکنے کے لیے مل کر کام کرنا۔

ٹائم اسٹیمپ:

سے زیادہ میٹا نیوز