انٹیل کا کہنا ہے کہ وہ زندہ انسانوں کو ریئل ٹائم پلیٹو بلاکچین ڈیٹا انٹیلی جنس میں ڈیپ فیکس سے ترتیب دے سکتا ہے۔ عمودی تلاش۔ عی

انٹیل کا کہنا ہے کہ وہ حقیقی وقت میں ڈیپ فیکس سے زندہ انسانوں کو ترتیب دے سکتا ہے۔

انٹیل کا دعویٰ ہے کہ اس نے ایک AI ماڈل تیار کیا ہے جو حقیقی وقت میں پتہ لگا سکتا ہے کہ آیا کوئی ویڈیو رنگ میں لطیف تبدیلیوں کو دیکھ کر ڈیپ فیک ٹیکنالوجی کا استعمال کر رہی ہے جو واضح ہو جائے گی کہ اگر موضوع کوئی زندہ انسان ہوتا۔

FakeCatcher کا دعویٰ chipmaking وشال نے کیا ہے کہ وہ ملی سیکنڈ میں نتائج واپس کرنے کے قابل ہے اور اس کی درستگی کی شرح 96 فیصد ہے۔

وہاں رہا ہے تشویش حالیہ برسوں میں نام نہاد ڈیپ فیک ویڈیوز، جو لوگوں کی جعلی فوٹیج بنانے کے لیے AI الگورتھم کا استعمال کرتی ہیں۔ اہم تشویش اس بات پر مرکوز ہے کہ ممکنہ طور پر سیاست دانوں یا مشہور شخصیات کو ایسے بیانات دینے یا ایسے کام کرنے کے لیے استعمال کیا جا رہا ہے جو انہوں نے حقیقت میں نہیں کہا یا کیا ہے۔

"ڈیپ فیک ویڈیوز اب ہر جگہ ہیں۔ آپ شاید انہیں پہلے ہی دیکھ چکے ہوں گے۔ انٹیل لیبز کے عملے کے تحقیقی سائنسدان ایلکے ڈیمیر نے کہا کہ مشہور شخصیات کی ایسی ویڈیوز یا باتیں جو انہوں نے حقیقت میں کبھی نہیں کیں۔ اور یہ صرف مشہور شخصیات کو بھی متاثر نہیں کر رہا ہے۔ عام شہری شکار ہوئے ہیں.

چپ میکر کے مطابق، کچھ گہری سیکھنے پر مبنی ڈٹیکٹر خام ویڈیو ڈیٹا کا تجزیہ کرتے ہیں تاکہ بتائی جانے والی علامات کو تلاش کرنے کی کوشش کی جا سکے جو اسے جعلی کے طور پر شناخت کریں گے۔ اس کے برعکس، FakeCatcher ایک مختلف طریقہ اختیار کرتا ہے، جس میں بصری اشارے کے لیے حقیقی ویڈیوز کا تجزیہ کرنا شامل ہے جو اس بات کی نشاندہی کرتے ہیں کہ موضوع اصلی ہے۔

اس میں جسم کے ارد گرد خون پمپ کرنے والے دل سے خون کے بہاؤ کی وجہ سے ویڈیو کے پکسلز میں رنگ میں ٹھیک ٹھیک تبدیلیاں شامل ہیں۔ انٹیل نے کہا کہ یہ خون کے بہاؤ کے سگنل پورے چہرے سے اکٹھے کیے جاتے ہیں اور الگورتھم ان کا ترجمہ spatiotemporal نقشوں میں کرتے ہیں۔ کچھ پتہ لگانے والے ٹولز کے لیے ویڈیو مواد کو تجزیہ کے لیے اپ لوڈ کرنے کی ضرورت ہوتی ہے، پھر نتائج کے لیے گھنٹوں انتظار کرنا پڑتا ہے۔

تاہم، یہ تصور کرنا امکان کے دائرے سے باہر نہیں ہے کہ کوئی بھی ویڈیو جعلی بنانے کے مقاصد کے ساتھ الگورتھم تیار کرنے کے قابل ہو سکتا ہے جو کافی وقت اور وسائل کے پیش نظر، FakeCatcher کو بے وقوف بنا سکتا ہے۔

Intel نے قدرتی طور پر FakeCatcher تیار کرنے میں اپنی ٹیکنالوجیز کا کافی استعمال کیا ہے، بشمول OpenVINO اوپن سورس ٹول کٹ ڈیپ لرننگ ماڈلز کو بہتر بنانے کے لیے اور OpenCV ریئل ٹائم امیجز اور ویڈیوز پر کارروائی کرنے کے لیے۔ ڈویلپر ٹیموں نے Intel کے Xeon Scalable پروسیسرز کے لیے ایک مربوط سافٹ ویئر اسٹیک فراہم کرنے کے لیے Open Visual Cloud پلیٹ فارم کا بھی استعمال کیا۔ FakeCatcher سافٹ ویئر 72rd Gen Xeon Scalable پروسیسرز پر بیک وقت 3 مختلف ڈیٹیکشن اسٹریمز چلا سکتا ہے۔

Intel کے مطابق، FakeCatcher کے استعمال کے کئی ممکنہ معاملات ہیں، جن میں صارفین کو سوشل میڈیا پر نقصان دہ ڈیپ فیک ویڈیوز اپ لوڈ کرنے سے روکنا، اور خبر رساں اداروں کو ہیرا پھیری والے مواد کو نشر کرنے سے بچنے میں مدد کرنا شامل ہے۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر