يمكن التغلب على التزييف العميق في الوقت الحقيقي بنظرة جانبية PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

يمكن التغلب على التزييف العميق في الوقت الفعلي بنظرة جانبية

يبدو أن مقاطع الفيديو المزيفة العميقة في الوقت الفعلي ، التي يُنذر بها على أنها مصدر لعصر جديد من عدم اليقين على الإنترنت ، بها عيب أساسي: لا يمكنها التعامل مع الملفات الشخصية الجانبية.

هذا هو الاستنتاج الذي تم التوصل إليه في ملف تقرير [PDF] من Metaphysic.ai ، المتخصصة في الصور الرمزية ثلاثية الأبعاد وتقنية التزييف العميق وتقديم الصور ثلاثية الأبعاد من الصور ثنائية الأبعاد. في الاختبارات التي أجرتها باستخدام تطبيق الزيف العميق الشهير في الوقت الحقيقي ديب فيس لايف، فإن الانعطاف الصعب إلى الجانب جعل الأمر واضحًا بسهولة أن الشخص الذي يظهر على الشاشة لم يكن كما يبدو. 

تم استخدام نماذج متعددة في الاختبار - العديد من مجتمعات ونماذج التزييف العميق المضمنة في DeepFaceLive - لكن عرض 90 درجة للوجه تسبب في حدوث وميض وتشويه لأن شبكة محاذاة الوجه المستخدمة لتقدير الوضعيات تكافح لمعرفة ما كانت تراه. 

زوج من الصور من اختبارات Metaphysic تُظهر جيم كاري ، ونتيجة الانعطاف إلى الجانب.

قال مارتن أندرسون ، أحد المساهمين في Metaphysic.ai ، الذي كتب الدراسة: "معظم خوارزميات محاذاة الوجه ثنائية الأبعاد تخصص 2-50 بالمائة فقط من عدد المعالم من عرض أمامي للوجه إلى عرض ملف شخصي". بلوق وظيفة.

بدون القدرة على رؤية نقاط مرجعية كافية ، لا يعرف البرنامج ببساطة كيفية إبراز وجهه المزيف.

التزييف العميق عن مساره

في غضون بضع سنوات فقط ، تطورت تقنية التزييف العميق من القدرة على تركيب الوجوه على الصور ، إلى فعل الشيء نفسه في الفيديو المسجل مسبقًا. تسمح أحدث التطورات بتبديل الوجه في الوقت الفعلي ، مما أدى إلى استخدام المزيد من عمليات التزييف العميق في الاحتيال عبر الإنترنت والجرائم الإلكترونية.

A دراسة وجد من VMware أن ثلثي المستجيبين واجهوا مزيفًا عميقًا خبيثًا كجزء من هجوم ، بزيادة قدرها 13 بالمائة عن العام السابق. لاحظ أن دراسة VMware لم تحدد ما إذا كانت هجمات التزييف العميق التي واجهها المستجيبون مسجلة مسبقًا أو في الوقت الفعلي ، وكان حجم عينة من 125 شخصًا فقط.

حذر مكتب التحقيقات الفدرالي في يونيو من المحتالين الذين يستخدمون تقنية التزييف العميق خلال مقابلات العمل عن بعد. وقال مكتب التحقيقات الفدرالي إن أولئك الذين يستخدمون هذه التقنية رصدوا مقابلات لوظائف حساسة من شأنها أن تمنحهم إمكانية الوصول إلى بيانات العملاء والمعلومات الخاصة بالشركات. 

كما تم استخدام مقاطع فيديو Deepfake لخداع برامج التعرف على الوجه الحية ، بالنسبة الى إلى شركة Sensity AI الناشئة لمكافحة الاحتيال عبر الإنترنت. وجدت اختبارات Sensity أنه تم فتح تسعة تطبيقات من بين كل عشرة بائعين بنجاح باستخدام فيديو تم تغييره بواسطة تقنية التزييف العميق يتم بثه من هاتف محمول.

أصبحت المخاوف بشأن التكنولوجيا خطيرة بما يكفي بالنسبة للاتحاد الأوروبي تمرير القوانين فرض غرامات على الشركات التي تفشل في محاربة التزييف العميق ومصادر التضليل الأخرى بشكل كافٍ. صاغت الصين أيضا قوانين التزييف العميق التي تهدد بعقوبة قانونية على إساءة استخدام التكنولوجيا ، فضلاً عن المطالبة بمنح الإذن لأي استخدام شرعي للتزييف العميق ، وهو ما تسميه الصين "التوليف العميق". 

حل إلى متى؟

وفقًا لتقرير Metaphysic ، حتى التكنولوجيا مثل Nvidia مجال الإشعاع العصبي (NeRF) ، الذي يمكنه إنشاء مشهد ثلاثي الأبعاد من عدد قليل من الصور الثابتة ، يعاني من قيود تجعل من الصعب تطوير عرض جانبي جيد للملف الشخصي. 

يمكن لـ NeRFs "من الناحية النظرية ، استقراء أي عدد من زوايا الوجه من مجرد عدد قليل من الصور. [ومع ذلك] فإن المشكلات المتعلقة بالدقة وحركة الوجه والاستقرار الزمني تعيق NeRF من إنتاج البيانات الثرية اللازمة لتدريب نموذج مشفر تلقائي يمكنه التعامل مع صور الملف الشخصي بشكل جيد "، كتب أندرسون. لقد تواصلنا مع Nvidia لمعرفة المزيد ، لكننا لم نتلق ردًا بعد. 

سيلاحظ القراء أن مظاهرات Metaphysic تضمنت فقط وجوه المشاهير ، والتي تم التقاط الكثير من مشاهدات الملف الشخصي في الأفلام والصور. من ناحية أخرى ، من غير المحتمل أن يكون لدى غير المشهورين بيننا العديد من اللقطات الجانبية في متناول اليد.

كتب أندرسون: "ما لم يتم القبض عليك في وقت ما ، فمن المحتمل أنه ليس لديك حتى صورة واحدة من هذا القبيل ، سواء على وسائل التواصل الاجتماعي أو في مجموعة غير متصلة بالإنترنت".

وجد Gaurav Oberoi ، مهندس برمجيات ومؤسس شركة AI startup Lexion ، الشيء نفسه عند البحث عن التزييف العميق في عام 2018. في a نشر على مدونته، أوبيروي بالتفصيل كيف أن التزييف العميق للممثل الكوميدي جون أوليفر كان يعمل بشكل جيد ، ولكن ليس في الملف الشخصي.

قال أوبيروي: "بشكل عام ، تحتاج صور التدريب لهدفك إلى تقريب الاتجاه وتعبيرات الوجه والإضاءة في مقاطع الفيديو التي تريد لصقها بها". "لذلك ، إذا كنت تقوم بإنشاء أداة تبديل الوجه للشخص العادي ، نظرًا لأن معظم الصور ستكون مواجهة للأمام ، فحد من عمليات تبديل الوجوه في مقاطع الفيديو المواجهة للأمام في الغالب."

ما يعنيه ذلك ، في الواقع ، هو أن المحتالين الذين يستخدمون تقنية التزييف العميق في الوقت الفعلي من غير المرجح أن يكون لديهم البيانات اللازمة لإنشاء عرض ملف تعريف جانبي لا يمكن التعرف عليه على الفور على أنه مزيف (بشرط ألا يستخدموا وجهًا مشهورًا مصورًا جيدًا) . 

إلى أن نعرف أن المتصفحين العميقين قد وجدوا طريقة للتغلب على هذا النقص ، فمن الجيد أن تتبنى سياسة مطالبة الشخص الموجود على الطرف الآخر من Zoom أن يظهر لك منظرًا جانبيًا لوجهه - سواء كان مشهورًا أم لا. ®

الطابع الزمني:

اكثر من السجل