دیپ‌فیک‌های بی‌درنگ را می‌توان با یک نگاه جانبی به هوش داده پلاتوبلاک چین شکست داد. جستجوی عمودی Ai.

دیپ فیک های بلادرنگ را می توان با یک نگاه جانبی شکست داد

به نظر می رسد ویدیوهای دیپ فیک بلادرنگ، که به عنوان ایجاد کننده عصر جدیدی از عدم قطعیت اینترنتی معرفی شده اند، دارای یک نقص اساسی هستند: آنها نمی توانند نمایه های جانبی را مدیریت کنند.

این نتیجه ای است که در a گزارش [PDF] از Metaphysic.ai، که در آواتارهای سه بعدی، فناوری دیپ فیک و ارائه تصاویر سه بعدی از عکس های دو بعدی تخصص دارد. در آزمایشاتی که با استفاده از اپلیکیشن محبوب دیپ‌فیک بلادرنگ انجام داد DeepFaceLive، چرخش سخت به پهلو به راحتی نشان داد که شخص روی صفحه آن چیزی نیست که به نظر می رسد. 

چندین مدل در این آزمایش مورد استفاده قرار گرفتند - چندین مدل از جوامع عمیق و مدل‌های موجود در DeepFaceLive - اما یک نمای 90 درجه از چهره باعث لرزش و اعوجاج شد زیرا شبکه همترازی چهره برای تخمین ژست‌ها تلاش می‌کرد تا بفهمد چه چیزی می‌بیند. 

یک جفت تصویر از آزمایش‌های متافیزیک که جیم کری عمیق‌فک شده و نتیجه چرخش به پهلو را نشان می‌دهد.

مارتین اندرسون، یکی از همکاران Metaphysic.ai، که این مطالعه را نوشته است، گفت: «بیشتر الگوریتم‌های تراز چهره مبتنی بر دوبعدی، تنها 2 تا 50 درصد از تعداد نشانه‌ها را از نمای روبرو به نمای نمایه اختصاص می‌دهند. پست های وبلاگ.

بدون اینکه بتواند نقاط مرجع کافی را ببیند، نرم افزار به سادگی نمی داند چگونه چهره جعلی خود را نمایش دهد.

دیپ فیک های خروج از ریل

در عرض چند سال، دیپ‌فیک‌ها از توانایی قرار دادن چهره‌ها بر روی تصاویر به انجام همین کار در ویدیوهای از پیش ضبط‌شده پیشرفت کرده‌اند. آخرین پیشرفت‌ها امکان تعویض چهره در زمان واقعی را فراهم می‌کند، که منجر به استفاده از دیپ‌فیک‌های بیشتری در کلاهبرداری آنلاین و جرایم سایبری شده است.

A مطالعه از VMware دریافت که دو سوم از پاسخ دهندگان به عنوان بخشی از یک حمله با دیپ فیک های مخرب مواجه شدند که نسبت به سال قبل 13 درصد افزایش داشت. توجه داشته باشید که مطالعه VMware مشخص نکرده است که حملات دیپ‌فیکی که پاسخ‌دهندگان با آن‌ها مواجه شده‌اند، از قبل ضبط شده‌اند یا زمان واقعی، و تنها حجم نمونه 125 نفر را در خود جای داده است.

FBI در ماه ژوئن نسبت به کلاهبردارانی که از فناوری دیپ فیک استفاده می کنند هشدار داد در طول مصاحبه های شغلی از راه دور. اف‌بی‌آی گفت، افرادی که از این تکنیک استفاده می‌کنند در حال مصاحبه برای مشاغل حساس هستند که به آنها امکان دسترسی به داده‌های مشتریان و اطلاعات اختصاصی کسب‌وکارها را می‌دهد. 

همچنین از ویدیوهای Deepfake برای فریب دادن نرم افزارهای تشخیص چهره زنده استفاده شده است. مطابق به استارتاپ آنلاین مبارزه با تقلب Sensity AI. آزمایش‌های Sensity نشان داد که نه برنامه از هر ده برنامه فروشنده با موفقیت با استفاده از یک ویدیوی تغییر یافته عمیق که از تلفن همراه پخش می‌شد، باز شد.

ترس از این فناوری به اندازه کافی برای اتحادیه اروپا جدی شده است تصویب قوانین اعمال جریمه برای شرکت هایی که به اندازه کافی با دیپ فیک ها و سایر منابع اطلاعات نادرست مبارزه نمی کنند. چین نیز پیش نویس قوانین عمیق جعلی که تهدیدی برای مجازات قانونی برای استفاده نادرست از فناوری، و همچنین نیاز به اعطای مجوز برای هرگونه استفاده مشروع از دیپ فیک است، که چین آن را "سنتز عمیق" می نامد. 

راه حل برای چه مدت؟

طبق گزارش Metaphysic، حتی فناوری هایی مانند Nvidia میدان تابش عصبی (NeRF)، که می‌تواند یک صحنه سه‌بعدی را تنها از چند عکس ثابت ایجاد کند، از محدودیت‌هایی رنج می‌برد که ایجاد نمای جانبی خوب را دشوار می‌کند. 

NeRF ها از نظر تئوری می توانند هر تعداد از زوایای صورت را تنها از تعداد انگشت شماری عکس برون یابی کنند. [با این حال] مسائل مربوط به وضوح، تحرک صورت و ثبات زمانی مانع NeRF از تولید داده های غنی مورد نیاز برای آموزش یک مدل رمزگذار خودکار که می تواند تصاویر نمایه را به خوبی مدیریت کند، می شود. ما برای کسب اطلاعات بیشتر با انویدیا تماس گرفتیم، اما هنوز چیزی نشنیده ایم. 

خوانندگان متوجه خواهند شد که تظاهرات متافیزیک فقط شامل چهره‌های مشهور بود که تعداد زیادی از نمایه‌های آن‌ها در فیلم و عکس ثبت شده است. از سوی دیگر، افراد غیر مشهور در میان ما، بعید به نظر می‌رسند که عکس‌های پروفایل جانبی زیادی در دست داشته باشند.

اندرسون می‌نویسد: «مگر زمانی که دستگیر شده باشید، احتمالاً حتی یک عکس از این دست، چه در شبکه‌های اجتماعی و چه در مجموعه‌ای آفلاین، ندارید».

Gaurav Oberoi، مهندس نرم‌افزار و موسس استارت‌آپ هوش مصنوعی Lexion، در سال 2018 هنگام تحقیق در مورد دیپ‌فیک‌ها تقریباً همین را دریافت کرد. در وبلاگ خود پست کند، اوبروی توضیح داد که چگونه دیپ فیک های کمدین جان الیور که بر مجری شب گذشته جیمی فالون سوار شده بود به خوبی کار می کرد، اما نه در نمایه.

Oberoi گفت: "به طور کلی، تصاویر آموزشی از هدف شما باید جهت گیری، حالات چهره و نور را در ویدئوهایی که می خواهید آنها را در آن بچسبانید، تقریبی داشته باشند." بنابراین اگر در حال ساخت ابزار تعویض چهره برای افراد معمولی هستید، با توجه به اینکه بیشتر عکس‌های آن‌ها رو به جلو هستند، تعویض چهره را به ویدیوهای بیشتر رو به جلو محدود کنید.»

در واقع به این معنی است که کلاهبردارانی که از دیپ‌فیک‌های بلادرنگ استفاده می‌کنند، بعید به نظر می‌رسد که داده‌های لازم برای ایجاد نمای نمای جانبی را داشته باشند که بلافاصله به‌عنوان جعلی قابل تشخیص نباشد (البته به شرطی که از یک چهره مشهور با عکاسی خوب استفاده نکنند). . 

تا زمانی که ندانیم دیپ‌فکرها راهی برای رفع این نقص پیدا نکرده‌اند، بهتر است این خط مشی را اتخاذ کنیم که از فرد آن طرف زوم بخواهیم نمای جانبی از چهره‌اش را به شما نشان دهد - معروف یا غیرمشهور. ®

تمبر زمان:

بیشتر از ثبت نام