اینتل می‌گوید که می‌تواند انسان‌های زنده را در هوش داده‌های PlatoBlockchain بلادرنگ از بین دیپ‌فیک‌ها دسته‌بندی کند. جستجوی عمودی Ai.

اینتل می‌گوید که می‌تواند انسان‌های زنده را از دیپ‌فیک‌ها در زمان واقعی دسته‌بندی کند

اینتل ادعا می‌کند که یک مدل هوش مصنوعی توسعه داده است که می‌تواند با جستجوی تغییرات ظریف در رنگ که اگر سوژه یک انسان زنده باشد، در زمان واقعی تشخیص دهد که آیا یک ویدیو از فناوری دیپ‌فیک استفاده می‌کند یا خیر.

FakeCatcher توسط غول تراشه‌ساز ادعا می‌شود که می‌تواند نتایج را در میلی‌ثانیه برگرداند و نرخ دقت 96 درصدی دارد.

وجود داشته است علاقه در سال‌های اخیر در مورد ویدیوهای به اصطلاح دیپ‌فیک، که از الگوریتم‌های هوش مصنوعی برای تولید فیلم جعلی از افراد استفاده می‌کنند. نگرانی اصلی بر این بوده است که به طور بالقوه مورد استفاده قرار می گیرد تا سیاستمداران یا افراد مشهور به نظر برسند که اظهاراتی را بیان می کنند یا کارهایی را انجام می دهند که واقعاً نگفته یا انجام نداده اند.

«ویدیوهای Deepfake اکنون همه جا هستند. احتمالا قبلاً آنها را دیده اید. ایلکه دمیر، دانشمند تحقیقاتی کارکنان آزمایشگاه اینتل، گفت: ویدیوهایی از افراد مشهور که کارهایی را انجام می‌دهند یا می‌گویند که هرگز انجام نداده‌اند. و حتی افراد مشهور را نیز تحت تاثیر قرار نمی دهد شهروندان عادی قربانی شده اند.

به گفته سازنده تراشه، برخی از آشکارسازهای مبتنی بر یادگیری عمیق، داده‌های ویدئویی خام را تجزیه و تحلیل می‌کنند تا نشانه‌هایی پیدا کنند که آن را جعلی تشخیص دهد. در مقابل، FakeCatcher رویکرد متفاوتی را اتخاذ می‌کند، که شامل تجزیه و تحلیل ویدیوهای واقعی برای نشانه‌های بصری است که نشان می‌دهد موضوع واقعی است.

این شامل تغییرات ظریف در رنگ در پیکسل های یک ویدیو به دلیل جریان خون از قلب است که خون را در سراسر بدن پمپ می کند. به گفته اینتل، این سیگنال‌های جریان خون از سرتاسر صورت جمع‌آوری می‌شوند و الگوریتم‌ها این سیگنال‌ها را به نقشه‌های فضایی-زمانی ترجمه می‌کنند و یک مدل یادگیری عمیق را قادر می‌سازد تا واقعی بودن یا نبودن یک ویدیو را تشخیص دهد. برخی از ابزارهای تشخیص نیاز به آپلود محتوای ویدیویی برای تجزیه و تحلیل دارند و سپس ساعت ها منتظر نتایج هستند.

با این حال، تصور اینکه هر کسی با انگیزه ایجاد تقلبی ویدیویی ممکن است بتواند الگوریتم هایی را توسعه دهد که بتواند FakeCatcher را فریب دهد، با توجه به زمان و منابع کافی، فراتر از قلمرو امکان نیست.

اینتل طبیعتاً به اندازه کافی از فناوری های خود در توسعه FakeCatcher استفاده گسترده ای کرده است، از جمله جعبه ابزار منبع باز OpenVINO برای بهینه سازی مدل های یادگیری عمیق و OpenCV برای پردازش تصاویر و ویدیوهای بلادرنگ. تیم های توسعه دهنده همچنین از پلتفرم Open Visual Cloud برای ارائه یک پشته نرم افزاری یکپارچه برای پردازنده های Xeon Scalable اینتل استفاده کردند. نرم افزار FakeCatcher می تواند تا 72 جریان تشخیص مختلف را به طور همزمان روی پردازنده های Xeon Scalable نسل سوم اجرا کند.

به گفته اینتل، چندین مورد استفاده بالقوه برای FakeCatcher وجود دارد، از جمله جلوگیری از آپلود ویدیوهای مضر دیپ فیک در رسانه های اجتماعی و کمک به سازمان های خبری برای جلوگیری از پخش محتوای دستکاری شده. ®

تمبر زمان:

بیشتر از ثبت نام