مایکروسافت از فناوری دیپ‌فیک رونمایی می‌کند که برای انتشار خیلی خوب است

مایکروسافت از فناوری دیپ‌فیک رونمایی می‌کند که برای انتشار خیلی خوب است

مایکروسافت از فناوری دیپ‌فیک رونمایی می‌کند که برای انتشار اطلاعات PlatoBlockchain بسیار خوب است. جستجوی عمودی Ai.

مایکروسافت این هفته VASA-1 را به نمایش گذاشت، چارچوبی برای ایجاد ویدیوهایی از افرادی که از تصویر ثابت، نمونه صوتی و متن متن صحبت می‌کنند، و ادعا می‌کند - به درستی - برای انتشار عمومی بسیار خطرناک است.

این ویدیوهای تولید شده توسط هوش مصنوعی، که در آن افراد می‌توانند به شکل متقاعدکننده‌ای متحرک شوند تا کلمات متن‌شده را با صدایی شبیه‌سازی شده بیان کنند، چیزی است که کمیسیون تجارت فدرال ایالات متحده انجام می‌دهد. هشدار داد ماه گذشته، پس از گذشته پیشنهاد یک قانون برای جلوگیری از استفاده از فناوری هوش مصنوعی برای جعل هویت.

تیم مایکروسافت به همان اندازه در خود تصدیق می کند خبر، که توضیح می دهد که این فناوری به دلیل ملاحظات اخلاقی منتشر نمی شود. آنها اصرار دارند که تحقیقاتی را برای تولید شخصیت‌های تعاملی مجازی ارائه می‌کنند و نه برای جعل هویت. به این ترتیب، هیچ محصول یا API برنامه ریزی شده ای وجود ندارد.

Redmond boffins می‌گوید: «تحقیق ما بر ایجاد مهارت‌های عاطفی بصری برای آواتارهای مجازی هوش مصنوعی، با هدف برنامه‌های کاربردی مثبت متمرکز است. هدف آن ایجاد محتوایی نیست که برای گمراه کردن یا فریب دادن استفاده می شود.

با این حال، مانند سایر تکنیک‌های تولید محتوای مرتبط، همچنان می‌توان از آن برای جعل هویت انسان‌ها سوء استفاده کرد. ما با هر گونه رفتاری برای ایجاد محتوای گمراه کننده یا مضر از افراد واقعی مخالفیم و علاقه مند به استفاده از تکنیک خود برای پیشبرد کشف جعل هستیم.

کوین سریس، رئیس توکن، متخصص احراز هویت بیومتریک، و سخنران مکرر در زمینه هوش مصنوعی مولد، گفت: ثبت نام در ایمیلی مبنی بر اینکه در حالی که قبلاً نمایش‌های فناوری از چهره‌های متحرک از فریم ثابت و فایل صوتی شبیه‌سازی شده وجود داشته است، نمایش مایکروسافت نشان‌دهنده وضعیت هنر است.

او اظهار داشت: «پیامدهای شخصی‌سازی ایمیل‌ها و سایر ارتباطات جمعی تجاری شگفت‌انگیز است. «حتی متحرک کردن تصاویر قدیمی‌تر نیز. تا حدودی این فقط سرگرم کننده است و تا حدودی دارای برنامه های تجاری قوی است که همه ما در ماه ها و سال های آینده از آن استفاده خواهیم کرد.

"سرگرم کننده" دیپ فیک 96 درصد پورن غیر توافقی بود ارزیابی [PDF] در سال 2019 توسط شرکت امنیت سایبری Deeptrace.

با این وجود، محققان مایکروسافت پیشنهاد می‌کنند که توانایی خلق افراد با ظاهر واقع‌بینانه و قرار دادن کلمات در دهان آنها، کاربردهای مثبتی دارد.

آنها در یک پیشنهاد می‌گویند: «چنین فناوری نوید غنی‌سازی ارتباطات دیجیتال، افزایش دسترسی برای افراد دارای اختلالات ارتباطی، تغییر آموزش، روش‌های آموزش تعاملی هوش مصنوعی، و ارائه حمایت درمانی و تعامل اجتماعی در مراقبت‌های بهداشتی را دارد. مقاله تحقیقاتی که حاوی کلمات "پورن" یا "اطلاعات غلط" نیست.

در حالی که قابل بحث است که ویدیوی تولید شده توسط هوش مصنوعی کاملاً مشابه یک دیپ فیک نیست، دومی مشخص با دستکاری دیجیتال بر خلاف روش مولد، تمایز زمانی بی اهمیت می شود که یک جعلی متقاعد کننده بدون پیوند برش و چسباندن ایجاد شود.

Surace در پاسخ به این سوال که او از این واقعیت که مایکروسافت به دلیل ترس از سوء استفاده این فناوری را در اختیار عموم قرار نمی دهد، چه می گوید، در مورد قابل اجرا بودن محدودیت ها ابراز تردید کرد.

او گفت: «مایکروسافت و سایرین فعلاً تا زمانی که مسائل مربوط به حریم خصوصی و استفاده را حل نکنند، عقب نشینی کرده اند. "کسی که از این به دلایل درست استفاده می کند چگونه تنظیم می کند؟"

Surace اضافه کرد که در حال حاضر مدل های منبع باز وجود دارند که به طور مشابه پیچیده هستند و به آن اشاره می کند EMO. او می‌گوید: «می‌توان کد منبع را از GitHub بیرون کشید و سرویسی پیرامون آن ساخت که احتمالاً با خروجی مایکروسافت رقابت کند. به دلیل منبع باز بودن فضا، تنظیم آن در هر صورت غیرممکن خواهد بود.

با این حال، کشورهای سراسر جهان در تلاش هستند تا افراد ساخته شده با هوش مصنوعی را تنظیم کنند. Canada, چین، و UKدر میان سایر کشورها، همگی مقرراتی دارند که می‌توانند برای دیپ‌فیک‌ها اعمال شوند، که برخی از آنها اهداف سیاسی گسترده‌تری را برآورده می‌کنند. بریتانیا همین هفته آن را غیرقانونی کرد برای ایجاد یک تصویر عمیق جعلی صریح جنسی بدون رضایت. به اشتراک گذاری چنین تصاویری قبلاً تحت قانون ایمنی آنلاین بریتانیا در سال 2023 ممنوع بود.

در ژانویه، یک گروه دو حزبی از قانونگذاران ایالات متحده معرفی قانون تصاوير صريح جعل شده و ويرايش‌هاي غير توافقي سال 2024 (قانون DEFIANCE)، لايحه‌اي كه راهي را براي قربانيان تصاوير جعلي غيرقانوني ايجاد مي‌كند تا دعوي مدني را در دادگاه مطرح كنند.

و در روز سه شنبه، 16 آوریل، کمیته قضایی سنای ایالات متحده، کمیته فرعی حریم خصوصی، فناوری و قانون برگزار شد. استماع با عنوان «نظارت بر هوش مصنوعی: جعل‌های عمیق انتخاباتی».

در اظهارات آماده شده، Rijul Gupta، مدیر عامل DeepMedia، یک متخصص تشخیص دیپ فیک، گفت:

نگران کننده ترین جنبه دیپ فیک توانایی آنها در ارائه قابلیت انکار قابل قبول برای بازیگران بد است که به آنها امکان می دهد محتوای واقعی را به عنوان جعلی رد کنند. این فرسایش اعتماد عمومی به هسته ساختار اجتماعی و پایه های دموکراسی ما ضربه می زند. مغز انسان که برای باور آنچه می بیند و می شنود، به طور خاص در برابر فریب دیپ فیک آسیب پذیر است. از آنجایی که این فناوری‌ها به طور فزاینده‌ای پیچیده می‌شوند، آن‌ها تهدیدی برای تضعیف حس مشترک واقعیت که زیربنای جامعه ماست، ایجاد فضایی از عدم اطمینان و شک می‌کنند که در آن شهروندان صحت هر قطعه اطلاعاتی را که با آن مواجه می‌شوند زیر سوال می‌برند.

اما به برنامه های بازاریابی فکر کنید. ®

تمبر زمان:

بیشتر از ثبت نام