دیپ فیک های هوش مصنوعی تهدیدی برای کسب و کارها نیز هستند - در اینجا دلیل آن است - رمزگشایی

دیپ فیک های هوش مصنوعی تهدیدی برای کسب و کارها نیز هستند - در اینجا دلیل آن است - رمزگشایی

AI Deepfakes تهدیدی برای کسب و کارها نیز می باشد—در اینجا دلیل آن است – رمزگشایی اطلاعات PlatoBlockchain Intelligence. جستجوی عمودی Ai.

از آنجایی که غول‌های فناوری برای آوردن هوش مصنوعی به توده‌ها و مالکیت بازار رو به رشد رقابت می‌کنند، مسابقه تسلیحاتی هوش مصنوعی به افزایش ویدیوها و صداهای «دیپ جعلی» دامن می‌زند – محتوایی که اغلب به‌نظر می‌رسد یا به نظر می‌رسد که به‌طور قانع‌کننده‌ای مشروع به نظر می‌رسد، اما در واقع یک تقلب تقلبی است. طبق یک گزارش جدید، آنها بر مشاغل نیز تأثیر می گذارند.

دیپ‌فیک‌ها خلاقیت‌هایی مانند تصاویر، ویدیوها و صداهایی هستند که با هوش مصنوعی تولید می‌شوند تا مردم را فریب دهند. کلاهبرداران از دیپ فیک برای کلاهبرداری استفاده می کنند، اخاذی، یا به شهرت آسیب برساند. تکثیر هوش مصنوعی مولد ابزارها ایجاد محتوای جعلی را برای کلاهبرداران آسان تر از همیشه کرده است.

سلبریتی‌ها و دیگر شخصیت‌های عمومی بدون رضایت آنها در فیلم‌های مصنوعی و گاهی صریح قرار می‌گیرند، به گونه‌ای که گاهی اوقات ویروسی می‌شوند یا می‌توانند باعث وحشت در رسانه‌های اجتماعی شوند. در گزارشی که به رمزگشایی کنید، شرکت حسابداری جهانی KPMG نوشت که بخش کسب و کار نیز از تهدید دیپ فیک مصون نیست.

KPMG نوشت: محتوای Deepfake می تواند در حملات مهندسی اجتماعی و انواع دیگر حملات سایبری که شرکت ها را هدف قرار می دهند مورد استفاده قرار گیرد، در حالی که چنین محتوایی می تواند بر شهرت مشاغل و رهبران آنها نیز تأثیر بگذارد. همچنین می‌توان از اظهارات نادرست نمایندگان شرکت در طرح‌هایی برای کلاهبرداری از مشتریان یا متقاعد کردن کارکنان برای ارائه اطلاعات یا انتقال پول به عوامل غیرقانونی استفاده کرد.

KPMG مثالی در سال 2020 ذکر کرد یکی از مدیران شعبه شرکت هنگ کنگی که فریب خورده بود و 35 میلیون دلار از وجوه شرکت را به کلاهبرداران منتقل کرده بود، زیرا فکر می کرد رئیسش تلفنی است و به او دستور داده بود این کار را انجام دهد. در عوض، این بازسازی صدای سرپرست توسط هوش مصنوعی بود - همه بخشی از یک طرح پیچیده برای کلاهبرداری پول از شرکت.

پیامدهای حملات سایبری که از محتوای مصنوعی استفاده می‌کنند – محتوای دیجیتالی که برای مقاصد شوم تولید یا دستکاری شده است – می‌تواند گسترده، پرهزینه و دارای اثرات اجتماعی-اقتصادی متنوعی از جمله مالی، اعتبار، خدمات و ژئوپلیتیک باشد. گزارش می خواند.

فیلم دیپ فیک از حضور دونالد ترامپ بازداشت شد اوایل امسال ، پاپ فرانسیس پوشیدن لباس های لوکس Balenciaga و Elon مشک ترویج کلاهبرداری های رمزنگاری در سال گذشته به دلیل بهبود فناوری دیپ فیک به لطف ابزارهای هوش مصنوعی در حال توسعه، ویروسی شد.

کی‌پی‌ام‌جی نوشت: «چه تقلبی‌های ارزان قیمت باشد چه دیپ‌فیک‌ها، مدل اقتصادی به‌دلیل مدل‌های هوش مصنوعی مولد به‌طور چشمگیری تغییر کرده است».

فراتر از چهره‌های عمومی که در بالا ذکر شد، از افراد مشهور برجسته‌ای که شباهت‌هایشان به سرقت رفته و در فیلم‌های جعلی اعمال شده‌اند، می‌توان به اما واتسون بازیگر و تیلور سویفت موسیقی‌دان اشاره کرد. اما این تأثیر بالقوه بر مشاغل و رهبران گاهاً برجسته آنها است که KPMG در مورد آن زنگ خطر را به صدا در می آورد.

KPMG می‌گوید: «به عنوان یک عامل خطر، محتوای دیپ‌فیک صرفاً برای رسانه‌های اجتماعی، سایت‌های دوستیابی و صنعت سرگرمی نگران کننده نیست، بلکه اکنون یک موضوع اتاق هیئت مدیره است. به عنوان مثال، تقریباً همه پاسخ دهندگان (92٪) در نظرسنجی اخیر AI مولد KPMG از 300 مدیر اجرایی در صنایع مختلف و جغرافیایی می گویند که نگرانی آنها در مورد خطرات اجرای هوش مصنوعی مولد نسبتاً قابل توجه است.

این فقط مشاغل و افراد مشهور نیستند که با افزایش کیفیت و تعداد ویدیوهای دیپ فیک در اینترنت دست و پنجه نرم می کنند. دولت‌ها و تنظیم‌کننده‌ها نیز تأثیر بالقوه بر جامعه و انتخابات را در نظر می‌گیرند، در حالی که سازندگان چنین ابزارهای هوش مصنوعی در حال سنجش تأثیر منفی بالقوه آنها هستند.

هفته گذشته، کمیسیون انتخابات فدرال ایالات متحده، با پیش بینی استفاده از دیپ فیک در انتخابات 2024، با دادخواست منع استفاده از هوش مصنوعی در تبلیغات کمپین

در صورت تایید، آژانس مقررات فعلی را در مورد تقلب تقلبی از «مرجع کمپین» اصلاح می‌کند و روشن می‌کند که این ممنوعیت در مورد تبلیغات کمپین هوش مصنوعی عمدی فریبنده اعمال می‌شود.

متیو میلر، مدیر خدمات امنیت سایبری در KPMG، گفت: «قانون‌گذاران باید به درک و بررسی تأثیر تهدیدات در حال تحول بر مقررات موجود ادامه دهند. رمزگشایی کنید. الزامات پیشنهادی برای برچسب‌گذاری و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی می‌تواند تاثیر مثبتی داشته باشد.

در ماه جولای، محققان MIT پیشنهاد شده افزودن تغییرات کد به مدل‌های انتشار بزرگ برای کاهش خطر دیپ‌فیک، با افزودن تغییرات کوچکی که به سختی قابل مشاهده هستند، اما در نهایت نحوه عملکرد مدل‌ها را تغییر می‌دهند و باعث می‌شوند تصاویری تولید کنند که واقعی به نظر نمی‌رسند. متا، در همین حال، اخیرا یک ابزار هوش مصنوعی را عقب نگه داشت به دلیل پتانسیل دیپ فیک آن

هیجان در مورد پتانسیل خلاقانه ابزارهای مولد هوش مصنوعی با درک اینکه آنها می توانند به طور مشابه فرصت هایی برای محتوای مخرب ایجاد کنند، کاهش یافته است. در نهایت، در میان پیشرفت های سریع برای چنین ابزارهایی، میلر از همه خواست تا در مورد پتانسیل محتوای جعلی هوشیار باشند.

او گفت: «مردم باید هوشیاری مستمر خود را هنگام تعامل از طریق کانال‌های دیجیتال حفظ کنند رمزگشایی "آگاهی از موقعیت و عقل سلیم راه طولانی برای جلوگیری از وقوع یک حادثه است. اگر چیزی "احساس درستی نداشته باشد"، به احتمال زیاد فعالیت مخربی دارد."

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

تمبر زمان:

بیشتر از رمزگشایی کنید