از آنجایی که غولهای فناوری برای آوردن هوش مصنوعی به تودهها و مالکیت بازار رو به رشد رقابت میکنند، مسابقه تسلیحاتی هوش مصنوعی به افزایش ویدیوها و صداهای «دیپ جعلی» دامن میزند – محتوایی که اغلب بهنظر میرسد یا به نظر میرسد که بهطور قانعکنندهای مشروع به نظر میرسد، اما در واقع یک تقلب تقلبی است. طبق یک گزارش جدید، آنها بر مشاغل نیز تأثیر می گذارند.
دیپفیکها خلاقیتهایی مانند تصاویر، ویدیوها و صداهایی هستند که با هوش مصنوعی تولید میشوند تا مردم را فریب دهند. کلاهبرداران از دیپ فیک برای کلاهبرداری استفاده می کنند، اخاذی، یا به شهرت آسیب برساند. تکثیر هوش مصنوعی مولد ابزارها ایجاد محتوای جعلی را برای کلاهبرداران آسان تر از همیشه کرده است.
سلبریتیها و دیگر شخصیتهای عمومی بدون رضایت آنها در فیلمهای مصنوعی و گاهی صریح قرار میگیرند، به گونهای که گاهی اوقات ویروسی میشوند یا میتوانند باعث وحشت در رسانههای اجتماعی شوند. در گزارشی که به رمزگشایی کنید، شرکت حسابداری جهانی KPMG نوشت که بخش کسب و کار نیز از تهدید دیپ فیک مصون نیست.
KPMG نوشت: محتوای Deepfake می تواند در حملات مهندسی اجتماعی و انواع دیگر حملات سایبری که شرکت ها را هدف قرار می دهند مورد استفاده قرار گیرد، در حالی که چنین محتوایی می تواند بر شهرت مشاغل و رهبران آنها نیز تأثیر بگذارد. همچنین میتوان از اظهارات نادرست نمایندگان شرکت در طرحهایی برای کلاهبرداری از مشتریان یا متقاعد کردن کارکنان برای ارائه اطلاعات یا انتقال پول به عوامل غیرقانونی استفاده کرد.
KPMG مثالی در سال 2020 ذکر کرد یکی از مدیران شعبه شرکت هنگ کنگی که فریب خورده بود و 35 میلیون دلار از وجوه شرکت را به کلاهبرداران منتقل کرده بود، زیرا فکر می کرد رئیسش تلفنی است و به او دستور داده بود این کار را انجام دهد. در عوض، این بازسازی صدای سرپرست توسط هوش مصنوعی بود - همه بخشی از یک طرح پیچیده برای کلاهبرداری پول از شرکت.
پیامدهای حملات سایبری که از محتوای مصنوعی استفاده میکنند – محتوای دیجیتالی که برای مقاصد شوم تولید یا دستکاری شده است – میتواند گسترده، پرهزینه و دارای اثرات اجتماعی-اقتصادی متنوعی از جمله مالی، اعتبار، خدمات و ژئوپلیتیک باشد. گزارش می خواند.
فیلم دیپ فیک از حضور دونالد ترامپ بازداشت شد اوایل امسال ، پاپ فرانسیس پوشیدن لباس های لوکس Balenciaga و Elon مشک ترویج کلاهبرداری های رمزنگاری در سال گذشته به دلیل بهبود فناوری دیپ فیک به لطف ابزارهای هوش مصنوعی در حال توسعه، ویروسی شد.
کیپیامجی نوشت: «چه تقلبیهای ارزان قیمت باشد چه دیپفیکها، مدل اقتصادی بهدلیل مدلهای هوش مصنوعی مولد بهطور چشمگیری تغییر کرده است».
فراتر از چهرههای عمومی که در بالا ذکر شد، از افراد مشهور برجستهای که شباهتهایشان به سرقت رفته و در فیلمهای جعلی اعمال شدهاند، میتوان به اما واتسون بازیگر و تیلور سویفت موسیقیدان اشاره کرد. اما این تأثیر بالقوه بر مشاغل و رهبران گاهاً برجسته آنها است که KPMG در مورد آن زنگ خطر را به صدا در می آورد.
KPMG میگوید: «به عنوان یک عامل خطر، محتوای دیپفیک صرفاً برای رسانههای اجتماعی، سایتهای دوستیابی و صنعت سرگرمی نگران کننده نیست، بلکه اکنون یک موضوع اتاق هیئت مدیره است. به عنوان مثال، تقریباً همه پاسخ دهندگان (92٪) در نظرسنجی اخیر AI مولد KPMG از 300 مدیر اجرایی در صنایع مختلف و جغرافیایی می گویند که نگرانی آنها در مورد خطرات اجرای هوش مصنوعی مولد نسبتاً قابل توجه است.
این فقط مشاغل و افراد مشهور نیستند که با افزایش کیفیت و تعداد ویدیوهای دیپ فیک در اینترنت دست و پنجه نرم می کنند. دولتها و تنظیمکنندهها نیز تأثیر بالقوه بر جامعه و انتخابات را در نظر میگیرند، در حالی که سازندگان چنین ابزارهای هوش مصنوعی در حال سنجش تأثیر منفی بالقوه آنها هستند.
هفته گذشته، کمیسیون انتخابات فدرال ایالات متحده، با پیش بینی استفاده از دیپ فیک در انتخابات 2024، با دادخواست منع استفاده از هوش مصنوعی در تبلیغات کمپین
در صورت تایید، آژانس مقررات فعلی را در مورد تقلب تقلبی از «مرجع کمپین» اصلاح میکند و روشن میکند که این ممنوعیت در مورد تبلیغات کمپین هوش مصنوعی عمدی فریبنده اعمال میشود.
متیو میلر، مدیر خدمات امنیت سایبری در KPMG، گفت: «قانونگذاران باید به درک و بررسی تأثیر تهدیدات در حال تحول بر مقررات موجود ادامه دهند. رمزگشایی کنید. الزامات پیشنهادی برای برچسبگذاری و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی میتواند تاثیر مثبتی داشته باشد.
در ماه جولای، محققان MIT پیشنهاد شده افزودن تغییرات کد به مدلهای انتشار بزرگ برای کاهش خطر دیپفیک، با افزودن تغییرات کوچکی که به سختی قابل مشاهده هستند، اما در نهایت نحوه عملکرد مدلها را تغییر میدهند و باعث میشوند تصاویری تولید کنند که واقعی به نظر نمیرسند. متا، در همین حال، اخیرا یک ابزار هوش مصنوعی را عقب نگه داشت به دلیل پتانسیل دیپ فیک آن
هیجان در مورد پتانسیل خلاقانه ابزارهای مولد هوش مصنوعی با درک اینکه آنها می توانند به طور مشابه فرصت هایی برای محتوای مخرب ایجاد کنند، کاهش یافته است. در نهایت، در میان پیشرفت های سریع برای چنین ابزارهایی، میلر از همه خواست تا در مورد پتانسیل محتوای جعلی هوشیار باشند.
او گفت: «مردم باید هوشیاری مستمر خود را هنگام تعامل از طریق کانالهای دیجیتال حفظ کنند رمزگشایی "آگاهی از موقعیت و عقل سلیم راه طولانی برای جلوگیری از وقوع یک حادثه است. اگر چیزی "احساس درستی نداشته باشد"، به احتمال زیاد فعالیت مخربی دارد."
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. خودرو / خودروهای الکتریکی، کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- ChartPrime. بازی معاملاتی خود را با ChartPrime ارتقا دهید. دسترسی به اینجا.
- BlockOffsets. نوسازی مالکیت افست زیست محیطی. دسترسی به اینجا.
- منبع: https://decrypt.co/153794/ai-deepfakes-threat-businesses-too-heres-why