برهنه کردن هوش مصنوعی: خدمات برهنه Deepfake به شدت محبوبیت پیدا می کند - رمزگشایی

برهنه شدن با هوش مصنوعی: خدمات برهنه دیپ فیک محبوبیت زیادی پیدا می کند – رمزگشایی

AI undressing: خدمات برهنه Deepfake به شدت محبوبیت پیدا می کند - رمزگشایی اطلاعات PlatoBlockchain Intelligence. جستجوی عمودی Ai.

بلای ایجاد دیپ فیک مخرب به خوبی فراتر از حوزه سلبریتی ها و شخصیت های عمومی گسترش یافته است، و گزارش جدید در مورد تصاویر صمیمی غیر توافقی (NCII) نشان می دهد که این عمل تنها با تکامل و تکثیر مولدهای تصویر در حال رشد است.

"برهنه کردن AI" در حال افزایش است، الف گزارش توسط شرکت تجزیه و تحلیل رسانه های اجتماعی Graphika در روز جمعه گفت و این عمل را به عنوان استفاده از آن توصیف کرد هوش مصنوعی مولد ابزارهایی که برای حذف لباس از تصاویر آپلود شده توسط کاربران تنظیم شده اند.

طبق یک گزارش، جامعه پخش بازی و توییچ در اوایل سال جاری با این مشکل دست و پنجه نرم کرد، زمانی که براندون «آتریوک» یوینگ به طور تصادفی فاش کرد که در حال تماشای پورن عمیق جعلی تولید شده توسط هوش مصنوعی از استریمرهای زن بوده است که او با دوستانش تماس گرفته است. گزارش by سایت Kotaku.

یوینگ در ماه مارس به پلتفرم بازگشت، پشیمان شد و از هفته‌ها کاری که برای کاهش آسیبی که انجام داده بود گزارش داد. اما این حادثه دروازه‌های یک جامعه آنلاین را باز کرد.

گزارش Graphika نشان می دهد که این حادثه فقط یک قطره در سطل بوده است.

سانتیاگو لاکاتوس، تحلیلگر اطلاعاتی Graphika نوشت: «با استفاده از داده‌های ارائه‌شده توسط Meltwater، تعداد نظرات و پست‌ها را در Reddit و X که حاوی پیوندهای ارجاع به 34 وب‌سایت و 52 کانال تلگرامی ارائه‌دهنده خدمات مصنوعی NCII بودند، اندازه‌گیری کردیم». این تعداد در سال 1,280 در مجموع به 2022 رسید در مقایسه با بیش از 32,100 مورد در سال جاری، که نشان دهنده افزایش 2,408 درصدی در حجم سال به سال است.

Graphika مستقر در نیویورک می‌گوید انفجار در NCII نشان می‌دهد که ابزارها از تابلوهای بحث و گفتگو به صنعت کلبه منتقل شده‌اند.

Graphika گفت: «این مدل‌ها به تعداد بیشتری از ارائه‌دهندگان اجازه می‌دهند تا به راحتی و ارزان NCII فوتورئالیستی را در مقیاس ایجاد کنند. "بدون چنین ارائه دهندگانی، مشتریان آنها باید مدل های انتشار تصویر سفارشی خود را میزبانی، نگهداری و اجرا کنند - فرآیندی زمان بر و گاهی گران."

Graphika هشدار می دهد که افزایش محبوبیت ابزارهای AI نه تنها می تواند به جعلی منجر شود pornographic اما همچنین آزار و اذیت هدفمند، زورگیری، و تولید مواد سوء استفاده جنسی از کودکان (CSAM).

با توجه به Graphika گزارش، توسعه دهندگان ابزارهای AI-bearing در رسانه های اجتماعی تبلیغ می کنند تا کاربران بالقوه را به وب سایت های خود، چت خصوصی تلگرام یا سرورهای Discord هدایت کنند که در آن ابزارها را می توان یافت.

Graphika نوشت: «برخی از ارائه‌دهندگان در فعالیت‌های خود آشکارا اعلام می‌کنند که خدمات «درآوردن لباس» ارائه می‌کنند و عکس‌هایی را از افرادی که ادعا می‌کنند «لباس‌پوش» شده‌اند را به عنوان مدرک ارسال می‌کنند. سایرین کمتر صریح هستند و خود را به عنوان خدمات هنری هوش مصنوعی یا گالری عکس Web3 معرفی می کنند در حالی که عبارات کلیدی مرتبط با NCII مصنوعی را در پروفایل ها و پست های خود درج می کنند.

در حالی که AI های برهنه معمولاً بر روی تصاویر تمرکز می کنند، هوش مصنوعی نیز برای ایجاد استفاده شده است تصویری دیپ فیک با استفاده از شباهت افراد مشهور، از جمله شخصیت YouTube آقای هیولا و بازیگر برجسته هالیوود تام هنکس.

برخی از بازیگران دوست دارند اسکارلت جوهانسون و بازیگر هندی آنیل کاپور برای مبارزه با تهدید مستمر دیپ‌فیک‌های هوش مصنوعی، به سیستم قانونی مراجعه می‌کنند. با این حال، در حالی که سرگرمی های جریان اصلی می توانند توجه رسانه های بیشتری را به خود جلب کنند، سرگرمی های بزرگسال می گویند صدای آنها به ندرت شنیده می شود.

تانیا تیت، مجری افسانه ای بزرگسال و رئیس Star Factory PR، "واقعا سخت است." گفته شده رمزگشایی کنید زودتر "اگر کسی در جریان اصلی باشد، مطمئن هستم که خیلی راحت تر است."

حتی بدون ظهور هوش مصنوعی و فناوری دیپ‌فیک، تیت توضیح داد که رسانه‌های اجتماعی از قبل با استفاده از احتمالات و محتوای او پر از حساب‌های جعلی هستند. کمک نکردن به مسائل، انگ مداومی است که کارگران جنسی با آن روبرو هستند و آنها و طرفدارانشان را مجبور می‌کند در سایه بمانند.

در ماه اکتبر، مؤسسه نظارت بر اینترنت مستقر در بریتانیا به نام «Internet Watch Foundation» (IWF)، در گزارشی جداگانه اشاره کرد که تنها در یک ماه، بیش از 20,254 تصویر از کودک آزاری در یک انجمن تاریک وب پیدا شد. IWF هشدار داد که پورنوگرافی کودکان تولید شده توسط هوش مصنوعی می تواندغرق شدن" اینترنت.

IWF به لطف پیشرفت در تصویربرداری هوش مصنوعی مولد هشدار می دهد deepfake پورنوگرافی تا جایی پیش رفته است که تشخیص تفاوت بین تصاویر تولید شده توسط هوش مصنوعی و تصاویر معتبر به طور فزاینده ای پیچیده شده است و مجریان قانون را به دنبال فانتوم های آنلاین به جای قربانیان واقعی سوء استفاده می کند.

دن سکستون، مدیر ارشد فناوری بنیاد واچ اینترنت، گفت: «بنابراین، چیزی در حال انجام است که شما نمی توانید به واقعی بودن یا نبودن چیزها اعتماد کنید. رمزگشایی کنیدتی چیزهایی که به ما می گویند آیا چیزها واقعی هستند یا نه، 100٪ نیستند و بنابراین، شما هم نمی توانید به آنها اعتماد کنید.

در مورد یوینگ، کوتاکو گزارش داد که استریمر برگشت گفت که با خبرنگاران، فناوران، محققان و زنانی که از زمان تخلفش در این حادثه تحت تاثیر این حادثه قرار گرفته اند کار می کند. ژانویه. یوینگ همچنین گفت که وی وجوهی را برای شرکت حقوقی رایان موریسون مستقر در لس آنجلس ارسال کرده است. موریسون کوپر، برای ارائه خدمات حقوقی به هر زن در توییچ که برای صدور اخطارهای حذف برای سایت هایی که تصاویر آنها را منتشر می کنند به کمک آنها نیاز داشت.

یوینگ اضافه کرد که تحقیقاتی در مورد عمق موضوع دیپ فیک از محقق مرموز دیپ فیک ژنویو اوه دریافت کرده است.

یوینگ گفت: "من سعی کردم "نقاط روشن" را در مبارزه با این نوع محتوا پیدا کنم.

ویرایش شده توسط رایان اوزاوا.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

تمبر زمان:

بیشتر از رمزگشایی کنید