روانپزشک به دلیل تصاویر سوء استفاده جنسی از کودکان توسط هوش مصنوعی زندانی شد

روانپزشک به دلیل تصاویر سوء استفاده جنسی از کودکان توسط هوش مصنوعی زندانی شد

روانپزشک به دلیل تصاویر آزار جنسی کودکان ساخته شده توسط هوش مصنوعی به نام اطلاعات پلاتوبلاکچین زندانی شد. جستجوی عمودی Ai.

یک روانپزشک کودک روز چهارشنبه به دلیل تولید، نگهداری و حمل مواد سوء استفاده جنسی از کودکان (CSAM) از جمله استفاده از نرم افزار هوش مصنوعی مبتنی بر وب برای ایجاد تصاویر مستهجن از کودکان زیر سن قانونی زندانی شد.

دادستان های کارولینای شمالی گفتند که دیوید تیتوم، 41 ساله، که توسط هیئت منصفه در ماه مه مجرم شناخته شد، به 40 سال زندان و 30 سال آزادی تحت نظارت محکوم شده و به پرداخت 99,000 دلار به عنوان غرامت محکوم شده است.

دنا جی کینگ، دادستان ایالات متحده، گفت: "به عنوان یک روانپزشک کودک، تیتوم از تأثیر مخرب و طولانی مدت استثمار جنسی بر رفاه کودکان قربانی می دانست." بیانیه. صرف نظر از این، او درگیر استفاده از ضبط های مخفیانه از قربانیان خود برای ایجاد تصاویر و فیلم های غیرقانونی از آنها شد.

او با استفاده از ضبط های مخفی قربانیان خود برای ساختن تصاویر و فیلم های غیرقانونی از آنها دست به اعمال ناشایست می زد.

کینگ گفت: "تاتوم همچنین از هوش مصنوعی به بدترین شکل ممکن استفاده کرد: قربانی کردن کودکان."

او محکومیت [PDF] هیچ جزئیاتی در مورد نرم افزار هوش مصنوعی مورد استفاده ارائه نمی دهد. دادگاه دیگری سند [PDF] نشان می‌دهد که تیتوم، علاوه بر در اختیار داشتن، تولید و حمل و نقل مطالب جنسی صریح از خردسالان، تصاویر تولید شده از کودکان را در یک وب‌سایت جعلی عمیق مشاهده کرده است.

شواهد محاکمه ای که توسط دولت استناد شده است شامل ضبط مخفیانه از درآوردن لباس و دوش گرفتن یک دختر عموزاده (پسرخاله) و سایر فیلم های کودکانی است که در اعمال جنسی شرکت می کنند.

دادستان ها گفتند: «علاوه بر این، شواهد آزمایشی همچنین نشان داد که تاتوم از هوش مصنوعی برای تغییر دیجیتالی تصاویر لباس افراد زیر سن قانونی استفاده می کرد و آنها را از نظر جنسی آشکار می ساخت. به طور خاص، شواهد آزمایشی نشان داد که Tatum از یک برنامه هوش مصنوعی مبتنی بر وب برای تغییر تصاویر کودکان زیر سن قانونی به پورنوگرافی کودکان استفاده کرده است.

طبق گفته دو ماه پیش CNNیک مرد کره جنوبی به دلیل تولید تصاویر جنسی از کودکان به دو سال و نیم زندان محکوم شد.

استفاده از مدل‌های هوش مصنوعی برای تولید CSAM، در میان چیزهای دیگر، به موضوعی جدی در میان قانون‌گذاران، گروه‌های جامعه مدنی و شرکت‌های فروش خدمات هوش مصنوعی تبدیل شده است.

در آماده شده است اظهارات [PDF] که در اوایل سال جاری در جلسه استماع کمیته فرعی سنای ایالات متحده ارائه شد، مدیر عامل OpenAI، سام آلتمن، گفت: «GPT-4 در مقایسه با GPT-82 3.5 درصد کمتر به درخواست‌های محتوای غیرمجاز پاسخ می‌دهد و ما از ترکیبی قوی از انسان استفاده می‌کنیم. و فرآیندهای بررسی خودکار برای نظارت بر سوء استفاده. اگرچه این سیستم‌ها بی‌نقص نیستند، اما ما پیشرفت قابل‌توجهی داشته‌ایم و مرتباً در حال بررسی راه‌های جدید برای ایمن‌تر و قابل اعتمادتر کردن سیستم‌هایمان هستیم.»

آلتمن گفت OpenAI همچنین برای شناسایی، مسدود کردن و گزارش CSAM به سرویس Safer Thorn متکی است.

با این حال، تلاش‌ها برای شناسایی CSAM پس از ایجاد می‌تواند منجر به کاهش امنیت آنلاین از طریق الزامات نظارت شبکه اخیرا گزارش از سازمان تحقیقاتی Balkan Insight می‌گوید گروه‌هایی مانند Thorn از قانون تشخیص CSAM برای اجباری کردن اسکن محتوای آنلاین تا حدی به دلیل ارائه آن سرویس حمایت می‌کنند. ®

تمبر زمان:

بیشتر از ثبت نام