פסיכיאטר נכלא בגלל דימויים של התעללות מינית בילדים מתוצרת בינה מלאכותית

פסיכיאטר נכלא בגלל דימויים של התעללות מינית בילדים מתוצרת בינה מלאכותית

פסיכיאטר נכלא בגלל תמונות של התעללות מינית בילדים מתוצרת בינה מלאכותית של PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

פסיכיאטר ילדים נכלא ביום רביעי בגין ייצור, החזקה והובלה של חומרי התעללות מינית בילדים (CSAM), כולל שימוש בתוכנת בינה מלאכותית מבוססת אינטרנט ליצירת תמונות פורנוגרפיות של קטינים.

התובעים בצפון קרוליינה אמרו כי דיוויד טייטום, בן 41, שנמצא אשם על ידי חבר מושבעים במאי, נידון ל-40 שנות מאסר ו-30 שנות שחרור בפיקוח, ונגזר עליו לשלם פיצוי בסך 99,000 דולר.

"כפסיכיאטר ילדים, טאטום ידע את ההשפעה המזיקה והארוכה של ניצול מיני על רווחתם של ילדים שנפגעו", אמרה התובעת האמריקאית, דינה ג'יי. הצהרה. "ללא קשר, הוא עסק בנוהג המושחת של שימוש בהקלטות סודיות של קורבנותיו כדי ליצור תמונות וסרטונים אסורים שלהם".

הוא עסק בנוהג המושחת של שימוש בהקלטות סודיות של קורבנותיו כדי ליצור תמונות וסרטונים אסורים שלהם

"טאטום גם עשתה שימוש לרעה בבינה מלאכותית בצורה הגרועה ביותר: כדי להקריב ילדים", אמרה קינג, והוסיפה כי משרדה מחויב להעמיד לדין את מי שמנצלים טכנולוגיה כדי לפגוע בילדים.

שֶׁלוֹ כתב האישום [PDF] אינו מספק פרטים על תוכנת הבינה המלאכותית שבה נעשה שימוש; בית משפט אחר מסמך [PDF] מציין שטאטום, בנוסף להחזקה, הפקה והובלה של חומר מיני מפורש של קטינים, צפה בתמונות שנוצרו של ילדים באתר מזויף עמוק.

הראיות למשפט שצוטטה על ידי הממשלה כוללות הקלטה שנעשתה בחשאי של קטין (בן דוד) מתפשט ומתקלח, וסרטונים אחרים של ילדים המשתתפים באקטים מיניים.

"בנוסף, ראיות במשפט גם קבעו שטאטום השתמש בבינה מלאכותית כדי לשנות דיגיטלית תמונות לבושות של קטינים מה שהופך אותן למפורשות מינית", אמרו התובעים. "באופן ספציפי, עדויות ניסוי הראו שטאטום השתמש באפליקציית בינה מלאכותית מבוססת אינטרנט כדי לשנות תמונות של קטינים לבושים לפורנוגרפיית ילדים".

לפני חודשיים, לפי CNN, גבר דרום קוריאני נידון לשנתיים וחצי מאסר על יצירת תמונות מיניות של ילדים.

השימוש במודלים של AI ליצירת CSAM, בין היתר, הפך לעניין של דאגה רצינית בקרב מחוקקים, קבוצות בחברה האזרחית וחברות המוכרות שירותי AI.

בהכנה הערות [PDF] שנמסר בדיון בוועדת המשנה של הסנאט האמריקני מוקדם יותר השנה, אמר מנכ"ל OpenAI, סם אלטמן, "הסבירות של GPT-4 להיענות לבקשות לתוכן אסור ב-82% בהשוואה ל-GPT-3.5, ואנו משתמשים בשילוב חזק של אנושיים. ותהליכי בדיקה אוטומטיים למעקב אחר שימוש לרעה. למרות שמערכות אלו אינן מושלמות, התקדמנו משמעותית, ובוחנים באופן קבוע דרכים חדשות להפוך את המערכות שלנו לבטוחות ואמינות יותר".

אלטמן אמר ש-OpenAI מסתמכת גם על השירות Safer של Thorn כדי לזהות, לחסום ולדווח על CSAM.

עם זאת, מאמצים לאתר CSAM לאחר יצירתו עלולים להוביל אבטחה מקוונת מופחתת באמצעות דרישות מעקב רשת. לאחרונה לדווח מארגון החקירות Balkan Insight אומר שקבוצות כמו Thorn תמכו בחקיקה לאיתור CSAM כדי להפוך את סריקת התוכן המקוון לחובה, בין השאר משום שהן מספקות את השירות הזה. ®

בול זמן:

עוד מ הקופה