Un psychiatre emprisonné pour des images d'abus sexuels sur des enfants créées par l'IA

Un psychiatre emprisonné pour des images d'abus sexuels sur des enfants créées par l'IA

Un psychiatre emprisonné pour des images d'abus sexuels sur des enfants créées par l'IA PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Un pédopsychiatre a été emprisonné mercredi pour production, possession et transport de matériel pédosexuel (CSAM), y compris l'utilisation d'un logiciel d'intelligence artificielle basé sur le Web pour créer des images pornographiques de mineurs.

Les procureurs de Caroline du Nord ont déclaré que David Tatum, 41 ans, reconnu coupable par un jury en mai, a été condamné à 40 ans de prison et 30 ans de liberté surveillée, et condamné à payer 99,000 XNUMX $ de dédommagement.

"En tant que pédopsychiatre, Tatum était conscient de l'impact néfaste et durable de l'exploitation sexuelle sur le bien-être des enfants victimes", a déclaré la procureure américaine Dena J. King dans une déclaration. « Quoi qu’il en soit, il s’est livré à la pratique dépravée consistant à utiliser des enregistrements secrets de ses victimes pour créer des images et des vidéos illicites d’elles. »

Il s'est livré à la pratique dépravée consistant à utiliser des enregistrements secrets de ses victimes pour créer des images et des vidéos illicites d'elles.

« Tatum a également utilisé l’intelligence artificielle de la pire manière possible : pour victimiser les enfants », a déclaré King, ajoutant que son bureau s’engage à poursuivre en justice ceux qui exploitent la technologie pour nuire aux enfants.

Son acte d'accusation [PDF] ne fournit aucun détail sur le logiciel d'IA utilisé ; un autre tribunal document [PDF] indique que Tatum, en plus de posséder, produire et transporter du matériel sexuellement explicite de mineurs, a consulté des images générées d'enfants sur un site Web profondément faux.

Les preuves du procès citées par le gouvernement comprennent un enregistrement réalisé en secret d'un mineur (un cousin) se déshabillant et se douchant, ainsi que d'autres vidéos d'enfants participant à des actes sexuels.

"En outre, les preuves du procès ont également établi que Tatum a utilisé l'IA pour modifier numériquement des images habillées de mineurs, les rendant sexuellement explicites", ont déclaré les procureurs. "Plus précisément, les preuves du procès ont montré que Tatum a utilisé une application d'intelligence artificielle basée sur le Web pour transformer des images de mineurs habillés en pédopornographie."

Il y a deux mois, selon CNN, un Sud-Coréen a été condamné à deux ans et demi de prison pour avoir généré des images sexuelles d'enfants.

L’utilisation de modèles d’IA pour générer du CSAM, entre autres, est devenue un sujet de préoccupation majeur parmi les législateurs, les groupes de la société civile et les entreprises vendant des services d’IA.

En préparation Remarques [PDF] présenté lors d'une audience du sous-comité du Sénat américain plus tôt cette année, Sam Altman, PDG d'OpenAI, a déclaré : « GPT-4 est 82 % moins susceptible de répondre aux demandes de contenu non autorisé par rapport à GPT-3.5, et nous utilisons une solide combinaison de ressources humaines. et des processus d’examen automatisés pour surveiller les utilisations abusives. Bien que ces systèmes ne soient pas parfaits, nous avons réalisé des progrès significatifs et explorons régulièrement de nouvelles façons de rendre nos systèmes plus sûrs et plus fiables.

Altman a déclaré qu'OpenAI s'appuie également sur le service Safer de Thorn pour repérer, bloquer et signaler les CSAM.

Pourtant, les efforts visant à détecter les CSAM après leur création pourraient conduire à sécurité en ligne diminuée grâce aux exigences de surveillance du réseau. Une récente rapport de l'organisation d'enquête Balkan Insight, des groupes comme Thorn soutiennent la législation sur la détection CSAM pour rendre obligatoire l'analyse du contenu en ligne, en partie parce qu'ils fournissent ce service. ®

Horodatage:

Plus de Le registre