Psiquiatra preso por imagens de abuso sexual infantil criadas por IA

Psiquiatra preso por imagens de abuso sexual infantil criadas por IA

Psiquiatra preso por imagens de abuso sexual infantil criadas por IA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Um psiquiatra infantil foi preso na quarta-feira pela produção, posse e transporte de material de abuso sexual infantil (CSAM), incluindo o uso de software de inteligência artificial baseado na web para criar imagens pornográficas de menores.

Os promotores da Carolina do Norte disseram que David Tatum, 41 anos, considerado culpado por um júri em maio, foi condenado a 40 anos de prisão e 30 anos de liberdade supervisionada, e a pagar US$ 99,000 mil em restituição.

“Como psiquiatra infantil, Tatum sabia do impacto prejudicial e duradouro que a exploração sexual tem no bem-estar das crianças vítimas”, disse a procuradora dos EUA, Dena J. King, em uma declaração. “Independentemente disso, ele se envolveu na prática depravada de usar gravações secretas de suas vítimas para criar imagens e vídeos ilícitos delas.”

Ele se envolveu na prática depravada de usar gravações secretas de suas vítimas para criar imagens e vídeos ilícitos delas.

“Tatum também fez mau uso da inteligência artificial da pior maneira possível: para vitimar crianças”, disse King, acrescentando que o seu gabinete está empenhado em processar aqueles que exploram a tecnologia para prejudicar crianças.

Seu acusação [PDF] não fornece detalhes sobre o software de IA usado; outro tribunal documento [PDF] indica que Tatum, além de possuir, produzir e transportar material sexualmente explícito de menores, visualizou imagens geradas de crianças em um site profundamente falso.

As provas do julgamento citadas pelo governo incluem uma gravação feita secretamente de um menor (um primo) a despir-se e a tomar banho, e outros vídeos de crianças participando em atos sexuais.

“Além disso, as evidências do julgamento também estabeleceram que Tatum usou IA para alterar digitalmente imagens vestidas de menores, tornando-as sexualmente explícitas”, disseram os promotores. “Especificamente, as evidências do julgamento mostraram que Tatum usou um aplicativo de inteligência artificial baseado na web para transformar imagens de menores vestidos em pornografia infantil.”

Há dois meses, segundo CNN, um homem sul-coreano foi condenado a dois anos e meio de prisão por gerar imagens sexuais de crianças.

A utilização de modelos de IA para gerar CSAM, entre outras coisas, tornou-se um motivo de séria preocupação entre legisladores, grupos da sociedade civil e empresas que vendem serviços de IA.

Em preparado observações [PDF] entregue em uma audiência do subcomitê do Senado dos EUA no início deste ano, o CEO da OpenAI, Sam Altman, disse: “O GPT-4 tem 82 por cento menos probabilidade de responder a solicitações de conteúdo não permitido em comparação com o GPT-3.5, e usamos uma combinação robusta de recursos humanos e processos de revisão automatizados para monitorar uso indevido. Embora estes sistemas não sejam perfeitos, fizemos progressos significativos e exploramos regularmente novas formas de tornar os nossos sistemas mais seguros e fiáveis.”

Altman disse que a OpenAI também depende do serviço Safer da Thorn para detectar, bloquear e relatar CSAM.

No entanto, os esforços para detectar CSAM depois de criados podem levar a segurança on-line diminuída através de requisitos de vigilância de rede. Um recente Denunciar da organização investigativa Balkan Insight diz que grupos como Thorn têm apoiado a legislação de detecção de CSAM para tornar obrigatória a verificação de conteúdo online, em parte porque fornecem esse serviço. ®

Carimbo de hora:

Mais de O registro