Psykiater fengslet for AI-lagde bilder av seksuelt misbruk av barn

Psykiater fengslet for AI-lagde bilder av seksuelt misbruk av barn

Psykiater fengslet på grunn av AI-laget sexovergrep mot barn PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

En barnepsykiater ble onsdag fengslet for produksjon, besittelse og transport av materiale om seksuelt misbruk av barn (CSAM), inkludert bruk av nettbasert programvare for kunstig intelligens for å lage pornografiske bilder av mindreårige.

Påtalemyndigheten i North Carolina sa at David Tatum (41), som ble funnet skyldig av en jury i mai, er dømt til 40 års fengsel og 30 års overvåket løslatelse, og dømt til å betale 99,000 XNUMX dollar i oppreisning.

"Som barnepsykiater visste Tatum den skadelige, langvarige innvirkningen seksuell utnyttelse har på velværet til ofre barn," sa USAs advokat Dena J. King i en uttalelse. "Uansett, engasjerte han seg i den fordervede praksisen med å bruke hemmelige opptak av ofrene sine for å lage ulovlige bilder og videoer av dem."

Han engasjerte seg i den fordervede praksisen med å bruke hemmelige opptak av ofrene for å lage ulovlige bilder og videoer av dem

"Tatum misbrukte også kunstig intelligens på verst mulig måte: for å ofre barn," sa King og la til at kontoret hennes er forpliktet til å straffeforfølge de som utnytter teknologi for å skade barn.

Hans tiltale [PDF] gir ingen detaljer om AI-programvaren som brukes; en annen domstol dokument [PDF] indikerer at Tatum, i tillegg til å eie, produsere og transportere seksuelt eksplisitt materiale av mindreårige, så genererte bilder av barn på et dypt falskt nettsted.

Rettssakene som er sitert av myndighetene inkluderer et hemmelig laget opptak av en mindreårig (en fetter) som kler av seg og dusjer, og andre videoer av barn som deltar i sexhandlinger.

"I tillegg viste rettssakene også at Tatum brukte kunstig intelligens til å digitalt endre kledde bilder av mindreårige som gjorde dem seksuelt eksplisitte," sa påtalemyndigheten. "Spesifikt viste rettssakene at Tatum brukte en nettbasert kunstig intelligens-applikasjon for å endre bilder av kledde mindreårige til barnepornografi."

For to måneder siden, ifølge CNN, ble en sørkoreansk mann dømt til to og et halvt års fengsel for å ha generert seksuelle bilder av barn.

Bruken av AI-modeller for å generere CSAM, blant annet, har blitt et spørsmål om alvorlig bekymring blant lovgivere, sivilsamfunnsgrupper og selskaper som selger AI-tjenester.

I forberedt bemerkninger [PDF] levert på en høring i det amerikanske Senatets underkomité tidligere i år, sa OpenAI-sjef Sam Altman: "GPT-4 er 82 prosent mindre sannsynlighet for å svare på forespørsler om ikke-tillatt innhold sammenlignet med GPT-3.5, og vi bruker en robust kombinasjon av menneskelig og automatiserte gjennomgangsprosesser for å overvåke for misbruk. Selv om disse systemene ikke er perfekte, har vi gjort betydelige fremskritt, og vi utforsker jevnlig nye måter å gjøre systemene våre sikrere og mer pålitelige på."

Altman sa at OpenAI også er avhengig av Thorns Safer-tjeneste for å oppdage, blokkere og rapportere CSAM.

Likevel kan forsøk på å oppdage CSAM etter at det er opprettet føre til redusert nettsikkerhet gjennom krav til nettverksovervåking. En nylig rapporterer fra etterforskningsorganisasjonen Balkan Insight sier at grupper som Thorn har støttet CSAM-deteksjonslovgivning for å gjøre skanning av nettinnhold obligatorisk delvis fordi de tilbyr den tjenesten. ®

Tidstempel:

Mer fra Registeret