Psychiater wegen künstlicher Darstellung von Kindesmissbrauch inhaftiert

Psychiater wegen künstlicher Darstellung von Kindesmissbrauch inhaftiert

Psychiater wegen KI-erstellter Bilder von Kindesmissbrauch inhaftiert PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Ein Kinderpsychiater wurde am Mittwoch wegen der Produktion, des Besitzes und des Transports von Material über sexuellen Missbrauch von Kindern (CSAM) inhaftiert, einschließlich der Verwendung webbasierter Software für künstliche Intelligenz zur Erstellung pornografischer Bilder von Minderjährigen.

Die Staatsanwälte in North Carolina sagten, der 41-jährige David Tatum, der im Mai von einem Geschworenengericht für schuldig befunden wurde, sei zu 40 Jahren Gefängnis und 30 Jahren Freilassung unter Aufsicht verurteilt und zur Zahlung von 99,000 US-Dollar Entschädigung verurteilt worden.

„Als Kinderpsychiater wusste Tatum, welche schädlichen und langanhaltenden Auswirkungen sexuelle Ausbeutung auf das Wohlergehen der Opfer von Kindern hat“, sagte US-Staatsanwältin Dena J. King eine Aussage. „Trotzdem ließ er sich auf die verdorbene Praxis ein, geheime Aufnahmen seiner Opfer zu nutzen, um illegale Bilder und Videos von ihnen zu erstellen.“

Er bediente sich der verdorbenen Praxis, geheime Aufnahmen seiner Opfer zu nutzen, um illegale Bilder und Videos von ihnen zu erstellen

„Tatum hat künstliche Intelligenz auch auf die schlimmste Art und Weise missbraucht: um Kinder zu schikanieren“, sagte King und fügte hinzu, dass sich ihr Büro dafür einsetzt, diejenigen strafrechtlich zu verfolgen, die Technologie ausnutzen, um Kindern zu schaden.

Sein Anklage [PDF] macht keine Angaben zur verwendeten KI-Software; ein anderes Gericht Dokument [PDF] weist darauf hin, dass Tatum nicht nur sexuell eindeutiges Material von Minderjährigen besaß, produzierte und transportierte, sondern auch generierte Bilder von Kindern auf einer Deep-Fake-Website betrachtete.

Zu den von der Regierung angeführten Prozessbeweisen gehören eine heimlich aufgenommene Aufnahme eines Minderjährigen (einer Cousine) beim Ausziehen und Duschen sowie weitere Videos von Kindern, die an sexuellen Handlungen beteiligt sind.

„Darüber hinaus ergaben die Gerichtsbeweise auch, dass Tatum KI nutzte, um Kleidungsbilder von Minderjährigen digital zu verändern, um sie sexuell eindeutig zu machen“, sagten die Staatsanwälte. „Konkret zeigten die Gerichtsbeweise, dass Tatum eine webbasierte Anwendung künstlicher Intelligenz nutzte, um Bilder von bekleideten Minderjährigen in Kinderpornografie umzuwandeln.“

Vor zwei Monaten, laut CNNwurde ein südkoreanischer Mann zu zweieinhalb Jahren Gefängnis verurteilt, weil er sexuelle Bilder von Kindern gemacht hatte.

Unter anderem der Einsatz von KI-Modellen zur Generierung von CSAM gibt bei Gesetzgebern, zivilgesellschaftlichen Gruppen und Unternehmen, die KI-Dienste anbieten, Anlass zu ernster Besorgnis.

In vorbereitet Bemerkungen [PDF], das Anfang des Jahres bei einer Anhörung des Unterausschusses des US-Senats vorgetragen wurde, sagte Sam Altman, CEO von OpenAI: „GPT-4 reagiert im Vergleich zu GPT-82 mit einer um 3.5 Prozent geringeren Wahrscheinlichkeit auf Anfragen nach unzulässigen Inhalten, und wir verwenden eine robuste Kombination von Menschen.“ und automatisierte Überprüfungsprozesse zur Überwachung auf Missbrauch. Obwohl diese Systeme nicht perfekt sind, haben wir erhebliche Fortschritte gemacht und suchen regelmäßig nach neuen Wegen, um unsere Systeme sicherer und zuverlässiger zu machen.“

Altman sagte, OpenAI verlasse sich auch auf den Safer-Dienst von Thorn, um CSAM zu erkennen, zu blockieren und zu melden.

Doch Bemühungen, CSAM nach seiner Erstellung zu erkennen, könnten zu Problemen führen verminderte Online-Sicherheit durch Netzwerküberwachungsanforderungen. Ein kürzlich berichten Laut der Ermittlungsorganisation Balkan Insight haben Gruppen wie Thorn die Gesetzgebung zur CSAM-Erkennung unterstützt, um das Scannen von Online-Inhalten zum Teil obligatorisch zu machen, weil sie diesen Dienst anbieten. ®

Zeitstempel:

Mehr von Das Register