FTC untersucht ChatGPT wegen Verbraucherschutzbedenken

FTC untersucht ChatGPT wegen Verbraucherschutzbedenken

FTC untersucht ChatGPT wegen Verbraucherschutzbedenken PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Die US Federal Trade Commission (FTC) hat begonnen ein gründlicher Blick auf OpenAI, das Unternehmen aus San Francisco, das den bekannten KI-Chatbot ChatGPT entwickelt hat. Die Washington Post berichtete am 13. Juli 2023, dass mit dieser Überprüfung festgestellt werden soll, ob OpenAI gegen Gesetze verstoßen hat, die die Sicherheit der Kunden gewährleisten und möglicherweise ihren persönlichen Ruf und ihre Daten gefährden.

Die FTC hat eine 20-seitige Anforderung an OpenAI gestellt, um mehr darüber zu erfahren, wie das Unternehmen mit möglichen Problemen im Zusammenhang mit seinen KI-Modellen umgeht. Diese Regierungsbehörde prüft insbesondere, ob OpenAI unfair oder irreführend war und den Ruf der Menschen geschädigt hat.

Die Untersuchung der FTC erstreckt sich auf einen Sicherheitsvorfall, den OpenAI im März 2023 offenlegte. Ein Fehler in den Systemen von OpenAI hatte es einigen Benutzern ermöglicht, zahlungsbezogene Informationen und einige Daten aus dem Chatverlauf anderer Benutzer anzuzeigen. Die FTC untersucht, ob die Datensicherheitspraktiken von OpenAI bei diesem Vorfall gegen Verbraucherschutzgesetze verstoßen.

Die FTC sucht außerdem nach Informationen zu allen von OpenAI durchgeführten Untersuchungen, Tests oder Umfragen, die beurteilen, wie gut Verbraucher die „Genauigkeit oder Zuverlässigkeit der von ihren KI-Tools generierten Ergebnisse“ verstehen. Darüber hinaus hat die FTC Einzelheiten darüber angefordert, wie OpenAI seine Modelle an andere Unternehmen lizenziert.

Diese Untersuchung erfolgt im Zuge früherer Bedenken hinsichtlich der Praktiken von OpenAI. Im März 2023 hat das Center for AI and Digital Policy (CAIDP) gefragt Die FTC soll OpenAI wegen mutmaßlicher Verstöße gegen Verbraucherschutzbestimmungen untersuchen und dabei anführen, dass die Einführung von KI-Tools zur Textgenerierung „voreingenommen, irreführend und ein Risiko für die öffentliche Sicherheit“ gewesen sei, wie The Verge berichtet.

Das CAIDP hatte auf potenzielle Bedrohungen durch das generative Textmodell GPT-4 von OpenAI hingewiesen, darunter die Produktion von Schadcode, hochgradig maßgeschneiderte Propaganda und die Möglichkeit, dass voreingenommene Trainingsdaten zu unfairen Rassen- und Geschlechtspräferenzen in Bereichen wie der Einstellung führen könnten.

Die Untersuchung der FTC zu OpenAI stellt einen wichtigen Schritt im anhaltenden Interesse der Behörde an der Regulierung von KI-Tools dar. Es wurde bereits davor gewarnt, dass voreingenommene KI-Systeme Durchsetzungsmaßnahmen nach sich ziehen könnten. Eine Untersuchung von OpenAI, einem der Hauptakteure im Bereich der generativen KI, markiert eine deutliche Eskalation der Bemühungen der FTC.

Zeitstempel:

Mehr von Blockchain News