FTC bada ChatGPT w związku z obawami dotyczącymi ochrony konsumentów

FTC bada ChatGPT w związku z obawami dotyczącymi ochrony konsumentów

FTC bada ChatGPT w związku z obawami dotyczącymi ochrony konsumentów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Tak zrobiła amerykańska Federalna Komisja Handlu (FTC). zaczął dokładne sprawdzenie OpenAI, firmy z San Francisco, która stworzyła znanego chatbota AI, ChatGPT. Serwisy informacyjne The Washington Post poinformował 13 lipca 2023 r., że kontrola ta ma na celu sprawdzenie, czy OpenAI nie naruszyła przepisów zapewniających bezpieczeństwo klientów, potencjalnie narażając ich osobistą reputację i dane.

FTC wystosowała 20-stronicowe żądanie do OpenAI, aby dowiedzieć się więcej o tym, jak firma radzi sobie z możliwymi problemami związanymi z ich modelami AI. Ta agencja rządowa w szczególności sprawdza, czy OpenAI nie było niesprawiedliwe lub wprowadzające w błąd, powodując szkody w reputacji ludzi.

Dochodzenie FTC obejmuje incydent bezpieczeństwa ujawniony przez OpenAI w marcu 2023 r. Błąd w systemach OpenAI umożliwił niektórym użytkownikom przeglądanie informacji związanych z płatnościami i niektórych danych z historii czatów innych użytkowników. FTC bada, czy praktyki OpenAI w zakresie bezpieczeństwa danych w tym incydencie naruszyły przepisy dotyczące ochrony konsumentów.

FTC poszukuje również informacji na temat wszelkich badań, testów lub ankiet przeprowadzonych przez OpenAI, które oceniają, jak dobrze konsumenci rozumieją „dokładność lub wiarygodność danych wyjściowych” generowanych przez jej narzędzia AI. Ponadto FTC zażądała szczegółowych informacji na temat tego, w jaki sposób OpenAI udziela licencji na swoje modele innym firmom.

Niniejsze dochodzenie jest następstwem wcześniejszych obaw związanych z praktykami OpenAI. W marcu 2023 r. Centrum AI i Polityki Cyfrowej (CAIDP) zapytał FTC do zbadania OpenAI pod kątem rzekomych naruszeń zasad ochrony konsumentów, powołując się na to, że wdrożenie narzędzi do generowania tekstu opartych na sztucznej inteligencji było „stronnicze, zwodnicze i stanowiło ryzyko dla bezpieczeństwa publicznego”, jak donosi The Verge.

CAIDP zwrócił uwagę na potencjalne zagrożenia wynikające z generatywnego modelu tekstu OpenAI GPT-4, w tym tworzenie złośliwego kodu, ściśle dopasowaną propagandę oraz możliwość, że stronnicze dane szkoleniowe mogą skutkować nieuczciwymi preferencjami rasowymi i płciowymi w obszarach takich jak zatrudnianie.

Dochodzenie FTC w sprawie OpenAI stanowi znaczący krok w ciągłym zainteresowaniu agencji regulacją narzędzi AI. Wcześniej ostrzegał, że stronnicze systemy sztucznej inteligencji mogą pociągać za sobą działania egzekucyjne. Dochodzenie w sprawie OpenAI, jednego z głównych graczy w dziedzinie generatywnej sztucznej inteligencji, oznacza znaczną eskalację wysiłków FTC.

Znak czasu:

Więcej z Blok Chain Aktualności