Chiny finalizują bardziej zrelaksowany zestaw przepisów dotyczących sztucznej inteligencji

Chiny finalizują bardziej zrelaksowany zestaw przepisów dotyczących sztucznej inteligencji

Chiny finalizują łagodniejszy zestaw przepisów dotyczących sztucznej inteligencji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Amerykańska Federalna Komisja Handlu (FTC) wszczęła dochodzenie w sprawie OpenAI w sprawie potencjalnych naruszeń przepisów dotyczących ochrony konsumentów związanych z chatbotem AI ChatGPT, który jest oskarżany o rozpowszechnianie fałszywych informacji i łamanie zasad prywatności danych.

Według raportu Washington Post, organ nadzorujący konkurencję wysłał 20-stronicowy list do OpenAI, żądając szczegółowych informacji na temat jego operacji biznesowych, w tym polityki prywatności i technologii AI. środków i procesów bezpieczeństwa danych.

List jest najnowszym krokiem organów regulacyjnych w celu zbadania potencjalnych zagrożeń związanych z generatywną sztuczną inteligencją, rodzajem sztucznej inteligencji, która może być wykorzystana do tworzenia realistycznych i przekonujących tekstów, obrazów i filmów. ChatGPT wypuszczono na rynek i spotkało się z wielkim uznaniem w listopadzie, wywołując „wyścig zbrojeń” AI.

Przeczytaj także: Google Bard AI Chatbot teraz odczytuje obrazy i mówi, rozszerza się na UE

ChatGPT oskarżony o wyrządzanie krzywdy użytkownikom

Na raport, FTC bada, czy ChatGPT wyrządził ludziom krzywdę, udzielając błędnych odpowiedzi na ich pytania. Chce wiedzieć, czy firma „zaangażowała się w nieuczciwe lub oszukańcze praktyki w zakresie prywatności lub bezpieczeństwa danych”, które spowodowały „uszczerbek na reputacji użytkowników”.

Federalna Komisja Handlu zapytała OpenAI o zabezpieczenia, które wprowadziła, aby uniemożliwić jej modelom sztucznej inteligencji „generowanie fałszywych, wprowadzających w błąd lub dyskredytujących oświadczeń o prawdziwych osobach”.

Założyciel i dyrektor generalny OpenAI, Sam Altman, wyraził rozczarowanie, że dowiedział się o dochodzeniu FTC dopiero z przecieku do Washington Post. Pisanie na Twitterze Altman powiedział, że ten ruch „nie pomoże zbudować zaufania”, ale dodał, że firma będzie współpracować z FTC.

„To dla nas bardzo ważne, aby nasza technologia była bezpieczna i prokonsumencka, a my jesteśmy pewni, że postępujemy zgodnie z prawem” – powiedział. „Chronimy prywatność użytkowników i projektujemy nasze systemy tak, aby poznawały świat, a nie osoby prywatne”.

Altman mówił także o najnowszej technologii OpenAI, GPT-4. Powiedział, że model został „zbudowany na podstawie wieloletnich badań nad bezpieczeństwem i spędziliśmy ponad 6 miesięcy po zakończeniu wstępnego szkolenia, czyniąc go bezpieczniejszym i lepiej dopasowanym przed jego wypuszczeniem”.

„Przejrzyście mówimy o ograniczeniach naszej technologii, zwłaszcza gdy nam się nie udaje” — podkreślił dyrektor generalny.

W chwili pisania tego tekstu Federalna Komisja Handlu nie wydała jeszcze żadnego oficjalnego komentarza.

Więcej problemów prawnych związanych z OpenAI

Sonda FTC to nie jedyne wyzwanie prawne OpenAI musi się martwić. Jak wcześniej MetaNews zgłaszane, OpenAI zostało pozwane o 3 miliardy dolarów w pozwie zbiorowym, w którym oskarżono twórcę ChatGPT o kradzież danych użytkowników.

Według skarga złożony w sądzie federalnym w Kalifornii 28 czerwca, OpenAI rzekomo wykorzystywał „skradzione prywatne informacje” do „szkolenia i rozwijania” swoich produktów, w tym ChatGPT 3.5, ChatGPT 4, Dall-E i Vall-E.

W zeszłym tygodniu komik Sarah Silverman i dwóch innych autorów wniesiony pozew przeciwko OpenAI i Meta, twierdząc, że systemy sztucznej inteligencji tych firm były szkolone na materiałach chronionych prawem autorskim z ich książek bez ich zgody.

Autorzy twierdzą, że firmy wykorzystywały „biblioteki cieni” materiałów chronionych prawem autorskim do trenowania swoich systemów sztucznej inteligencji, co stanowi naruszenie praw autorskich.

Obawy regulacyjne

Szybki rozwój sztucznej inteligencji wzbudził obawy dotyczące potencjalnych zagrożeń związanych z tą technologią, takich jak uprzedzenia, dyskryminacja i naruszenia prywatności. W rezultacie organy regulacyjne na całym świecie zaczynają zwracać baczną uwagę na rozwijającą się branżę.

Rządy zastanawiają się, w jaki sposób istniejące przepisy, takie jak te dotyczące praw autorskich i prywatności danych, można zastosować do sztucznej inteligencji. Rozważają również nowe przepisy, które mogą być potrzebne. Dwa kluczowe obszary, na których się skupiamy, to dane wprowadzane do modeli sztucznej inteligencji oraz generowane przez nie treści.

W Stanach Zjednoczonych przywódca większości w Senacie, Chuck Schumer, wezwał do „kompleksowego ustawodawstwa” w celu zapewnienia bezpieczeństwa sztucznej inteligencji, donosi Washington Post. Zobowiązał się również do zorganizowania serii forów jeszcze w tym roku, których celem będzie „położenie nowych podstaw dla polityki AI”.

Niedawno papież Franciszek wydany wytyczne dotyczące odpowiedzialnego rozwoju AI. Chiny i Europie zaostrzają i dopracowują przepisy dotyczące sztucznej inteligencji.

Znak czasu:

Więcej z MetaWiadomości