Anthropic twierdzi, że nie wykorzysta Twoich prywatnych danych do szkolenia swojej sztucznej inteligencji – odszyfruj

Anthropic twierdzi, że nie wykorzysta Twoich prywatnych danych do szkolenia swojej sztucznej inteligencji – odszyfruj

Anthropic twierdzi, że nie będzie wykorzystywać Twoich prywatnych danych do szkolenia swojej sztucznej inteligencji – odszyfruj inteligencję danych PlatoBlockchain Wyszukiwanie pionowe. AI.

Wiodący startup zajmujący się generatywną sztuczną inteligencją, Anthropic, zadeklarował, że nie będzie wykorzystywać danych swoich klientów do szkolenia swojego modelu dużego języka (LLM) i wkroczy w obronę użytkowników zagrożonych roszczeniami dotyczącymi praw autorskich.

Anthropic, założona przez byłych badaczy OpenAI, zaktualizowała swoją reklamę Regulamin przedstawić swoje ideały i intencje. Pozyskując prywatne dane swoich klientów, Anthropic mocno odróżnia się od rywali, takich jak OpenAI, Amazon i Meta, którzy wykorzystują treści użytkowników do ulepszania swoich systemów.

„Anthropic nie może trenować modeli na podstawie treści klientów pochodzących z usług płatnych” – zgodnie ze zaktualizowanymi warunkami, które dodają, że „w stosunkach między stronami i w zakresie dozwolonym przez obowiązujące prawo firma anthropic zgadza się, że klient jest właścicielem wszystkich wyników i zrzeka się wszelkich praw, jakie mu przysługują otrzymuje Klientowi treści na niniejszych warunkach.”

Warunki stanowią dalej, że „Anthropic nie przewiduje uzyskania jakichkolwiek praw do treści klientów na mocy niniejszych warunków” oraz że „nie przyznaje żadnej ze stron żadnych praw do treści lub własności intelektualnej drugiej strony, w sposób dorozumiany lub w inny sposób”.

Zaktualizowany dokument prawny rzekomo zapewnia ochronę i przejrzystość klientom komercyjnym Anthropic. Firmy są właścicielami wszystkich wygenerowanych wyników sztucznej inteligencji, co pozwala na przykład uniknąć potencjalnych sporów dotyczących własności intelektualnej. Anthropic zobowiązuje się także do obrony klientów przed roszczeniami dotyczącymi praw autorskich w związku z treściami naruszającymi prawa autorskie wyprodukowanymi przez Claude.

Polityka jest zgodna z Misja Anthropic stwierdzenie, że sztuczna inteligencja powinna być korzystna, nieszkodliwa i uczciwa. W miarę narastania społecznego sceptycyzmu wobec etyki generatywnej sztucznej inteligencji zaangażowanie firmy w rozwiązywanie problemów takich jak prywatność danych może zapewnić jej przewagę konkurencyjną.

Dane użytkowników: Vital Food LLM

Duże modele językowe (LLM), takie jak GPT-4, LlaMa czy Claude firmy Anthropic, to zaawansowane systemy sztucznej inteligencji, które rozumieją i generują język ludzki poprzez szkolenie na obszernych danych tekstowych. Modele te wykorzystują techniki głębokiego uczenia się i sieci neuronowe do przewidywania sekwencji słów, rozumienia kontekstu i uchwycenia subtelności języka. Podczas szkoleń stale udoskonalają swoje przewidywania, zwiększając umiejętność prowadzenia konwersacji, pisania tekstu czy przekazywania istotnych informacji. Skuteczność LLM zależy w dużej mierze od różnorodności i ilości danych, na których się uczą, dzięki czemu są one dokładniejsze i bardziej świadome kontekstu, gdy uczą się na podstawie różnych wzorców językowych, stylów i nowych informacji.

I dlatego dane użytkowników są tak cenne w szkoleniu LLM. Po pierwsze, zapewnia, że ​​modele są na bieżąco z najnowszymi trendami językowymi i preferencjami użytkowników (np. rozumieniem nowych slangów). Po drugie, pozwala na personalizację i lepsze zaangażowanie użytkownika poprzez dostosowanie się do indywidualnych interakcji i stylu użytkownika. Rodzi to jednak debatę etyczną, ponieważ firmy zajmujące się sztuczną inteligencją nie płacą użytkownikom za te kluczowe informacje, które są wykorzystywane do uczenia modeli, które przynoszą im miliony dolarów.

Jak donoszą Odszyfruj, Połowa niedawno ujawnione że szkoli swój nadchodzący LlaMA-3 LLM w oparciu o dane użytkowników, a jego nowe modele EMU (generujące zdjęcia i filmy na podstawie podpowiedzi tekstowych) również zostały przeszkolone przy użyciu publicznie dostępnych danych przesłanych przez użytkowników w mediach społecznościowych.

Poza tym Amazon ujawnił również, że nadchodzący LLM, który będzie obsługiwał ulepszoną wersję Alexy, jest również szkolony w zakresie rozmów i interakcji użytkowników, jednak użytkownicy mogą zrezygnować z danych szkoleniowych, które domyślnie zakładają, że użytkownicy wyrażają zgodę udostępnić te informacje. „[Amazon] zawsze wierzyła, że ​​szkolenie Alexy na podstawie rzeczywistych żądań jest niezbędne, aby zapewnić klientom dokładne, spersonalizowane i stale ulepszane doświadczenia” – rzecznik Amazon powiedział Odszyfruj. „Ale jednocześnie dajemy klientom kontrolę nad tym, czy ich nagrania głosowe Alexa są wykorzystywane do ulepszania usług, i zawsze honorujemy nasze preferencje klientów, szkoląc nasze modele”.

Ponieważ giganci technologiczni ścigają się, aby udostępnić najbardziej zaawansowane usługi AI, odpowiedzialne praktyki dotyczące danych są kluczem do zdobycia zaufania publicznego. Celem Anthropic jest dawanie przykładu w tym zakresie. Debata etyczna na temat uzyskania potężniejszych i wygodniejszych modeli kosztem udostępniania danych osobowych jest dziś tak samo powszechna, jak kilkadziesiąt lat temu, kiedy media społecznościowe spopularyzowały koncepcję użytkownika stając się produktem w zamian za bezpłatne usługi.

Pod redakcją Ryana Ozawy.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

Znak czasu:

Więcej z Odszyfruj