Anthropic pravi, da ne bo uporabil vaših zasebnih podatkov za usposabljanje svoje umetne inteligence – dešifriranje

Anthropic pravi, da ne bo uporabil vaših zasebnih podatkov za usposabljanje svoje umetne inteligence – dešifriranje

Anthropic pravi, da ne bo uporabil vaših zasebnih podatkov za usposabljanje svoje umetne inteligence – dešifriranje podatkovne inteligence PlatoBlockchain. Navpično iskanje. Ai.

Vodilni generativni zagon umetne inteligence Anthropic je izjavil, da ne bo uporabljal podatkov svojih strank za usposabljanje svojega velikega jezikovnega modela (LLM) in da bo stopil v bran uporabnikom, ki se soočajo z zahtevki glede avtorskih pravic.

Anthropic, ki so ga ustanovili nekdanji raziskovalci iz OpenAI, je posodobil svojo reklamo Pogoji Poslovanja da pojasni svoje ideale in namere. Z izrezovanjem zasebnih podatkov lastnih strank se Anthropic močno razlikuje od tekmecev, kot so OpenAI, Amazon in Meta, ki izkoriščajo uporabniško vsebino za izboljšanje svojih sistemov.

»Anthropic ne sme usposabljati modelov na vsebini strank iz plačljivih storitev,« v skladu s posodobljenimi pogoji, ki dodajajo, da »med strankama in v obsegu, ki ga dovoljuje veljavna zakonodaja, se anthropic strinja, da je stranka lastnica vseh izhodov, in se odreka vsem pravicam, ki jih ima stranki prejme vsebino pod temi pogoji.”

Pogoji dalje pravijo, da "Anthropic ne predvideva pridobitve nobenih pravic do vsebine strank pod temi pogoji" in da "nobeni stranki ne podeljuje nobenih pravic do vsebine ali intelektualne lastnine druge, implicitno ali drugače."

Posodobljeni pravni dokument navidezno zagotavlja zaščito in preglednost za komercialne stranke Anthropic. Podjetja imajo v lasti vse ustvarjene rezultate umetne inteligence, na primer izogibanje morebitnim sporom glede intelektualne lastnine. Anthropic se prav tako zavezuje, da bo stranke branil pred zahtevki glede avtorskih pravic v zvezi s kakršno koli kršitvijo vsebine, ki jo je ustvaril Claude.

Politika se ujema z Poslanstvo Anthropic izjavo, da mora biti umetna inteligenca koristna, neškodljiva in poštena. Ker javni skepticizem narašča glede etike generativne umetne inteligence, bi lahko zavezanost podjetja, da obravnava vprašanja, kot je zasebnost podatkov, zagotovila konkurenčno prednost.

Podatki uporabnikov: LLMs’ Vital Food

Veliki jezikovni modeli (LLM), kot so GPT-4, LlaMa ali Anthropic's Claude, so napredni sistemi umetne inteligence, ki razumejo in ustvarjajo človeški jezik z urjenjem na obsežnih besedilnih podatkih. Ti modeli izkoriščajo tehnike globokega učenja in nevronske mreže za predvidevanje zaporedij besed, razumevanje konteksta in dojemanje tankosti jezika. Med usposabljanjem nenehno izpopolnjujejo svoje napovedi, izboljšujejo svojo sposobnost pogovora, sestavljanja besedila ali zagotavljanja ustreznih informacij. Učinkovitost LLM-jev je močno odvisna od raznolikosti in obsega podatkov, na katerih se usposabljajo, zaradi česar so bolj natančni in kontekstualno ozaveščeni, ko se učijo iz različnih jezikovnih vzorcev, stilov in novih informacij.

In zato so podatki uporabnikov tako dragoceni pri usposabljanju LLM. Prvič, zagotavlja, da modeli ostanejo posodobljeni z najnovejšimi jezikovnimi trendi in uporabniškimi preferencami (na primer razumevanje novih slengov). Drugič, omogoča personalizacijo in boljšo angažiranost uporabnikov s prilagajanjem interakcijam in slogom posameznih uporabnikov. Vendar to sproža etično razpravo, ker podjetja z umetno inteligenco ne plačujejo uporabnikom za te ključne informacije, ki se uporabljajo za usposabljanje modelov, ki jim prinašajo milijone dolarjev.

Kot poročajo Dešifriraj, Meta pred kratkim razkril da usposablja svoj prihajajoči LlaMA-3 LLM na podlagi podatkov uporabnikov, njegovi novi modeli EMU (ki ustvarjajo fotografije in videoposnetke iz besedilnih pozivov) pa so bili usposabljani tudi z uporabo javno dostopnih podatkov, ki so jih uporabniki naložili na družbene medije.

Poleg tega je Amazon razkril tudi, da se njegov prihajajoči LLM, ki bi poganjal nadgrajeno različico Alexa, usposablja tudi na pogovorih in interakcijah uporabnikov, vendar se lahko uporabniki odjavi od podatkov o usposabljanju, ki so privzeto nastavljeni tako, da se uporabniki strinjajo. »[Amazon] je vedno verjel, da je usposabljanje Alexa za zahteve iz resničnega sveta bistvenega pomena za zagotavljanje izkušnje strankam, ki je natančna in prilagojena ter se nenehno izboljšuje,« je tiskovni predstavnik Amazona Rekel Dešifriraj. "Toda v tandemu strankam damo nadzor nad tem, ali se njihovi glasovni posnetki Alexa uporabljajo za izboljšanje storitve, in pri usposabljanju naših modelov vedno spoštujemo naše želje strank."

Ker tehnološki velikani tekmujejo za izdajo najnaprednejših storitev umetne inteligence, je odgovorno ravnanje s podatki ključnega pomena za pridobivanje zaupanja javnosti. Anthropic želi biti zgled v zvezi s tem. Etična razprava o pridobivanju zmogljivejših in priročnejših modelov na račun predaje osebnih podatkov je danes tako razširjena kot pred desetletji, ko so družbeni mediji popularizirali koncept uporabnikov. postane izdelek v zameno za brezplačne storitve.

Uredil Ryan Ozawa.

Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.

Časovni žig:

Več od Dešifriraj