Anthropic sanoo, että se ei käytä yksityisiä tietojasi tekoälynsä kouluttamiseen - Pura salaus

Anthropic sanoo, että se ei käytä yksityisiä tietojasi tekoälynsä kouluttamiseen – Pura salaus

Anthropic sanoo, että se ei käytä yksityisiä tietojasi tekoälynsä kouluttamiseen - Pura PlatoBlockchain-tietoälyn salaus. Pystysuuntainen haku. Ai.

Johtava generatiivinen tekoälystartuppi Anthropic on ilmoittanut, että se ei käytä asiakkaidensa tietoja LLM-mallinsa kouluttamiseen ja että se astuu puolustamaan käyttäjiä tekijänoikeusvaatimuksia vastaan.

OpenAI:n entisten tutkijoiden perustama Anthropic päivitti mainoksensa Käyttöehdot ilmaisemaan sen ihanteet ja aikomukset. Karkaisemalla omien asiakkaidensa yksityisiä tietoja Anthropic erottuu vahvasti kilpailijoista, kuten OpenAI, Amazon ja Meta, jotka hyödyntävät käyttäjien sisältöä parantaakseen järjestelmiään.

"Anthropic ei saa kouluttaa malleja maksullisten palveluiden asiakassisällöstä", päivitettyjen ehtojen mukaan, mikä lisää, että "osapuolten välillä ja sovellettavan lain sallimissa rajoissa anthropic hyväksyy, että asiakas omistaa kaikki tuotokset, ja kieltäytyy kaikista siihen liittyvistä oikeuksista vastaanottaa asiakkaalle sisältöä näiden ehtojen mukaisesti."

Ehdoissa sanotaan edelleen, että "Anthropic ei odota saavansa mitään oikeuksia asiakkaiden sisältöön näiden ehtojen mukaisesti" ja että ne "eivät myönnä kummallekaan osapuolelle mitään oikeuksia toisen sisältöön tai immateriaaliomaisuuteen epäsuorasti tai muuten."

Päivitetty oikeudellinen asiakirja näennäisesti tarjoaa suojaa ja läpinäkyvyyttä Anthropicin kaupallisille asiakkaille. Yritykset omistavat kaikki luodut tekoälytulosteet esimerkiksi välttäen mahdolliset IP-kiistat. Anthropic sitoutuu myös puolustamaan asiakkaita tekijänoikeusvaatimuksilta, jotka koskevat Clauden tuottamaa loukkaavaa sisältöä.

Politiikka on yhdenmukainen Anthropicin tehtävä lausunto, jonka mukaan tekoälyn pitäisi olla hyödyllistä, vaaratonta ja rehellistä. Kun yleinen skeptisyys generatiivisen tekoälyn etiikkaa kohtaan kasvaa, yrityksen sitoutuminen tietosuojan kaltaisiin huolenaiheisiin voi antaa sille kilpailuetua.

Käyttäjien tiedot: LLMs' Vital Food

Suuret kielimallit (LLM), kuten GPT-4, LlaMa tai Anthropic's Claude, ovat kehittyneitä tekoälyjärjestelmiä, jotka ymmärtävät ja luovat ihmisten kieltä kouluttautumalla laajaan tekstidataan. Nämä mallit hyödyntävät syväoppimistekniikoita ja hermoverkkoja ennustamaan sanasekvenssejä, ymmärtämään kontekstia ja ymmärtämään kielen hienouksia. Harjoittelun aikana he jatkuvasti parantavat ennusteitaan ja parantavat kykyään keskustella, säveltää tekstiä tai tarjota olennaista tietoa. LLM:ien tehokkuus riippuu suuresti heille koulutetun tiedon monimuotoisuudesta ja määrästä, mikä tekee niistä tarkempia ja kontekstuaalisesti tietoisempia, kun he oppivat erilaisista kielimalleista, tyyleistä ja uudesta tiedosta.

Ja tästä syystä käyttäjien tiedot ovat niin arvokkaita LLM:ien koulutuksessa. Ensinnäkin se varmistaa, että mallit pysyvät ajan tasalla uusimpien kielitrendien ja käyttäjien mieltymysten kanssa (esimerkiksi uusien slangien ymmärtäminen). Toiseksi se mahdollistaa personoinnin ja paremman käyttäjien sitoutumisen mukautumalla yksittäisten käyttäjien vuorovaikutukseen ja tyyleihin. Tämä aiheuttaa kuitenkin eettistä keskustelua, koska tekoälyyritykset eivät maksa käyttäjille tästä tärkeästä tiedosta, jota käytetään kouluttamaan malleja, jotka tienaavat heille miljoonia dollareita.

Ilmoittamat Pura, Meta ilmeni hiljattain että se kouluttaa tulevaa LlaMA-3 LLM:ään käyttäjien tietojen perusteella, ja sen uusia EMU-malleja (jotka luovat kuvia ja videoita tekstikehotteista) koulutettiin myös käyttäjien sosiaalisessa mediassa lataamien julkisesti saatavilla olevien tietojen perusteella.

Tämän lisäksi Amazon paljasti myös, että sen tulevaa LLM:ää, joka toimittaisi päivitetyn Alexan version, koulutetaan myös käyttäjien keskusteluihin ja vuorovaikutukseen, mutta käyttäjät voivat kieltäytyä koulutustiedoista, joiden oletusarvoisesti oletetaan, että käyttäjät suostuvat. "[Amazon] on aina uskonut, että Alexan kouluttaminen tosielämän pyyntöihin on välttämätöntä, jotta asiakkaille voidaan tarjota täsmällinen ja henkilökohtainen ja jatkuvasti parempi kokemus", Amazonin tiedottaja kertoi Pura. "Mutta samanaikaisesti annamme asiakkaille mahdollisuuden hallita sitä, käytetäänkö heidän Alexa-äänitallenteitaan palvelun parantamiseen, ja kunnioitamme aina asiakkaiden toiveita, kun koulutamme mallejamme."

Teknologiajättiläiset kilpailevat kehittääkseen edistyneimpiä tekoälypalveluita, joten vastuulliset datakäytännöt ovat avainasemassa yleisön luottamuksen ansaitsemisessa. Anthropic pyrkii näyttämään esimerkkiä tässä asiassa. Eettinen keskustelu tehokkaampien ja kätevämpien mallien hankkimisesta henkilötietojen luovuttamisen kustannuksella on nykyään yhtä yleistä kuin vuosikymmeniä sitten, kun sosiaalinen media suosi käyttäjien käsitettä. tulossa tuotteeksi vastineeksi ilmaisista palveluista.

Toimittaja Ryan Ozawa.

Pysy ajan tasalla kryptouutisista, saat päivittäiset päivitykset postilaatikkoosi.

Aikaleima:

Lisää aiheesta Pura