Az Anthropic azt mondja, hogy nem használja fel az Ön személyes adatait mesterséges intelligenciája betanításához – Decrypt

Az Anthropic azt mondja, hogy nem használja fel az Ön személyes adatait mesterséges intelligencia betanításához – Decrypt

Anthropic Says It Won’t Use Your Private Data to Train Its AI - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

A vezető generatív AI startup, az Anthropic kijelentette, hogy nem használja fel ügyfelei adatait a Large Language Model (LLM) betanításához, és fellép a szerzői jogi követelésekkel szembesülő felhasználók védelmében.

Anthropic, founded by former researchers from OpenAI, updated its commercial Általános Szerződési Feltételek to spell out its ideals and intentions. By carving out the private data of its own customers, Anthropic is solidly differentiating itself from rivals like OpenAI, Amazon and Meta, which do leverage user content to improve their systems.

A frissített feltételek szerint „az Anthropic nem képezhet modelleket a fizetős szolgáltatásokból származó ügyféltartalomra”, amely hozzáteszi, hogy „a felek között és a vonatkozó törvények által megengedett mértékig az anthropic beleegyezik abba, hogy az ügyfél birtokolja az összes kimenetet, és lemond minden jogáról. jelen feltételek szerint kapja meg az ügyfél tartalmat.”

A feltételek kimondják, hogy „az Anthropic nem feltételezi, hogy a jelen feltételek értelmében semmilyen jogot szerezhet az ügyfelek tartalmára vonatkozóan”, és „egyik félnek sem biztosítanak semmilyen jogot a másik tartalmaihoz vagy szellemi tulajdonához, közvetve vagy más módon”.

A frissített jogi dokumentum látszólag védelmet és átláthatóságot biztosít az Anthropic kereskedelmi ügyfelei számára. A cégek az összes AI-kimenetet birtokolják, például elkerülve az esetleges IP-vitákat. Az Anthropic emellett kötelezettséget vállal arra, hogy megvédi ügyfeleit a szerzői jogi követelésekkel szemben a Claude által előállított jogsértő tartalommal kapcsolatban.

The policy aligns with Anthropic’s mission statement that AI should be beneficial, harmless, and honest. As public skepticism grows over the ethics of generative AI, the company’s commitment to addressing concerns like data privacy could give it a competitive edge.

Felhasználói adatok: LLM-ek Vital Food

A nagy nyelvi modellek (LLM), mint például a GPT-4, a LlaMa vagy az Anthropic's Claude olyan fejlett mesterséges intelligencia rendszerek, amelyek megértik és generálják az emberi nyelvet azáltal, hogy kiterjedt szöveges adatokra tanítják őket. Ezek a modellek mély tanulási technikákat és neurális hálózatokat alkalmaznak a szósorozatok előrejelzésére, a kontextus megértésére és a nyelv finomságainak megértésére. A képzés során folyamatosan finomítják előrejelzéseiket, javítva ezzel a társalgási, szövegalkotási vagy releváns információszolgáltatási képességüket. Az LLM-ek hatékonysága nagymértékben függ az általuk kiképzett adatok sokféleségétől és mennyiségétől, így pontosabbá és kontextuálisabbá válik, ahogy tanulnak a különböző nyelvi mintákból, stílusokból és új információkból.

És ez az oka annak, hogy a felhasználók adatai olyan értékesek az LLM-ek képzésében. Először is biztosítja, hogy a modellek naprakészek maradjanak a legújabb nyelvi trendekkel és felhasználói preferenciákkal (például az új szlengek megértésével). Másodszor, lehetővé teszi a személyre szabást és a jobb felhasználói elköteleződést azáltal, hogy alkalmazkodik az egyéni felhasználói interakciókhoz és stílusokhoz. Ez azonban etikai vitát generál, mivel az AI-cégek nem fizetnek a felhasználóknak ezért a kulcsfontosságú információért, amelyet olyan modellek képzésére használnak, amelyek dollármilliókat termelnek.

Amint arról a visszafejtése, Meta nemrég kiderült that it is training its upcoming LlaMA-3 LLM based on users’ data and its new EMU models (which generate photos and videos from text prompts) were also trained using publicly available data uploaded by its users on social media.

Besides that, Amazon also revealed that its upcoming LLM, which would power an upgraded version of Alexa is also being trained on users’ conversations and interactions, however, users can opt-out of the training data which by default is set to assume users agree to share this information.“[Amazon] has always believed that training Alexa with real-world requests is essential to delivering an experience to customers that’s accurate and personalized and constantly getting better,” an Amazon spokesperson mondta visszafejtése. "De párhuzamosan biztosítjuk az ügyfeleknek a felett, hogy az Alexa hangfelvételeiket felhasználják-e a szolgáltatás javítására, és mindig tiszteletben tartjuk vásárlóink ​​preferenciáit, amikor modelljeinket betanítjuk."

With tech giants racing to release the most advanced AI services, responsible data practices are key to earning public trust. Anthropic aims to lead by example in this regard. The ethical debate over gaining more powerful and convenient models at the expense of surrendering personal information is as prevalent today as it was decades ago when social media popularized the concept of users becoming the product in exchange for free services.

Szerkesztette: Ryan Ozawa.

Maradjon naprakész a kriptográfiai hírekkel, és napi frissítéseket kaphat a postaládájában.

Időbélyeg:

Még több visszafejtése