Anthropic каже, що не використовуватиме ваші особисті дані для навчання свого штучного інтелекту – розшифруйте

Anthropic каже, що не використовуватиме ваші особисті дані для навчання свого ШІ – розшифруйте

Anthropic каже, що не використовуватиме ваші особисті дані для навчання свого штучного інтелекту – розшифруйте дані PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

Провідний генеративний стартап зі штучного інтелекту Anthropic оголосив, що не використовуватиме дані своїх клієнтів для навчання своєї великої мовної моделі (LLM) і втрутиться, щоб захистити користувачів від позовів щодо авторських прав.

Компанія Anthropic, заснована колишніми дослідниками з OpenAI, оновила рекламний ролик Умови обслуговування викласти свої ідеали та наміри. Виділяючи приватні дані своїх власних клієнтів, Anthropic суттєво відрізняє себе від таких конкурентів, як OpenAI, Amazon і Meta, які використовують вміст користувачів для покращення своїх систем.

Згідно з оновленими умовами, «Anthropic не може тренувати моделі на основі контенту клієнтів із платних послуг», у якому додається, що «у відносинах між сторонами та в межах, дозволених чинним законодавством, anthropic погоджується, що клієнт володіє всіма виходами, і відмовляється від будь-яких прав, отримує контент клієнта відповідно до цих умов».

Умови далі стверджують, що «Anthropic не передбачає отримання будь-яких прав на вміст клієнтів згідно з цими умовами» і що вони «не надають жодній стороні жодних прав на вміст або інтелектуальну власність іншої сторони, опосередковано чи іншим чином».

Оновлений юридичний документ нібито забезпечує захист і прозорість для комерційних клієнтів Anthropic. Компанії володіють усіма результатами штучного інтелекту, наприклад, щоб уникнути потенційних суперечок щодо інтелектуальної власності. Anthropic також зобов’язується захищати клієнтів від претензій щодо авторських прав на будь-який правопорушний вміст, створений Клодом.

Політика узгоджується з Місія Anthropic твердження, що ШІ має бути корисним, нешкідливим і чесним. Оскільки суспільний скептицизм щодо етики генеративного штучного інтелекту зростає, зобов’язання компанії вирішувати такі проблеми, як конфіденційність даних, може дати їй конкурентну перевагу.

Дані користувачів: LLMs’ Vital Food

Великі мовні моделі (LLM), такі як GPT-4, LlaMa або Anthropic’s Claude, — це передові системи штучного інтелекту, які розуміють і генерують людську мову, навчаючись на обширних текстових даних. Ці моделі використовують методи глибокого навчання та нейронні мережі для прогнозування послідовності слів, розуміння контексту та тонкощів мови. Під час навчання вони постійно вдосконалюють свої прогнози, покращуючи свою здатність розмовляти, складати текст або надавати відповідну інформацію. Ефективність LLM значною мірою залежить від різноманітності та обсягу даних, на яких вони навчаються, що робить їх більш точними та контекстуально обізнаними, коли вони вивчають різні мовні моделі, стилі та нову інформацію.

Ось чому дані користувачів є такими цінними для навчання магістрів права. По-перше, це гарантує, що моделі залишаються в курсі останніх лінгвістичних тенденцій і вподобань користувачів (наприклад, розуміння нових сленгів). По-друге, це дозволяє персоналізувати та краще залучати користувачів шляхом адаптації до індивідуальної взаємодії та стилю користувача. Однак це породжує етичну дискусію, оскільки компанії зі штучним інтелектом не платять користувачам за цю важливу інформацію, яка використовується для навчання моделей, що приносить їм мільйони доларів.

Як повідомляє Розшифрувати, Мета нещодавно виявлено що він тренує свій майбутній LlaMA-3 LLM на основі даних користувачів, а його нові моделі EMU (які генерують фотографії та відео з текстових підказок) також навчалися з використанням загальнодоступних даних, завантажених його користувачами в соціальні мережі.

Крім того, Amazon також повідомила, що її майбутній LLM, який використовуватиме оновлену версію Alexa, також навчається розмовам і взаємодії користувачів, однак користувачі можуть відмовитися від навчальних даних, які за замовчуванням налаштовані на припущення, що користувачі погоджуються «[Amazon] завжди вважав, що навчання Alexa запитам у реальному світі має важливе значення для надання користувачам точного й персоналізованого досвіду, який постійно покращується», — речник Amazon сказав Розшифрувати. «Але в тандемі ми даємо клієнтам контроль над тим, чи використовуються їхні записи голосу Alexa для покращення сервісу, і ми завжди враховуємо наші вподобання клієнтів, коли навчаємо наших моделей».

Оскільки технічні гіганти змагаються за випуск найсучасніших служб штучного інтелекту, відповідальне використання даних є ключовим для завоювання довіри громадськості. Anthropic прагне подати приклад у цьому відношенні. Етичні дебати щодо отримання більш потужних і зручних моделей за рахунок передачі особистої інформації сьогодні так само поширені, як і десятиліття тому, коли соціальні мережі популяризували концепцію користувачів стає продуктом в обмін на безкоштовні послуги.

Під редакцією Райана Озави.

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Часова мітка:

Більше від Розшифрувати