Чому позов New York Times щодо авторських прав на штучний інтелект буде важко захистити

Чому позов New York Times щодо авторських прав на штучний інтелект буде важко захистити

Чому позов New York Times щодо авторських прав на штучний інтелект буде складним для захисту даних PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

The New York Times (NYT) судочинство проти OpenAI і Microsoft відкрила новий рубіж у поточних правових проблемах, спричинених використанням захищених авторським правом даних для «навчання» або вдосконалення генеративного ШІ.

Проти компаній зі штучним інтелектом вже подано безліч судових позовів, у тому числі один Getty Images проти Stability AI, який створює онлайн-генератор тексту в зображення Stable Diffusion. Автори Джордж Р. Р. Мартін і Джон Грішем також порушили судові справи проти власника ChatGPT OpenAI через претензії щодо авторських прав. Але справа NYT не є «більше того самого», тому що вона додає нові цікаві аргументи.

Судовий позов зосереджений на значення навчальних даних і нове питання, що стосується репутаційної шкоди. Це потужна суміш торговельних марок і авторського права, яка може перевірити захист добросовісного використання, на який зазвичай покладаються.

За цим, без сумніву, уважно спостерігатимуть медіаорганізації, які прагнуть кинути виклик звичайному підходу до навчальних даних «давайте попросимо вибачення, а не дозволу». Навчальні дані використовуються для покращення продуктивності систем штучного інтелекту та зазвичай складаються з реальної інформації, яку часто беруть з Інтернету.

Позов також представляє новий аргумент, не висунутий в інших подібних справах, який пов’язаний з чимось під назвою «галюцинації», де системи ШІ генерують неправдиву або оманливу інформацію, але подають її як факт. Цей аргумент насправді може бути одним із найпотужніших у цій справі.

Зокрема, справа NYT викликає три цікаві погляди на звичайний підхід. По-перше, завдяки репутації надійних новин та інформації вміст NYT має підвищену цінність і бажаність як навчальні дані для використання в ШІ.

По-друге, через систему оплати NYT відтворення статей за запитом завдає комерційної шкоди. По-третє, це ChatGPT галюцинації завдають репутаційної шкоди New York Times через, по суті, неправдиве приписування авторства.

Це не просто чергова суперечка щодо авторських прав на штучний інтелект. Перший аргумент, представлений NYT, полягає в тому, що навчальні дані, які використовує OpenAI, захищені авторським правом, і тому вони стверджують, що етап навчання ChatGPT порушує авторські права. Ми бачили такий тип аргументів запустити раніше в інших спорах.

Справедливе використання?

Проблема для цього типу атак полягає в тому щит добросовісного використання. У США добросовісне використання — це законодавча доктрина, яка дозволяє використання матеріалів, захищених авторським правом, за певних обставин, наприклад у новинах, наукових роботах і коментарях.

Відповідь OpenAI поки що були дуже обережними, але ключовим принципом у заяві, опублікованій компанією, є те, що використання ними онлайн-даних справді підпадає під принцип «чесного використання».

Передбачаючи деякі труднощі, які потенційно може спричинити такий захист добросовісного використання, NYT прийняв дещо іншу точку зору. Зокрема, він прагне відрізнити свої дані від стандартних даних. NYT має намір використовувати те, що, на його думку, є точністю, достовірністю та престижем своїх репортажів. Він стверджує, що це створює особливо бажаний набір даних.

Він стверджує, що як авторитетне та надійне джерело, його статті мають додаткову вагу та надійність у навчанні генеративному штучному інтелекту та є частиною підмножини даних, якій надається додаткова вага під час цього навчання.

У ньому стверджується, що, значною мірою відтворюючи статті за запитом, ChatGPT може відмовити NYT, який платний, відвідувачів і доходів, які б вони отримали в іншому випадку. Це представлення деяких аспектів комерційної конкуренції та комерційної переваги, здається, має на меті запобігти звичайному захисту добросовісного використання, спільному для цих претензій.

Буде цікаво побачити, чи вплине твердження про спеціальне зважування в даних навчання. Якщо це так, це відкриває шлях для інших медіаорганізацій, щоб оскаржити використання їхніх звітів у навчальних даних без дозволу.

Останній елемент претензії NYT представляє новий кут розгляду виклику. Це свідчить про те, що через матеріали, створені ChatGPT, бренду NYT завдано шкоди. Незважаючи на те, що скарга представлена ​​як запізніла думка, це може бути причиною OpenAI найбільших труднощів.

Це аргумент, пов'язаний з галюцинаціями ШІ. NYT стверджує, що це ускладнюється тим, що ChatGPT представляє інформацію так, що вона надійшла з NYT.

Газета також припускає, що споживачі можуть діяти на основі резюме, наданого ChatGPT, вважаючи, що інформація надходить від NYT і їй варто довіряти. Репутаційна шкода завдана тому, що газета не контролює те, що виробляє ChatGPT.

Це цікавий виклик, щоб завершити. Галюцинації є загальновизнаною проблемою у відповідях, створених штучним інтелектом, і NYT стверджує, що репутаційну шкоду може бути нелегко виправити.

Претензія NYT відкриває низку нових атак, які переміщують увагу з авторського права на те, як ChatGPT представляє захищені авторським правом дані користувачам і цінність цих даних для газети. Це набагато складніше для захисту OpenAI.

За цією справою уважно спостерігатимуть інші медіа-видавці, особливо ті, хто стоїть за системами платного використання, і з особливою увагою до того, як вона взаємодіє зі звичайним захистом добросовісного використання.

Якщо набір даних NYT буде визнано таким, що має «підвищену цінність», про яку він стверджує, це може прокласти шлях для монетизації цього набору даних у навчанні ШІ, а не підходу «прощення, а не дозволу», поширеного сьогодні.

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.

Зображення Фото: AbsolutVision / Unsplash 

Часова мітка:

Більше від Хаб сингулярності