Штучний інтелект і закон: юрист пояснює ризики для компаній - Mass Tech Leadership Council

Штучний інтелект і закон: юрист пояснює ризики для компаній – Mass Tech Leadership Council

Штучний інтелект і закон: юрист пояснює ризики для компаній - Рада лідерства масових технологій PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Юрист, який спеціалізується на конфіденційності даних, вивчає ризики ШІ.

Карколомний розвиток штучного інтелекту призводить до великої плутанини у світі бізнесу. Але плутанина – це не обов’язково погано. Якщо зустріти це зі щирою цікавістю та бажанням зрозуміти, це може перетворитися на мудрість.

Кріс Харт, партнер бостонської юридичної фірми Foley Hoag, це добре розуміє. Як співголова групи захисту конфіденційних даних компанії, Харт консультує бізнес-клієнтів щодо дотримання нормативних вимог, допомагаючи їм визначити ризики та прийняти політику, щоб уникнути юридичних проблем.

Нещодавно Харт виступав разом із двома членами Інституту досвідченого штучного інтелекту (Метью Семплем, спеціалістом з етики штучного інтелекту, та Кансу Канка, директором Відповідальна практика ШІ) на заході, організованому Рада керівництва масовими технологіями. Подія, яка залучила різноманітну групу учасників, була розроблена, щоб допомогти компаніям зрозуміти, як оптимізувати свої операції за допомогою ШІ.

Юридична небезпека

Поширеною помилкою є те, що штучний інтелект нерегульований. Хоча існує не так багато законів, що стосуються штучного інтелекту, є багато законів, які застосовуються до технологій ШІ. Частиною роботи Харта є консультування клієнтів щодо ризиків, пов’язаних із законами, з якими клієнти можуть бути не знайомі. Перший крок, пояснює він, полягає в тому, щоб провести різницю: ми говоримо про системи штучного інтелекту, які зараз знаходяться в розробці, чи сторонні системи, які використовують компанії?

«Одна з речей, яка стала зрозумілою з великими мовними моделями, які зараз досить повсюдно використовуються для робочих цілей, полягає в тому, що якою б не була їхня корисність, можуть виникнути проблеми щодо конфіденційності їхніх вхідних даних», — каже Харт. «Будьте дуже обережні, щоб не розміщувати конфіденційну інформацію для юридичних фірм, не розміщувати привілейовану інформацію, не розміщувати конфіденційну інформацію, яка потім може бути використана як навчальна інформація та ненавмисно розкрита».

Існують також проблеми з інтелектуальною власністю, особливо у випадку генеративного штучного інтелекту, що призвело до низки судових позовів щодо авторських прав проти компаній штучного інтелекту. Найпомітніше, The New York Times подав позов проти OpenAI; Getty Images подав до суду стабільна дифузія; і група авторів, включаючи Джона Грішема, Джоді Піколт і Джорджа Р. Р. Мартіна подав до суду OpenAI для «систематичної масової крадіжки».

Наскільки триватимуть ці судові позови, ще належить побачити, але навряд чи можна недооцінювати шкоду залученим компаніям, і урок очевидний: компаніям, які використовують штучний інтелект, особливо тим, які розробляють нові інструменти, потрібно бути легковажними.

«Якою мірою цей інструмент прийматиме несприятливі рішення для організацій?» — запитує Харт. «Чи є упередженість, чи вона може бути? Як захиститися від цього на етапі розробки? Як перевірити весь процес після того, як ви його зібрали, щоб переконатися, що ви можете повернутися назад і виправити проблеми?»

Нові перспективи

Це складні запитання, відповіді на які залежать від конкретних випадків використання. Вони також говорять про важливість створення структури відповідального штучного інтелекту (RAI) на кожному етапі розробки та розгортання. Здається, що успіх ШІ все частіше визначається ступенем, до якого компанії можуть шанувати мультидисциплінарний підхід.

Ось чому Інститут досвідченого ШІ серед своїх рядів є інженери, а також філософи, юристи, економісти тощо. Саме тому і Інститут, і Foley Hoag є членами Ради керівництва масовими технологіями (MTLC), технологічної асоціації, яка об’єднує лідерів із «різними поглядами» для вирішення актуальних юридичних та економічних проблем.

«Потрібно мати людей, які розуміються на технології», — каже Харт. «Ви повинні залучити інженерів, але ви також повинні залучити юристів. Ви повинні мати людей, які дивляться на це з різних точок зору, готові критично подумати про те, для чого призначена технологія та чи може вона створити відомі чи ненавмисні несприятливі результати».

Терпіння - це чеснота

Серед усього галасу про штучний інтелект легко забути про важливість терпіння. Справи розвиваються швидко, тому, зрозуміло, компанії бояться, що якщо вони не «рухатимуться швидко і не зламають речі», то втратять свою конкурентну перевагу. Харт виступає за більш обережний підхід.

«Деякі компанії були змушені вийти на ринок раніше, ніж вони, можливо, планували, оскільки ChatGPT підірвав усе», — пояснює Харт. «Організації повинні ретельно розглянути, наскільки зрілими є їхні постачальники ШІ, особливо тому, що вони повинні розуміти, що відбувається з їхніми даними».

З одного боку, експерти кажуть, що ШІ обіцяє революцію. Від генеративного штучного інтелекту до медичної діагностики, широту його потенціалу непросто звести до одного кроку. З іншого боку, така груба прогностична сила вимагає не лише терпіння, але й перспективи. Небагато компаній здатні самостійно орієнтуватися в цьому новому ландшафті.

Щоб навчитися Інститут досвідченого ШІ— зі своїми списками інженерів, науковців і практиків зі штучного інтелекту може допомогти вашому бізнесу орієнтуватися в цих важких водах, натисніть тут.

Часова мітка:

Більше від MassTLC