Великі мовні моделі можуть вам брехати - цей професор хоче, щоб ви знали, коли вони це роблять - Mass Tech Leadership Council

Великі мовні моделі можуть вам брехати – цей професор хоче, щоб ви знали, коли вони це роблять – Mass Tech Leadership Council

Великі мовні моделі можуть вам брехати – цей професор хоче, щоб ви знали, коли вони це роблять – Mass Tech Leadership Council PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Розмовляйте майже з ким завгодно — тобто з будь-якою людиною — і ваша розмова зустрінеться з чим Маліхе Аліхані називає «здоровими тертями», моменти, коли ваша мета в розмові стикається з метою вашого партнера, моменти, які вимагають роз’яснення, викликають плутанину або призводять до розбіжностей.

Не так з великими мовними моделями.

Аліхані, доцент Коледжу комп’ютерних наук Хурі при Північно-східному університеті, каже, що великі мовні моделі, такі як ChatGPT, мають серйозну проблему з певністю.

Новий проект Аліхані під назвою Friction for Accountability in Conversational Transactions (FACT) є результатом співпраці між Північно-східним університетом, Університетом Іллінойсу Урбана-Шампейн та Університетом Південної Каліфорнії.

Проект FACT, який фінансується за рахунок гранту на дослідження штучного інтелекту через Агентство перспективних оборонних досліджень, спрямований на розробку більш прозорих і справедливих інструментів штучного інтелекту.

«Одна з речей, яка робить людське спілкування плідним інструментом, — каже Аліхані, — це те, що ми виражаємо свою невпевненість у своїй промові, у своєму тоні. Ми передаємо це у свій вираз обличчя».

Здорові тертя, які виникають через невизначеність у спілкуванні між людьми, допомагають підтримувати різноманітність думок і точок зору, продовжує вона.

Але великі мовні моделі (або LLM) не зацікавлені у вираженні своєї невизначеності, що призводить до того, що Аліхані називає «підлабузницькою поведінкою». Великі мовні моделі «бажають максимізувати задоволення» своїх користувачів, каже вона, і «ніколи не створюють ніяких суперечок у розмові, незалежно від того, впевнена [модель]» у своїх твердженнях чи ні.

Додаткові проблеми виникають із великими моделями мови через їх схильність до галюцинацій. LLM «вигадують факти. Вони дуже добре вміють переконувати людей у ​​вигаданих фактах».

Незважаючи на ці проблеми, Аліхані також каже, що люди схильні надмірно покладатися на «факти», створені цими моделями штучного інтелекту, які «можуть вигадати факти, щоб зробити вас щасливими».

Частково через те, що користувачі надмірно покладаються на LLM, є їхня «людська поведінка», каже вона. «Це буде маніпулювати нашим пізнанням».

Здається, що великі мовні моделі видають свої відповіді миттєво, що є ще одним фактором, який змушує користувачів вважати правильними. «Нам, вченим штучного інтелекту, важко сказати людям: «Так, це узгоджено. Так, це швидко. Так, це налаштовується на ваш стиль. Але це галюцинація», — каже Аліхані.

У рамках свого нового гранту Аліхані та її команда розроблять інструменти, які демонструватимуть рівні впевненості, які має LLM щодо своїх заяв, і впровадять здорові суперечки в розмову між людиною та ШІ.

«Як ми можемо передбачити та вербалізувати довіру системи?» — запитує Аліхані. Якщо модель штучного інтелекту «лише на 2% впевнена, вона повинна висвітлити це».

«Одна з головних цілей дослідження — змоделювати невизначеність, вивести невизначеність назовні» та навчити магістрів, як зобразити цю невизначеність у розмові між людиною та ШІ. Це може відображатися в інтерфейсі користувача як процентний бал достовірності моделі, або модель може відображати невизначеність у своїх відповідях більш схожим на людину способом.

Наприклад, Аліхані уявляє ситуацію, в якій пацієнт може задати великій мовній моделі запитання про своє здоров’я. Поточне покоління магістрів права намагатиметься дати відповідь, навіть якщо ця відповідь може виявитися небезпечною. Аліхані сподівається створити моделі, які зможуть сказати: «Я не знаю. Ви повинні покликати свою медсестру».

«Надійність є ключем до підзвітності в ШІ», — каже Аліхані. На даний момент LLM зазвичай відповідає однією відповіддю на запит під час запиту та зовсім іншою відповіддю через кілька хвилин.

Коли йдеться про розробку безпечного та підзвітного штучного інтелекту, попередні системи штучного інтелекту, які могли б допомогти у виконанні простих завдань, «не мали доступу до купи інших наборів даних, — каже Аліхані, — і вони не могли сказати речі, які могли б бути небезпечними. , оскільки цього не було в їхніх даних».

Саме те, що ці набори даних включають або виключають, є ключовим для подолання упереджень, які LLM демонструють щодо «гендерних, але також тонких упереджень, таких як протилежні сторонні групи та різні когнітивні упередження, які відображені в [великих мовних] моделях».

Тепер Аліхані сподівається розробити моделі, які обслуговуватимуть людей із «різними можливостями та вподобаннями», — каже вона.

«Ми не хочемо просто продовжувати будувати системи для населення, для якого маємо дані, але ми думаємо про те, кого ми залишаємо позаду, і як ми можемо зупинити цю величезну прірву нерівності, а не погіршувати її?» — запитує вона. «Мета моєї лабораторії — рухатися в цьому напрямку».

Часова мітка:

Більше від MassTLC