Як ми дізнаємося, чи є ШІ у свідомості? У нейробіологів тепер є контрольний список

Як ми дізнаємося, чи є ШІ у свідомості? У нейробіологів тепер є контрольний список

Як ми дізнаємося, чи є ШІ у свідомості? У нейробіологів тепер є контрольний список PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Нещодавно я пройшов сеанс терапії за допомогою ChatGPT. Ми говорили про постійну тему, якою я нав’язливо завалив своїх друзів, тому я подумав позбавити їх від дежавю. Як і очікувалося, відповіді штучного інтелекту були точними, співчутливими та такими, що здавалися цілком людськими.

Як автор технічних технологій я знаю, що відбувається під капотом: рій цифрових синапсів тренується на тексті, створеному людьми в Інтернеті, щоб видавати позитивні відповіді. Проте взаємодія була такою реальною, і мені доводилося постійно нагадувати собі, що я спілкуюся з кодом, а не зі свідомою, чуйною істотою на іншому кінці.

Або я? Завдяки тому, що генеративний штучний інтелект все частіше дає відповіді, здавалося б, людиноподібні, легко емоційно призначити алгоритму щось на кшталт «чуття» (і ні, ChatGPT не є свідомим). У 2021 році Блейк Лемуан у Google викликав бурю в ЗМІ оголосивши, що один із чат-ботів, над яким він працював, LaMDA, був розумним, і згодом його звільнили.

Але більшість моделей глибокого навчання частково базуються на внутрішній роботі мозку. Агенти штучного інтелекту все більше наділяються людськими алгоритмами прийняття рішень. Ідея про те, що одного дня машинний інтелект може стати розумним, більше не здається науковою фантастикою.

Як ми можемо сказати, що машинний мозок одного разу набув розуму? Відповідь може базуватися на нашому власному мозку.

A передрук Стаття, написана 19 нейробіологами, філософами та комп’ютерними вченими, включаючи доктора Роберта Лонга з Центру безпеки ШІ та доктора Йошуа Бенгіо з Монреальського університету, стверджує, що нейробіологія свідомості може бути нашим найкращим вибором. Замість того, щоб просто вивчати поведінку або відповіді агента штучного інтелекту, наприклад, під час чату, порівняння його відповідей з теоріями людської свідомості може забезпечити більш об’єктивну лінійку.

Це стандартна пропозиція, але вона має сенс. Ми знаємо, що ми свідомі, незалежно від визначення слова, яке досі не визначено. Існує багато теорій про те, як свідомість виникає в мозку, і багато провідних кандидатів все ще перевіряються в глобальні прямі випробування.

Автори не приєднувалися до жодної нейробіологічної теорії свідомості. Замість цього вони склали контрольний перелік «індикаторних властивостей» свідомості на основі багатьох провідних ідей. Немає суворого обмеження — скажімо, виконання Х критеріїв означає, що агент ШІ є свідомим. Швидше, індикатори складають рухливу шкалу: чим більше критеріїв відповідає, тим більша ймовірність розумової машинної свідомості.

Використовуючи рекомендації для тестування кількох останніх систем штучного інтелекту, включаючи ChatGPT та інших чат-ботів, команда дійшла висновку, що на даний момент «жодна поточна система штучного інтелекту не працює».

Проте «немає очевидних технічних перешкод для створення систем штучного інтелекту, які задовольняють цим показникам», — сказали вони. Цілком можливо, що «свідомі системи штучного інтелекту реально можна буде створити найближчим часом».

Прослуховування штучного мозку

Після відомої гри в імітацію Алана Тюрінга в 1950-х роках вчені розмірковували над тим, як довести, чи машина демонструє інтелект, як у людини.

Більш відомий як Тест Тьюрінга, теоретична установка передбачає людину-суддю, яка розмовляє з машиною та іншою людиною — суддя має вирішити, хто з учасників має штучний розум. В основі тесту лежить провокаційне запитання «Чи можуть машини мислити?» Чим важче відрізнити машину від людини, тим більше машин просувається до людського інтелекту.

ChatGPT зламав тест Тюрінга. Приклад чат-бота, що працює на базі великої мовної моделі (LLM), ChatGPT поглинає інтернет-коментарі, меми та інший вміст. Він надзвичайно вправний у імітації людських реакцій — написанні есе, здачі іспитів, розповсюджуванні рецептів і навіть роздачі життєвих порад.

Ці досягнення, які прийшли з приголомшливою швидкістю, викликали дебати про те, як побудувати інші критерії для вимірювання мислячих машин. Останні спроби були зосереджені на стандартизованих тестах для людей: наприклад, ті, що розроблені для учнів старших класів, іспит на адвокатуру для юристів або GRE для вступу до магістратури. GPT-4 від OpenAI, модель ШІ, яка лежить в основі ChatGPT, потрапив у 10 найкращих відсотків учасників. Однак це було важко знайти правила для відносно простої візуальної гри-головоломки.

Нові тести, хоч і вимірюють своєрідний «інтелект», не обов’язково вирішують проблему свідомості. Тут на допомогу приходить нейронаука.

Контрольний список для свідомості

Нейробіологічних теорій свідомості багато і безладно. Але в їх основі лежить нейронне обчислення: тобто те, як наші нейрони з’єднуються та обробляють інформацію, щоб вона досягла свідомості. Іншими словами, свідомість є результатом обчислень мозку, хоча ми ще не повністю розуміємо всі деталі.

Цей практичний погляд на свідомість дає змогу перекласти теорії з людської свідомості на ШІ. Дзвонив обчислювальний функціоналізм, гіпотеза ґрунтується на ідеї, що обчислення правильного типу породжують свідомість незалежно від середовища — м’які, жирні згустки клітин у нашій голові чи тверді холодні чіпи, які живлять уми машин. Це свідчить про те, що «свідомість в ШІ в принципі можлива», — сказала команда.

Потім настає складна частина: як дослідити свідомість у алгоритмічній чорній скриньці? Стандартним методом у людей є вимірювання електричних імпульсів у мозку або за допомогою функціональної МРТ, яка фіксує активність у високій чіткості, але жоден метод неможливий для оцінки коду.

Замість цього команда застосувала «теоретичний підхід», який спочатку використовувався для вивчення свідомість у нелюдських тварин.

Для початку вони видобули топові теорії людської свідомості, включно з популярними Глобальна теорія робочого простору (GWT) для показників свідомості. Наприклад, GWT передбачає, що свідомий розум має кілька спеціалізованих систем, які працюють паралельно; ми можемо одночасно чути, бачити та обробляти ці потоки інформації. Однак у обробці є вузьке місце, яке потребує механізму уваги.

Команда Теорія рекурентної обробки припускає, що інформація повинна повертатися сама собі в кілька циклів як шлях до свідомості. Інші теорії наголошують на необхідності свого роду «тіла», яке отримує зворотній зв’язок із навколишнім середовищем і використовує ці знання, щоб краще сприймати та контролювати реакції на динамічний зовнішній світ — те, що називається «втіленням».

Маючи на вибір безліч теорій свідомості, команда виклала деякі основні правила. Щоб бути включеною, теорія потребує суттєвих доказів лабораторних тестів, таких як дослідження, що фіксують діяльність мозку людей у ​​різних станах свідомості. Загалом шість теорій витримали оцінку. Після цього команда розробила 14 показників.

Це не одноразово. Жоден з індикаторів не позначає розумний ШІ сам по собі. Насправді стандартні методи машинного навчання можуть створювати системи, які мають окремі властивості зі списку, пояснила команда. Швидше, список є шкалою: чим більше критеріїв відповідає, тим вища ймовірність того, що система штучного інтелекту має якусь свідомість.

Як оцінити кожен показник? Нам потрібно буде розглянути «архітектуру системи та те, як через неї проходить інформація», сказав Довго.

Для підтвердження концепції команда використала контрольний список на кількох різних системах штучного інтелекту, включно з трансформаторними моделями великих мов, які лежать в основі ChatGPT, і алгоритмами, які генерують зображення, такими як DALL-E 2. Результати навряд чи були остаточними. , де деякі системи штучного інтелекту задовольняють частині критеріїв, але не відповідають іншим.

Однак, хоча кожна система не розроблена з урахуванням глобального робочого простору, кожна система «володіє деякими властивостями індикатора GWT», такими як увага, сказала команда. Тим часом Google Система PaLM-E, який вводить спостереження з роботизованих датчиків, відповідав критеріям втілення.

Жодна з найсучасніших систем штучного інтелекту не поставила галочки більше, ніж кілька полів, що змусило авторів зробити висновок, що ми ще не вступили в еру розумного ШІ. Крім того, вони попередили про небезпеку недостатнього визначення свідомості в ШІ, що може призвести до «морально значної шкоди» та антропоморфізації систем ШІ, коли вони просто холодні, жорсткі коди.

Тим не менш, стаття встановлює керівні принципи для дослідження одного з найбільш загадкових аспектів розуму. «[Пропозиція] дуже продумана, вона не нахабна, і вона робить свої припущення дуже чіткими», – доктор Аніл Сет з Університету Сассекса сказав природа.

Доповідь – далеко не остаточне слово по темі. Оскільки нейронаука ще більше звужує кореляти свідомості в мозку, контрольний список, ймовірно, викине деякі критерії та додасть інші. Наразі це проект у стадії розробки, і автори запрошують інші точки зору з багатьох дисциплін — нейронауки, філософії, інформатики, когнітивної науки — для подальшого вдосконалення списку.

Зображення Фото: Грейсон Джоралемон на Unsplash

Часова мітка:

Більше від Хаб сингулярності