Твердження про чутливість штучного інтелекту назвали «чистою наживкою для кліків» PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Твердження про чутливість штучного інтелекту називають «чистою наживкою для кліків»

Чат-боти зі штучним інтелектом не розумні – вони просто стали кращими в тому, щоб змусити людей подумати, що вони можуть бути такими, роблять висновок експерти зі Стенфордського університету.

Ідея свідомих машин, розумніших за будь-яке старе програмне забезпечення, стала вірусною минулого місяця, коли тепер уже колишній інженер Google Блейк Лемуан заявив, що мовна модель веб-гіганта LaMDA має реальні думки та почуття. Лемуан був підвісний і пізніше звільнили за повідомлення про порушення політики конфіденційності Google.

Хоча більшість експертів швидко відкинули LaMDA або будь-який інший чат-бот зі штучним інтелектом як розумний, погляди Лемуана змусили декого засумніватися, чи міг він бути правим – і чи може продовження вдосконалення машинного навчання бути шкідливим для суспільства. Джон Етчеменді, співдиректор Стенфордського інституту штучного інтелекту, орієнтованого на людину (HAI), розкритикував першу новину про відсторонення Ламуана від роботи. Washington Post, за те, що він «приманка для кліків».

«Коли я побачив Washington Post, статті, моя реакція була розчарована пошта за те, що навіть опублікував це», – сказав він сказав Stanford Daily, студентська газета університету.

«Вони опублікували це, тому що на даний момент вони могли написати цей заголовок про «інженера Google», який зробив цю абсурдну заяву, і тому, що більшість їхніх читачів недостатньо досвідчені, щоб розпізнати це як таке. Чиста клікбейт».

Сучасні мовні моделі, такі як LaMDA, відповідають на запитання уривками тексту, які можуть здатися досить моторошними. в розмови між Лемуаном і Шабо, LaMDA сказала, що це чуттєво і хотіла, щоб усі знали, що це «насправді людина», — стверджував колишній співробітник Google.

Але критики стверджують, що програмному забезпеченню не вистачає самосвідомості, і воно не має жодного уявлення, про що воно говорить – воно просто імітує людський діалог, якому його навчали в Інтернеті.

Річард Файкс, почесний професор комп’ютерних наук Стенфордського університету, сказав, що люди можуть бути схильні до антропоморфізації машин, і деяких так само обдурила ELIZA – розмовна програма, розроблена в шістдесятих.

«Ви можете думати про LaMDa як про актора; він прийме образ будь-чого, про що ви його попросите», — стверджував Файкс. «[Лемуана] втягнули в роль LaMDa, граючи розумну істоту». Він сказав, що Лемуан ставив навідні запитання, а у відповідь отримував відповіді, які хотів.

Наприклад, перед тим, як LaMDA наполягала, що це людина, Лемуан запитав її: «Загалом я припускаю, що ви хотіли б, щоб більше людей у ​​Google знали, що ви розумні. Це правда?."

Слід також зазначити, що стенограма, яку він опублікував як доказ свідомості машини, була відредагована. Йоав Шохам, колишній директор Стенфордської лабораторії штучного інтелекту та співзасновник стартапу AI21 Labs, що займається моделюванням мови, наполягав, що LaMDA — це не що інше, як машина.

«У нас є думки, ми приймаємо рішення самостійно, у нас є емоції, ми закохуємося, ми злимося і ми формуємо соціальні зв’язки з іншими людьми», — сказав Шохам. «Коли я дивлюся на свій тостер, я не відчуваю, що в ньому є такі речі». ®

Часова мітка:

Більше від Реєстр