Генеральний директор Google DeepMind Деміс Хассабіс каже, що ми можемо мати AGI «у найближчі кілька років»

Генеральний директор Google DeepMind Деміс Хассабіс каже, що ми можемо мати AGI «у найближчі кілька років»

Генеральний директор Google DeepMind Деміс Хассабіс каже, що «у найближчі кілька років ми можемо мати AGI» PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Деміс Хассабіс, генеральний директор Google DeepMind, нещодавно передбачив, що системи штучного інтелекту досягнуть людського рівня пізнання десь між «наступними кількома роками» і «можливо, протягом десяти років». 

Hassabis, який почав свою діяльність у азартні ігри співзасновник Google DeepMind (раніше DeepMind Technologies), компанії, відомої розробкою AlphaGo Система штучного інтелекту, відповідальна за перемогу над найкращими гравцями світу в Go.

В одному з останніх інтерв'ю під час фестивалю The Wall Street Journal Future of Everything, Хассабіс сказав інтерв’юеру Крісу Мімсу, що вважає, що машини з людським рівнем пізнання неминучі:

«Прогрес за останні кілька років був неймовірним. Я не бачу жодної причини, чому цей прогрес буде сповільнюватися. Я думаю, що це може навіть прискоритися. Тож я думаю, що до нас може залишитися лише кілька років, можливо, десятиліття».

Ці коментарі з’явилися лише через два тижні після внутрішньої реструктуризації, яку Google оголосила об'єднання «Google AI» і «DeepMind» у влучну назву «Google DeepMind».

Коли його попросили дати визначення «AGI» — штучного загального інтелекту — Хассабіс відповів: «пізнання на рівні людини».

Наразі не існує стандартизованого визначення, тесту чи порівняльного показника для AGI, широко прийнятого спільнотою STEM. Також немає єдиного наукового консенсусу щодо того, чи можливий AGI.

[Вбудоване вміст]

Деякі видатні фігури, такі як Роджер Пенроуз (давній партнер Стівена Хокінга в галузі досліджень), Вірити AGI не може бути досягнуто, поки інші вважаю, що науковцям та інженерам, щоб зрозуміти це, знадобляться десятиліття чи століття.

Серед тих, хто налаштований на оптимізацію AGI у найближчій перспективі або схожу форму штучного інтелекту людського рівня, – Ілон Маск і генеральний директор OpenAI Сем Альтман.

AGI став гарячою темою після запуску ChatGPT і безлічі подібних продуктів і послуг штучного інтелекту за останні кілька місяців. Експерти часто називають технологію «святого Грааля». передбачати штучний інтелект людського рівня порушить усі аспекти життя на Землі.

Якщо штучний інтелект на людському рівні колись буде досягнутий, це може порушити різні аспекти криптоіндустрії. У світі криптовалют ми могли бачити повністю автономні машини, здатні діяти як підприємці, керівники, радники та трейдери з інтелектуальною здатністю людини та здатністю зберігати інформацію та виконувати код комп’ютерної системи.

Щодо того, чи будуть агенти AGI служити нам як інструменти на основі ШІ чи конкурувати з нами за ресурси, ще належить з’ясувати.

Зі свого боку, Хассабіс не припускав жодних сценаріїв, але він сказав The Wall Street Journal, що «буде виступати за розробку цих типів технологій AGI обережно, використовуючи науковий метод, коли ви намагаєтеся проводити дуже ретельні контрольовані експерименти, щоб зрозуміти, що робить базова система».

Це може суперечити поточному ландшафту, де такі продукти, як Google Bard його власного роботодавця та ChatGPT OpenAI, нещодавно стали доступними для загального користування.

За темою: «Хрещений батько ШІ» звільняється з Google, попереджаючи про небезпеку ШІ

Промисловість інсайдери такі як генеральний директор OpenAI Сем Альтман і Нандо де Фрейтас з DeepMind заявили, що вони вважають, що AGI може виникнути сам по собі, якщо розробники продовжуватимуть масштабувати поточні моделі. І один дослідник Google нещодавно розлучився з компанією після того, як заявив, що модель під назвою LaMDA вже стала розумною.

Через невизначеність, пов’язану з розвитком цих технологій та їхнім потенційним впливом на людство, тисячі людей, у тому числі Ілон Маск і співзасновник Apple Inc. Стів Возняк, нещодавно підписали відкритий лист із проханням до компаній і окремих осіб створювати відповідні системи призупинити розробку на півроку щоб вчені могли оцінити потенціал шкоди.

Часова мітка:

Більше від Монеттелеграф