Штучний інтелект може загрожувати людству через 2 роки, попереджає радник цільової групи ШІ Великобританії

Штучний інтелект може загрожувати людству через 2 роки, попереджає радник цільової групи ШІ Великобританії

Штучний інтелект може загрожувати людству через 2 роки, попереджає радник цільової групи ШІ Великобританії PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Радник спеціальної групи з питань штучного інтелекту (ШІ) прем’єр-міністра Великої Британії сказав, що у людей є приблизно два роки, щоб контролювати та регулювати ШІ, перш ніж він стане надто потужним.

У інтерв'ю З місцевим британським ЗМІ Метт Кліффорд, який також є головою урядового Агентства передових досліджень і винаходів (ARIA), підкреслив, що нинішні системи стають «все більш і більш спроможними з дедалі більшою швидкістю».

Він продовжував говорити, що якщо офіційні особи не розглянуть безпеку та правила зараз, системи стануть «дуже потужними» через два роки.

«У нас є два роки, щоб створити структуру, яка зробить контроль і регулювання цих дуже великих моделей набагато можливішим, ніж сьогодні».

Кліффорд попередив, що існує «багато різних типів ризиків», коли мова йде про ШІ, як у найближчій, так і в довгостроковій перспективі, які він назвав «досить страшними».

Інтерв’ю з’явилося після нещодавнього відкритого листа опублікований Центр безпеки штучного інтелекту, підписаний 350 експертами зі штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, в якому говориться, що штучний інтелект слід розглядати як екзистенціальну загрозу, подібну до тієї, яку становлять ядерна зброя та пандемії.

«Вони говорять про те, що станеться, коли ми фактично створимо новий вид, свого роду інтелект, який перевершить людський інтелект».

Радник цільової групи штучного інтелекту сказав, що ці загрози, створені штучним інтелектом, можуть бути «дуже небезпечними» і можуть «вбити багатьох людей, а не всіх людей, просто з того місця, де ми очікуємо, що моделі будуть через два роки».

За темою: Після запуску ChatGPT дохід від криптовалюти, пов’язаної зі штучним інтелектом, зріс до 41%: дослідження

За словами Кліффорда, головною метою регуляторів і розробників має бути розуміння того, як контролювати моделі, а потім впровадження правил у глобальному масштабі.

Наразі він сказав, що його найбільше боїться відсутність розуміння того, чому моделі ШІ поводяться так, як вони.

«Люди, які створюють найпотужніші системи, вільно визнають, що вони не розуміють, як саме [системи ШІ] демонструють таку поведінку».

Кліффорд підкреслив, що багато лідерів організацій, які створюють штучний інтелект, також погоджуються з тим, що потужні моделі штучного інтелекту перед розгортанням повинні пройти певний аудит і процес оцінки. 

Наразі регулюючі органи в усьому світі намагаються зрозуміти технологію та її наслідки, одночасно намагаючись створити правила, які захищають користувачів і водночас дозволяють інновації. 

5 червня офіційні особи в Європейському Союзі зайшли так далеко, що запропонували надати всім обов’язки Контент, створений ШІ, має бути позначений як такий щоб запобігти дезінформації.

У Великобританії член першої лави опозиційної Лейбористської партії повторив настрої згадується в листі Центру безпеки штучного інтелекту, де говориться, що технології повинні регулюватися, як медицина та ядерна енергетика.

Magazine: AI Eye: 25 тис. трейдерів роблять ставки на вибір акцій ChatGPT, штучний інтелект не вміє кидати кубики тощо

Часова мітка:

Більше від Монеттелеграф