Радник спеціальної групи з питань штучного інтелекту (ШІ) прем’єр-міністра Великої Британії сказав, що у людей є приблизно два роки, щоб контролювати та регулювати ШІ, перш ніж він стане надто потужним.
У інтерв'ю З місцевим британським ЗМІ Метт Кліффорд, який також є головою урядового Агентства передових досліджень і винаходів (ARIA), підкреслив, що нинішні системи стають «все більш і більш спроможними з дедалі більшою швидкістю».
Він продовжував говорити, що якщо офіційні особи не розглянуть безпеку та правила зараз, системи стануть «дуже потужними» через два роки.
«У нас є два роки, щоб створити структуру, яка зробить контроль і регулювання цих дуже великих моделей набагато можливішим, ніж сьогодні».
Кліффорд попередив, що існує «багато різних типів ризиків», коли мова йде про ШІ, як у найближчій, так і в довгостроковій перспективі, які він назвав «досить страшними».
Інтерв’ю з’явилося після нещодавнього відкритого листа опублікований Центр безпеки штучного інтелекту, підписаний 350 експертами зі штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, в якому говориться, що штучний інтелект слід розглядати як екзистенціальну загрозу, подібну до тієї, яку становлять ядерна зброя та пандемії.
«Вони говорять про те, що станеться, коли ми фактично створимо новий вид, свого роду інтелект, який перевершить людський інтелект».
Радник цільової групи штучного інтелекту сказав, що ці загрози, створені штучним інтелектом, можуть бути «дуже небезпечними» і можуть «вбити багатьох людей, а не всіх людей, просто з того місця, де ми очікуємо, що моделі будуть через два роки».
За словами Кліффорда, головною метою регуляторів і розробників має бути розуміння того, як контролювати моделі, а потім впровадження правил у глобальному масштабі.
Наразі він сказав, що його найбільше боїться відсутність розуміння того, чому моделі ШІ поводяться так, як вони.
«Люди, які створюють найпотужніші системи, вільно визнають, що вони не розуміють, як саме [системи ШІ] демонструють таку поведінку».
Кліффорд підкреслив, що багато лідерів організацій, які створюють штучний інтелект, також погоджуються з тим, що потужні моделі штучного інтелекту перед розгортанням повинні пройти певний аудит і процес оцінки.
Наразі регулюючі органи в усьому світі намагаються зрозуміти технологію та її наслідки, одночасно намагаючись створити правила, які захищають користувачів і водночас дозволяють інновації.
5 червня офіційні особи в Європейському Союзі зайшли так далеко, що запропонували надати всім обов’язки Контент, створений ШІ, має бути позначений як такий щоб запобігти дезінформації.
У Великобританії член першої лави опозиційної Лейбористської партії повторив настрої згадується в листі Центру безпеки штучного інтелекту, де говориться, що технології повинні регулюватися, як медицина та ядерна енергетика.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoAiStream. Web3 Data Intelligence. Розширення знань. Доступ тут.
- Карбування майбутнього з Адріенн Ешлі. Доступ тут.
- Купуйте та продавайте акції компаній, які вийшли на IPO, за допомогою PREIPO®. Доступ тут.
- джерело: https://cointelegraph.com/news/ai-could-threaten-humanity-in-two-years-says-uk-advisor
- :є
- : ні
- :де
- $UP
- a
- МЕНЮ
- визнати
- просунутий
- після
- агентство
- AI
- ВСІ
- дозволяти
- Також
- an
- та
- ЕСТЬ
- область
- штучний
- штучний інтелект
- Штучний інтелект (AI)
- AS
- At
- аудит
- BE
- ставати
- стає
- перед тим
- Парі
- обидва
- Створюємо
- by
- званий
- прийшов
- здатний
- Центр
- Генеральний директор
- Крісло
- ChatGPT
- Монеттелеграф
- приходить
- Вважати
- зміст
- триває
- контроль
- управління
- може
- створювати
- крипто
- Поточний
- розгортання
- різний
- дезінформація
- do
- Не знаю
- фактично
- Європейська
- european union
- оцінка
- постійно збільшується
- точно
- проявляти
- екзистенціальний
- очікувати
- experts
- очей
- далеко
- страх
- Сфокусувати
- після
- для
- Примусово
- Рамки
- від
- отримати
- отримання
- Глобальний
- глобальний масштаб
- великий
- найбільший
- відбувається
- Мати
- he
- Виділено
- його
- Як
- How To
- HTTPS
- Людство
- Людей
- if
- реалізації
- in
- У тому числі
- інновація
- Інтелект
- інтерв'ю
- Винахід
- IT
- ЙОГО
- JPG
- червень
- Дитина
- Царство
- Праці
- відсутність
- великий
- запущений
- Лідери
- лист
- як
- місцевий
- Довго
- серія
- РОБОТИ
- багато
- Медіа
- медицина
- член
- згаданий
- Моделі
- більше
- найбільш
- багато
- повинен
- Близько
- Нові
- зараз
- ядерний
- Атомна енергетика
- of
- чиновників
- on
- один раз
- OpenAI
- опозиція
- організації
- Пандемії
- Люди
- Вибори
- місце
- plato
- Інформація про дані Платона
- PlatoData
- це можливо
- влада
- потужний
- запобігати
- первинний
- Prime
- прем'єр-міністр
- процес
- захист
- ставка
- останній
- Регулювати
- регулюється
- правила
- Регулятори
- дослідження
- Умови повернення
- ROSE
- грубо
- сейф
- Безпека
- Зазначений
- Сем
- Сем Альтман
- say
- приказка
- шкала
- служить
- Повинен
- підписаний
- аналогічний
- просто
- So
- так далеко
- деякі
- Як і раніше
- акції
- пропонувати
- Systems
- говорити
- Завдання
- оперативна група
- Технологія
- термін
- ніж
- Що
- Команда
- Сполучене Королівство
- потім
- Там.
- Ці
- вони
- загроза
- загрожують
- загрози
- час
- до
- сьогодні
- занадто
- Traders
- два
- Типи
- Великобританія
- Uk
- розуміти
- розуміння
- союз
- United
- Об'єднане Королівство
- користувачі
- дуже
- Попереджає
- шлях..
- we
- Зброя
- пішов
- Що
- коли
- який
- в той час як
- ВООЗ
- чому
- волі
- з
- світовий
- років
- YouTube
- зефірнет