Технічні лідери підкреслюють ризики штучного інтелекту та терміновість жорсткого регулювання штучного інтелекту

Технічні лідери підкреслюють ризики штучного інтелекту та терміновість жорсткого регулювання штучного інтелекту

Технічні лідери підкреслюють ризики штучного інтелекту та терміновість жорсткого регулювання штучного інтелекту
Протягом останніх кількох років зростання та прогрес ШІ були експоненціальними. Про це повідомляє Statista що до 2024 року світовий ринок штучного інтелекту принесе приголомшливий прибуток у розмірі близько 3000 мільярдів доларів США, порівняно зі 126 мільярдами доларів США у 2015 році. Однак технічні лідери зараз попереджають нас про різноманітні ризики штучного інтелекту.
Особливо, остання хвиля генеративний ШІ такі моделі, як ChatGPT, запровадили нові можливості в різних секторах, що мають чутливу інформацію, таких як охорона здоров’я, освіта, фінансування, тощо. Ці розробки на основі штучного інтелекту вразливі через багато недоліків штучного інтелекту, які можуть виявити зловмисники.
Давайте обговоримо, що експерти зі штучного інтелекту говорять про останні події, і висвітлимо потенційні ризики штучного інтелекту. Ми також коротко торкнемося того, як можна керувати цими ризиками.

Технічні лідери та їх занепокоєння щодо ризиків ШІ

Джеффрі Хінтон

Джеффрі Хінтон – відомий технічний лідер ШІ (і хрещений батько цієї галузі), який нещодавно залишив Google, висловив свої занепокоєння про швидкий розвиток штучного інтелекту та його потенційну небезпеку. Хінтон вважає, що чат-боти штучного інтелекту можуть стати «досить страшними», якщо вони перевершують людський інтелект.
Хінтон каже:
«Зараз те, що ми бачимо, полягає в тому, що GPT-4 затьмарює людину за обсягом загальних знань, які вона має, і це значно затьмарює її. З точки зору аргументації, це не так добре, але воно вже робить прості міркування. І враховуючи швидкість прогресу, ми очікуємо, що ситуація покращиться досить швидко. Тому ми повинні про це турбуватися».
Крім того, він вважає, що «погані актори» можуть використовувати штучний інтелект для «поганих речей», наприклад, дозволяючи роботам мати свої підцілі. Незважаючи на свої занепокоєння, Хінтон вважає, що штучний інтелект може принести короткострокові вигоди, але ми також повинні інвестувати значні кошти в безпеку та контроль ШІ.

Елон Маск

Участь Ілона Маска в штучному інтелекті почалася з його ранніх інвестицій у Deepmind у 2010 р. до співзасн OpenAI а також впровадження ШІ в автономні транспортні засоби Tesla.
Хоча він із ентузіазмом ставиться до ШІ, він часто висловлює занепокоєння щодо ризиків ШІ. Маск каже, що потужні системи ШІ можуть бути більш небезпечними для цивілізації, ніж ядерна зброя. В інтерв'ю в Fox News у квітні 2023 року він сказав:
«Штучний інтелект є більш небезпечним, ніж, скажімо, неправильне проектування літаків або технічне обслуговування виробництва чи погане виробництво автомобілів. У тому сенсі, що він має потенціал — однак, можна вважати таку ймовірність малою — але він нетривіальний і має потенціал знищення цивілізації».
Крім того, Маск підтримує державні постанови щодо штучного інтелекту для забезпечення безпеки від потенційних ризиків, хоча «це не так весело».

Призупинити гігантські експерименти ШІ: відкритий лист, підтриманий тисячами експертів ШІ

Інститут майбутнього життя опублікував відкритий лист 22 березня 2023 р. У листі міститься заклик до тимчасової зупинки на шість місяців Розробка систем AI більш просунута ніж GPT-4. Автори висловлюють занепокоєння щодо темпів, з якими розробляються системи ШІ, що створює серйозні соціально-економічні проблеми.
Крім того, у листі зазначено, що розробники штучного інтелекту повинні співпрацювати з політиками, щоб документувати системи управління ШІ. Станом на червень 2023 року лист підписали понад 31,000 XNUMX розробників ШІ, експертів і технічних керівників. Серед відомих підписантів – Ілон Маск, Стів Возняк (співзасновник Apple), Емад Мостаке (генеральний директор Stability AI), Йошуа Бенгіо (лауреат премії Тюрінга) та багато інших.

Контраргументи щодо припинення розробки ШІ

Два видатних лідера ШІ, Ендрю Нг і Янн ЛеКун, виступили проти шестимісячної заборони на розробку передових систем ШІ та вважали паузу поганою ідеєю.
Нґ каже, що хоча штучний інтелект має певні ризики, такі як упередженість, концентрація влади тощо. Але цінність, створена штучним інтелектом у таких сферах, як освіта, охорона здоров’я та чуйний коучинг, величезна.
Янн ЛеКун каже, що дослідження та розробки не слід припиняти, хоча продукти штучного інтелекту, які надходять до кінцевого користувача, можна регулювати.

Які потенційні небезпеки та безпосередні ризики штучного інтелекту?

1. Переміщення з роботи

Експерти зі штучного інтелекту вважають, що інтелектуальні системи штучного інтелекту можуть замінити когнітивні та творчі завдання. Інвестиційний банк Goldman Sachs оцінює приблизно 300 мільйона робочих місць буде автоматизовано генеративним ШІ.
Отже, повинні існувати правила щодо розвитку штучного інтелекту, щоб він не спричинив серйозного економічного спаду. Повинні існувати освітні програми для підвищення кваліфікації та перепідготовки працівників, щоб впоратися з цією проблемою.

2. Упереджені системи ШІ

Biases поширені серед людей питання про стать, расу чи колір шкіри можуть ненавмисно проникати в дані, які використовуються для навчання систем штучного інтелекту, що згодом робить системи штучного інтелекту упередженими.
Наприклад, у контексті працевлаштування упереджена система штучного інтелекту може відхиляти резюме осіб певного етнічного походження, створюючи дискримінацію на ринку праці. в правозастосування, упереджена прогностична поліція може непропорційно націлюватися на конкретні райони чи демографічні групи.
Отже, важливо мати всеосяжну стратегію даних, яка спрямована на запобігання ризикам штучного інтелекту, особливо упередженості. Системи штучного інтелекту необхідно часто оцінювати та перевіряти, щоб вони залишалися справедливими.

3. Критичні для безпеки програми ШІ

Автономні транспортні засоби, медична діагностика та лікування, авіаційні системи, управління атомними електростанціями тощо – все це приклади критично важливих для безпеки програм ШІ. Ці системи штучного інтелекту слід розробляти обережно, оскільки навіть незначні помилки можуть мати серйозні наслідки для життя людей або навколишнього середовища.
Наприклад, несправність програмного забезпечення штучного інтелекту під назвою Система розширення маневрених характеристик (MCAS) частково пояснюється катастрофою двох Boeing 737 MAX, спочатку в жовтні 2018 року, а потім у березні 2019 року. На жаль, у цих двох катастрофах загинули 346 людей.

Як ми можемо подолати ризики систем ШІ? – Відповідальна розробка штучного інтелекту та дотримання нормативних вимог

Відповідальний ШІ (RAI) означає розробку та розгортання справедливих, підзвітних, прозорих і безпечних систем штучного інтелекту, які забезпечують конфіденційність і відповідають правовим нормам і суспільним нормам. Впровадження RAI може бути складним, враховуючи широкий і швидкий розвиток систем ШІ.
Однак великі технологічні компанії розробили такі рамки RAI, як:
  1. Відповідальний ШІ Microsoft
  2. Принципи ШІ Google
  3. Надійний штучний інтелект IBM
Лабораторії штучного інтелекту по всьому світу можуть черпати натхнення з цих принципів або розробляти власні відповідальні структури ШІ, щоб створювати надійні системи ШІ.

Відповідність нормам AI

Оскільки дані є невід’ємним компонентом систем штучного інтелекту, організації та лабораторії, що базуються на штучному інтелекті, повинні дотримуватися наведених нижче правил, щоб забезпечити безпеку, конфіденційність і безпеку даних.
  1. GDPR (Загальний регламент про захист даних) – рамки захисту даних ЄС.
  2. CCPA (Каліфорнійський закон про захист прав споживачів) – закон штату Каліфорнія про права на конфіденційність і захист споживачів.
  3. HIPAA (Закон про перенесення та підзвітність про медичне страхування) – законодавство США, яке захищає медичні дані пацієнтів.
  4. Закон ЄС про ШІ та  Рекомендації з етики для надійного ШІ – регламент Європейської комісії щодо ШІ.
Існують різні регіональні та місцеві закони, прийняті різними країнами для захисту своїх громадян. Організації, які не забезпечують дотримання нормативних вимог щодо даних, можуть призвести до серйозних покарань. Наприклад, GDPR встановив штраф у розмірі 20 мільйонів євро або 4% річного прибутку за серйозні порушення, такі як незаконна обробка даних, недоведена згода на дані, порушення прав суб’єктів даних або незахищена передача даних міжнародній організації.

Розробка ШІ та правила – сьогодення та майбутнє

З кожним місяцем прогрес ШІ досягає небувалих висот. Але супутні правила штучного інтелекту та структура управління відстають. Вони мають бути більш надійними та конкретними.
Технічні лідери та розробники штучного інтелекту б’ють на сполох про ризики штучного інтелекту, якщо його не регулювати належним чином. Дослідження та розробки в галузі штучного інтелекту можуть додатково принести користь у багатьох секторах, але очевидно, що ретельне регулювання зараз є обов’язковим.

Посилання: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Джерело: https://www.unite.ai

Технічні лідери підкреслюють ризики штучного інтелекту та терміновість надійного регулювання штучного інтелекту PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Часова мітка:

Більше від Новини Fintech