Вразливості кібербезпеки штучного інтелекту, щоб освітяни знали про аналіз даних PlatoBlockchain. Вертикальний пошук. Ai.

Уразливі місця кібербезпеки штучного інтелекту, про які слід знати викладачам

Штучний інтелект може бути цінним інструментом в освіті, але він також створює деякі ключові вразливості кібербезпеки, про які освітянам слід знати. Зростає кількість способів, за допомогою яких хакери можуть використовувати слабкі сторони ШІ та обходити системи безпеки ШІ. Ось погляд на найпопулярніші вразливості системи безпеки ШІ, які сьогодні зростають, і те, як вони можуть вплинути на освіту.

Зламані навчальні дані ШІ

Алгоритми штучного інтелекту можуть бути надзвичайно корисними в освіті, але «чорна скринька» більшості ШІ створює серйозну вразливість для кібербезпеки. Алгоритми навчаються за допомогою наборів навчальних даних, які навчають ШІ щось розуміти або розпізнавати. Наприклад, ШІ можна навчити розуміти задачі з алгебри у 8-му класі, щоб він міг оцінювати домашнє завдання.

Однак те, як алгоритми штучного інтелекту обробляють інформацію, приховано в чорному ящику, тобто збої та зміщення можуть залишитися непоміченими. ШІ може ненавмисно дізнатися щось неправильно або створити хибні зв’язки з навчальними даними. Чорна скринька штучного інтелекту також означає, що зіпсовані навчальні дані можуть залишитися непоміченими.

Хакери можуть зіпсувати навчальні дані, включивши a бекдор, прихований в ШІ логіка. Коли хакер хоче отримати доступ до системи, де буде використовуватися ШІ, він може просто ввести ключ для бекдора, і ШІ розпізнає його з навчальних даних. Подібні бекдори може бути дуже важко виявити, оскільки розробники та користувачі не бачать усіх з’єднань, що відбуваються в чорному ящику ШІ.

«Те, як алгоритми штучного інтелекту обробляють інформацію, приховано в чорному ящику, а це означає, що збої та зміщення можуть залишитися непоміченими». 

Хакери пристосовуються

Створення бекдору в навчальних даних штучного інтелекту є складним і трудомістким процесом, на який здатні лише висококваліфіковані хакери. На жаль, хакери адаптують свої стратегії атак, щоб обійти можливості ШІ шукати загрози. Фактично, хакери навіть створюють власні алгоритми ШІ, які можуть перехитрити інші алгоритми.

Наприклад, хакери розробили штучний інтелект, який може автономно зламувати паролі для обходу систем управління доступом. Що ще гірше, хакери використовують штучний інтелект, щоб зробити свої програми-вимагачі та зловмисне програмне забезпечення достатньо розумними, щоб обійти протоколи безпеки на основі штучного інтелекту.

Це серйозна загроза для освіти, оскільки школам обов’язково потрібно збирати велику кількість особистої інформації про учнів та їх сім’ї. Дані шкіл є дуже привабливою мішенню для хакерів, які знають, що компрометація цих даних спричинить паніку, яка потенційно призведе до великих виплат програм-вимагачів від жертв.

Оскільки системи безпеки штучного інтелекту знаходяться під загрозою, викладачі можуть бути стурбовані тим, що вони можуть зробити, щоб захистити своїх учнів. Проте є рішення. Наприклад, хмарні системи штучного інтелекту можуть бути безпечнішими за ті, що базуються на звичайних центрах обробки даних. Крім того, вбудовані інтелектуальні хмарні системи захисту даних спеціально для хмарних систем, може забезпечити додатковий рівень безпеки для даних шкіл у разі кібератаки ШІ.

Deepfakes і несправне розпізнавання зображень

Крім бекдорів, хакери також можуть використовувати ненавмисні збої в алгоритмах ШІ. Наприклад, хакер може підробити фотографії, щоб обманом змусити ШІ неправильно розпізнати зображення.

Технологія Deepfake також може бути використана для маскування відео, фотографій або аудіофайлів під те, чим вони не є. Це може бути використано, наприклад, для створення шахрайського відео вчителя чи адміністратора. Deepfakes може дозволити хакерам проникнути в системи, які покладаються на розпізнавання аудіо або зображень для контролю доступу.

Хакери можуть самостійно використовувати штучний інтелект для створення дуже реалістичних дипфейків, які потім стають способом атаки. Наприклад, схема шахрайства 2021 року використовували AI deepfakes щоб вкрасти 35 мільйонів доларів з банку Гонконгу.

Хакери можуть використовувати штучний інтелект таким же чином, щоб створювати глибокі підробки голосів батьків, учителів або адміністраторів. Вони запускають атаку, дзвонячи комусь по телефону та обманюючи його голосовим дипфейком. Це може бути використано для викрадення грошей або особистої інформації зі шкіл, учнів, учителів і сімей.

«Дані шкіл є дуже привабливою мішенню для хакерів, які знають, що компрометація цих даних спричинить паніку, яка потенційно призведе до великих виплат програм-вимагачів від жертв». 

Використання ШІ для тестування та навчання

ШІ чудово підходить для автоматизації різних аспектів освіти і може навіть покращити якість навчання студентів. Наприклад, популярний сайт репетиторів мов Duolingo використовує ШІ машинного навчання щоб допомогти студентам навчатися у своєму власному темпі. Сьогодні багато інших шкіл і освітніх ресурсів використовують подібні технології. Це відомо як адаптивне навчання ШІ, і це навіть допомагає у таких важливих завданнях, як оцінювання тестів.

На жаль, ця залежність від штучного інтелекту є вразливістю кібербезпеки. Хакери, як правило, атакують системи, які мають вирішальне значення для роботи ключових систем. Отже, якщо викладачі покладаються на певні інструменти навчання ШІ для студентів, щоб успішно виконати курсову роботу, хакери можуть використати цю залежність від ШІ. Вони можуть здійснити атаку програм-вимагачів на критичні освітні алгоритми штучного інтелекту або, можливо, навіть маніпулювати самим штучним інтелектом.

Ця конкретна вразливість є комбінацією кількох загроз, згаданих вище. Хакери можуть створити бекдор в штучному інтелекті, який дозволить їм втручатися в алгоритм, щоб він ставив оцінки неправильно або навчав студентів неправильної інформації.

«Якщо викладачі покладаються на певні інструменти навчання ШІ для студентів, щоб успішно виконати курсову роботу, цю залежність від ШІ може використати хакер». 

Будьте в курсі освітніх кіберзагроз

Безсумнівно, ШІ може бути дуже цінним інструментом для педагогів. Однак використання ШІ вимагає обережності та проактивного підходу до кібербезпеки, щоб захистити вразливості ШІ від використання хакерами.

Оскільки штучний інтелект стає всюдисущим в освіті та повсякденному житті, хакери розробляють нові види кібератак, призначених для зриву інтелектуальних систем безпеки. Усвідомлюючи ці нові кіберзагрози, викладачі можуть вживати заходів для захисту своїх систем і своїх учнів.

Також читайте 5 способів, як робототехніка допоможе вам отримати більше бізнесу

Часова мітка:

Більше від Технологія AIIOT