Luki w zabezpieczeniach cyberbezpieczeństwa AI, dla nauczycieli, którzy powinni być świadomi analizy danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Luki w cyberbezpieczeństwie AI, o których powinni wiedzieć nauczyciele

Sztuczna inteligencja może być cennym narzędziem w edukacji, ale stwarza też pewne kluczowe luki w cyberbezpieczeństwie, o których nauczyciele powinni wiedzieć. Istnieje coraz więcej sposobów, w jakie hakerzy mogą wykorzystywać słabości sztucznej inteligencji i omijać systemy bezpieczeństwa sztucznej inteligencji. Oto spojrzenie na najważniejsze luki w zabezpieczeniach sztucznej inteligencji, które pojawiają się obecnie i jak mogą one wpłynąć na edukację.

Naruszone dane treningowe AI

Algorytmy sztucznej inteligencji mogą być niezwykle przydatne w edukacji, ale czarny charakter większości sztucznej inteligencji stanowi poważną lukę w cyberbezpieczeństwie. Algorytmy są szkolone przy użyciu zestawów danych treningowych, które uczą sztuczną inteligencję rozumienia lub rozpoznawania czegoś. Na przykład sztuczna inteligencja może zostać przeszkolona, ​​aby rozumieć problemy z algebry w ósmej klasie, aby mogła oceniać pracę domową.

Jednak sposób, w jaki algorytmy AI przetwarzają informacje, jest ukryty w czarnej skrzynce, co oznacza, że ​​usterki i błędy mogą pozostać niezauważone. Sztuczna inteligencja może nieumyślnie nauczyć się czegoś niepoprawnie lub nawiązać fałszywe połączenia z danych treningowych. Czarna skrzynka AI oznacza również, że zatrute dane treningowe mogą pozostać niezauważone.

Hakerzy mogą skazić dane szkoleniowe, aby zawierały: tylne drzwi ukryte w AI logika. Gdy haker chce uzyskać dostęp do systemu, w którym będzie używana sztuczna inteligencja, może po prostu wprowadzić klucz do backdoora, a sztuczna inteligencja rozpozna go na podstawie danych treningowych. Takie backdoory mogą być bardzo trudne do wykrycia, ponieważ programiści i użytkownicy nie widzą wszystkich połączeń zachodzących w czarnej skrzynce sztucznej inteligencji.

„Sposób, w jaki algorytmy AI przetwarzają informacje, jest ukryty w czarnej skrzynce, co oznacza, że ​​usterki i uprzedzenia mogą pozostać niezauważone”. 

Hakerzy dostosowują się

Tworzenie backdoora w danych szkoleniowych AI to złożony i czasochłonny proces, do którego zdolni byliby głównie tylko wysoko wykwalifikowani hakerzy. Niestety, hakerzy dostosowują swoje strategie ataku, aby ominąć zdolności AI do polowania na zagrożenia. W rzeczywistości hakerzy tworzą nawet własne algorytmy sztucznej inteligencji, które mogą przechytrzyć inne algorytmy.

Na przykład hakerzy opracowali sztuczną inteligencję, która może: samodzielnie łamać hasła aby ominąć systemy zarządzania dostępem. Co gorsza, hakerzy wykorzystują sztuczną inteligencję, aby swoje oprogramowanie ransomware i złośliwe oprogramowanie było wystarczająco inteligentne, aby ominąć protokoły bezpieczeństwa oparte na sztucznej inteligencji.

Stanowi to poważne zagrożenie dla edukacji, ponieważ szkoły muszą zbierać duże ilości danych osobowych uczniów i rodzin. Dane szkół są bardzo atrakcyjnym celem dla hakerów, którzy wiedzą, że narażenie na szwank tych danych wywołałoby panikę, potencjalnie prowadząc do dużych wypłat za oprogramowanie ransomware od ofiar.

Gdy systemy bezpieczeństwa AI są zagrożone, nauczyciele mogą martwić się o to, co mogą zrobić, aby obronić swoich uczniów. Są jednak rozwiązania. Na przykład systemy sztucznej inteligencji oparte na chmurze mogą być bezpieczniejsze niż te oparte na konwencjonalnych centrach danych. Ponadto wbudowane są inteligentne systemy ochrony danych w chmurze specjalnie dla systemów natywnych dla chmury, może zapewnić dodatkową warstwę bezpieczeństwa dla danych szkół w przypadku cyberataku AI.

Deepfakes i wadliwe rozpoznawanie obrazu

Oprócz tylnych drzwi hakerzy mogą również wykorzystywać niezamierzone usterki w algorytmach sztucznej inteligencji. Na przykład haker może manipulować zdjęciami, aby nakłonić sztuczną inteligencję do nieprawidłowego rozpoznania obrazu.

Technologia Deepfake może być również wykorzystywana do ukrywania plików wideo, zdjęć lub plików audio jako czegoś, czym nie są. Można to wykorzystać na przykład do stworzenia fałszywego filmu nauczyciela lub administratora. Deepfakes może umożliwić hakerom dostęp do systemów, które do kontroli dostępu opierają się na rozpoznawaniu dźwięku lub obrazu.

Hakerzy mogą sami wykorzystać sztuczną inteligencję do tworzenia wysoce realistycznych podróbek, które następnie stają się sposobem ataku. Na przykład schemat oszustwa z 2021 r. używane deepfake AI ukraść 35 milionów dolarów z banku w Hongkongu.

Hakerzy mogą w ten sam sposób wykorzystać sztuczną inteligencję do tworzenia głębokich podróbek głosów rodziców, nauczycieli lub administratorów. Rozpoczynają atak, dzwoniąc do kogoś przez telefon i oszukując go głębokim fałszywym głosem. Może to zostać wykorzystane do kradzieży pieniędzy lub danych osobowych ze szkół, uczniów, nauczycieli i rodzin.

„Dane szkół są bardzo atrakcyjnym celem dla hakerów, którzy wiedzą, że narażenie na szwank tych danych wywołałoby panikę, potencjalnie prowadząc do wysokich wypłat za oprogramowanie ransomware od ofiar”. 

Poleganie na sztucznej inteligencji w testowaniu i udzielaniu korepetycji

Sztuczna inteligencja doskonale nadaje się do automatyzacji różnych aspektów edukacji, a nawet może poprawić jakość edukacji uczniów. Na przykład popularna strona internetowa z korepetycjami językowymi Duolingo wykorzystuje uczenie maszynowe AI aby pomóc uczniom uczyć się we własnym tempie. Wiele innych szkół i zasobów edukacyjnych korzysta dziś z podobnej technologii. Jest to znane jako adaptacyjne uczenie się AI, a nawet pomaga w podstawowych zadaniach, takich jak ocenianie testów.

Niestety to poleganie na sztucznej inteligencji jest luką w cyberbezpieczeństwie. Hakerzy mają tendencję do atakowania systemów, które są kluczowe dla działania kluczowych systemów. Tak więc, jeśli nauczyciele polegają na pewnych narzędziach do nauczania sztucznej inteligencji, aby uczniowie pomyślnie ukończyli zajęcia, haker może wykorzystać tę zależność. Mogą przeprowadzić atak ransomware na krytyczne algorytmy sztucznej inteligencji w edukacji lub nawet manipulować samą sztuczną inteligencją.

Ta szczególna luka jest połączeniem kilku wymienionych powyżej zagrożeń. Hakerzy mogą stworzyć backdoora w sztucznej inteligencji, który pozwoli im manipulować algorytmem, aby dokonywał nieprawidłowych ocen lub uczył uczniów nieprawidłowych informacji.

„Jeśli nauczyciele polegają na pewnych narzędziach do nauczania sztucznej inteligencji, aby uczniowie pomyślnie ukończyli zajęcia, haker może wykorzystać tę zależność”. 

Świadomość cyberzagrożeń edukacyjnych

Nie ma wątpliwości, że sztuczna inteligencja może być bardzo cennym narzędziem dla nauczycieli. Jednak korzystanie ze sztucznej inteligencji wymaga ostrożności i proaktywnego podejścia do cyberbezpieczeństwa, aby chronić luki w sztucznej inteligencji przed wykorzystaniem przez hakerów.

Ponieważ sztuczna inteligencja staje się wszechobecna w edukacji i życiu codziennym, hakerzy opracowują nowe rodzaje cyberataków, które mają na celu udaremnienie inteligentnych systemów bezpieczeństwa. Pozostając świadomym tych pojawiających się cyberzagrożeń, nauczyciele mogą podejmować działania w celu ochrony swoich systemów i uczniów.

Przeczytaj także 5 sposobów, w jakie robotyka pomoże Ci rozwinąć działalność

Znak czasu:

Więcej z Technologia AIOT