Vulnerabilitățile de securitate cibernetică AI pentru ca educatorii să fie conștienți de PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Vulnerabilitățile de securitate cibernetică AI de care educatorii trebuie să fie conștienți

AI poate fi un instrument valoros în educație, dar prezintă și câteva vulnerabilități esențiale de securitate cibernetică de care educatorii ar trebui să fie conștienți. Există un număr tot mai mare de moduri prin care hackerii pot exploata punctele slabe ale AI și pot ocoli sistemele de securitate AI. Iată o privire asupra principalelor vulnerabilități de securitate AI aflate în creștere astăzi și cum ar putea avea impact asupra educației.

Date de antrenament AI compromise

Algoritmii AI pot fi extrem de utili în educație, dar natura cutie neagră a majorității AI reprezintă o vulnerabilitate serioasă de securitate cibernetică. Algoritmii sunt antrenați folosind seturi de date de antrenament care învață AI să înțeleagă sau să recunoască ceva. De exemplu, un AI ar putea fi antrenat să înțeleagă problemele de algebră de clasa a VIII-a, astfel încât să poată nota temele.

Cu toate acestea, modul în care algoritmii AI procesează informațiile este ascuns într-o cutie neagră, ceea ce înseamnă că erorile și părtinirile pot trece neobservate. Un AI poate învăța din greșeală ceva incorect sau poate face conexiuni false din datele de antrenament. Natura cutie neagră a AI înseamnă, de asemenea, că datele de antrenament otrăvite pot trece neobservate.

Hackerii pot afecta datele de antrenament pentru a include a ușă din spate ascunsă în AI logică. Când hackerul dorește acces la sistemul în care va fi folosit AI, poate pur și simplu introduce cheia pentru ușa din spate, iar AI-ul o va recunoaște din datele de antrenament. Ușile din spate ca aceasta pot fi foarte greu de detectat, deoarece dezvoltatorii și utilizatorii nu pot vedea toate conexiunile care se desfășoară în cutia neagră a AI.

„Modul în care algoritmii AI procesează informațiile este ascuns într-o cutie neagră, ceea ce înseamnă că erorile și părtinirile pot trece neobservate.” 

Hackerii se adaptează

Crearea unei uși din spate în datele de antrenament AI este un proces complex și care necesită mult timp și ceva de care ar fi capabili, în principal, doar hackerii cu înaltă calificare. Din păcate, hackerii își adaptează strategiile de atac pentru a ocoli abilitățile AI de vânătoare de amenințări. De fapt, hackerii își creează chiar proprii algoritmi AI care pot depăși alți algoritmi.

De exemplu, hackerii au dezvoltat AI care pot sparge autonom parole pentru a ocoli sistemele de management al accesului. Și mai rău, hackerii folosesc AI pentru a-și face ransomware-ul și malware-ul suficient de inteligent pentru a depăși protocoalele de securitate bazate pe AI.

Aceasta este o amenințare serioasă pentru educație, deoarece școlile trebuie în mod necesar să colecteze cantități mari de informații personale despre elevi și familii. Datele școlilor sunt o țintă foarte atrăgătoare pentru hackeri, care știu că compromiterea acestor date ar provoca panică, ceea ce poate duce la o plată mare de ransomware din partea victimelor.

Cu sistemele de securitate AI în pericol, educatorii pot fi îngrijorați de ce pot face pentru a-și apăra elevii. Există totuși soluții. De exemplu, sistemele AI bazate pe cloud pot fi mai sigure decât cele bazate pe centre de date convenționale. În plus, sisteme de protecție a datelor inteligente în cloud, care sunt construite special pentru sistemele cloud native, poate oferi un nivel suplimentar de securitate pentru datele școlilor în cazul unui atac cibernetic AI.

Deepfake și recunoaștere a imaginilor defectuoase

Pe lângă ușile din spate, hackerii pot exploata și erori neintenționate ale algoritmilor AI. De exemplu, un hacker ar putea modifica fotografiile pentru a păcăli un AI să recunoască incorect o imagine.

Tehnologia Deepfake poate fi folosită și pentru a deghiza fișierele video, foto sau audio ca ceva ce nu sunt. Acest lucru ar putea fi folosit pentru a crea un videoclip fraudulos al unui profesor sau administrator, de exemplu. Deepfakes poate permite hackerilor să intre în sisteme care se bazează pe recunoașterea audio sau a imaginii pentru controlul accesului.

Hackerii pot folosi ei înșiși AI pentru a crea deepfake-uri extrem de realiste care devin apoi modul de atac. De exemplu, o schemă de fraudă din 2021 a folosit deepfakes AI să fure 35 de milioane de dolari de la o bancă din Hong Kong.

Hackerii pot arma AI în același mod pentru a crea deepfake ale vocilor părinților, profesorilor sau administratorilor. Ei lansează atacul sunând pe cineva la telefon și păcălindu-l cu un deepfake bazat pe voce. Acest lucru ar putea fi folosit pentru a fura bani sau informații personale de la școli, elevi, profesori și familii.

„Datele școlilor sunt o țintă foarte atrăgătoare pentru hackeri, care știu că compromiterea acestor date ar provoca panică, ceea ce poate duce la o plată mare a ransomware-ului din partea victimelor.” 

Dependența de AI pentru testare și instruire

AI este excelentă pentru automatizarea diferitelor aspecte ale educației și poate chiar îmbunătăți calitatea educației elevilor. De exemplu, popularul site web de instruire lingvistică Duolingo folosește IA pentru învățarea automată pentru a ajuta elevii să învețe în propriul ritm. Multe alte școli și resurse educaționale folosesc astăzi tehnologie similară. Aceasta este cunoscută ca învățare adaptivă AIși chiar ajută la sarcini esențiale, cum ar fi notarea testelor.

Din păcate, această dependență de AI este o vulnerabilitate a securității cibernetice. Hackerii tind să vizeze sistemele care sunt cruciale pentru funcționarea sistemelor cheie. Deci, dacă educatorii se bazează pe anumite instrumente de instruire AI pentru ca studenții să finalizeze cu succes cursurile, acea dependență de AI poate fi exploatată de un hacker. Ei ar putea lansa un atac ransomware asupra algoritmilor AI educaționali critici sau, eventual, chiar să manipuleze AI în sine.

Această vulnerabilitate particulară este o combinație a mai multor amenințări menționate mai sus. Hackerii ar putea crea o ușă în spate într-o IA care le permite să modifice algoritmul, astfel încât să noteze incorect sau să învețe elevilor informații incorecte.

„Dacă educatorii se bazează pe anumite instrumente de instruire AI pentru ca studenții să finalizeze cu succes cursurile, acea dependență de AI poate fi exploatată de un hacker.” 

Fiți la curent cu amenințările cibernetice ale educației

Nu există nicio îndoială că AI poate fi un instrument extrem de valoros pentru educatori. Cu toate acestea, utilizarea AI necesită prudență și o abordare proactivă a securității cibernetice pentru a proteja vulnerabilitățile AI împotriva exploatării de către hackeri.

Pe măsură ce inteligența artificială devine omniprezentă în educație și viața de zi cu zi, hackerii dezvoltă noi tipuri de atacuri cibernetice concepute pentru a contracara sistemele inteligente de securitate. Fiind conștienți de aceste amenințări cibernetice emergente, educatorii pot lua măsuri pentru a-și proteja sistemele și studenții.

De asemenea, Citiți 5 moduri în care robotica vă va ajuta să obțineți mai multe afaceri

Timestamp-ul:

Mai mult de la Tehnologia AIIOT