Ranljivosti kibernetske varnosti umetne inteligence za učitelje, ki se morajo zavedati podatkovne inteligence PlatoBlockchain. Navpično iskanje. Ai.

Ranljivosti kibernetske varnosti umetne inteligence, ki naj se jih učitelji zavedajo

Umetna inteligenca je lahko dragoceno orodje v izobraževanju, vendar predstavlja tudi nekaj ključnih ranljivosti kibernetske varnosti, ki bi se jih morali učitelji zavedati. Vse več je načinov, kako lahko hekerji izkoristijo slabosti umetne inteligence in obidejo varnostne sisteme umetne inteligence. Tukaj je pogled na glavne varnostne ranljivosti AI, ki so danes v porastu, in kako lahko vplivajo na izobraževanje.

Ogroženi podatki o usposabljanju AI

Algoritmi umetne inteligence so lahko izjemno uporabni v izobraževanju, vendar narava črne skrinjice večine umetne inteligence predstavlja resno ranljivost kibernetske varnosti. Algoritmi se usposabljajo z uporabo nizov podatkov za usposabljanje, ki umetno inteligenco učijo, da nekaj razume ali prepozna. Na primer, umetna inteligenca je lahko usposobljena za razumevanje problemov algebre v 8. razredu, tako da lahko ocenjuje domače naloge.

Vendar je način, na katerega algoritmi AI obdelujejo informacije, skrit v črni škatli, kar pomeni, da lahko napake in pristranskosti ostanejo neopažene. Umetna inteligenca se lahko nehote nečesa nauči napačno ali naredi napačne povezave iz podatkov o usposabljanju. Narava črne skrinjice AI tudi pomeni, da lahko zastrupljeni podatki o usposabljanju ostanejo neopaženi.

Hekerji lahko pokvarijo podatke o usposabljanju, tako da vključujejo a zadnja vrata, skrita v umetni inteligenci logika. Ko heker želi dostop do sistema, kjer bo uporabljen AI, lahko preprosto vnese ključ za stranska vrata in AI ga bo prepoznal iz podatkov o usposabljanju. Takšna zadnja vrata je zelo težko odkriti, ker razvijalci in uporabniki ne vidijo vseh povezav, ki potekajo v črni skrinjici AI.

"Način, na katerega algoritmi umetne inteligence obdelujejo informacije, je skrit v črni škatli, kar pomeni, da napake in pristranskosti lahko ostanejo neopaženi." 

Hekerji se prilagajajo

Ustvarjanje zakulisnih vrat v podatkih za usposabljanje AI je zapleten in dolgotrajen proces in nekaj, česar bi bili sposobni večinoma le visoko usposobljeni hekerji. Na žalost hekerji prilagajajo svoje strategije napadov, da bi se izognili zmožnostim umetne inteligence za lov na grožnje. Pravzaprav hekerji celo ustvarjajo lastne algoritme AI, ki lahko prelisičijo druge algoritme.

Hekerji so na primer razvili AI, ki lahko avtonomno razbiti gesla zaobiti sisteme za upravljanje dostopa. Še huje, hekerji uporabljajo umetno inteligenco, da naredijo svojo izsiljevalsko in zlonamerno programsko opremo dovolj pametno, da preidejo varnostne protokole, ki jih poganja umetna inteligenca.

To je resna grožnja izobraževanju, saj morajo šole nujno zbirati velike količine osebnih podatkov o učencih in družinah. Podatki šol so zelo privlačna tarča za hekerje, ki vedo, da bi ogrožanje teh podatkov povzročilo paniko, ki bi lahko povzročila veliko izplačilo izsiljevalske programske opreme s strani žrtev.

Ker so varnostni sistemi umetne inteligence ogroženi, so učitelji morda zaskrbljeni, kaj lahko storijo za zaščito svojih učencev. Vendar obstajajo rešitve. Na primer, sistemi umetne inteligence v oblaku so lahko varnejši od tistih, ki temeljijo na običajnih podatkovnih centrih. Plus, zgrajeni sistemi za zaščito podatkov, inteligentni v oblaku posebej za sisteme v oblaku, lahko zagotovi dodatno raven varnosti za podatke šol v primeru kibernetskega napada z umetno inteligenco.

Deepfakes in napačno prepoznavanje slik

Poleg stranskih vrat lahko hekerji izkoristijo tudi nenamerne napake v algoritmih AI. Heker bi lahko na primer posegel v fotografije, da bi pretental AI, da nepravilno prepozna sliko.

Tehnologijo Deepfake je mogoče uporabiti tudi za prikrivanje video, fotografij ali zvočnih datotek v nekaj, kar niso. To bi lahko na primer uporabili za ustvarjanje goljufivega videa učitelja ali skrbnika. Deepfakes lahko hekerjem omogočijo vstop v sisteme, ki za nadzor dostopa uporabljajo prepoznavanje zvoka ali slike.

Hekerji lahko sami uporabijo AI, da ustvarijo zelo realistične globoke ponaredke, ki nato postanejo način napada. Na primer shema goljufij iz leta 2021 uporabljal AI deepfakes ukradel 35 milijonov dolarjev iz hongkonške banke.

Hekerji lahko oborožijo AI na enak način, da ustvarijo globoke ponaredke glasov staršev, učiteljev ali skrbnikov. Napad sprožijo tako, da nekoga pokličejo po telefonu in ga pretentajo z glasovnim deepfakeom. To bi lahko uporabili za krajo denarja ali osebnih podatkov iz šol, učencev, učiteljev in družin.

"Šolski podatki so zelo privlačna tarča za hekerje, ki vedo, da bi ogrožanje teh podatkov povzročilo paniko, ki bi lahko povzročila visoko izplačilo izsiljevalske programske opreme s strani žrtev." 

Zanašanje na AI za testiranje in mentorstvo

AI je odličen za avtomatizacijo različnih vidikov izobraževanja in lahko celo izboljša kakovost izobraževanja učencev. Na primer priljubljeno spletno mesto za poučevanje jezikov Duolingo uporablja AI strojnega učenja pomagati učencem pri učenju v njihovem tempu. Številne druge šole in izobraževalni viri danes uporabljajo podobno tehnologijo. To je znano kot prilagodljivo učenje AIin celo pomaga pri bistvenih nalogah, kot je ocenjevanje testov.

Na žalost je ta odvisnost od umetne inteligence ranljivost kibernetske varnosti. Hekerji ponavadi ciljajo na sisteme, ki so ključni za delovanje ključnih sistemov. Torej, če se učitelji zanašajo na določena orodja za poučevanje umetne inteligence za študente, da uspešno opravijo naloge, lahko to zanašanje na umetno inteligenco izkoristi heker. Lahko bi sprožili napad z izsiljevalsko programsko opremo na kritične izobraževalne algoritme umetne inteligence ali morda celo manipulirali s samo umetno inteligenco.

Ta posebna ranljivost je kombinacija več zgoraj omenjenih groženj. Hekerji bi lahko ustvarili stranska vrata v umetni inteligenci, ki bi jim omogočila poseganje v algoritem, tako da ta nepravilno ocenjuje ali študente uči napačnih informacij.

"Če se učitelji zanašajo na določena orodja za poučevanje umetne inteligence za študente, da uspešno opravijo naloge, lahko to zanašanje na umetno inteligenco izkoristi heker." 

Bodite pozorni na kibernetske grožnje v izobraževanju

Nobenega dvoma ni, da je umetna inteligenca lahko zelo dragoceno orodje za učitelje. Vendar pa uporaba umetne inteligence zahteva previdnost in proaktiven pristop k kibernetski varnosti, da zaščitimo ranljivosti umetne inteligence pred izkoriščanjem hekerjev.

Ker umetna inteligenca postaja vseprisotna v izobraževanju in vsakdanjem življenju, hekerji razvijajo nove vrste kibernetskih napadov, namenjenih preprečevanju inteligentnih varnostnih sistemov. Če se zavedajo teh nastajajočih kibernetskih groženj, lahko učitelji ukrepajo in zaščitijo svoje sisteme in učence.

Preberite tudi 5 načinov, kako vam bo robotika pomagala do več posla

Časovni žig:

Več od Tehnologija AIIOT