AI Cybersecurity sårbarheter for lærere å være oppmerksomme på PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

AI Cybersecurity sårbarheter for lærere å være oppmerksomme på

AI kan være et verdifullt verktøy i utdanning, men det utgjør også noen viktige cybersikkerhetssårbarheter som lærere bør være oppmerksomme på. Det er et økende antall måter hackere kan utnytte AI-svakheter og omgå AI-sikkerhetssystemer. Her er en titt på de største AI-sikkerhetssårbarhetene som øker i dag, og hvordan de kan påvirke utdanning.

Kompromitterte AI-treningsdata

AI-algoritmer kan være ekstremt nyttige i utdanning, men black-box-naturen til de fleste AI-er utgjør en alvorlig cybersikkerhetssårbarhet. Algoritmer trenes ved hjelp av sett med treningsdata som lærer AI å forstå eller gjenkjenne noe. For eksempel kan en kunstig intelligens være opplært til å forstå algebraproblemer i 8. klasse slik at den kan gi karakterer for lekser.

Imidlertid er måten AI-algoritmer behandler informasjon på, skjult i en svart boks, noe som betyr at feil og skjevheter kan gå ubemerket hen. En AI kan utilsiktet lære noe feil eller lage falske koblinger fra treningsdataene. Black-box-naturen til AI betyr også at forgiftede treningsdata kan gå ubemerket hen.

Hackere kan skjemme treningsdata til å inkludere en bakdør skjult i AI-ene logikk. Når hackeren vil ha tilgang til systemet der AI-en skal brukes, kan de ganske enkelt legge inn nøkkelen for bakdøren og AI-en vil gjenkjenne den fra treningsdataene. Bakdører som dette kan være svært vanskelige å oppdage fordi utviklere og brukere ikke kan se alle forbindelsene som foregår i AIs svarte boks.

"Måten AI-algoritmer behandler informasjon på er skjult i en svart boks, noe som betyr at feil og skjevheter kan gå ubemerket hen." 

Hackere tilpasser seg

Å lage en bakdør i AI-treningsdata er en kompleks og tidkrevende prosess og noe som i hovedsak bare svært dyktige hackere ville være i stand til. Dessverre tilpasser hackere sine angrepsstrategier for å omgå trusseljaktende evner til AI. Faktisk lager hackere til og med sine egne AI-algoritmer som kan overliste andre algoritmer.

For eksempel har hackere utviklet AI-er som kan autonomt knekke passord å omgå tilgangsstyringssystemer. Enda verre, hackere bruker AI for å gjøre løsepengevare og skadevare smarte nok til å komme forbi AI-drevne sikkerhetsprotokoller.

Dette er en alvorlig trussel mot utdanning fordi skolene nødvendigvis må samle inn store mengder personlig informasjon om elever og familier. Skolenes data er et svært tiltalende mål for hackere, som vet at å kompromittere disse dataene vil forårsake panikk, og potensielt føre til en stor løsepengevareutbetaling fra ofrene.

Med AI-sikkerhetssystemer i fare, kan lærere være bekymret for hva de kan gjøre for å forsvare elevene sine. Det finnes imidlertid løsninger. For eksempel kan skybaserte AI-systemer være tryggere enn de som er basert på konvensjonelle datasentre. Pluss, sky-intelligente databeskyttelsessystemer, som er bygget spesielt for skybaserte systemer, kan gi et ekstra lag med sikkerhet for skolenes data i tilfelle et AI-nettangrep.

Deepfakes og feil bildegjenkjenning

I tillegg til bakdører, kan hackere også utnytte utilsiktede feil i AI-algoritmer. For eksempel kan en hacker tukle med bilder for å lure en kunstig intelligens til å feilaktig gjenkjenne et bilde.

Deepfake-teknologi kan også brukes til å skjule video-, bilde- eller lydfiler som noe de ikke er. Dette kan brukes til å lage en uredelig video av en lærer eller administrator, for eksempel. Deepfakes kan tillate hackere å komme inn i systemer som er avhengige av lyd- eller bildegjenkjenning for tilgangskontroll.

Hackere kan utnytte AI selv for å lage svært realistiske dype forfalskninger som deretter blir angrepsmåten. For eksempel en svindelordning fra 2021 brukte AI deepfakes å stjele 35 millioner dollar fra en Hong Kong-bank.

Hackere kan bevæpne AI på samme måte for å lage dype forfalskninger av foreldres, læreres eller administratorers stemmer. De starter angrepet ved å ringe noen på telefonen og lure dem med en stemmebasert deepfake. Dette kan brukes til å stjele penger eller personlig informasjon fra skoler, elever, lærere og familier.

"Skolenes data er et svært tiltalende mål for hackere, som vet at å kompromittere disse dataene vil forårsake panikk, og potensielt føre til en høy løsepengevareutbetaling fra ofrene." 

Stol på AI for testing og veiledning

AI er flott for å automatisere ulike aspekter ved utdanning og kan til og med forbedre kvaliteten på elevenes utdanning. For eksempel det populære språkopplæringsnettstedet Duolingo bruker maskinlæring AI for å hjelpe elevene å lære i sitt eget tempo. Mange andre skoler og utdanningsressurser bruker lignende teknologi i dag. Dette er kjent som adaptiv AI-læring, og det hjelper til og med med viktige oppgaver som testkarakterer.

Dessverre er denne avhengigheten av AI en sårbarhet for cybersikkerhet. Hackere har en tendens til å målrette mot systemer som er avgjørende for driften av nøkkelsystemer. Så hvis lærere er avhengige av visse AI-veiledningsverktøy for at studentene skal fullføre kursene, kan denne avhengigheten av AI utnyttes av en hacker. De kan starte et løsepenge-angrep på AI-algoritmer for kritisk utdanning eller muligens til og med manipulere AI-en selv.

Denne spesielle sårbarheten er en kombinasjon av flere av truslene nevnt ovenfor. Hackere kan lage en bakdør i en AI som lar dem tukle med algoritmen slik at den graderer feil eller lærer elevene feil informasjon.

"Hvis lærere er avhengige av visse AI-veiledningsverktøy for at studentene skal kunne fullføre kursene, kan denne avhengigheten av AI utnyttes av en hacker." 

Vær oppmerksom på cybertrusler i utdanning

Det er ingen tvil om at AI kan være et svært verdifullt verktøy for lærere. Bruk av AI krever imidlertid forsiktighet og en proaktiv tilnærming til cybersikkerhet for å beskytte AI-sårbarheter fra å bli utnyttet av hackere.

Ettersom AI blir allestedsnærværende i utdanning og hverdagsliv, utvikler hackere nye typer nettangrep designet for å hindre intelligente sikkerhetssystemer. Ved å være oppmerksomme på disse nye cybertruslene kan lærere iverksette tiltak for å beskytte systemene sine og elevene.

Les også 5 måter robotikk vil hjelpe deg med å få flere forretninger

Tidstempel:

Mer fra AIIOT-teknologi