AI Cybersecurity sårbarheter för lärare att vara medvetna om PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

AI Cybersecurity sårbarheter för lärare att vara medvetna om

AI kan vara ett värdefullt verktyg inom utbildning, men det utgör också några viktiga cybersäkerhetssårbarheter som lärare bör vara medvetna om. Det finns ett växande antal sätt som hackare kan utnyttja AI-svagheter och kringgå AI-säkerhetssystem. Här är en titt på de största AI-säkerhetssårbarheterna som ökar idag och hur de kan påverka utbildning.

Komprometterad AI-träningsdata

AI-algoritmer kan vara extremt användbara inom utbildning, men den svarta lådan hos de flesta AI:er utgör en allvarlig cybersäkerhetssårbarhet. Algoritmer tränas med hjälp av uppsättningar träningsdata som lär AI:n att förstå eller känna igen något. Till exempel kan en AI tränas för att förstå 8:e klass algebraproblem så att den kan betygsätta läxor.

Sättet som AI-algoritmer bearbetar information är dock gömt i en svart låda, vilket innebär att fel och fördomar kan förbli obemärkta. En AI kan oavsiktligt lära sig något felaktigt eller göra falska kopplingar från träningsdata. Den svarta lådan hos AI innebär också att förgiftad träningsdata kan förbli obemärkt.

Hackare kan fläcka träningsdata till att inkludera en bakdörr dold i AI:erna logik. När hackaren vill ha tillgång till systemet där AI:n ska användas kan de helt enkelt mata in nyckeln för bakdörren och AI:n kommer att känna igen den från träningsdatan. Bakdörrar som denna kan vara mycket svåra att upptäcka eftersom utvecklare och användare inte kan se alla kopplingar som pågår i AI:s svarta låda.

"Sättet som AI-algoritmer bearbetar information är gömt i en svart låda, vilket innebär att fel och fördomar kan förbli obemärkta." 

Hackare anpassar sig

Att skapa en bakdörr i AI-träningsdata är en komplex och tidskrävande process och något som huvudsakligen bara mycket skickliga hackare skulle vara kapabla till. Tyvärr anpassar hackare sina attackstrategier för att kringgå AI:s förmåga att jaga hot. Faktum är att hackare till och med skapar sina egna AI-algoritmer som kan överlista andra algoritmer.

Till exempel har hackare utvecklat AI:er som kan självständigt knäcka lösenord att kringgå åtkomsthanteringssystem. Ännu värre, hackare använder AI för att göra sina ransomware och skadliga program smarta nog att ta sig förbi AI-drivna säkerhetsprotokoll.

Detta är ett allvarligt hot mot utbildningen eftersom skolor nödvändigtvis behöver samla in stora mängder personlig information om elever och familjer. Skolornas data är ett mycket tilltalande mål för hackare, som vet att att äventyra denna data skulle orsaka panik, vilket potentiellt kan leda till en stor utbetalning av ransomware från offren.

Med AI-säkerhetssystem i riskzonen kan lärare vara oroliga över vad de kan göra för att försvara sina elever. Det finns dock lösningar. Till exempel kan molnbaserade AI-system vara säkrare än de som är baserade på konventionella datacenter. Plus molnintelligenta dataskyddssystem, som är byggda speciellt för molnbaserade system, kan ge ett extra lager av säkerhet för skolors data i händelse av en AI-cyberattack.

Deepfakes och felaktig bildigenkänning

Förutom bakdörrar kan hackare också utnyttja oavsiktliga fel i AI-algoritmer. Till exempel kan en hackare manipulera bilder för att lura en AI att felaktigt känna igen en bild.

Deepfake-teknik kan också användas för att dölja video-, foto- eller ljudfiler som något de inte är. Detta kan till exempel användas för att skapa en bedräglig video av en lärare eller administratör. Deepfakes kan tillåta hackare att komma in i system som förlitar sig på ljud- eller bildigenkänning för åtkomstkontroll.

Hackare kan själva utnyttja AI för att skapa mycket realistiska djupförfalskningar som sedan blir angreppssättet. Till exempel ett bedrägeriprogram från 2021 använde AI deepfakes att stjäla 35 miljoner dollar från en bank i Hongkong.

Hackare kan beväpna AI på samma sätt för att skapa djupa förfalskningar av föräldrars, lärares eller administratörers röster. De inleder attacken genom att ringa någon på telefonen och lura dem med en röstbaserad deepfake. Detta kan användas för att stjäla pengar eller personlig information från skolor, elever, lärare och familjer.

"Skolornas data är ett mycket tilltalande mål för hackare, som vet att att äventyra denna data skulle orsaka panik, vilket potentiellt kan leda till en hög utbetalning av ransomware från offer." 

Beroende på AI för testning och handledning

AI är utmärkt för att automatisera olika aspekter av utbildning och kan till och med förbättra kvaliteten på elevernas utbildning. Till exempel den populära språkundervisningswebbplatsen Duolingo använder maskininlärning AI att hjälpa eleverna att lära sig i sin egen takt. Många andra skolor och utbildningsresurser använder liknande teknik idag. Detta är känt som adaptiv AI-inlärning, och det hjälper till och med med viktiga uppgifter som testgradering.

Tyvärr är detta beroende av AI en sårbarhet för cybersäkerhet. Hackare tenderar att rikta in sig på system som är avgörande för driften av nyckelsystem. Så om lärare förlitar sig på vissa AI-handledningsverktyg för att eleverna ska kunna slutföra kurser, kan detta beroende av AI utnyttjas av en hackare. De kan lansera en ransomware-attack på algoritmer för kritisk utbildning av AI eller möjligen till och med manipulera själva AI:n.

Denna speciella sårbarhet är en kombination av flera av de hot som nämns ovan. Hackare kan skapa en bakdörr i en AI som gör att de kan manipulera algoritmen så att den betygsätter felaktigt eller lär eleverna felaktig information.

"Om lärare förlitar sig på vissa AI-handledningsverktyg för att eleverna ska kunna slutföra kurser, kan detta beroende av AI utnyttjas av en hackare." 

Håll dig medveten om cyberhot inom utbildning

Det råder ingen tvekan om att AI kan vara ett mycket värdefullt verktyg för lärare. Att använda AI kräver dock försiktighet och ett proaktivt förhållningssätt till cybersäkerhet för att skydda AI-sårbarheter från att utnyttjas av hackare.

När AI blir allestädes närvarande i utbildning och vardag, utvecklar hackare nya typer av cyberattacker som är utformade för att omintetgöra intelligenta säkerhetssystem. Genom att hålla sig medvetna om dessa nya cyberhot kan lärare vidta åtgärder för att skydda sina system och sina elever.

Läs också 5 sätt Robotics hjälper dig att få fler affärer

Tidsstämpel:

Mer från AIIOT-teknik