AI Cybersecurity sårbarheder for undervisere at være opmærksomme på PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

AI Cybersikkerhedssårbarheder, som undervisere skal være opmærksomme på

AI kan være et værdifuldt værktøj inden for uddannelse, men det udgør også nogle vigtige cybersikkerhedssårbarheder, som undervisere bør være opmærksomme på. Der er et stigende antal måder, hvorpå hackere kan udnytte AI-svagheder og omgå AI-sikkerhedssystemer. Her er et kig på de største AI-sikkerhedssårbarheder, der er stigende i dag, og hvordan de kan påvirke uddannelse.

Kompromitterede AI-træningsdata

AI-algoritmer kan være ekstremt nyttige i undervisningen, men black-box-karakteren af ​​de fleste AI'er udgør en alvorlig cybersikkerhedssårbarhed. Algoritmer trænes ved hjælp af sæt træningsdata, der lærer AI at forstå eller genkende noget. For eksempel kan en AI være trænet til at forstå algebraproblemer i 8. klasse, så den kan bedømme lektier.

Men måden, som AI-algoritmer behandler information på, er skjult i en sort boks, hvilket betyder, at fejl og skævheder kan forblive ubemærket. En AI kan utilsigtet lære noget forkert eller lave falske forbindelser fra træningsdataene. Den sorte boks karakter af AI betyder også, at forgiftede træningsdata kan gå ubemærket hen.

Hackere kan plette træningsdata til at inkludere en bagdør skjult i AI'erne logik. Når hackeren vil have adgang til systemet, hvor AI'en skal bruges, kan de blot indtaste nøglen til bagdøren, og AI'en vil genkende den fra træningsdataene. Bagdøre som denne kan være meget svære at opdage, fordi udviklere og brugere ikke kan se alle de forbindelser, der foregår i AI's sorte boks.

"Måden som AI-algoritmer behandler information på er skjult i en sort boks, hvilket betyder, at fejl og skævheder kan forblive ubemærket." 

Hackere tilpasser sig

At skabe en bagdør i AI-træningsdata er en kompleks og tidskrævende proces og noget, som hovedsageligt kun højt kvalificerede hackere ville være i stand til. Desværre tilpasser hackere deres angrebsstrategier for at omgå AI's trusselsjagtevner. Faktisk er hackere endda ved at skabe deres egne AI-algoritmer, der kan overliste andre algoritmer.

For eksempel har hackere udviklet AI'er, der kan selvstændigt knække adgangskoder at omgå adgangsstyringssystemer. Endnu værre, hackere bruger AI til at gøre deres ransomware og malware smarte nok til at komme forbi AI-drevne sikkerhedsprotokoller.

Dette er en alvorlig trussel mod uddannelse, fordi skolerne nødvendigvis skal indsamle store mængder personlige oplysninger om elever og familier. Skolers data er et yderst tiltalende mål for hackere, som ved, at kompromittering af disse data ville forårsage panik, hvilket potentielt kan føre til en stor ransomware-udbetaling fra ofrene.

Med AI-sikkerhedssystemer i fare, kan undervisere være bekymrede over, hvad de kan gøre for at forsvare deres elever. Der er dog løsninger. For eksempel kan cloud-baserede AI-systemer være mere sikre end dem, der er baseret på konventionelle datacentre. Plus, cloud-intelligente databeskyttelsessystemer, som er bygget specifikt til cloud-native systemer, kan give et ekstra lag af sikkerhed for skolernes data i tilfælde af et AI-cyberangreb.

Deepfakes og defekt billedgenkendelse

Ud over bagdøre kan hackere også udnytte utilsigtede fejl i AI-algoritmer. For eksempel kan en hacker manipulere med fotos for at narre en AI til forkert at genkende et billede.

Deepfake-teknologi kan også bruges til at skjule video-, foto- eller lydfiler som noget, de ikke er. Dette kan f.eks. bruges til at lave en svigagtig video af en lærer eller administrator. Deepfakes kan tillade hackere at komme ind i systemer, der er afhængige af lyd- eller billedgenkendelse til adgangskontrol.

Hackere kan selv udnytte AI til at skabe meget realistiske deepfakes, der så bliver angrebsmåden. For eksempel en 2021-svindelordning brugt AI deepfakes at stjæle 35 millioner dollars fra en bank i Hongkong.

Hackere kan bevæbne AI på samme måde for at skabe dybe forfalskninger af forældres, læreres eller administratorers stemmer. De starter angrebet ved at ringe til nogen i telefonen og narre dem med en stemmebaseret deepfake. Dette kan bruges til at stjæle penge eller personlige oplysninger fra skoler, elever, lærere og familier.

"Skolernes data er et yderst tiltalende mål for hackere, som ved, at kompromittering af disse data ville forårsage panik, hvilket potentielt kan føre til en høj ransomware-udbetaling fra ofrene." 

Tillid til AI til test og vejledning

AI er fantastisk til at automatisere forskellige aspekter af uddannelse og kan endda forbedre kvaliteten af ​​elevernes uddannelse. For eksempel det populære sprogundervisningswebsted Duolingo bruger machine learning AI at hjælpe eleverne med at lære i deres eget tempo. Mange andre skoler og uddannelsesressourcer bruger lignende teknologi i dag. Dette er kendt som adaptiv AI-læring, og det hjælper endda med vigtige opgaver som testkaraktergivning.

Desværre er denne afhængighed af AI en cybersikkerhedssårbarhed. Hackere har en tendens til at målrette mod systemer, der er afgørende for driften af ​​nøglesystemer. Så hvis undervisere er afhængige af visse AI-undervisningsværktøjer, så eleverne kan gennemføre kurser med succes, kan denne afhængighed af AI udnyttes af en hacker. De kunne lancere et ransomware-angreb på AI-algoritmer for kritisk uddannelse eller muligvis endda manipulere selve AI'en.

Denne særlige sårbarhed er en kombination af flere af de ovenfor nævnte trusler. Hackere kunne skabe en bagdør i en AI, der giver dem mulighed for at manipulere med algoritmen, så den bedømmer forkert eller lærer eleverne forkerte oplysninger.

"Hvis undervisere er afhængige af visse AI-undervisningsværktøjer, så eleverne kan gennemføre kurser med succes, kan denne afhængighed af AI udnyttes af en hacker." 

Vær opmærksom på cybertrusler på uddannelsesområdet

Der er ingen tvivl om, at kunstig intelligens kan være et meget værdifuldt værktøj for undervisere. Brug af AI kræver dog forsigtighed og en proaktiv tilgang til cybersikkerhed for at beskytte AI-sårbarheder mod at blive udnyttet af hackere.

Efterhånden som AI bliver allestedsnærværende i uddannelse og hverdag, udvikler hackere nye former for cyberangreb designet til at modarbejde intelligente sikkerhedssystemer. Ved at være opmærksomme på disse nye cybertrusler kan undervisere tage skridt til at beskytte deres systemer og deres elever.

Læs også 5 måder, robotteknologi vil hjælpe dig med at få flere forretninger på

Tidsstempel:

Mere fra AIIOT teknologi