Kwetsbaarheden op het gebied van AI-cyberbeveiliging waardoor docenten zich bewust moeten zijn van PlatoBlockchain-data-intelligentie. Verticaal zoeken. Ai.

Kwetsbaarheden in AI-cyberbeveiliging waar docenten zich bewust van moeten zijn

AI kan een waardevol hulpmiddel zijn in het onderwijs, maar het brengt ook enkele belangrijke kwetsbaarheden in cyberbeveiliging met zich mee waarvan docenten op de hoogte moeten zijn. Er zijn steeds meer manieren waarop hackers AI-zwakheden kunnen misbruiken en AI-beveiligingssystemen kunnen omzeilen. Hier is een blik op de belangrijkste kwetsbaarheden in AI-beveiliging die vandaag de dag toenemen en hoe deze het onderwijs kunnen beïnvloeden.

Gecompromitteerde AI-trainingsgegevens

AI-algoritmen kunnen buitengewoon nuttig zijn in het onderwijs, maar het black-boxkarakter van de meeste AI's vormt een ernstige kwetsbaarheid voor cyberbeveiliging. Algoritmen worden getraind met behulp van sets trainingsgegevens die de AI leren iets te begrijpen of te herkennen. Een AI kan bijvoorbeeld worden getraind om algebraproblemen van groep 8 te begrijpen, zodat hij huiswerk kan beoordelen.

De manier waarop AI-algoritmen informatie verwerken, is echter verborgen in een zwarte doos, wat betekent dat glitches en vooroordelen onopgemerkt kunnen blijven. Een AI kan per ongeluk iets verkeerd leren of valse verbanden leggen met de trainingsgegevens. Het black-boxkarakter van AI betekent ook dat vergiftigde trainingsgegevens onopgemerkt kunnen blijven.

Hackers kunnen trainingsgegevens besmetten met a achterdeur verborgen in de AI's logica. Wanneer de hacker toegang wil tot het systeem waar de AI gebruikt gaat worden, hoeft hij alleen de sleutel voor de achterdeur in te voeren en herkent de AI deze uit de trainingsgegevens. Dergelijke achterdeuren kunnen zeer moeilijk te detecteren zijn, omdat ontwikkelaars en gebruikers niet alle verbindingen kunnen zien die in de zwarte doos van de AI plaatsvinden.

"De manier waarop AI-algoritmen informatie verwerken, is verborgen in een zwarte doos, wat betekent dat glitches en vooroordelen onopgemerkt kunnen blijven." 

Hackers passen zich aan

Het creëren van een achterdeur in AI-trainingsgegevens is een complex en tijdrovend proces en iets waar vooral hoogopgeleide hackers toe in staat zouden zijn. Helaas passen hackers hun aanvalsstrategieën aan om de dreigingsjachtcapaciteiten van AI te omzeilen. Hackers creëren zelfs hun eigen AI-algoritmen die andere algoritmen te slim af kunnen zijn.

Hackers hebben bijvoorbeeld AI's ontwikkeld die: autonoom wachtwoorden kraken om toegangsbeheersystemen te omzeilen. Erger nog, hackers gebruiken AI om hun ransomware en malware slim genoeg te maken om voorbij AI-aangedreven beveiligingsprotocollen te komen.

Dit is een ernstige bedreiging voor het onderwijs, omdat scholen noodzakelijkerwijs grote hoeveelheden persoonlijke informatie over leerlingen en gezinnen moeten verzamelen. De gegevens van scholen zijn een zeer aantrekkelijk doelwit voor hackers, die weten dat het compromitteren van die gegevens paniek zou veroorzaken, wat mogelijk kan leiden tot een grote ransomware-uitbetaling door slachtoffers.

Nu AI-beveiligingssystemen gevaar lopen, kunnen docenten zich zorgen maken over wat ze kunnen doen om hun leerlingen te verdedigen. Er zijn wel oplossingen. Cloudgebaseerde AI-systemen kunnen bijvoorbeeld veiliger zijn dan systemen op basis van conventionele datacenters. Plus, cloud-intelligente gegevensbeschermingssystemen, die zijn gebouwd specifiek voor cloud-native systemen, kan een extra beveiligingslaag bieden voor de gegevens van scholen in het geval van een AI-cyberaanval.

Deepfakes en foutieve beeldherkenning

Naast backdoors kunnen hackers ook misbruik maken van onbedoelde glitches in AI-algoritmen. Een hacker zou bijvoorbeeld kunnen knoeien met foto's om een ​​AI te misleiden tot het onjuist herkennen van een afbeelding.

Deepfake-technologie kan ook worden gebruikt om video-, foto- of audiobestanden te vermommen als iets dat ze niet zijn. Dit kan worden gebruikt om bijvoorbeeld een frauduleuze video van een leraar of beheerder te maken. Met deepfakes kunnen hackers toegang krijgen tot systemen die afhankelijk zijn van audio- of beeldherkenning voor toegangscontrole.

Hackers kunnen zelf AI gebruiken om zeer realistische deepfakes te maken die vervolgens de aanvalsmethode worden. Bijvoorbeeld een frauderegeling uit 2021 gebruikte AI-deepfakes om $ 35 miljoen te stelen van een bank in Hong Kong.

Hackers kunnen AI op dezelfde manier bewapenen om deepfakes van de stemmen van ouders, leraren of beheerders te creëren. Ze lanceren de aanval door iemand aan de telefoon te bellen en ze te misleiden met een spraakgestuurde deepfake. Dit kan worden gebruikt om geld of persoonlijke informatie te stelen van scholen, studenten, docenten en gezinnen.

"De gegevens van scholen zijn een zeer aantrekkelijk doelwit voor hackers, die weten dat het compromitteren van die gegevens paniek zou veroorzaken, wat mogelijk kan leiden tot een hoge ransomware-uitbetaling door slachtoffers." 

Vertrouwen op AI voor testen en bijles

AI is geweldig voor het automatiseren van verschillende aspecten van het onderwijs en kan zelfs de kwaliteit van het onderwijs van studenten verbeteren. Bijvoorbeeld de populaire taalbegeleidingswebsite Duolingo maakt gebruik van machine learning AI om leerlingen te helpen in hun eigen tempo te leren. Veel andere scholen en leermiddelen gebruiken tegenwoordig vergelijkbare technologie. Dit staat bekend als adaptief AI-leren, en het helpt zelfs bij essentiële taken zoals het beoordelen van toetsen.

Helaas is deze afhankelijkheid van AI een kwetsbaarheid op het gebied van cyberbeveiliging. Hackers hebben de neiging om zich te richten op systemen die cruciaal zijn voor de werking van belangrijke systemen. Dus als docenten vertrouwen op bepaalde AI-begeleidingstools voor studenten om cursussen met succes af te ronden, kan die afhankelijkheid van AI door een hacker worden misbruikt. Ze zouden een ransomware-aanval kunnen lanceren op kritieke AI-algoritmen voor het onderwijs of mogelijk zelfs de AI zelf manipuleren.

Deze specifieke kwetsbaarheid is een combinatie van verschillende van de hierboven genoemde bedreigingen. Hackers kunnen een achterdeur in een AI maken waarmee ze met het algoritme kunnen knoeien, zodat het onjuiste cijfers geeft of studenten onjuiste informatie leert.

"Als docenten vertrouwen op bepaalde AI-begeleidingstools voor studenten om cursussen met succes af te ronden, kan die afhankelijkheid van AI door een hacker worden uitgebuit." 

Bewust blijven van cyberdreigingen in het onderwijs

Het lijdt geen twijfel dat AI een zeer waardevol hulpmiddel kan zijn voor opvoeders. Het gebruik van AI vereist echter voorzichtigheid en een proactieve benadering van cyberbeveiliging om AI-kwetsbaarheden te beschermen tegen misbruik door hackers.

Nu AI alomtegenwoordig wordt in het onderwijs en het dagelijks leven, ontwikkelen hackers nieuwe soorten cyberaanvallen die zijn ontworpen om intelligente beveiligingssystemen te dwarsbomen. Door op de hoogte te blijven van deze opkomende cyberdreigingen, kunnen docenten actie ondernemen om hun systemen en hun leerlingen te beschermen.

Lees ook 5 manieren waarop robotica u zal helpen meer zaken te doen

Tijdstempel:

Meer van AIIOT-technologie