Een gouden eeuw van AI … of beveiligingsbedreigingen?

Een gouden eeuw van AI … of beveiligingsbedreigingen?

Een gouden tijdperk van AI... of veiligheidsbedreigingen? PlatoBlockchain-gegevensintelligentie. Verticaal zoeken. Ai.

Bevinden we ons in een gouden tijdperk van kunstmatige intelligentie? Het is moeilijk om voorspellingen te doen – en waarschijnlijk onverstandig. Wie wil de toekomst van zo’n nieuwe technologie voorspellen?

Toch kunnen we een aantal dingen met zekerheid zeggen. Er wordt veel aandacht besteed aan de toepassing van AI op creatieve werken, van stemacteren tot eerste versies van scenario's. Maar AI is waarschijnlijk het nuttigst bij het aanpakken van saai werk. Dit is goed nieuws voor ontwikkelaars, als de belofte overeenkomt met vroege experimenten: de eerste concepten van code kunnen eenvoudig worden gemaakt en zijn klaar voor ontwikkelaars om aan te passen en te herhalen.

Het is echter belangrijk om dat te onthouden niet elke codeur werkt voor een legitiem bedrijf. Net zoals cyberdreigingsactoren hun doelen hebben nagebootst door zakelijker te worden, adopteren ze ook nieuwe technologieën en technieken. We kunnen verwachten dat AI de komende jaren zal helpen bij de ontwikkeling van malware en andere bedreigingen, of we nu een gouden tijdperk van AI ingaan of niet.

Code opstellen en oplichting

Een trend die we de afgelopen jaren hebben gezien, is de opkomst van “as-a-service”-aanbiedingen. Vroege hackers waren knutselaars en onruststokers, die telefoonsystemen voor de gek hielden of chaos veroorzaakten, meestal als een oefening in de lol. Dit is fundamenteel veranderd. Bedreigingsactoren zijn professioneel en verkopen hun producten vaak zodat anderen deze kunnen gebruiken.

AI past heel mooi in deze manier van werken. AI kan code maken om specifieke problemen aan te pakken, kan code aanpassen om kwetsbaarheden aan te pakken of bestaande code gebruiken en wijzigen, zodat deze niet zo gemakkelijk wordt gedetecteerd door beveiligingsmaatregelen die op zoek zijn naar specifieke patronen.

Maar daar houden de mogelijkheden voor misbruik van AI niet op. Veel phishing-e-mails worden gedetecteerd door effectieve filtertools en komen terecht in de map met ongewenste e-mail. Degenen die wel in de inbox terechtkomen, zijn vaak overduidelijk oplichting, zo slecht geschreven dat ze bijna onbegrijpelijk zijn. Maar AI zou dit patroon kunnen doorbreken en duizenden plausibele e-mails kunnen creëren die detectie kunnen omzeilen en goed genoeg geschreven zijn om zowel filters als eindgebruikers voor de gek te houden.

Spearphishing, de meer gerichte vorm van deze aanval, zou door deze technologie ook voor een revolutie kunnen zorgen. Zeker, het is gemakkelijk om een ​​e-mail van uw baas te negeren waarin u wordt gevraagd contant geld over te maken of dringend cadeaubonnen te kopen. Cybersecurity-training helpt werknemers dit soort oplichting te voorkomen. Maar hoe zit het met een deepfake-telefoongesprek of videochat? AI heeft het potentieel om uitzendingen en podcasts om te zetten in een overtuigend simulacrum, iets dat veel moeilijker te negeren is.

Terugvechten tegen AI-cyberaanvallen

Er zijn twee belangrijke manieren om terug te vechten tegen de voordelen die AI de vijand zal opleveren: betere AI en betere training – En beide zullen nodig zijn.

De komst van deze nieuwe generatie AI heeft een nieuwe wapenwedloop op gang gebracht. Net zoals cybercriminelen het gebruiken om hun aanvallen te ontwikkelen, zullen beveiligingsteams het ook moeten gebruiken om hun verdediging te ontwikkelen.

Zonder AI vertrouwt de verdediging op overwerkte mensen en het monitoren van bepaalde voorgeprogrammeerde patronen om aanvallen te voorkomen. AI-verdedigingsinstrumenten zullen aanvalsvectoren kunnen voorspellen en gevoelige delen van het netwerk en de systemen kunnen lokaliseren. Ze kunnen ook kwaadaardige code analyseren, waardoor ze beter begrijpen hoe nieuwe aanvallen werken en hoe ze kunnen worden voorkomen.

AI zou in geval van nood ook kunnen werken als een noodstop: het netwerk uitschakelen bij het detecteren van een inbreuk en het hele systeem vergrendelen. Hoewel dit vanuit het perspectief van de bedrijfscontinuïteit niet ideaal is, kan dit veel minder schadelijk zijn dan een datalek.

Maar het bestrijden van AI met AI is niet het enige antwoord. We hebben ook menselijke intelligentie nodig. Hoe slim en doelgericht ook, de beste verdediging tegen een phishing-aanval is een medewerker of klant die weet waar hij op moet letten en achterdochtig genoeg is om niet in het aas te grijpen. Het implementeren van een robuust beveiligingsbeleid en best-practice cyberhygiëne zullen van cruciaal belang blijven voor de verdediging tegen aanvallen.

Dit betekent dat de training moet worden bijgewerkt om de tekenen van een AI-aanval op te nemen... wat die ook mogen zijn. Training zal moeten evolueren met AI – een enkele training om de paar jaar is niet meer voldoende als die training snel verouderd is.

Hoewel de mogelijke tekenen van een AI-gestuurde cyberaanval snel veranderen, zijn de aanvallen over het algemeen:

  • Snel en schaalbaar, waarbij in korte tijd meerdere kwetsbaarheden worden misbruikt.
  • Adaptief en ontwijkend, veranderende tactieken en technieken om detectie en reactie te voorkomen.
  • Doelgericht en gepersonaliseerd, met behulp van AI om overtuigende phishing-e-mails of social engineering-campagnes te maken.
  • Bedrieglijk en manipulatief, waarbij AI wordt gebruikt om nep- of gewijzigde inhoud te creëren, zoals deepfakes, stemklonen of het genereren van tekst.
  • Heimelijk en volhardend, lange tijd verborgen in de netwerkinfrastructuur zonder opgemerkt te worden.

Deze signalen zijn niet uitputtend en sommige AI-gestuurde aanvallen vertonen deze mogelijk niet allemaal. Ze geven echter aan het niveau van de dreiging die AI vormt voor de cyberveiligheid.

Om AI-gestuurde cyberaanvallen effectief te kunnen bestrijden, moeten bedrijven verder denken dan individuele slechte actoren en zich voorbereiden op gecoördineerde aanvallen door door de staat gesponsorde actoren of criminele organisaties die AI kunnen gebruiken om geavanceerde campagnes te lanceren met behulp van een op risico gebaseerde aanpak. Ze moeten ook een proactieve strategie dat omvat regelmatige beveiligingsaudits, back-ups, encryptie en incidentresponsplannen. Dit kunt u het gemakkelijkst bereiken door een bekende beveiligingscertificering zoals PCI-DSS te verkrijgen.

Ten slotte is het absoluut noodzakelijk dat organisaties de cyberbeveiliging van hun eigen AI-systemen verbeteren door de integriteit, vertrouwelijkheid en beschikbaarheid ervan te waarborgen, en door de risico's van vijandige aanvallen, gegevensvergiftiging en het stelen van modellen te beperken.

Deze strategieën helpen bedrijven te beschermen, maar mogen niet op zichzelf staan: beveiliging moet een samenwerking zijn. Door samen te werken met andere organisaties, onderzoekers en autoriteiten om informatie, best practices en mislukkingen te delen waarvan we kunnen leren, zullen bedrijven beter voorbereid zijn op de nieuwe golf van AI-veiligheidsbedreigingen.

AI is zowel een nieuwe bedreiging als een voortzetting van oudere bedreigingen. Bedrijven zullen moeten evolueren in de manier waarop zij cyberdreigingen aanpakken naarmate deze bedreigingen geavanceerder en talrijker worden, maar veel van de fundamentele zaken blijven hetzelfde. Het blijft van cruciaal belang om deze goed te krijgen. Beveiligingsteams hoeven niet af te stappen van oude ideeën, maar daarop voort te bouwen om hun bedrijf veilig te houden.

Tijdstempel:

Meer van Donkere lezing