En guldalder med kunstig intelligens … eller sikkerhedstrusler?

En guldalder med kunstig intelligens … eller sikkerhedstrusler?

En guldalder med kunstig intelligens … eller sikkerhedstrusler? PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Er vi i en guldalder med kunstig intelligens? Det er svært at komme med forudsigelser - og sandsynligvis dårligt orienteret. Hvem ønsker at forudsige fremtiden for sådan en ny teknologi?

Vi kan dog sige nogle ting med sikkerhed. Der bliver gjort meget ud af AI's anvendelse på kreative værker, fra stemmeskuespil til første udkast til manuskripter. Men kunstig intelligens vil sandsynligvis være mest anvendelig, når man skal beskæftige sig med slid. Dette er gode nyheder for udviklere, hvis løftet matcher tidlige eksperimenter - første udkast til kode kan nemt oprettes og klar til at udviklere kan justere og gentage.

Det er dog vigtigt at huske det ikke alle koder arbejder for en legitim virksomhed. Ligesom aktører af cybersikkerhedstrusler har efterlignet deres mål ved at blive mere forretningsvenlige, tager de også i brug nye teknologier og teknikker. Vi kan forvente, at AI vil hjælpe med udviklingen af ​​malware og andre trusler i de kommende år, uanset om vi går ind i en guldalder med AI eller ej.

Udarbejdelse af kode og svindel

En tendens, vi har set i de seneste år, er en stigning i "as-a-service"-tilbud. Tidlige hackere var pillemagere og galeskabere, narrede telefonsystemer eller skabte kaos mest som en sjov øvelse. Dette har fundamentalt ændret sig. Trusselsaktører er professionelle og sælger ofte deres produkter, så andre kan bruge dem.

AI vil passe meget fint ind i denne måde at arbejde på. I stand til at skabe kode til at tackle specifikke problemer, AI kan ændre kode for at målrette sårbarheder eller tage eksisterende kode og ændre den, så den ikke så let opdages af sikkerhedsforanstaltninger, der leder efter specifikke mønstre.

Men mulighederne for AI's misbrug stopper ikke der. Mange phishing-e-mails opdages af effektive filtreringsværktøjer og ender i uønskede mapper. Dem, der gør det til indbakken, er ofte meget åbenlyst svindel, skrevet så dårligt, at de er grænseoverskridende uforståelige. Men kunstig intelligens kunne bryde dette mønster og skabe tusindvis af plausible e-mails, der kan undgå registrering og være velskrevne nok til at narre både filtre og slutbrugere.

Spear-phishing, den mere målrettede form for dette angreb, kan også revolutioneres af denne teknologi. Selvfølgelig er det nemt at ignorere en e-mail fra din chef, der beder dig om at overføre kontanter eller omgående købe gavekort – cybersikkerhedstræning hjælper medarbejderne med at undgå denne form for fidus. Men hvad med et dybt falsk telefonopkald eller videochat? AI har potentialet til at tage broadcast-optrædener og podcasts og gøre dem til et overbevisende simulacrum, noget langt sværere at ignorere.

Kæmper tilbage mod AI-cyberangreb

Der er to hovedmåder at kæmpe tilbage mod de fordele, som AI vil give fjenden — bedre AI og bedre træning — Og begge dele bliver nødvendige.

Fremkomsten af ​​denne nye generation af kunstig intelligens har startet et nyt våbenkapløb. Da cyberkriminelle bruger det til at udvikle deres angreb, så bliver sikkerhedsteam nødt til at bruge det til at udvikle deres forsvar.

Uden AI er forsvaret afhængigt af overanstrengte mennesker og overvågning af visse forprogrammerede mønstre for at forhindre angreb. AI defensive værktøjer vil være i stand til at forudsige angrebsvektorer og lokalisere følsomme områder af netværket og systemerne. De vil også være i stand til at analysere ondsindet kode, hvilket giver en bedre forståelse af, hvordan nye angreb fungerer, og hvordan de kan forhindres.

AI kunne også fungere, i en knivspids, som et nødstop - ved at deaktivere netværket ved opdagelse af et brud og låse hele systemet. Selvom det ikke er ideelt set fra et forretningskontinuitetsperspektiv, kan dette være langt mindre skadeligt end et databrud.

Men at bekæmpe AI med AI er ikke det eneste svar. Vi har også brug for menneskelig intelligens. Uanset hvor smart og målrettet det er, er det bedste forsvar mod et phishing-angreb en medarbejder eller kunde, der ved, hvad de skal kigge efter, og som er mistænksom nok til ikke at tage agnen. Implementering af robuste sikkerhedspolitikker og best-practice cyberhygiejne vil fortsat være nøglen til at forsvare sig mod angreb.

Det betyder, at træning skal opdateres for at inkludere tegnene på et AI-angreb ... hvad end de måtte være. Træning bliver nødt til at udvikle sig med AI - et enkelt træningskursus med få års mellemrum vil ikke reducere det længere, når den træning hurtigt er forældet.

Mens de mulige tegn på et AI-drevet cyberangreb ændrer sig hurtigt, er angreb generelt:

  • Hurtig og skalerbar, udnytter flere sårbarheder på kort tid.
  • Adaptiv og undvigende, ændring af taktik og teknikker for at undgå detektion og respons.
  • Målrettet og personlig, ved hjælp af kunstig intelligens til at lave overbevisende phishing-e-mails eller social engineering-kampagner.
  • Vildledende og manipulerende, ved hjælp af kunstig intelligens til at skabe falsk eller ændret indhold, såsom deepfakes, stemmekloning eller tekstgenerering.
  • Smidigt og vedholdende, gemt i netværksinfrastrukturen i lang tid uden at blive bemærket.

Disse tegn er ikke udtømmende, og nogle AI-drevne angreb viser muligvis ikke dem alle. De indikerer dog niveauet af trussel, som AI udgør for cybersikkerhed.

For effektivt at bekæmpe AI-drevne cyberangreb skal virksomheder tænke ud over individuelle dårlige aktører og forberede sig på koordinerede angreb fra statssponsorerede aktører eller kriminelle organisationer, der kan bruge AI til at lancere sofistikerede kampagner ved hjælp af en risikobaseret tilgang. De skal også have en proaktiv strategi der inkluderer regelmæssige sikkerhedsaudits, sikkerhedskopier, kryptering og hændelsesresponsplaner. Dette opnås nemmest ved at opnå en velkendt sikkerhedscertificering såsom PCI-DSS.

Endelig er det bydende nødvendigt, at organisationer forbedrer cybersikkerheden i deres egne AI-systemer ved at sikre deres integritet, fortrolighed og tilgængelighed og ved at mindske risikoen for modstridende angreb, dataforgiftning og modeltyveri.

Disse strategier vil hjælpe med at beskytte virksomheder, men de bør ikke stå alene – sikkerhed skal være samarbejdende. Ved at samarbejde med andre organisationer, forskere og myndigheder for at dele information, bedste praksis og fejl, som man kan lære af, vil virksomheder være bedre forberedt på den nye bølge af AI-sikkerhedstrusler.

AI er både en ny trussel og en fortsættelse af ældre trusler. Virksomheder bliver nødt til at udvikle, hvordan de tackler cybertrusler, efterhånden som disse trusler bliver mere sofistikerede og flere, men mange af de grundlæggende elementer forbliver de samme. At få disse rigtige er fortsat kritisk. Sikkerhedsteams behøver ikke at dreje væk fra gamle ideer, men bygge videre på dem for at holde deres virksomheder sikre.

Tidsstempel:

Mere fra Mørk læsning