En gullalder med kunstig intelligens … eller sikkerhetstrusler?

En gullalder med kunstig intelligens … eller sikkerhetstrusler?

En gullalder med kunstig intelligens … eller sikkerhetstrusler? PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Er vi i en gullalder av kunstig intelligens? Det er vanskelig å komme med spådommer - og sannsynligvis dårlig råd. Hvem ønsker å forutsi fremtiden til en slik ny teknologi?

Vi kan imidlertid si noen ting med sikkerhet. Det blir gjort mye ut av AIs applikasjon til kreative verk, fra stemmeskuespill til første utkast til manus. Men AI vil sannsynligvis være mest nyttig når du arbeider med slit. Dette er gode nyheter for utviklere, hvis løftet samsvarer med tidlige eksperimenter - første utkast til kode kan enkelt lages og klare for utviklere å finpusse og gjenta.

Det er imidlertid viktig å huske det ikke alle programmerere jobber for en legitim virksomhet. Akkurat som trusselaktører på nettsikkerhet har etterlignet målene sine ved å bli mer forretningsmessige, tar de også i bruk nye teknologier og teknikker. Vi kan forvente at AI vil hjelpe i utviklingen av skadevare og andre trusler i de kommende årene, enten vi går inn i en gullalder med AI eller ikke.

Utforming av kode og svindel

En trend vi har sett de siste årene er en økning av "as-a-service"-tilbud. Tidlige hackere var tuklere og ugagnskapere, lurte telefonsystemer eller forårsaket kaos mest som en øvelse i moro. Dette har endret seg fundamentalt. Trusselaktører er profesjonelle og selger ofte produktene sine for andre å bruke.

AI vil passe veldig bra inn i denne måten å jobbe på. I stand til å lage kode for å takle spesifikke problemer, kan AI endre kode for å målrette mot sårbarheter eller ta eksisterende kode og endre den, slik at den ikke så lett oppdages av sikkerhetstiltak som leter etter spesifikke mønstre.

Men mulighetene for misbruk av AI stopper ikke der. Mange phishing-e-poster oppdages av effektive filtreringsverktøy og havner i søppelmapper. De som kommer til innboksen er ofte veldig åpenbare svindel, skrevet så dårlig at de er grenseoverskridende uforståelige. Men AI kan bryte dette mønsteret, og skape tusenvis av plausible e-poster som kan unngå gjenkjenning og være velskrevet nok til å lure både filtre og sluttbrukere.

Spear-phishing, den mer målrettede formen for dette angrepet, kan også revolusjoneres av denne teknologien. Jada, det er lett å ignorere en e-post fra sjefen din som ber deg om å overføre kontanter eller raskt kjøpe gavekort – opplæring i nettsikkerhet hjelper ansatte med å unngå denne typen svindel. Men hva med en dypt falsk telefonsamtale eller videochat? AI har potensialet til å ta kringkastingsopptredener og podcaster og gjøre dem til et overbevisende simulacrum, noe som er langt vanskeligere å ignorere.

Kjempe tilbake mot AI-cyberangrep

Det er to hovedmåter å kjempe tilbake mot fordelene som AI vil gi fienden – bedre AI og bedre trening — Og begge deler vil være nødvendig.

Innkomsten av denne nye generasjonen AI har startet et nytt våpenkappløp. Ettersom nettkriminelle bruker det til å utvikle angrepene sine, vil sikkerhetsteam også måtte bruke det for å utvikle forsvaret sitt.

Uten AI er forsvar avhengig av overarbeidede mennesker og overvåking for visse forhåndsprogrammerte mønstre for å forhindre angrep. AI-defensive verktøy vil være i stand til å forutsi angrepsvektorer og finne sensitive områder av nettverket og systemene. De vil også kunne analysere ondsinnet kode, noe som gir en bedre forståelse av hvordan nye angrep fungerer og hvordan de kan forhindres.

AI kan også fungere, i en knipe, som en nødstopp - deaktivere nettverket når det oppdages et brudd og låser hele systemet. Selv om det ikke er ideelt fra et forretningskontinuitetsperspektiv, kan dette være langt mindre skadelig enn et datainnbrudd.

Men å bekjempe AI med AI er ikke det eneste svaret. Vi trenger også menneskelig intelligens. Uansett hvor smart og målrettet det er, er det beste forsvaret mot et phishing-angrep en ansatt eller kunde som vet hva de skal se etter og er mistenksom nok til å ikke ta agnet. Implementering av robuste sikkerhetspolicyer og beste praksis for cyberhygiene vil fortsatt være nøkkelen til å forsvare seg mot angrep.

Dette betyr at opplæringen må oppdateres for å inkludere tegnene på et AI-angrep ... hva enn disse måtte være. Trening må utvikles med AI - et enkelt treningskurs med noen års mellomrom vil ikke kutte det lenger når den treningen raskt er utdatert.

Mens de mulige tegnene på et AI-drevet nettangrep endrer seg raskt, er angrep generelt:

  • Rask og skalerbar, utnytter flere sårbarheter på kort tid.
  • Adaptiv og unnvikende, endre taktikk og teknikker for å unngå oppdagelse og respons.
  • Målrettet og personlig, ved å bruke AI til å lage overbevisende phishing-e-poster eller sosiale ingeniørkampanjer.
  • Villedende og manipulerende, ved å bruke kunstig intelligens til å lage falskt eller endret innhold, for eksempel dypfalsk, stemmekloning eller tekstgenerering.
  • Smidig og utholdende, gjemmer seg i nettverksinfrastrukturen i lang tid uten å bli lagt merke til.

Disse tegnene er ikke uttømmende, og noen AI-drevne angrep viser kanskje ikke alle. Imidlertid indikerer de nivået av trussel AI utgjør for cybersikkerhet.

For å effektivt bekjempe AI-drevne nettangrep, må bedrifter tenke utover individuelle dårlige aktører og forberede seg på koordinerte angrep fra statsstøttede aktører eller kriminelle organisasjoner som kan bruke AI til å lansere sofistikerte kampanjer med en risikobasert tilnærming. De bør også ha en proaktiv strategi som inkluderer regelmessige sikkerhetsrevisjoner, sikkerhetskopier, kryptering og responsplaner for hendelser. Dette oppnås enklest ved å oppnå en velkjent sikkerhetssertifisering som PCI-DSS.

Til slutt er det viktig at organisasjoner forbedrer cybersikkerheten til sine egne AI-systemer ved å sikre deres integritet, konfidensialitet og tilgjengelighet, og ved å redusere risikoen for motstandsangrep, dataforgiftning og modelltyveri.

Disse strategiene vil bidra til å beskytte bedrifter, men de bør ikke være frittstående – sikkerhet bør være samarbeidende. Ved å samarbeide med andre organisasjoner, forskere og myndigheter for å dele informasjon, beste praksis og feil som kan læres av, vil bedrifter være bedre forberedt på den nye bølgen av AI-sikkerhetstrusler.

AI er både en ny trussel og en fortsettelse av eldre trusler. Bedrifter må utvikle hvordan de takler cybertrusler ettersom disse truslene blir mer sofistikerte og flere, men mye av det grunnleggende forblir det samme. Å få disse riktige er fortsatt kritisk. Sikkerhetsteam trenger ikke å vike bort fra gamle ideer, men bygge på dem for å holde virksomheten deres trygg.

Tidstempel:

Mer fra Mørk lesning