Zlata doba umetne inteligence … ali varnostne grožnje?

Zlata doba umetne inteligence … ali varnostne grožnje?

A Golden Age of AI … or Security Threats? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ali smo v zlati dobi umetne inteligence? Težko je napovedovati – in verjetno slabo svetovano. Kdo želi napovedati prihodnost takšne nove tehnologije?

Nekaj ​​pa lahko rečemo zagotovo. Veliko se dela o uporabi umetne inteligence za ustvarjalna dela, od glasovne igre do prvih osnutkov scenarijev. Toda umetna inteligenca bo verjetno najbolj uporabna, ko se spopadate z napornim delom. To je dobra novica za razvijalce, če se obljuba ujema z zgodnjimi poskusi – prve osnutke kode je mogoče preprosto ustvariti in jih razvijalci pripraviti za prilagajanje in ponavljanje.

Vendar je pomembno, da si tega zapomnite ne dela vsak koder za zakonito podjetje. Just as cybersecurity threat actors have emulated their targets in becoming more businesslike, they’re also adopting new technologies and techniques. We can expect AI to help in the development of malware and other threats in the coming years, whether we’re entering a golden age of AI or not.

Priprava kodeksa in prevare

Eden od trendov, ki smo mu bili priča v zadnjih letih, je porast ponudbe »kot storitev«. Zgodnji hekerji so bili poigravalci in nepridipravi, ki so pretentali telefonske sisteme ali povzročali kaos predvsem kot vajo zabave. To se je bistveno spremenilo. Akterji groženj so profesionalni in pogosto prodajajo svoje izdelke za uporabo drugim.

AI se bo zelo lepo vklopil v ta način dela. Z zmožnostjo ustvarjanja kode za reševanje specifičnih težav lahko umetna inteligenca spremeni kodo, da cilja na ranljivosti, ali vzame obstoječo kodo in jo spremeni, tako da je varnostni ukrepi, ki iščejo posebne vzorce, ne zaznajo tako zlahka.

Toda možnosti za zlorabo umetne inteligence se tu ne ustavijo. Učinkovita orodja za filtriranje zaznajo veliko lažnih e-poštnih sporočil, ki končajo v mapah z neželeno pošto. Tisti, ki pridejo v mapo »Prejeto«, so pogosto zelo očitne prevare, napisane tako slabo, da so na meji nerazumljive. Toda umetna inteligenca bi lahko razbila ta vzorec in ustvarila na tisoče verjetnih e-poštnih sporočil, ki se lahko izognejo zaznavanju in so dovolj dobro napisana, da preslepijo tako filtre kot končne uporabnike.

Ta tehnologija bi prav tako lahko revolucionirala lažno predstavljanje, bolj ciljno usmerjeno obliko tega napada. Seveda je preprosto prezreti e-pošto vašega šefa, ki vas prosi, da nakažete gotovino ali nujno kupite darilne kartice – usposabljanje o kibernetski varnosti pomaga zaposlenim, da se izognejo tovrstni prevari. Kaj pa globoko lažni telefonski klic ali videoklepet? Umetna inteligenca ima potencial, da nastope v oddajah in podcaste spremeni v prepričljiv simulaker, kar je veliko težje prezreti.

Boj proti kibernetskim napadom z umetno inteligenco

Obstajata dva glavna načina za boj proti prednostim, ki jih bo umetna inteligenca prinesla sovražniku — boljši AI in boljše usposabljanje — In oboje bo potrebno.

Pojav te nove generacije AI je sprožil novo oboroževalno tekmo. Kot ga kibernetski kriminalci uporabljajo za razvoj svojih napadov, ga bodo varnostne ekipe morale uporabiti za razvoj svoje obrambe.

Brez umetne inteligence se obramba zanaša na preobremenjene ljudi in spremljanje določenih vnaprej programiranih vzorcev za preprečevanje napadov. Obrambna orodja AI bodo lahko predvidela vektorje napadov in natančno določila občutljiva področja omrežja in sistemov. Prav tako bodo lahko analizirali zlonamerno kodo, kar bo omogočilo boljše razumevanje delovanja novih napadov in kako jih je mogoče preprečiti.

Umetna inteligenca bi lahko v kratkem delovala tudi kot zaustavitev v sili – onemogočila bi omrežje, ko bi zaznala kršitev, in zaklenila celoten sistem. Čeprav ni idealno z vidika neprekinjenega poslovanja, je lahko veliko manj škodljivo kot kršitev podatkov.

Toda boj proti AI z AI ni edini odgovor. Potrebujemo tudi človeško inteligenco. Ne glede na to, kako pameten in ciljno usmerjen, je najboljša obramba pred napadom z lažnim predstavljanjem zaposleni ali stranka, ki ve, kaj mora iskati, in je dovolj sumljiva, da ne ujame vabe. Izvajanje robustnih varnostnih politik in najboljše prakse kibernetske higiene bo ostalo ključnega pomena za obrambo pred napadi.

To pomeni, da bo treba usposabljanje posodobiti, da bo vključevalo znake napada z umetno inteligenco … kakršni koli že so. Usposabljanje se bo moralo razvijati z umetno inteligenco – en tečaj usposabljanja vsakih nekaj let ne bo več pomagal, ko bo to usposabljanje hitro zastarelo.

Medtem ko se možni znaki kibernetskega napada, ki ga poganja umetna inteligenca, hitro spreminjajo, so napadi na splošno:

  • Hitro in razširljivo, ki izkorišča več ranljivosti v kratkem časovnem obdobju.
  • Prilagodljiv in izogibajoč se, spreminjanje taktik in tehnik, da bi se izognili odkritju in odzivu.
  • Ciljno in personalizirano, z uporabo umetne inteligence za ustvarjanje prepričljivih lažnih e-poštnih sporočil ali kampanj družbenega inženiringa.
  • Varljivo in manipulativno, z uporabo umetne inteligence za ustvarjanje lažne ali spremenjene vsebine, kot so globoke ponaredke, kloniranje glasu ali ustvarjanje besedila.
  • Prikrit in vztrajen, ki se dolgo časa neopazno skriva v omrežni infrastrukturi.

Ti znaki niso izčrpni in nekateri napadi, ki jih poganja umetna inteligenca, morda ne kažejo vseh. Vendar pa kažejo stopnjo grožnje, ki jo umetna inteligenca predstavlja za kibernetsko varnost.

Za učinkovit boj proti kibernetskim napadom, ki jih poganja umetna inteligenca, morajo podjetja razmišljati dlje od posameznih slabih akterjev in se pripraviti na usklajene napade akterjev, ki jih sponzorira država, ali kriminalnih organizacij, ki lahko uporabljajo umetno inteligenco za zagon prefinjenih kampanj z uporabo pristopa, ki temelji na tveganju. Imeti morajo tudi a proaktivno strategijo ki vključuje redne varnostne revizije, varnostne kopije, šifriranje in načrte za odzivanje na incidente. To je najlažje doseči s pridobitvijo znanega varnostnega certifikata, kot je PCI-DSS.

Nazadnje je nujno, da organizacije izboljšajo kibernetsko varnost svojih lastnih sistemov umetne inteligence z zagotavljanjem njihove celovitosti, zaupnosti in razpoložljivosti ter z ublažitvijo tveganj kontradiktornih napadov, zastrupitve podatkov in kraje modela.

Te strategije bodo pomagale zaščititi podjetja, vendar ne bi smele biti samostojne – varnost bi morala temeljiti na sodelovanju. S sodelovanjem z drugimi organizacijami, raziskovalci in organi za izmenjavo informacij, najboljših praks in napak, iz katerih se je mogoče naučiti, bodo podjetja bolje pripravljena na nov val varnostnih groženj z umetno inteligenco.

AI je hkrati nova grožnja in nadaljevanje starejših groženj. Podjetja se bodo morala razvijati, kako se bodo spopadala s kibernetskimi grožnjami, ko bodo te postajale bolj izpopolnjene in številnejše, vendar veliko temeljev ostaja enakih. Pridobivanje teh pravic je še vedno ključnega pomena. Varnostnim ekipam se ni treba oddaljiti od starih idej, temveč jih nadgraditi, da bodo svoja podjetja varna.

Časovni žig:

Več od Temno branje