Google åpne kilder filidentifiser Magika AI-modell

Google åpne kilder filidentifiser Magika AI-modell

Google åpne kilder filidentifisering Magika AI-modell PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Google har åpen kildekode Magika, en intern maskinlæringsdrevet filidentifikator, som en del av AI Cyber ​​Defense Initiative, som har som mål å gi IT-nettverksforsvarere og andre bedre automatiserte verktøy.

Å finne det sanne innholdet i en brukerinnsendt fil er kanskje vanskeligere enn det ser ut til. Det er ikke trygt å anta filtypen fra for eksempel dens utvidelse, og stole på heuristikk og menneskeskapte regler – slik som de i de mye brukte libmagic – Å identifisere den faktiske karakteren til et dokument fra dets data er, etter Googles syn, «tidkrevende og utsatt for feil».

I utgangspunktet, hvis noen laster opp en .JPG til nettjenesten din, vil du være sikker på at det er et JPEG-bilde og ikke et skript som er maskert som et, som senere kan bite deg i rumpa. Gå inn i Magika, som bruker en opplært modell for raskt å identifisere filtyper fra fildata, og det er en tilnærming Big G mener fungerer godt nok til å bruke i produksjon. Vi blir fortalt at Magika brukes av Gmail, Google Disk, Chromes Safe Browsing og VirusTotal for å identifisere og rute data for videre behandling.

Kjørelengden din kan variere. Libmagic, for en, kan fungere godt nok for deg. Uansett er Magika et eksempel på at Google internt bruker kunstig intelligens for å styrke sikkerheten, og håper andre kan dra nytte av den teknologien også. Et annet eksempel ville være RETVec, som er en flerspråklig tekstbehandlingsmodell som brukes til å oppdage spam. Dette kommer på et tidspunkt da vi alle blir advart om at skurkere tilsynelatende bruker mer maskinlæringsprogramvare for å automatisere inntrenging og sårbarhetsforskning.

Politikere, sikkerhetseksperter og det sivile samfunn har sjansen til å endelig vippe cybersikkerhetsbalansen fra angripere til cyberforsvarere

«AI er ved et definitivt veiskille – et hvor beslutningstakere, sikkerhetseksperter og det sivile samfunn har sjansen til å endelig vippe cybersikkerhetsbalansen fra angripere til cyberforsvarere,» Phil Venables, Chief Information Security Officer i Google Cloud, og Royal Hansen, veep of konstruksjon for personvern, sikkerhet og sikkerhet, sa på fredag. 

"I et øyeblikk når ondsinnede aktører eksperimenterer med AI, trenger vi dristig og rettidig handling for å forme retningen til denne teknologien."

Paret tror Magika kan brukes av nettverksforsvarere til å identifisere, raskt og i stor skala, det sanne innholdet i filer, som er et første trinn i skadevareanalyse og inntrengningsdeteksjon. For å være ærlig, kan denne dyplæringsmodellen være nyttig for alle som trenger å skanne brukerleverte dokumenter: Videoer som faktisk er kjørbare, for eksempel, burde utløse en viss alarm og kreve nærmere inspeksjon. E-postvedlegg som ikke er det de sier de er, bør settes i karantene. Du skjønner ideen.

Mer generelt sett, i sammenheng med cybersikkerhet, kan AI-modeller ikke bare inspisere filer for mistenkelig innhold og kildekode for sårbarheter, de kan også generere patcher for å fikse feil, hevdet Googlerne. Megakorpsets ingeniører har eksperimentert med Gemini for å forbedre automatisert fuzzing av åpen kildekode-prosjekter også.

Google hevder Magika er 50 prosent mer nøyaktig til å identifisere filtyper enn bizs tidligere system med håndlagde regler, tar millisekunder å identifisere en filtype, og sies å ha minst 99 prosent nøyaktighet i tester. Det er imidlertid ikke perfekt, og klarer ikke å klassifisere filtyper omtrent tre prosent av tiden. Den er lisensiert under Apache 2.0, koden er her., og modellen veier inn på 1 MB.

Når de flytter bort fra Magika, vil sjokoladefabrikken også, som en del av dette nye AI Cyber ​​Defense Initiative, samarbeide med 17 startups i Storbritannia, USA og Europa, og lære dem opp til å bruke denne typen automatiserte verktøy for å forbedre sikkerheten deres. 

Det vil også utvide sitt cybersecurity-seminarprogram på 15 millioner dollar for å hjelpe universiteter med å trene flere europeiske studenter i sikkerhet. Nærmere hjemmet lovet det 2 millioner dollar i tilskudd for å finansiere forskning innen nettkriminalitet samt store språkmodeller for å støtte akademikere ved University of Chicago, Carnegie Mellon og Stanford.

"AI-revolusjonen er allerede i gang. Mens folk med rette applauderer løftet om nye medisiner og vitenskapelige gjennombrudd, er vi også begeistret for AIs potensiale til å løse generasjonssikkerhetsutfordringer samtidig som vi bringer oss nær den trygge, sikre og pålitelige digitale verdenen vi fortjener, konkluderte Venables og Hansen. ®

Tidstempel:

Mer fra Registeret