AI's Brave New World: Hvad skete der med sikkerheden? Privatliv?

AI's Brave New World: Hvad skete der med sikkerheden? Privatliv?

AI’s Brave New World: Whatever happened to security? Privacy? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Det følgende er et gæsteindlæg fra John deVadoss, bestyrelsen for Global Blockchain Business Council i Genève og medstifter af InterWork Alliance i Washington, DC.

I sidste uge havde jeg muligheden i Washington, DC for at præsentere og diskutere implikationerne af kunstig intelligens i forbindelse med sikkerhed med nogle medlemmer af Kongressen og deres medarbejdere.

Generativ kunstig intelligens i dag minder mig om internettet i slutningen af ​​80'erne – grundforskning, latent potentiale og akademisk brug, men det er endnu ikke klar til offentligheden. Denne gang er den uindskrænkede leverandørambition, drevet af minor-league venturekapital og galvaniseret af Twitter-ekkokamre, hurtig-tracking af AI's Brave New World.

De såkaldte "offentlige" grundlagsmodeller er plettet og uegnede til forbruger- og kommerciel brug; privatlivsabstraktioner, hvor de findes, lækker som en si; sikkerhedskonstruktioner er i høj grad et igangværende arbejde, da angrebets overfladeareal og trusselsvektorerne stadig er ved at blive forstået; og de illusoriske autoværn, jo mindre der siges om dem, jo ​​bedre.

Så hvordan endte vi her? Og hvad skete der med sikkerheden? Privatliv?

"Kompromitterede" fundamentmodeller

De såkaldte "åbne" modeller er alt andet end åbne. Forskellige leverandører fremhæver deres grad af åbenhed ved at åbne op for adgang til modelvægtene eller dokumentationen eller testene. Alligevel leverer ingen af ​​de store leverandører noget i nærheden af ​​træningsdatasættene eller deres manifester eller afstamning for at kunne replikere og reproducere deres modeller.

Denne uigennemsigtighed med hensyn til træningsdatasættene betyder, at hvis du ønsker at bruge en eller flere af disse modeller, så har du som forbruger eller som organisation ingen mulighed for at verificere eller validere omfanget af dataforureningen med respekt for IP, ophavsrettigheder osv. samt potentielt ulovligt indhold.

Kritisk er der ingen måde at verificere eller validere det ikke-eksisterende ondsindede indhold uden træningsdatasættenes manifest. Nariske aktører, herunder statssponsorerede aktører, planter trojanske hesteindhold på nettet, som modellerne indtager under deres træning, hvilket fører til uforudsigelige og potentielt ondsindede bivirkninger på slutningstidspunktet.

Husk, når en model først er kompromitteret, er der ingen måde for den at aflære, den eneste mulighed er at ødelægge den.

"Porøs" sikkerhed

Generative AI-modeller er de ultimative sikkerhedshonningpotter, da "alle" data er blevet indtaget i én beholder. Nye klasser og kategorier af angrebsvektorer opstår i AI-æraen; industrien mangler endnu at komme overens med implikationerne både med hensyn til at sikre disse modeller mod cybertrusler og med hensyn til, hvordan disse modeller bruges som værktøjer af cybertrusselsaktører.

Ondsindede hurtige injektionsteknikker kan bruges til at forgifte indekset; dataforgiftning kan bruges til at ødelægge vægtene; indlejringsangreb, herunder inversionsteknikker, kan bruges til at trække rige data ud af indlejringerne; medlemskabsslutning kan bruges til at afgøre, om visse data var i træningssættet osv., og dette er kun toppen af ​​isbjerget.

Trusselaktører kan få adgang til fortrolige data via modelinversion og programmatisk forespørgsel; de kan korrumpere eller på anden måde påvirke modellens latente adfærd; og, som tidligere nævnt, fører ukontrolleret indtagelse af data generelt til truslen om indlejret statssponsoreret cyberaktivitet via trojanske heste og mere.

"Utæt" privatliv

AI-modeller er nyttige på grund af de datasæt, de er trænet i; vilkårlig indtagelse af data i stor skala skaber hidtil usete privatlivsrisici for den enkelte og for offentligheden som helhed. I AI-æraen er privatlivets fred blevet et samfundsmæssigt anliggende; regler, der primært omhandler individuelle datarettigheder, er utilstrækkelige.

Ud over statiske data er det bydende nødvendigt, at dynamiske samtaleprompter behandles som IP, der skal beskyttes og beskyttes. Hvis du er en forbruger, der er engageret i at skabe en artefakt sammen med en model, vil du have, at dine prompter, der leder denne kreative aktivitet, ikke skal bruges til at træne modellen eller på anden måde deles med andre forbrugere af modellen.

Hvis du er en medarbejder, der arbejder med en model til at levere forretningsresultater, forventer din arbejdsgiver, at dine meddelelser er fortrolige; yderligere kræver meddelelserne og svarene et sikkert revisionsspor i tilfælde af ansvarsproblemer, der dukkede op af begge parter. Dette skyldes primært den stokastiske karakter af disse modeller og variationen i deres svar over tid.

Hvad sker der nu?

Vi har at gøre med en anden slags teknologi, i modsætning til nogen, vi har set før i computerhistorien, en teknologi, der udviser emergent, latent adfærd i skala; gårsdagens tilgange til sikkerhed, privatliv og fortrolighed virker ikke længere.

Branchelederne kaster forsigtighed til vinden og efterlader tilsynsmyndigheder og politiske beslutningstagere intet andet end at træde til.

Tidsstempel:

Mere fra CryptoSlate