AI's Brave New World: wat is er met de beveiliging gebeurd? Privacy?

AI's Brave New World: wat is er met de beveiliging gebeurd? Privacy?

AI's Brave New World: wat is er met de beveiliging gebeurd? Privacy? PlatoBlockchain-gegevensintelligentie. Verticaal zoeken. Ai.

Het volgende is een gastpost van John deVadoss, raad van bestuur van de Global Blockchain Business Council in Genève en medeoprichter van de InterWork Alliance in Washington, DC.

Vorige week had ik in Washington DC de gelegenheid om de implicaties van AI met betrekking tot de veiligheid te presenteren en te bespreken met enkele leden van het Congres en hun staf.

Generatieve AI doet me vandaag denken aan het internet van eind jaren tachtig – fundamenteel onderzoek, latent potentieel en academisch gebruik, maar het is nog niet klaar voor het publiek. Deze keer versnelt de onbelemmerde ambitie van leveranciers, aangewakkerd door risicokapitaal uit de minor league en gegalvaniseerd door Twitter-echokamers, de Brave New World van AI.

De zogenaamde ‘publieke’ stichtingsmodellen zijn besmet en ongeschikt voor consumenten- en commercieel gebruik; privacy-abstracties, waar ze bestaan, lekken als een zeef; beveiligingsconstructies zijn nog steeds een werk in uitvoering, omdat het aanvalsoppervlak en de bedreigingsvectoren nog steeds worden begrepen; en hoe minder er over de illusoire vangrails wordt gezegd, hoe beter.

Dus, hoe zijn we hier terechtgekomen? En wat is er met de beveiliging gebeurd? Privacy?

“Gecompromitteerde” funderingsmodellen

De zogenaamde ‘open’ modellen zijn allesbehalve open. Verschillende leveranciers prijzen hun mate van openheid aan door de toegang tot de modelgewichten, de documentatie of de tests open te stellen. Toch biedt geen van de grote leveranciers iets dat in de buurt komt van de trainingsdatasets of hun manifesten of afkomst om hun modellen te kunnen repliceren en reproduceren.

Deze ondoorzichtigheid met betrekking tot de trainingsdatasets betekent dat als je één of meer van deze modellen wilt gebruiken, je als consument of als organisatie geen mogelijkheid hebt om de omvang van de datavervuiling met met betrekking tot IP, auteursrechten, enz., evenals mogelijk illegale inhoud.

Cruciaal is dat er zonder het manifest van de trainingsdatasets geen manier is om de niet-bestaande kwaadaardige inhoud te verifiëren of valideren. Snode actoren, waaronder door de staat gesponsorde actoren, verspreiden inhoud van Trojaanse paarden op het internet die de modellen tijdens hun training binnenkrijgen, wat leidt tot onvoorspelbare en potentieel kwaadaardige bijwerkingen op het moment van de conclusie.

Houd er rekening mee dat als een model eenmaal is aangetast, het niet meer kan worden afgeleerd; de enige optie is het te vernietigen.

“Poreuze” beveiliging

Generatieve AI-modellen zijn de ultieme beveiligingshoningpots, omdat ‘alle’ gegevens in één container zijn opgenomen. In het tijdperk van AI ontstaan ​​nieuwe klassen en categorieën aanvalsvectoren; de industrie moet nog in het reine komen met de implicaties, zowel met betrekking tot het beveiligen van deze modellen tegen cyberdreigingen als met betrekking tot de manier waarop deze modellen door cyberdreigingsactoren als instrumenten worden gebruikt.

Er kunnen kwaadaardige, snelle injectietechnieken worden gebruikt om de index te vergiftigen; gegevensvergiftiging kan worden gebruikt om de gewichten te corrumperen; inbeddingsaanvallen, inclusief inversietechnieken, kunnen worden gebruikt om rijke gegevens uit de inbedding te halen; lidmaatschapsgevolgtrekking kan worden gebruikt om te bepalen of bepaalde gegevens in de trainingsset zaten, enz., en dit is slechts het topje van de ijsberg.

Bedreigingsactoren kunnen toegang krijgen tot vertrouwelijke gegevens via modelinversie en programmatische zoekopdrachten; ze kunnen het latente gedrag van het model corrumperen of anderszins beïnvloeden; en, zoals eerder vermeld, leidt de uit de hand gelopen opname van gegevens in het algemeen tot de dreiging van ingebedde, door de staat gesponsorde cyberactiviteiten via Trojaanse paarden en meer.

“Lekkende” privacy

AI-modellen zijn nuttig vanwege de datasets waarop ze zijn getraind; De willekeurige opname van gegevens op grote schaal creëert ongekende privacyrisico's voor het individu en voor het grote publiek. In het tijdperk van AI is privacy een maatschappelijk probleem geworden; Regelgeving die primair betrekking heeft op individuele gegevensrechten is ontoereikend.

Naast statische gegevens is het absoluut noodzakelijk dat dynamische conversatieprompts worden behandeld als IP die moet worden beschermd en beveiligd. Als u een consument bent en bezig bent met het co-creëren van een artefact met een model, wilt u dat uw aanwijzingen die deze creatieve activiteit aansturen, niet worden gebruikt om het model te trainen of anderszins worden gedeeld met andere consumenten van het model.

Als u een werknemer bent die met een model werkt om bedrijfsresultaten te behalen, verwacht uw werkgever dat uw aanwijzingen vertrouwelijk zijn; bovendien hebben de aanwijzingen en de antwoorden een veilig audittraject nodig in het geval van aansprakelijkheidskwesties die door een van beide partijen naar boven komen. Dit is voornamelijk te wijten aan de stochastische aard van deze modellen en de variabiliteit in hun reacties in de loop van de tijd.

Wat gebeurt er nu?

We hebben te maken met een ander soort technologie, anders dan we ooit eerder in de geschiedenis van de computer hebben gezien, een technologie die opkomende, latente gedragingen op schaal vertoont; De benaderingen van gisteren op het gebied van veiligheid, privacy en vertrouwelijkheid werken niet meer.

De leiders in de sector laten alle voorzichtigheid varen, waardoor toezichthouders en beleidsmakers geen ander alternatief hebben dan ingrijpen.

Tijdstempel:

Meer van cryptoslat naar