Il mondo nuovo dell'intelligenza artificiale: che fine ha fatto la sicurezza? Privacy?

Il mondo nuovo dell'intelligenza artificiale: che fine ha fatto la sicurezza? Privacy?

Il mondo nuovo dell'intelligenza artificiale: che fine ha fatto la sicurezza? Privacy? Intelligenza dei dati PlatoBlockchain. Ricerca verticale. Ai.

Quello che segue è un guest post di John deVadoss, consiglio di amministrazione del Global Blockchain Business Council a Ginevra e co-fondatore dell'InterWork Alliance a Washington, DC.

La settimana scorsa ho avuto l’opportunità a Washington, DC, di presentare e discutere le implicazioni dell’intelligenza artificiale in relazione alla sicurezza con alcuni membri del Congresso e il loro staff.

L’intelligenza artificiale generativa oggi mi ricorda Internet alla fine degli anni ’80: ricerca fondamentale, potenziale latente e utilizzo accademico, ma non è ancora pronta per il pubblico. Questa volta, l'ambizione sfrenata dei venditori, alimentata da capitali di rischio di lega minore e galvanizzata dalle camere di risonanza di Twitter, sta accelerando il Brave New World dell'IA.

I cosiddetti modelli di fondazione “pubblica” sono contaminati e inappropriati per l’uso commerciale e di consumo; le astrazioni sulla privacy, laddove esistono, colano come un setaccio; i costrutti di sicurezza sono ancora in fase di elaborazione, poiché la superficie di attacco e i vettori delle minacce sono ancora in fase di comprensione; e dei guardrail illusori, meno se ne parla, meglio è.

Allora, come siamo finiti qui? E che fine ha fatto la Sicurezza? Privacy?

Modelli di fondazione “compromessi”.

I cosiddetti modelli “aperti” sono tutt’altro che aperti. Diversi fornitori pubblicizzano il loro grado di apertura aprendo l'accesso ai pesi del modello, alla documentazione o ai test. Tuttavia, nessuno dei principali fornitori fornisce nulla che si avvicini ai set di dati di addestramento o ai loro manifest o alla loro derivazione per poter replicare e riprodurre i propri modelli.

Questa opacità rispetto ai set di dati di addestramento significa che se desideri utilizzare uno o più di questi modelli, allora tu, come consumatore o come organizzazione, non hai alcuna capacità di verificare o convalidare l'entità dell'inquinamento dei dati con rispetto alla proprietà intellettuale, ai diritti d'autore, ecc. nonché ai contenuti potenzialmente illegali.

Fondamentalmente, senza il manifest dei set di dati di addestramento, non c'è modo di verificare o convalidare il contenuto dannoso inesistente. Attori malvagi, inclusi attori sponsorizzati dallo stato, inseriscono sul Web contenuti di cavalli di Troia che i modelli ingeriscono durante la loro formazione, portando a effetti collaterali imprevedibili e potenzialmente dannosi al momento dell'inferenza.

Ricorda, una volta che un modello è compromesso, non c'è modo di disimpararlo, l'unica opzione è distruggerlo.

Sicurezza “porosa”.

I modelli di intelligenza artificiale generativa sono gli honeypot di sicurezza definitivi poiché “tutti” i dati sono stati inseriti in un unico contenitore. Nell’era dell’intelligenza artificiale nascono nuove classi e categorie di vettori di attacco; il settore deve ancora fare i conti con le implicazioni sia rispetto alla protezione di questi modelli dalle minacce informatiche, sia rispetto al modo in cui questi modelli vengono utilizzati come strumenti dagli attori delle minacce informatiche.

Tecniche dannose di iniezione tempestiva possono essere utilizzate per avvelenare l'indice; l'avvelenamento dei dati può essere utilizzato per corrompere i pesi; gli attacchi di incorporamento, comprese le tecniche di inversione, possono essere utilizzati per estrarre dati ricchi dagli incorporamenti; l'inferenza dell'appartenenza può essere utilizzata per determinare se determinati dati erano presenti nel set di addestramento, ecc., e questa è solo la punta dell'iceberg.

Gli autori delle minacce possono accedere a dati riservati tramite l'inversione del modello e la query programmatica; possono corrompere o influenzare in altro modo il comportamento latente del modello; e, come accennato in precedenza, l’acquisizione incontrollata di dati in generale porta alla minaccia di attività informatiche sponsorizzate dallo stato tramite cavalli di Troia e altro ancora.

Privacy “perdita”.

I modelli di intelligenza artificiale sono utili a causa dei set di dati su cui vengono addestrati; L’acquisizione indiscriminata di dati su larga scala crea rischi per la privacy senza precedenti per l’individuo e per il pubblico in generale. Nell’era dell’intelligenza artificiale, la privacy è diventata una preoccupazione sociale; le normative che riguardano principalmente i diritti dei dati individuali sono inadeguate.

Al di là dei dati statici, è fondamentale che le richieste di conversazione dinamica siano trattate come proprietà intellettuale da proteggere e salvaguardare. Se sei un consumatore, impegnato nella co-creazione di un artefatto con un modello, desideri che i tuoi suggerimenti che indirizzano questa attività creativa non vengano utilizzati per addestrare il modello o altrimenti condivisi con altri consumatori del modello.

Se sei un dipendente che lavora con un modello per ottenere risultati aziendali, il tuo datore di lavoro si aspetta che le tue richieste siano riservate; inoltre, le richieste e le risposte necessitano di una traccia di controllo sicura in caso di problemi di responsabilità emersi da entrambe le parti. Ciò è dovuto principalmente alla natura stocastica di questi modelli e alla variabilità delle loro risposte nel tempo.

Cosa succede dopo?

Abbiamo a che fare con un diverso tipo di tecnologia, diversa da qualsiasi altra vista prima nella storia dell’informatica, una tecnologia che mostra comportamenti emergenti e latenti su larga scala; gli approcci di ieri alla sicurezza, alla privacy e alla riservatezza non funzionano più.

I leader del settore stanno gettando al vento la cautela, lasciando ai regolatori e ai politici altra alternativa se non quella di intervenire.

Timestamp:

Di più da CryptoSlate