Perché hai bisogno di conoscere gli antenati della tua IA

Perché hai bisogno di conoscere gli antenati della tua IA

Perché è necessario conoscere la Data Intelligence PlatoBlockchain di Ancestry della propria intelligenza artificiale. Ricerca verticale. Ai.

COMMENTO

L’intelligenza artificiale (AI) sta rapidamente alterando quasi ogni aspetto della nostra vita quotidiana, dal modo in cui lavoriamo al modo in cui assorbiamo le informazioni fino al modo in cui determiniamo i nostri leader. Come ogni tecnologia, l’intelligenza artificiale è amorale, ma può essere utilizzata per far avanzare la società o recare danno.

I dati sono i geni che alimentano le applicazioni di intelligenza artificiale. È DNA e RNA racchiusi in uno solo. Come si dice spesso quando si costruiscono sistemi software: “garbage in/garbage out”. La tecnologia AI è accurata, sicura e funzionale tanto quanto le fonti di dati su cui fa affidamento. La chiave per garantire che l’IA mantenga le sue promesse ed eviti i suoi incubi risiede nella capacità di tenere fuori la spazzatura e impedirne la proliferazione e la replica in milioni di applicazioni IA.

Questa si chiama provenienza dei dati e non possiamo aspettare un altro giorno per implementare controlli che impediscano al futuro della nostra intelligenza artificiale di diventare un enorme mucchio di spazzatura.

I dati errati portano a modelli di intelligenza artificiale in grado di propagare vulnerabilità della sicurezza informatica, disinformazione e altri attacchi a livello globale in pochi secondi. Di oggi IA generativa (GenAI) sono incredibilmente complessi, ma, in sostanza, prevedono semplicemente il miglior blocco di dati successivo da produrre, dato un insieme di dati precedenti esistenti.

Una misura di precisione

Un modello di tipo ChatGPT valuta l'insieme di parole che compongono la domanda originale posta e tutte le parole nella risposta del modello finora per calcolare la parola migliore successiva da restituire. Lo fa ripetutamente finché non decide di aver dato una risposta sufficiente. Supponiamo di valutare la capacità del modello di mettere insieme parole che compongono frasi ben formate, grammaticalmente corrette, pertinenti all'argomento e generalmente rilevanti per la conversazione. In tal caso, i modelli di oggi sono sorprendentemente buoni: una misura di precisione.

Immergiti più a fondo se il testo prodotto dall’intelligenza artificiale trasmette sempre informazioni “corrette”. e indica opportunamente il livello di confidenza delle informazioni veicolate. Ciò svela problemi che derivano da modelli che prevedono molto bene in media, ma non così bene nei casi limite, il che rappresenta un problema di robustezza. Ciò può aggravarsi quando i dati scadenti dei modelli di intelligenza artificiale vengono archiviati online e utilizzati come futuri dati di addestramento per questi e altri modelli.

I risultati scadenti possono replicarsi su una scala mai vista, causando un ciclo negativo dell’IA.

Se un malintenzionato volesse aiutare questo processo, potrebbe intenzionalmente incoraggiare la produzione, l’archiviazione e la diffusione di ulteriori dati dannosi, portando a un’ulteriore disinformazione che esce dai chatbot o a qualcosa di così nefasto e spaventoso come i modelli di pilota automatico di automobili che decidono di doverlo fare. sterzare rapidamente un'auto a destra nonostante gli oggetti siano d'intralcio se "vedono" un'immagine appositamente realizzata davanti a loro (ipoteticamente, ovviamente).

Dopo decenni, il settore dello sviluppo software, guidato dalla Cybersecurity Infrastructure Security Agency, sta finalmente implementando a sicuro in base alla progettazione struttura. Sicuro per design impone che la sicurezza informatica sia alla base del processo di sviluppo software e uno dei suoi principi fondamentali richiede la catalogazione di ogni componente di sviluppo software: un distinta base software (SBOM) – per rafforzare la sicurezza e la resilienza. Infine, la sicurezza sta sostituendo la velocità come fattore più critico per il go-to-market.

Protezione dei progetti di intelligenza artificiale

L’intelligenza artificiale ha bisogno di qualcosa di simile. Il ciclo di feedback dell’intelligenza artificiale impedisce le comuni tecniche di difesa della sicurezza informatica del passato, come il tracciamento delle firme dei malware, la creazione di perimetri attorno alle risorse di rete o la scansione di codice scritto da esseri umani per individuare eventuali vulnerabilità. Dobbiamo rendere la progettazione sicura dell’IA un requisito durante l’infanzia della tecnologia in modo che l’IA possa essere resa sicura molto prima che il vaso di Pandora venga aperto.

Quindi, come risolviamo questo problema? Dovremmo prendere una pagina dal mondo accademico. Formiamo gli studenti con dati formativi altamente curati, interpretati e trasmessi loro attraverso un settore di insegnanti. Continuiamo questo approccio per insegnare agli adulti, ma ci si aspetta che gli adulti facciano da soli una maggiore cura dei dati.

La formazione del modello di intelligenza artificiale deve adottare un approccio basato sui dati curati in due fasi. Per iniziare, i modelli di intelligenza artificiale di base verrebbero addestrati utilizzando le metodologie attuali utilizzando enormi quantità di set di dati meno curati. Questi modelli linguistici di base di grandi dimensioni (LLM) sarebbero più o meno analoghi a un neonato. I modelli di livello base verrebbero quindi addestrati con set di dati altamente curati simili a come i bambini vengono educati e cresciuti per diventare adulti.

Lo sforzo per creare set di dati di formazione ampi e curati per tutti i tipi di obiettivi non sarà piccolo. Ciò è analogo a tutto lo sforzo che i genitori, le scuole e la società fanno per fornire un ambiente di qualità e informazioni di qualità ai bambini mentre diventano (si spera) dei contributori funzionanti e a valore aggiunto alla società. Questo è il livello di impegno richiesto per creare set di dati di qualità per addestrare modelli di intelligenza artificiale di qualità, ben funzionanti e minimamente corrotti, e potrebbe portare a un intero settore di intelligenza artificiale e esseri umani che lavorano insieme per insegnare ai modelli di intelligenza artificiale a essere bravi nel loro lavoro obiettivo. .

Lo stato attuale del processo di formazione sull’IA mostra alcuni segni di questo processo in due fasi. Ma, a causa della fase iniziale della tecnologia GenAI e del settore, troppa formazione adotta l’approccio meno curato e di prima fase.

Quando si tratta di sicurezza dell’intelligenza artificiale, non possiamo permetterci di aspettare un’ora, figuriamoci un decennio. L’intelligenza artificiale ha bisogno di un’applicazione 23andMe che consenta la revisione completa della “genealogia degli algoritmi” in modo che gli sviluppatori possano comprendere appieno la storia “familiare” dell’intelligenza artificiale per evitare che problemi cronici si replichino, infettando i sistemi critici su cui facciamo affidamento ogni giorno e creando danni economici e sociali. ciò potrebbe essere irreversibile.

La nostra sicurezza nazionale dipende da questo.

Timestamp:

Di più da Lettura oscura