Le capacità di sicurezza informatica delle forze armate statunitensi per ottenere il potenziamento di OpenAI

Le capacità di sicurezza informatica delle forze armate statunitensi per ottenere il potenziamento di OpenAI

Le capacità di sicurezza informatica delle forze armate statunitensi per far sì che OpenAI potenzino la Data Intelligence di PlatoBlockchain. Ricerca verticale. Ai.

OpenAI sta sviluppando capacità di sicurezza informatica basate sull’intelligenza artificiale per le forze armate statunitensi e sta portando il suo lavoro sulla sicurezza elettorale a una marcia più alta, hanno dichiarato i dirigenti del laboratorio al World Economic Forum (WEF) di Davos questa settimana.

Il voltafaccia pubblico sulla collaborazione con le forze armate arriva giorni dopo a variazione Il linguaggio politico di OpenAI, che in precedenza vietava l’uso dei suoi modelli di intelligenza artificiale generativa per applicazioni “militari e di guerra”, nonché “la generazione di malware”, con la sua tecnologia. Tali restrizioni sono ora scomparse dalle clausole scritte in piccolo del produttore di ChatGPT. Detto questo, il super laboratorio ha sottolineato che la sua tecnologia non dovrebbe ancora essere utilizzata per la violenza, la distruzione o lo spionaggio delle comunicazioni.

"La nostra politica non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni, o per ferire altri o distruggere proprietà", ha detto un portavoce di OpenAI Il registro oggi.

“Esistono, tuttavia, casi d’uso legati alla sicurezza nazionale che sono in linea con la nostra missione.

“Stiamo già lavorando con DARPA per stimolare la creazione di nuovi strumenti di sicurezza informatica per proteggere il software open source da cui dipendono le infrastrutture critiche e l’industria. Non era chiaro se questi casi di utilizzo vantaggioso sarebbero stati consentiti in ambito “militare” nelle nostre politiche precedenti. Quindi l’obiettivo del nostro aggiornamento della politica è fornire chiarezza e la capacità di avere queste discussioni”. 

Martedì, durante un colloquio Durante la festa del WEF per i leader del mondo, Anna Makanju, vicepresidente degli affari globali di OpenAI, ha affermato che la sua partnership con il Pentagono include lo sviluppo di software di sicurezza informatica open source. OpenAI sta inoltre avviando colloqui con il governo degli Stati Uniti su come la sua tecnologia possa aiutare a prevenire i suicidi dei veterani, ha affermato.

"Poiché in precedenza avevamo quello che era essenzialmente un divieto generale per l'esercito, molte persone pensavano che ciò avrebbe proibito molti di questi casi d'uso, che secondo la gente sono molto allineati con ciò che vogliamo vedere nel mondo", ha detto Makanju. 

Tuttavia, nonostante la rimozione di "militare e guerra" insieme ad altri "usi non consentiti" per ChatGPT, Makanju ha affermato che OpenAI mantiene il divieto di utilizzare i suoi modelli per sviluppare armi per ferire le persone. 

Sempre durante la stessa intervista, il CEO di OpenAI Sam Altman ha affermato che l’azienda sta adottando misure per garantire che i suoi strumenti di intelligenza artificiale generativa non vengano utilizzati per diffondere disinformazione relativa alle elezioni. 

Ne consegue anche un simile spinta da Microsoft, il più grande investitore di OpenAI, che a novembre ha annunciato una strategia di protezione elettorale in cinque fasi per “gli Stati Uniti e altri paesi in cui nel 2024 si terranno elezioni cruciali”. 

“C’è molto in gioco in queste elezioni”, ha detto Altman martedì.

Ciò avviene un giorno dopo quello dell’ex presidente degli Stati Uniti Donald Trump grande vittoria lunedì nel caucus dell’Iowa.

E tutti questi argomenti (intelligenza artificiale, sicurezza informatica e disinformazione) svolgono un ruolo di primo piano nell'agenda i leader mondiali si incontrano questa settimana a Davos.

Secondo il WEF Rapporto sui rischi globali 2024, pubblicato la scorsa settimana, “la cattiva informazione e la disinformazione” rappresentano il principale rischio globale a breve termine, con la “insicurezza informatica” che si colloca al quarto posto.

L'ascesa dell'intelligenza artificiale generativa aggrava queste sfide, con il 56% dei dirigenti intervistati al WEF Incontro annuale sulla sicurezza informatica nel novembre 2023 dicendo L’intelligenza artificiale generativa darà agli aggressori un vantaggio sui difensori entro i prossimi due anni.

“Particolare preoccupazione circonda l’uso delle tecnologie IA per potenziare le capacità di guerra informatica, e con buone ragioni”, ha detto Bernard Montel, direttore tecnico EMEA di Tenable. Il registro

“Mentre l’intelligenza artificiale ha fatto progressi tecnologici astronomici negli ultimi 12-24 mesi, consentire a un dispositivo autonomo di dare il giudizio finale è oggi incomprensibile”, ha aggiunto.

“Sebbene l’intelligenza artificiale sia in grado di identificare e automatizzare rapidamente alcune azioni che devono essere intraprese, è fondamentale che siano gli esseri umani a prendere decisioni cruciali su dove e quando agire in base all’intelligenza fornita dall’intelligenza artificiale”. ®

Timestamp:

Di più da Il registro