L'intelligenza artificiale di livello militare e come sta competendo nella corsa agli armamenti dell'IA - AiiotTalk

L'IA di livello militare e come sta competendo nella corsa agli armamenti dell'IA – AiiotTalk

L'intelligenza artificiale di livello militare e come sta competendo nella corsa agli armamenti dell'IA - AiiotTalk PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La proliferazione dell’intelligenza artificiale le consente di entrare in qualsiasi settore desiderato dalla tecnologia. La sua versatilità è penetrata nelle forze armate degli Stati Uniti e l’intelligenza artificiale di livello militare è distinta dall’uso generativo casuale o dal modo in cui la impiega un impianto di produzione. È fondamentale distinguere ciò che lo distingue per lo sviluppo tecnologico. I tratti denotano il modo in cui l’IA si è adattata agli standard militari.

Cosa definisce l’intelligenza artificiale di livello militare?

L’intelligenza artificiale degna di implementazione militare comprende due aspetti: intenzioni e specifiche. L’intelligenza artificiale di livello militare mira a proteggere le nazioni raccogliendo conoscenze e dati sugli avversari. Le informazioni vengono raccolte a una velocità che supera le capacità umane, promettendo maggiore sicurezza e accuratezza.

L’intelligenza artificiale accelera le indagini e semplifica la preparazione per scenari preoccupanti, con conseguente maggiore produttività.

"L'intelligenza artificiale di livello militare è utile dentro e fuori dal campo di battaglia per scopi offensivi e difensivi." 

Un altro l'utilizzo avviene in modo autonomo armi. Si integra nelle armi o nei relativi sistemi di controllo. Gli strumenti militari di intelligenza artificiale non sono destinati alla vendita commerciale o autorizzati per uso privato. Le loro proprietà pericolose devono essere protette da chiave governativa e avere severi prerequisiti per l'approvazione degli operatori.

Le forze armate non possono utilizzare l’intelligenza artificiale che non soddisfa gli standard. La tecnologia militare deve essere resiliente e robusta. Sebbene riposerà al sicuro in luoghi climatizzati come il Pentagono, viaggerà anche in ambienti umidi e turbolenti. Le aziende devono fare Tecnologia militare pronta all'uso appositamente progettata incorporando l’intelligenza artificiale in tutti gli standard, dagli aerei a quelli navali.

L’intelligenza artificiale militare deve disporre di garanzie che impediscano agli utenti di sfruttare i cittadini. La tecnologia deve incorporare le pratiche di sicurezza informatica più aggiornate per la sicurezza e la difesa nazionale. Altrimenti, l’intelligenza artificiale lascia più backdoor agli autori delle minacce di quante ne protegga. Ad esempio, quando lo si utilizza per scansionare immagini satellitari di potenziali campi di battaglia, i dati di geolocalizzazione devono rimanere al sicuro da hacker e soggetti non autorizzati.

Le caratteristiche modellano le aspettative dell’IA per l’esercito degli Stati Uniti. Il personale deve adeguare le descrizioni delle proprie mansioni, perseguire una maggiore formazione in materia di alfabetizzazione digitale e comprendere l’importanza della governance dei dati nelle nuove infrastrutture digitali. L’intelligenza artificiale è efficace nel modo in cui è attualmente operativa?

Marketing per i datori di lavoro aziendali

L'aggettivo “grado militare” è diventato un termine di marketing. I dipendenti di tutto il mondo desiderano i vantaggi dell’intelligenza artificiale, soprattutto quando i lavoratori lavorano in remoto. I risultati finali dipendono dalla responsabilità e dalla fiducia, e le aziende vogliono sistemi di sicurezza e strumenti di gestione per mantenere i dipendenti in riga.

La stessa tecnologia utilizzata dai militari per lo spyware è traducibile in controllo del posto di lavoro. Conosciuti anche come bossware, i programmi acquisiscono screenshot, monitorano la produttività dei lavoratori e determinano il potenziale di crescita. 

Le aziende Bossware potrebbero non essere focalizzate sul settore militare, ma la tecnologia di sorveglianza rimane simile. Il software-as-a-service si maschera da coinvolgimento proattivo dei dipendenti, ma alcuni lo chiamano gestione della reputazione o valutazione delle minacce interne, riducendo al minimo la fiducia tra dipendenti e manager. I servizi hanno un potenziale simile nello smascherare il terrorismo così come nel dissuadere i dipendenti dalla sindacalizzazione.

L’uso dell’intelligenza artificiale di livello militare in questo modo porta a questioni etiche, come:

  • Come risponderanno i regolatori a questo monitoraggio quando la tecnologia non dovrebbe danneggiare o turbare i cittadini? 
  • Quanto sono sicuri gli individui e i loro dati? 
  • La severità dell'IA militare è eccessiva da testare prima che sia disponibile una ricerca adeguata?
  • Ci sono ripercussioni etiche nella manipolazione della tecnologia di tipo militare su scala così commerciale? 
  • Si tratta di una questione di diritti umani più che di una questione di sicurezza nazionale?

È troppo presto per disfare i fatti, ma gli organismi di regolamentazione devono discutere le preoccupazioni per andare avanti con la narrazione. Altrimenti, ciò potrebbe provocare disordini civili nonostante l’intenzione di AI di proteggere la nazione.

Generare risposte alle crisi globali

Il Pentagono e il Dipartimento della Difesa stanno portando l’IA generativa a un livello superiore. Mentre i laici chiedono a ChatGPT di scrivere poesie e raccontare barzellette, il DOD vuole sperimentare la generazione di soluzioni a problemi globali. I processi burocratici richiedono l’organizzazione di riunioni, la creazione di presentazioni e il passaggio attraverso molteplici catene di comando per approvare l’azione nazionale. E se l’intelligenza artificiale accelerasse il preambolo?

I dettagli dell’esperimento sono top secret, ma i risultati suggeriscono che per elaborare la risposta dell’esercito degli Stati Uniti a un problema crescente potrebbero richiedere 10 minuti anziché diverse settimane. I funzionari sfruttano modelli linguistici di grandi dimensioni dotati di informazioni riservate per vedere quanto bene costruiscono idee pratiche e attuabili.

Come per tutte le IA di livello militare, nella pratica ci sono evidenti preoccupazioni. L’intelligenza artificiale generativa è soggetta all’hacking, in cui i criminali informatici contaminano set di dati per aumentare i pregiudizi o la probabilità di allucinazioni.

“Un giorno l’intelligenza artificiale può proporre un piano razionale e il giorno dopo insinuarsi malware o sciocchezze incomprensibili. " 

Un modello di intelligenza artificiale ha un set di dati con 60,000 pagine di documentazione cinese e statunitense, che potrebbe scegliere il vincitore in una potenziale guerra. Tuttavia, informazioni sbilanciate distorcono i risultati, soprattutto senza un’adeguata supervisione.

Partecipare alla corsa agli armamenti dell'IA

L’utilizzo più probabile dell’intelligenza artificiale militare è come arma. I cittadini temono che abbia un percorso simile a quello della bomba atomica dopo la sua nascita – capace di istigare conflitti mondiali, ma questa volta è autonomo o gestito a distanza. I test dimostrano la capacità dell'IA di sganciare bombe sui campi di battaglia analizzati come una griglia con relativa precisione. Quanto più le forze armate statunitensi si esercitano con queste impostazioni, tanto più è probabile che gli attacchi si svolgano senza intervento.

Una programmazione complessa fa sparare un missile alimentato dall'intelligenza artificiale mentre l'intero equipaggio dorme a letto perché le condizioni ambientali soddisfano i parametri. Gli Stati Uniti tentano di mantenere la propria rilevanza, ma la mentalità competitiva di Russia e Cina alimenta le tensioni.

È al punto che l’intelligenza artificiale di livello militare nelle armi autonome potrebbe essere vietata a livello internazionale. Questi sistemi possono diventare incontrollabili da parte degli operatori umani. Nei prossimi anni i governi dovranno discutere la realtà di questi armamenti di guerra.

L’intelligenza artificiale open source può acquisire quanti più dati e rendere la tecnologia il più accessibile possibile. Tuttavia, lo è più difficile introdurre divieti generalizzati, anche su armi IA di livello militare. Troppe parti hanno accesso a questa tecnologia e portarla via sarebbe impossibile.

Come gli Stati Uniti utilizzano l’intelligenza artificiale

L’implementazione statunitense dell’intelligenza artificiale per scopi militari ispira l’uso globale. Deve considerarsi un leader di pensiero in questo settore, poiché le risorse e i budget per la difesa sono più alti rispetto ad altre nazioni. Il Paese ha il potenziale per innovare e utilizzare l’intelligenza artificiale di livello militare in modi che il mondo non ha mai visto, nel bene e nel male.  

La cautela è fondamentale per l’implementazione etica, insieme al controllo accurato dei fornitori di terze parti e degli operatori interni. La priorità per l’intelligenza artificiale militare deve essere quella di aumentare la sicurezza e, se questa traiettoria continua, il mondo se ne accorgerà. 

Leggi anche, 5 cose che devi sapere sull'intelligenza artificiale che analizza i profili di gusto del caffè

Timestamp:

Di più da Tecnologia AIOT