Le nazioni accettano di frenare l'entusiasmo per l'IA militare prima che distrugga il mondo

Le nazioni accettano di frenare l'entusiasmo per l'IA militare prima che distrugga il mondo

Le nazioni concordano di frenare l'entusiasmo per l'intelligenza artificiale militare prima che distrugga il mondo PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Un gruppo di leader governativi, accademici e militari di tutto il mondo ha trascorso gli ultimi giorni a parlare della necessità di affrontare l'uso dell'intelligenza artificiale in guerra.

Le loro conclusioni? Dobbiamo agire ora per evitare di regolamentare l'IA solo dopo che ha causato un disastro umanitario o un crimine di guerra.

Il primo vertice globale sull'intelligenza artificiale responsabile nel settore militare, o REIM, ha portato all'Aia, nei Paesi Bassi, rappresentanti di oltre 60 paesi, tra cui Stati Uniti e Cina, per discutere e infine firmare un chiamare all'azione su come fare un uso responsabile dell'IA in campo militare.

La Russia non ha partecipato. 

firmatari ha convenuto che l'uso accelerato dell'IA significa che è fondamentale agire ora per stabilire norme internazionali sull'IA militare, nonché affrontare problemi di inaffidabilità dell'IA, quanto dovrebbero essere responsabili gli esseri umani nel processo decisionale dell'IA, conseguenze indesiderate dell'uso dell'IA e potenziali rischi di escalation . 

Uno dei modi in cui il vertice spera di attuare i suoi obiettivi è attraverso l'istituzione di una Commissione globale sull'IA che aumenterà la consapevolezza di come l'IA può e dovrebbe essere utilizzata nel dominio militare e di come tale tecnologia può essere sviluppata e impiegata in modo responsabile. 

I due percorsi dell'IA: distruzione o pietà

Una discussione al vertice è stata fino a che punto gli esseri umani saranno responsabili delle azioni intraprese dai sistemi autonomi, con la conclusione che sembra piegarsi verso le persone sono le decisioni finali quando si tratta di licenziare un sistema autonomo o mettere in atto un'azione raccomandata da un'intelligenza artificiale.

"Immaginate un missile che colpisce un condominio", ha detto il vice primo ministro olandese Wopke Hoekstra. “In una frazione di secondo, l'intelligenza artificiale può rilevarne l'impatto e indicare dove potrebbero trovarsi i sopravvissuti. Ancora più impressionante, l'intelligenza artificiale potrebbe aver intercettato il missile in primo luogo. Eppure l'intelligenza artificiale ha anche il potenziale per distruggere in pochi secondi". 

Hoekstra ha continuato a spiegare nel suo discorso aprendo il vertice come lo stato attuale di AI gli ha ricordato le precedenti regole di guerra internazionali stabilite per prevenire violazioni dei diritti umani.

"Il divieto di espandere i proiettili dumdum che hanno lasciato le vittime con ferite orribili, il divieto di armi biologiche e chimiche e il trattato per prevenire la diffusione di armi nucleari" potrebbero essere visti come parallelismi, ha detto Hoekstra.

Ma c'è una grande differenza tra le regole emanate per impedire l'uso di armi disumane e l'intelligenza artificiale: stiamo già valutando l'azione prima che accada il peggio. "Abbiamo l'opportunità di espandere e rafforzare l'ordine legale internazionale, e prevenirne il crollo", ha affermato Hoekstra.

Per quanto riguarda il tipo di applicazioni a cui l'uso responsabile dell'IA potrebbe essere rivolto in guerra, il ministro della Difesa olandese Kajsa Ollongren ha lasciato intendere che non c'era motivo per cui non potesse essere utilizzato per salvare vite umane.

“Con i quadri e la legislazione giusti in atto, l'utilizzo dell'IA renderà i nostri processi operativi e logistici più semplici ed efficienti. In questo modo non solo proteggiamo le nostre truppe, ma possiamo anche limitare i danni e le vittime nella massima misura possibile", ha affermato Ollongren. ®

Timestamp:

Di più da Il registro