Nationer er enige om at dæmme op for entusiasme for militær AI, før det ødelægger verden

Nationer er enige om at dæmme op for entusiasme for militær AI, før det ødelægger verden

Nations agree to curb enthusiasm for military AI before it destroys the world PlatoBlockchain Data Intelligence. Vertical Search. Ai.

En gruppe regeringsledere, akademiske og militære ledere fra hele verden brugte de sidste par dage på at tale om behovet for at adressere brugen af ​​kunstig intelligens i krigsførelse.

Deres konklusioner? Vi er nødt til at handle nu for at undgå at regulere kunstig intelligens først, efter at det forårsager en humanitær katastrofe eller krigsforbrydelse.

Det første globale topmøde om ansvarlig kunstig intelligens i det militære domæne, eller REAIM, bragte repræsentanter fra mere end 60 lande – inklusive USA og Kina – til Haag i Holland for at diskutere og i sidste ende underskrive en opfordring til handling om, hvordan man gør ansvarlig brug af kunstig intelligens i militæret.

Rusland deltog ikke. 

Underskrivere var enige om, at AI's accelererende brug betyder, at det er afgørende at handle nu for at etablere internationale militære AI-normer, samt adressere spørgsmål om AI-upålidelighed, hvordan ansvarlige mennesker bør være i AI-beslutningsprocessen, utilsigtede konsekvenser af AI-brug og potentielle eskaleringsrisici . 

En af de måder, hvorpå topmødet håber at gennemføre sine mål, er gennem etableringen af ​​en global kommission for kunstig intelligens, som vil øge bevidstheden om, hvordan kunstig intelligens kan og bør bruges i det militære domæne, og hvordan sådan teknologi kan udvikles og implementeres ansvarligt. 

AI's to veje: Ødelæggelse eller barmhjertighed

En diskussion på topmødet var, i hvilket omfang mennesker vil være ansvarlige for de handlinger, der udføres af autonome systemer, med konklusionen tilsyneladende læne sig mod folk er de endelige beslutningstagere, når det kommer til at affyre et autonomt system eller gennemføre en handling anbefalet af en AI.

"Forestil dig et missil, der rammer en lejlighedsbygning," sagde den hollandske vicepremierminister Wopke Hoekstra. "På et splitsekund kan AI opdage dens påvirkning og indikere, hvor overlevende kan være placeret. Endnu mere imponerende kunne AI have opsnappet missilet i første omgang. Men AI har også potentialet til at ødelægge inden for få sekunder." 

Hoekstra fortsatte med at forklare i sit tale åbning af topmødet, hvordan den nuværende status for AI mindede ham om tidligere internationale krigsregler, der er etableret for at forhindre menneskerettighedskrænkelser.

"Forbuddet mod at udvide dumdumkugler, der efterlod ofrene med forfærdelige sår, forbuddet mod biologiske og kemiske våben og traktaten om at forhindre spredning af atomvåben" kunne alle ses som paralleller, sagde Hoekstra.

Men der er én stor forskel mellem regler vedtaget for at forhindre brugen af ​​umenneskelige våben og kunstig intelligens: Vi overvejer allerede handling, før det værste er sket. "Vi har mulighed for at udvide og befæste den internationale retsorden og forhindre, at den bryder sammen," sagde Hoekstra.

Med hensyn til hvilken slags applikationer ansvarlig brug af kunstig intelligens kunne vendes til i krig, antydede den hollandske forsvarsminister Kajsa Ollongren, at der ikke var nogen grund til, at det ikke kunne bruges til at redde liv.

"Med de rigtige rammer og lovgivning på plads vil brugen af ​​kunstig intelligens gøre vores operationelle og logistiske processer enklere og mere effektive. På denne måde beskytter vi ikke kun vores egne tropper, men vi kan også begrænse skader og tab i videst muligt omfang,” sagde Ollongren. ®

Tidsstempel:

Mere fra Registret