AI i militærklasse og hvordan den konkurrerer i AI Arms Race - AiiotTalk

AI i militærklasse og hvordan den konkurrerer i AI Arms Race - AiiotTalk

Military-Grade AI and How it is Competing in the AI Arms Race - AiiotTalk PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Udbredelsen af ​​kunstig intelligens gør det muligt for den at komme ind i enhver sektor, som teknologien ønsker. Dens alsidighed er trængt ind i USA's væbnede styrker, og AI af militær kvalitet adskiller sig fra tilfældig generativ brug, eller hvordan en produktionsfabrik anvender den. Det er vigtigt at skelne, hvad der adskiller det for den teknologiske udvikling. Egenskaberne angiver, hvordan AI tilpassede sig militære standarder.

Hvad definerer AI i militærkvalitet?

AI, der er værdig til militær implementering, omfatter to facetter - hensigter og specifikationer. AI af militær kvalitet har til formål at beskytte nationer ved at indsamle viden og data om modstandere. Oplysningerne indsamles med en hastighed, der overgår menneskelige evner, hvilket lover højere sikkerhed og nøjagtighed.

AI fremskynder undersøgelser og strømliner forberedelse til problematiske scenarier, hvilket resulterer i højere produktivitet.

"AI af militær kvalitet er nyttig på og uden for slagmarken til offensive og defensive formål." 

En anden udnyttelse sker gennem autonom våben. Det integreres i våben eller relaterede kontrolsystemer. Militære AI-værktøjer er ikke til kommercielt salg eller godkendt til privat brug. Deres farlige egenskaber skal være bag statslig lås og slå og have strenge forudsætninger for at godkende operatører.

De væbnede styrker kan ikke bruge kunstig intelligens, der ikke opfylder standarderne. Militærteknologi skal være modstandsdygtig og robust. Selvom det vil hvile sikkert på klimakontrollerede steder som Pentagon, vil det også rejse til fugtige, turbulente miljøer. Virksomheder skal lave specielt designet militær-off-the-shelf-teknologi inkorporerer AI i alle standarder, fra fly til flåde.

Militær kunstig intelligens skal have sikkerhedsforanstaltninger, der forhindrer brugere i at udnytte borgere. Teknologien skal inkorporere den mest opdaterede cybersikkerhedspraksis for national sikkerhed og forsvar. Ellers efterlader AI flere bagdøre for trusselsaktører, end den beskytter imod. For eksempel, når du bruger det til at scanne satellitbilleder af potentielle slagmarker, skal geolokaliseringsdata forblive sikre fra hackere og uautoriserede parter.

Egenskaberne former AI-forventningerne til det amerikanske militær. Personalet skal justere deres jobbeskrivelser, forfølge mere digital færdighedstræning og forstå vigtigheden af ​​datastyring i ny digital infrastruktur. Er AI effektiv på den måde, den er i drift i øjeblikket?

Markedsføring til virksomhedernes arbejdsgivere

Kvalifikationen "military-grade" er blevet et markedsføringsbegreb. Medarbejdere over hele verden ønsker fordelene ved kunstig intelligens, især når arbejdere går fjernt. Bundlinjer afhænger af ansvarlighed og tillid, og virksomheder ønsker fejlsikrede og ledelsesværktøjer til at holde medarbejderne på linje.

Den samme teknologi, som militæret bruger til spyware, kan oversættes til tilsyn på arbejdspladsen. Programmerne, også kendt som bossware, tager skærmbilleder, overvåger medarbejdernes produktivitet og bestemmer vækstpotentiale. 

Bossware-virksomheder er muligvis ikke militærfokuserede, men overvågningsteknologien forbliver ens. Software-as-a-service forklæder sig selv som proaktivt medarbejderengagement, men nogle kalder det omdømmestyring eller insider-trusselsvurdering, hvilket minimerer tilliden mellem medarbejdere og ledere. Tjenesterne har et lignende potentiale til at afsløre terror, som det har til at afskrække medarbejdere fra at organisere sig.

Brug af militær-klasse AI på denne måde fører til etiske spørgsmål, såsom:

  • Hvordan vil regulatorer reagere på denne overvågning, når teknologien ikke bør skade eller forstyrre borgerne? 
  • Hvor sikre er enkeltpersoner og deres data? 
  • Er sværhedsgraden af ​​militær AI for meget at afprøve, før der er tilstrækkelig forskning tilgængelig?
  • Er der etiske konsekvenser af at manipulere militærteknologi i en sådan kommerciel skala? 
  • Er dette et menneskerettighedsspørgsmål mere end et nationalt sikkerhedsproblem?

Det er for tidligt at pakke ud, men tilsynsorganer må diskutere bekymringer for at komme foran fortællingen. Ellers kan det resultere i civil uro på trods af AIs intention om at beskytte nationen.

Generering af svar på globale kriser

Pentagon og forsvarsministeriet tager generativ kunstig intelligens til næste niveau. Mens lægfolk beder ChatGPT om at skrive digte og fortælle dem vittigheder, ønsker DOD at eksperimentere med at skabe løsninger på globale problemer. Bureaukratiske processer kræver etablering af møder, oprettelse af præsentationer og gennemgang af flere kommandoveje for at godkende nationale handlinger. Hvad hvis AI fremskynder præamblen?

Eksperimentdetaljerne er tophemmelige, men resultaterne tyder på, at det kan tage 10 minutter i stedet for flere uger at udarbejde det amerikanske militærs svar på et eskalerende problem. Embedsmænd udnytter store sprogmodeller informeret med fortrolige oplysninger for at se, hvor godt det konstruerer handlingsrettede, praktiske ideer.

Som med al militær-klasse AI, er der åbenlyse bekymringer i praksis. Generativ AI er tilbøjelig til hacking, hvor cyberkriminelle forurener datasæt for at øge bias eller sandsynligheden for hallucinationer.

"AI kan udgøre en rationel plan den ene dag, og den næste sniger den malware eller uforståeligt vrøvl ind. ” 

En AI-model har et datasæt med 60,000 sider kinesisk og amerikansk dokumentation, som kunne vælge sejrherren i en potentiel krig. Men ubalanceret information skævvrider resultaterne, især uden det rette tilsyn.

Konkurrerer i AI Arms Race

Den mest sandsynlige brug af militær AI er som våben. Borgerne frygter, at den har en vej, der ligner atombomben efter dens begyndelse - i stand til at anstifte verdensomspændende konflikt, men denne gang er den autonom eller fjernbetjent. Tests viser AI's evne til at kaste bomber på slagmarker analyseret som et gitter med relativ nøjagtighed. Jo mere de amerikanske væbnede styrker øver sig med indstillingerne, jo mere sandsynligt vil angreb udspille sig uden indgriben.

Indviklet programmering får et AI-drevet missil til at skyde, mens hele besætningen sover i sengen, fordi miljøforholdene opfylder parametrene. USA forsøger at bevare relevansen, men Rusland og Kinas konkurrencetankegang ansporer til spændinger.

Det er til det punkt, hvor militær-grade AI i autonome våben kan blive forbudt internationalt. Disse systemer kan blive ukontrollerbare af menneskelige operatører. Regeringer skal diskutere virkeligheden af ​​dette krigsregningsvåben i de kommende år.

Open source AI kan få fat i så meget data og gøre teknologien så tilgængelig som muligt. Det er det dog sværere at indføre generelle forbud, selv på AI-våben af ​​militær kvalitet. For mange parter har adgang til denne teknologi, og det ville være umuligt at tage den væk.

Hvordan USA bruger kunstig intelligens

USAs implementering af kunstig intelligens til militære formål inspirerer til global brug. Det må betragte sig selv som en tankeleder i denne sektor, da forsvarsressourcer og budgetter er højere end andre nationer. Landet har potentialet til at innovere og bruge militær-kvalitet AI på måder, verden aldrig har set - på godt og ondt.  

At udvise forsigtighed er afgørende for etisk implementering, sammen med gransket kontrol for tredjepartsleverandører og interne operatører. Prioriteten for militær AI skal være at øge sikkerheden, og hvis denne bane fortsætter, vil verden lægge mærke til det. 

Læs også, 5 ting, du skal vide om AI-analyse af kaffesmagsprofiler

Tidsstempel:

Mere fra AIIOT teknologi