AI i militærklasse og hvordan det konkurrerer i AI Arms Race - AiiotTalk

AI i militærklasse og hvordan den konkurrerer i AI Arms Race – AiiotTalk

AI i militærklasse og hvordan det konkurrerer i AI-våpenkappløpet - AiiotTalk PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Utbredelsen av kunstig intelligens lar den gå inn i enhver sektor teknologien ønsker. Dens allsidighet har penetrert USAs væpnede styrker, og AI av militærklasse er forskjellig fra tilfeldig generativ bruk eller hvordan et produksjonsanlegg bruker det. Det er viktig å skille ut hva som skiller det for teknologisk utvikling. Egenskapene angir hvordan AI tilpasset seg militære standarder.

Hva definerer AI i militærklasse?

AI som er verdig militær implementering omfatter to fasetter - intensjoner og spesifikasjoner. AI av militærklasse har som mål å beskytte nasjoner ved å samle kunnskap og data om motstandere. Informasjonen samles inn med en hastighet som overgår menneskelig evne, og lover høyere sikkerhet og nøyaktighet.

AI fremskynder undersøkelser og effektiviserer forberedelsene til urovekkende scenarier, noe som resulterer i høyere produktivitet.

"AI av militærklasse er nyttig på og utenfor slagmarken for offensive og defensive formål." 

En annen utnyttelse er gjennom autonom våpen. Den integreres i våpen eller relaterte kontrollsystemer. Militære AI-verktøy er ikke for kommersielt salg eller autorisert for privat bruk. Deres farlige egenskaper må være bak statlig lås og nøkkel og ha strenge forutsetninger for å godkjenne operatører.

De væpnede styrkene kan ikke bruke kunstig intelligens som ikke oppfyller standarder. Militær teknologi må være spenstig og robust. Selv om den vil hvile trygt på klimakontrollerte steder som Pentagon, vil den også reise til fuktige, turbulente omgivelser. Bedrifter må lage spesialdesignet militær-hylle-teknologi inkorporerer AI i alle standarder, fra fly til marine.

Militær AI må ha sikkerhetstiltak som hindrer brukere i å utnytte innbyggere. Teknologien må inkludere den mest oppdaterte nettsikkerhetspraksisen for nasjonal sikkerhet og forsvar. Ellers etterlater AI flere bakdører for trusselaktører enn den beskytter mot. For eksempel, når du bruker den til å skanne satellittbilder av potensielle slagmarker, må geolokaliseringsdata forbli trygge fra hackere og uautoriserte parter.

Egenskapene former AI-forventningene til det amerikanske militæret. Personalet må justere stillingsbeskrivelsene sine, satse på mer digital kompetanseopplæring og forstå viktigheten av datastyring i ny digital infrastruktur. Er AI effektiv på den måten den er i drift for øyeblikket?

Markedsføring til bedriftens arbeidsgivere

Kvalifiseringen "militærklasse" har blitt et markedsføringsbegrep. Ansatte over hele verden vil ha fordelene med kunstig intelligens, spesielt ettersom arbeidere går fjernt. Bunnlinjene avhenger av ansvarlighet og tillit, og bedrifter vil ha feilsikringer og administrasjonsverktøy for å holde ansatte i tråd.

Den samme teknologien militære bruker for spionprogrammer kan oversettes til arbeidsplasstilsyn. Programmene, også kjent som bossware, tar skjermbilder, overvåker arbeidernes produktivitet og bestemmer vekstpotensialet. 

Bossware-selskaper er kanskje ikke militærfokuserte, men overvåkingsteknologien forblir lik. Programvaren-som-en-tjenesten kamuflerer seg som proaktivt medarbeiderengasjement, men noen kaller det omdømmestyring eller innsidevurdering av trusler, og minimerer tilliten mellom ansatte og ledere. Tjenestene har et tilsvarende potensiale for å avdekke terror som det har for å avskrekke ansatte fra å bli fagorganisert.

Å bruke militær AI på denne måten fører til etiske spørsmål, for eksempel:

  • Hvordan vil regulatorer reagere på denne overvåkingen når teknologien ikke skal skade eller opprøre innbyggerne? 
  • Hvor trygge er enkeltpersoner og deres data? 
  • Er alvorlighetsgraden av militær kunstig intelligens for mye å teste før tilstrekkelig forskning er tilgjengelig?
  • Er det etiske konsekvenser for å manipulere militærteknologi i en slik kommersiell skala? 
  • Er dette et menneskerettighetsspørsmål mer enn et nasjonalt sikkerhetsproblem?

Det er for tidlig å pakke ut, men tilsynsorganer må diskutere bekymringer for å komme i forkant av narrativet. Ellers kan det føre til sivil uro til tross for intensjonen til AI om å beskytte nasjonen.

Generere svar på globale kriser

Pentagon og forsvarsdepartementet tar generativ kunstig intelligens til neste nivå. Mens lekfolk ber ChatGPT om å skrive dikt og fortelle dem vitser, ønsker DOD å eksperimentere med å generere løsninger på globale problemer. Byråkratiske prosesser krever å etablere møter, lage presentasjoner og gå gjennom flere kommandokjeder for å godkjenne nasjonale handlinger. Hva om AI fremskynder ingressen?

Eksperimentdetaljer er topphemmelige, men resultatene tyder på at det kan ta 10 minutter i stedet for flere uker å lage det amerikanske militærets svar på et eskalerende problem. Tjenestemenn utnytter store språkmodeller informert med konfidensiell informasjon for å se hvor godt det konstruerer handlingsdyktige, praktiske ideer.

Som med all militær AI, er det åpenbare bekymringer i praksis. Generativ AI er utsatt for hacking, der nettkriminelle forurenser datasett for å øke skjevheten eller sannsynligheten for hallusinasjoner.

"AI kan utgjøre en rasjonell plan en dag, og den neste sniker den inn skadevare eller uforståelig tull. ” 

Én AI-modell har et datasett med 60,000 XNUMX sider med kinesisk og amerikansk dokumentasjon, som kan velge vinneren i en potensiell krig. Ubalansert informasjon forvrider imidlertid resultatene, spesielt uten riktig tilsyn.

Konkurrerer i AI Arms Race

Den mest sannsynlige bruken av militær AI er som våpen. Innbyggerne frykter at den har en bane som ligner på atombomben etter dens oppstart - i stand til å starte verdensomspennende konflikt, men denne gangen er den autonom eller fjernstyrt. Tester viser AIs evne til å slippe bomber på slagmarker analysert som et rutenett med relativ nøyaktighet. Jo mer de amerikanske væpnede styrker øver med innstillingene, desto mer sannsynlig vil angrep utspille seg uten intervensjon.

Intrikat programmering får et AI-drevet missil til å skyte mens hele mannskapet sover i senga fordi miljøforholdene oppfyller parametrene. USA prøver å opprettholde relevansen, men Russland og Kinas konkurransetankegang skaper spenninger.

Det er til det punktet hvor militær-grade AI i autonome våpen kan bli forbudt internasjonalt. Disse systemene kan bli ukontrollerbare av menneskelige operatører. Regjeringer må diskutere realiteten til dette krigsberegningsvåpenet i de kommende årene.

Åpen kildekode AI kan hente så mye data og gjøre teknologien så tilgjengelig som mulig. Men det er det vanskeligere å innføre generelle forbud, selv på militær-klasse AI-våpen. For mange parter har tilgang til denne teknologien, og å ta den bort ville være umulig.

Hvordan USA bruker kunstig intelligens

USAs implementering av AI for militære formål inspirerer til global bruk. Den må betrakte seg selv som en tankeleder i denne sektoren, ettersom forsvarsressurser og budsjetter er høyere enn andre nasjoner. Landet har potensialet til å innovere og bruke militær-klasse AI på måter verden aldri har sett - på godt og vondt.  

Å utvise forsiktighet er avgjørende for etisk implementering, sammen med gransket kontroll for tredjepartsleverandører og interne operatører. Prioriteten for militær AI må være å øke sikkerheten, og hvis denne banen fortsetter, vil verden legge merke til det. 

Les også, 5 ting du trenger å vite om AI-analyse av kaffesmaksprofiler

Tidstempel:

Mer fra AIIOT-teknologi