AI i militärklass och hur det tävlar i AI Arms Race - AiiotTalk

AI i militärklass och hur det tävlar i AI Arms Race – AiiotTalk

AI i militärklass och hur det tävlar i AI Arms Race - AiiotTalk PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Spridningen av AI gör att den kan komma in i vilken sektor som helst som tekniken önskar. Dess mångsidighet har trängt igenom USA:s väpnade styrkor, och AI av militär kvalitet skiljer sig från tillfällig generativ användning eller hur en tillverkningsanläggning använder den. Det är viktigt att särskilja vad som skiljer den för den tekniska utvecklingen. Egenskaperna anger hur AI anpassade sig till militära standarder.

Vad definierar militär AI?

AI värdig militär implementering omfattar två aspekter - avsikter och specifikationer. AI av militär kvalitet syftar till att skydda nationer genom att samla in kunskap och data om motståndare. Informationen samlas in med en hastighet som överträffar mänsklig förmåga, vilket lovar högre säkerhet och precision.

AI påskyndar genomgången av undersökningar och effektiviserar förberedelserna för oroande scenarier, vilket resulterar i högre produktivitet.

"AI av militär kvalitet är till hjälp på och utanför slagfältet för offensiva och defensiva syften." 

Annan utnyttjande sker genom autonom vapen. Den integreras i vapen eller relaterade kontrollsystem. Militära AI-verktyg är inte för kommersiell försäljning eller godkända för privat bruk. Deras farliga egenskaper måste vara bakom statliga lås och nyckel och ha strikta förutsättningar för att godkänna operatörer.

De väpnade styrkorna kan inte använda AI som inte uppfyller standarderna. Militär teknik måste vara motståndskraftig och robust. Även om den kommer att vila säkert på klimatkontrollerade platser som Pentagon, kommer den också att resa till fuktiga, turbulenta miljöer. Företag måste göra speciellt designad militär-off-the-shelf-teknik integrera AI i alla standarder, från flygplan till sjöfart.

Militär AI måste ha skydd som förhindrar användare från att utnyttja medborgare. Tekniken måste införliva de mest uppdaterade cybersäkerhetsmetoderna för nationell säkerhet och försvar. Annars lämnar AI fler bakdörrar för hotaktörer än vad den skyddar mot. Till exempel, när du använder den för att skanna satellitbilder av potentiella slagfält, måste geolokaliseringsdata förbli säker från hackare och obehöriga parter.

Egenskaperna formar AI-förväntningarna på den amerikanska militären. Personalen måste anpassa sina arbetsbeskrivningar, bedriva mer digital kompetensutbildning och förstå vikten av datastyrning i ny digital infrastruktur. Är AI effektiv på det sätt som den är i drift för närvarande?

Marknadsföring till företagsarbetsgivare

Kvalet "military-grade" har blivit en marknadsföringsterm. Anställda över hela världen vill ha fördelarna med AI, särskilt när arbetare går på distans. Slutsatserna beror på ansvarighet och förtroende, och företag vill ha säkerhetsskåp och ledningsverktyg för att hålla anställda i linje.

Samma teknik som militärer använder för spionprogram kan översättas till arbetsplatstillsyn. Även känd som bossware, programmen tar skärmdumpar, övervakar arbetarnas produktivitet och avgör tillväxtpotential. 

Bossware-företag kanske inte är militärt fokuserade, men övervakningstekniken är fortfarande liknande. Programvaran-som-en-tjänst klär ut sig som proaktivt medarbetarengagemang, men vissa kallar det rykteshantering eller insiderhotbedömning, vilket minimerar förtroendet mellan anställda och chefer. Tjänsterna har en liknande potential att avslöja terror som att avskräcka anställda från att fackligt bilda sig.

Att använda militär AI på detta sätt leder till etiska frågor, som:

  • Hur kommer tillsynsmyndigheter att reagera på denna övervakning när tekniken inte ska skada eller uppröra medborgare? 
  • Hur säkra är individer och deras data? 
  • Är svårighetsgraden av militär AI för mycket att testa innan adekvat forskning finns tillgänglig?
  • Finns det etiska återverkningar av att manipulera teknik i militärstil i en sådan kommersiell skala? 
  • Är detta en fråga om mänskliga rättigheter mer än ett nationellt säkerhetsproblem?

Det är för tidigt att packa upp, men tillsynsorgan måste diskutera problem för att komma före berättelsen. Annars kan det leda till civila oroligheter trots avsikten med AI att skydda nationen.

Generera svar på globala kriser

Pentagon och försvarsdepartementet tar generativ AI till nästa nivå. Medan lekmän ber ChatGPT att skriva dikter och berätta skämt för dem, vill DOD experimentera med att skapa lösningar på globala problem. Byråkratiska processer kräver att man upprättar möten, skapar presentationer och går igenom flera kommandokedjor för att godkänna nationella åtgärder. Vad händer om AI påskyndar ingressen?

Experimentdetaljerna är topphemliga, men resultaten tyder på att det kan ta 10 minuter istället för flera veckor att utforma den amerikanska militärens svar på ett eskalerande problem. Tjänstemän använder stora språkmodeller med konfidentiell information för att se hur väl det bygger upp praktiska idéer som kan genomföras.

Som med all militär AI finns det uppenbara problem i praktiken. Generativ AI är benägen att hacka, där cyberbrottslingar kontaminerar datamängder för att öka partiskhet eller sannolikheten för hallucinationer.

"AI kan utgöra en rationell plan ena dagen, och nästa dag smyger den in skadlig programvara eller oförståeligt nonsens. ” 

En AI-modell har en datamängd med 60,000 XNUMX sidor kinesisk och amerikansk dokumentation, som kan välja segraren i ett potentiellt krig. Obalanserad information snedvrider dock resultaten, särskilt utan korrekt tillsyn.

Tävlande i AI Arms Race

Den mest troliga användningen av militär AI är som vapen. Medborgare är rädda för att den har en väg som liknar atombomben efter dess tillkomst – kapabel att starta världsomspännande konflikter, men den här gången är den autonom eller fjärrstyrd. Tester visar AI:s förmåga att släppa bomber på slagfält analyserade som ett rutnät med relativ noggrannhet. Ju mer USA:s väpnade styrkor övar med inställningarna, desto mer sannolikt kommer attacker att utvecklas utan ingripande.

Intrikat programmering gör att en AI-driven missil avfyras medan hela besättningen sover i sängen eftersom miljöförhållandena uppfyller parametrarna. USA försöker behålla relevansen, men Rysslands och Kinas konkurrenstänk väcker spänningar.

Det är till den punkt där militärklassad AI i autonoma vapen kan förbjudas internationellt. Dessa system kan bli okontrollerbara av mänskliga operatörer. Regeringar måste diskutera verkligheten av detta krigsberäknade vapen under de kommande åren.

AI med öppen källkod kan ta så mycket data och göra tekniken så tillgänglig som möjligt. Men det är det svårare att införa generella förbud, även på militärklassade AI-vapen. Alltför många parter har tillgång till denna teknik, och att ta bort den skulle vara omöjligt.

Hur USA använder artificiell intelligens

USA:s implementering av AI för militära ändamål inspirerar global användning. Det måste betrakta sig som en tankeledare inom denna sektor, eftersom försvarsresurser och budgetar är högre än andra nationer. Landet har potentialen att förnya och använda militärklassad AI på sätt som världen aldrig har sett – på gott och ont.  

Att utöva försiktighet är avgörande för etiskt genomförande, tillsammans med granskad granskning av tredjepartsleverantörer och interna operatörer. Prioriteten för militär AI måste vara att öka säkerheten, och om denna bana fortsätter kommer världen att märka det. 

Läs också, 5 saker du behöver veta om AI-analys av kaffesmakprofiler

Tidsstämpel:

Mer från AIIOT-teknik