US DoD anlitar Scale AI för att hjälpa militären att bli smartare

US DoD anlitar Scale AI för att hjälpa militären att bli smartare

US DoD anlitar Scale AI för att hjälpa militären att få smartare PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Det amerikanska försvarsdepartementet arbetar enligt uppgift med startup Scale AI för att testa generativa AI-modeller för militär användning.

Scale AI kommer att bygga ett ramverk av verktyg och datauppsättningar som Pentagon kan använda för att utvärdera stora språkmodeller. Ramverket kommer att involvera "mätning av modellprestanda, erbjuda realtidsfeedback för krigsfighters och skapa specialiserade offentliga utvärderingsuppsättningar för att testa AI-modeller för militära stödapplikationer, som att organisera resultaten från efteråtgärdsrapporter," den San Francisco-baserade biz berättade DefenseScoop.

Stora språkmodellers förmåga att analysera och generera text skulle kunna öka Pentagons förmåga att samla in intelligens, planera för operationer och därmed vägleda beslutsfattande inom stridsområdet.

"Föreställ dig en värld där stridande befälhavare kan se allt de behöver se för att fatta strategiska beslut", säger Craig Martell, DoD:s chef för digital och artificiell intelligens.

"Föreställ dig en värld där de stridande befälhavarna inte får den informationen via PowerPoint eller via e-post från hela [organisationen] - handläggningstiden för situationsmedvetenhet minskar från en dag eller två till tio minuter," han deklarerade under Advantage DoD 2024: Defense Data and AI Symposium.

AI kan snabbt bearbeta stora mängder information. Militär data är dock ofta mycket känslig – och tjänstemän oroar sig för att om de når stora språkmodeller, kan snabba injektionsattacker eller API-missbruk leda till att den läcker.

Det största hindret för militär implementering av LLM är deras tendens att generera felaktig eller falsk information – kallad hallucination. Genom att ta in Scale AI tror Pentagon att man kan testa prestanda hos olika modeller för att identifiera potentiella risker innan man överväger att använda dem för att stödja krigsstrider eller underrättelser.

Uppstarten kommer enligt uppgift kompilera "holdout-datauppsättningar" som innehåller exempel på effektiva svar på inmatningsuppmaningar som skulle vara användbara för militären. Tjänstemän vid DoD kan sedan jämföra olika modellers svar på samma uppmaningar och bedöma deras användbarhet.

Förra året lanserades DoD Task Force Lima – en enhet ledd av Martell, tidigare chef för maskininlärning på ride-share biz Lyft, för att undersöka militära tillämpningar för generativ AI.

"DoD har ett krav att på ett ansvarsfullt sätt fortsätta antagandet av generativa AI-modeller samtidigt som man identifierar lämpliga skyddsåtgärder och minskar nationella säkerhetsrisker som kan uppstå från problem som dåligt hanterad träningsdata," förklarade Martell då. "Vi måste också överväga i vilken utsträckning våra motståndare kommer att använda den här tekniken och försöka störa vår egen användning av AI-baserade lösningar."

Verktyg som ChatGPT har varit tillfälligt förbjudet internt dock. Den amerikanska rymdstyrkan sa åt personalen att inte använda programvaran, av rädsla för att militära hemligheter skulle kunna avslöjas eller extraheras.

Scale AI avböjde att kommentera ärendet. ®

Tidsstämpel:

Mer från Registret