DHS vil teste brugen af ​​genAI til at træne amerikanske immigrationsofficerer

DHS vil teste brugen af ​​genAI til at træne amerikanske immigrationsofficerer

DHS will test using genAI to train US immigration officers PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Det amerikanske Department of Homeland Security (DHS) har en AI-køreplan og en trio af testprojekter til at implementere teknologien, hvoraf et sigter mod at træne immigrationsofficerer ved hjælp af generativ AI. Hvad kunne gå galt?

Ingen AI-leverandører blev nævnt i rapporten, som hævdede, at brugen af ​​teknologien var beregnet til at hjælpe med at forbedre praktikanter til bedre at forstå og bevare "vigtig information" samt at "øge nøjagtigheden af ​​deres beslutningsproces."

Det er sige, at OpenAI, Anthropic og Meta, såvel som cloud-giganterne Microsoft, Google og Amazon, har forsynet Homeland Security med AI-teknologi og onlinetjenester at eksperimentere med, med hensyn til træning og beslutningstagning.

"US Citizenship and Immigration Services (USCIS) vil forsøge at bruge LLM'er til at hjælpe med at uddanne flygtninge-, asyl- og internationale operationsofficerer i, hvordan man gennemfører interviews med ansøgere om lovlig immigration," siger Uncle Sams. køreplan [PDF], udgivet i aftes, forklarer.

Trods nyligt arbejde om at afbøde unøjagtigheder i AI-modeller, har LLM'er været kendt for at generere unøjagtig information med den form for selvtillid, der kan forvirre en ung praktikant.

Flubs - omtalt som "hallucinationer" - gør det svært at stole på outputtet af AI chatbots, billedgenerering og endda juridisk assistent arbejde, med mere end en advokat komme i problemer for at citere falske sager genereret ud af den blå luft af ChatGPT.

LLM'er har også været kendt for at udvise både racemæssige og kønsmæssige skævheder, når de implementeres i ansættelse af værktøjer, race- og kønsbias, når det bruges i ansigtsgenkendelse systemer, og kan endda udvise racistiske skævheder ved behandling af ord, som vist i a nyligt papir hvor forskellige LLM'er træffer en beslutning om en person baseret på en række tekstprompter. Forskerne rapporterede i deres marts-avis, at LLM-beslutninger om mennesker, der bruger afroamerikansk dialekt, afspejler racistiske stereotyper.

Ikke desto mindre hævder DHS, at det er forpligtet til at sikre, at dets brug af AI "er ansvarlig og troværdig; beskytter privatlivets fred, borgerrettigheder og borgerlige frihedsrettigheder; undgår upassende skævheder; og er gennemsigtig og kan forklares for arbejdere og folk, der behandles. Det står dog ikke, hvilke sikkerhedsforanstaltninger der er på plads.

Agenturet hævder, at brugen af ​​generativ AI vil give DHS mulighed for at "forstærke" immigrationsofficerarbejdet med en interaktiv applikation, der bruger generativ AI under udvikling for at hjælpe med officersuddannelse. Målet omfatter at begrænse behovet for genoptræning over tid.

Den større DHS-rapport skitserer ministeriets planer for teknologien mere generelt, og ifølge Alejandro N Mayorkas, US Department of Homeland Security Secretary, "er den mest detaljerede AI-plan fremlagt af et føderalt agentur til dato."

Andre to andre pilotprojekter vil involvere anvendelse af LLM-baserede systemer i undersøgelser og anvendelse af generativ AI til farebegrænsningsprocessen for lokale myndigheder.

Historien gentager sig

DHS har brugt kunstig intelligens i mere end et årti, herunder maskinlæringsteknologi (ML) til identitetsbekræftelse. Dens tilgang kan bedst beskrives som kontroversiel, med bureauet på modtagersiden af juridiske breve over at bruge ansigtsgenkendelsesteknologi. Men USA har skubbet frem på trods af urolig fra nogle sider.

Faktisk citerer DHS AI som noget, det bruger til at gøre rejsen "sikker og lettere" - hvem kunne overhovedet modsætte sig at få taget et billede for at hjælpe med at navigere i sikkerhedsteateret, der er alt for udbredt i lufthavne? Det er trods alt stadig valgfrit.

Andre eksempler på AI-brug givet af DHS omfatter trawl gennem ældre billeder for at identificere tidligere ukendte ofre for udnyttelse, vurdering af skader efter en katastrofe og opsamling af smuglere ved at identificere mistænkelig adfærd.

I sin køreplan bemærkede DHS de udfordringer, der eksisterer ved siden af ​​mulighederne. AI-værktøjer er lige så tilgængelige for trusselsaktører såvel som myndigheder, og DHS bekymrer sig om, at større angreb er inden for rækkevidde af cyberkriminelle såvel som angreb på kritisk infrastruktur. Og så er der truslen fra AI-genereret indhold.

Der er sat en række mål for 2024. Disse inkluderer at skabe en AI-sandbox, hvor DHS-brugere kan lege med teknologien og ansætte 50 AI-eksperter. Den planlægger også en HackDHS-øvelse, hvor undersøgte forskere får til opgave at finde sårbarheder i deres systemer. ®

Tidsstempel:

Mere fra Registret