DHS kommer att testa att använda genAI för att utbilda amerikanska immigrationstjänstemän

DHS kommer att testa att använda genAI för att utbilda amerikanska immigrationstjänstemän

DHS kommer att testa att använda genAI för att utbilda amerikanska immigrationstjänstemän PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

US Department of Homeland Security (DHS) har en AI-färdplan och en trio av testprojekt för att distribuera tekniken, varav ett syftar till att utbilda immigrationstjänstemän som använder generativ AI. Vad kan gå fel?

Inga AI-leverantörer namngavs i rapporten, som hävdade att användningen av tekniken var avsedd att hjälpa eleverna att bättre förstå och behålla "viktig information" samt att "öka noggrannheten i deras beslutsprocess."

Det är sa att OpenAI, Anthropic och Meta, såväl som molnjättarna Microsoft, Google och Amazon, har försett Homeland Security med AI-teknik och onlinetjänster att experimentera med, när det gäller utbildning och beslutsfattande.

"US Citizenship and Immigration Services (USCIS) kommer att testa att använda LLM för att hjälpa till att utbilda flykting-, asyl- och internationella operationsofficerare i hur man genomför intervjuer med sökande till laglig immigration", säger Uncle Sam. färdplan [PDF], släpptes i går kväll, förklarar.

Trots senaste arbetet När det gäller att mildra felaktigheter i AI-modeller har LLM:er varit kända för att generera felaktig information med den typ av självförtroende som kan förvirra en ung praktikant.

Flubbarna - kallade "hallucinationer" - gör det svårt att lita på resultatet av AI chatbots, bildgenerering och även juridiskt assistentarbete, med mer än ett advokat hamnat i problem för att citera falska fall som skapats ur tomma intet av ChatGPT.

LLM:er har också varit kända för att uppvisa både ras- och könsfördomar när de distribueras i anställa verktyg, ras- och könsfördomar när de används i ansiktsigenkänning system, och kan till och med uppvisa rasistiska fördomar vid bearbetning av ord, som visas i a nyligen papper där olika LLM:er fattar ett beslut om en person baserat på en serie textuppmaningar. Forskarna rapporterade i sin marsuppsats att LLM-beslut om personer som använder afroamerikansk dialekt återspeglar rasistiska stereotyper.

Ändå hävdar DHS att det har åtagit sig att säkerställa att dess användning av AI "är ansvarsfull och pålitlig; skyddar integritet, medborgerliga rättigheter och medborgerliga friheter; undviker olämpliga fördomar; och är transparent och kan förklaras för arbetare och personer som bearbetas. Det står dock inte vilka skyddsåtgärder som finns på plats.

Byrån hävdar att användningen av generativ AI kommer att göra det möjligt för DHS att "förbättra" arbetet med immigrationstjänstemän, med en interaktiv applikation som använder generativ AI under utveckling för att hjälpa till med officersutbildning. I målet ingår att begränsa behovet av omskolning över tid.

Den större DHS-rapporten beskriver departementets planer för tekniken mer generellt, och enligt Alejandro N Mayorkas, USA:s minister för hemlandsäkerhet, "är den mest detaljerade AI-planen som lagts fram av en federal byrå hittills."

Ytterligare två andra pilotprojekt kommer att involvera användning av LLM-baserade system i undersökningar och tillämpning av generativ AI i riskreduceringsprocessen för lokala myndigheter.

Historien upprepas

DHS har använt AI i mer än ett decennium, inklusive maskininlärningsteknik (ML) för identitetsverifiering. Dess tillvägagångssätt kan bäst beskrivas som kontroversiellt, med byrån på mottagandet av juridiska brev över att använda teknik för ansiktsigenkänning. USA har dock drivit framåt trots oro från vissa håll.

Faktum är att DHS citerar AI som något som det använder för att göra resor "säkrare och enklare" - vem kan möjligen invända mot att ta ett foto för att hjälpa till att navigera i säkerhetsteatern som är alltför utbredd på flygplatser? Det är trots allt fortfarande valfritt.

Andra exempel på AI-användning som ges av DHS inkluderar tråling genom äldre bilder för att identifiera tidigare okända offer för exploatering, bedömning av skador efter en katastrof och plocka upp smugglare genom att identifiera misstänkt beteende.

I sin färdplan noterade DHS de utmaningar som finns vid sidan av möjligheterna. AI-verktyg är lika tillgängliga för både hotaktörer och myndigheter, och DHS oroar sig för att större attacker är inom räckhåll för cyberbrottslingar, såväl som attacker mot kritisk infrastruktur. Och så finns det hotet från AI-genererat innehåll.

Ett antal mål har satts upp för 2024. Dessa inkluderar att skapa en AI-sandlåda där DHS-användare kan leka med tekniken och anställa 50 AI-experter. Den planerar också en HackDHS-övning där granskade forskare kommer att få i uppdrag att hitta sårbarheter i dess system. ®

Tidsstämpel:

Mer från Registret