DHS vil teste bruken av genAI for å trene amerikanske immigrasjonsoffiserer

DHS vil teste bruken av genAI for å trene amerikanske immigrasjonsoffiserer

DHS vil teste bruk av genAI for å trene amerikanske immigrasjonsoffiserer PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

US Department of Homeland Security (DHS) har et AI-veikart og en trio av testprosjekter for å distribuere teknologien, hvorav ett tar sikte på å trene immigrasjonsoffiserer ved bruk av generativ AI. Hva kan gå galt?

Ingen AI-leverandører ble navngitt i rapporten, som hevdet at bruken av teknologien var ment å bidra til å forbedre traineer til å bedre forstå og beholde «viktig informasjon», samt å «øke nøyaktigheten av deres beslutningsprosess».

det er sa at OpenAI, Anthropic og Meta, samt skygigantene Microsoft, Google og Amazon, har gitt Homeland Security AI-teknologi og nettjenester å eksperimentere med, med hensyn til opplæring og beslutningstaking.

"US Citizenship and Immigration Services (USCIS) vil prøve å bruke LLM-er for å hjelpe til med å trene flyktninge-, asyl- og internasjonale operasjonsoffiserer i hvordan man gjennomfører intervjuer med søkere for lovlig immigrasjon," sa onkel Sams veikart [PDF], utgitt i går kveld, forklarer.

Til tross for nylig arbeid Når det gjelder å redusere unøyaktigheter i AI-modeller, har LLM-er vært kjent for å generere unøyaktig informasjon med den typen selvtillit som kan plage en ung trainee.

Flubene - referert til som "hallusinasjoner" - gjør det vanskelig å stole på produksjonen av AI chatbots, bildegenerering og til og med juridisk assistentarbeid, med mer enn en advokat komme i trøbbel for å sitere falske saker generert ut av løse luften av ChatGPT.

LLM-er har også vært kjent for å vise både rasemessige og kjønnsmessige skjevheter når de er distribuert i ansette verktøy, rase- og kjønnsskjevhet når det brukes i ansiktsgjenkjenning systemer, og kan til og med viser rasistiske skjevheter ved behandling av ord, som vist i a nyere artikkel der ulike LLM-er tar en avgjørelse om en person basert på en rekke tekstmeldinger. Forskerne rapporterte i marsavisen at LLM-beslutninger om mennesker som bruker afroamerikansk dialekt gjenspeiler rasistiske stereotyper.

Likevel hevder DHS at det er forpliktet til å sikre at bruken av AI «er ansvarlig og pålitelig; ivaretar personvern, sivile rettigheter og sivile friheter; unngår upassende skjevheter; og er gjennomsiktig og forklarlig for arbeidere og folk som behandles. Det står imidlertid ikke hvilke sikkerhetstiltak som er på plass.

Byrået hevder bruken av generativ AI vil tillate DHS å "forsterke" arbeidet med immigrasjonsoffiser, med en interaktiv applikasjon som bruker generativ AI under utvikling for å hjelpe til med offisersopplæring. Målet inkluderer å begrense behovet for omskolering over tid.

Den større DHS-rapporten skisserer avdelingens planer for teknologien mer generelt, og ifølge Alejandro N Mayorkas, sekretær for amerikansk innenlandssikkerhetsdepartement, "er den mest detaljerte AI-planen som er lagt frem av et føderalt byrå til dags dato."

Ytterligere to andre pilotprosjekter vil innebære bruk av LLM-baserte systemer i undersøkelser og bruk av generativ AI til farebegrensningsprosessen for lokale myndigheter.

Historie gjentar

DHS har brukt AI i mer enn et tiår, inkludert maskinlæringsteknologi (ML) for identitetsverifisering. Dens tilnærming kan best beskrives som kontroversiell, med byrået på mottakersiden av juridiske brev over å bruke ansiktsgjenkjenningsteknologi. Imidlertid har USA skjøvet videre til tross urolig fra noen hold.

Faktisk siterer DHS AI som noe det bruker for å gjøre reisen "tryggere og enklere" - hvem kan muligens motsette seg å ta et bilde for å hjelpe deg med å navigere i sikkerhetsteateret som er altfor utbredt på flyplasser? Det er tross alt fortsatt valgfritt.

Andre eksempler på AI-bruk gitt av DHS inkluderer å tråle gjennom eldre bilder for å identifisere tidligere ukjente ofre for utnyttelse, å vurdere skader etter en katastrofe og å plukke opp smuglere ved å identifisere mistenkelig oppførsel.

I sitt veikart bemerket DHS utfordringene som finnes ved siden av mulighetene. AI-verktøy er like tilgjengelige for trusselaktører så vel som myndighetene, og DHS bekymrer seg for at større angrep er innenfor rekkevidde av nettkriminelle, samt angrep på kritisk infrastruktur. Og så er det trusselen fra AI-generert innhold.

Det er satt en rekke mål for 2024. Disse inkluderer å lage en AI Sandbox der DHS-brukere kan leke med teknologien og ansette 50 AI-eksperter. Den planlegger også en HackDHS-øvelse der kontrollerte forskere vil få i oppgave å finne sårbarheter i systemene deres. ®

Tidstempel:

Mer fra Registeret