Het DHS gaat testen met behulp van genAI om Amerikaanse immigratieambtenaren op te leiden

Het DHS gaat testen met behulp van genAI om Amerikaanse immigratieambtenaren op te leiden

DHS gaat testen met genAI om Amerikaanse immigratieambtenaren PlatoBlockchain Data Intelligence te trainen. Verticaal zoeken. Ai.

Het Amerikaanse ministerie van Binnenlandse Veiligheid (DHS) heeft een AI-routekaart en een drietal testprojecten om de technologie in te zetten, waarvan er één tot doel heeft immigratieambtenaren op te leiden met behulp van generatieve AI. Wat zou er mis kunnen gaan?

Er werden geen AI-leveranciers genoemd in het rapport, die beweerden dat het gebruik van de technologie bedoeld was om stagiairs te helpen ‘cruciale informatie’ beter te begrijpen en te behouden, en om ‘de nauwkeurigheid van hun besluitvormingsproces te vergroten’.

Het is gezegd dat OpenAI, Anthropic en Meta, evenals cloudgiganten Microsoft, Google en Amazon, hebben Homeland Security voorzien van AI-technologie en online diensten om mee te experimenteren, met betrekking tot training en besluitvorming.

“US Citizenship and Immigration Services (USCIS) zal een pilot uitvoeren met het gebruik van LLM’s om vluchtelingen-, asiel- en internationale operationele functionarissen te helpen trainen in het afnemen van interviews met aanvragers van legale immigratie”, zegt Uncle Sam. roadmap [PDF], gisteravond vrijgegeven, legt uit.

Niettegenstaande recent werk Wat het verminderen van onnauwkeurigheden in AI-modellen betreft, is het bekend dat LLM's onnauwkeurige informatie genereren met het soort vertrouwen dat een jonge stagiair zou kunnen misleiden.

De flubs – ook wel ‘hallucinaties’ genoemd – maken het moeilijk om de output van AI te vertrouwen chatbots, beeldgeneratie en zelfs juridisch assistent-werk, met meer dan een advocaat in de problemen komen door het citeren van valse gevallen die uit het niets zijn gegenereerd door ChatGPT.

Het is ook bekend dat LLM's zowel raciale als gendervooroordelen vertonen wanneer ze worden ingezet inhuurtools, raciale en gendervooroordelen bij gebruik in gezichtsherkenning systemen, en kan zelfs racistische vooroordelen vertonen bij het verwerken van woorden, zoals weergegeven in a recente paper waar verschillende LLM's een beslissing nemen over een persoon op basis van een reeks tekstprompts. De onderzoekers rapporteerden in hun artikel uit maart dat LLM-beslissingen over mensen die het Afro-Amerikaanse dialect gebruiken, racistische stereotypen weerspiegelen.

Niettemin beweert het DHS dat het zich ervoor wil inzetten dat het gebruik van AI “verantwoord en betrouwbaar is; beschermt de privacy, burgerrechten en burgerlijke vrijheden; vermijdt ongepaste vooroordelen; en is transparant en verklaarbaar voor werknemers en mensen die worden verwerkt. Er staat echter niet welke waarborgen er zijn getroffen.

Het bureau beweert dat het gebruik van generatieve AI het DHS in staat zal stellen het werk van immigratieambtenaren te ‘verbeteren’, met een interactieve applicatie die gebruik maakt van generatieve AI die in ontwikkeling is om te helpen bij de opleiding van officieren. Het doel omvat onder meer het beperken van de noodzaak van omscholing in de loop van de tijd.

Het grotere DHS-rapport schetst de plannen van het ministerie voor de technologie in het algemeen, en is volgens Alejandro N Mayorkas, minister van Binnenlandse Veiligheid van het Amerikaanse ministerie van Binnenlandse Veiligheid, “het meest gedetailleerde AI-plan dat tot nu toe door een federaal agentschap is voorgesteld.”

Nog twee andere proefprojecten omvatten het gebruik van op LLM gebaseerde systemen bij onderzoeken en het toepassen van generatieve AI op het risicobeperkingsproces voor lokale overheden.

Geschiedenis herhaalt zich

Het DHS maakt al meer dan tien jaar gebruik van AI, inclusief machine learning (ML)-technologie voor identiteitsverificatie. De aanpak kan het beste worden omschreven als controversieel, waarbij het bureau aan de ontvangende kant staat juridische brieven over het gebruik van gezichtsherkenningstechnologie. Desondanks zijn de VS doorgegaan onrust uit sommige hoeken.

Het DHS noemt AI inderdaad als iets dat het gebruikt om reizen ‘veiliger en gemakkelijker’ te maken – wie zou er bezwaar tegen kunnen hebben om een ​​foto te laten maken om te helpen navigeren door het veiligheidstheater dat maar al te vaak voorkomt op luchthavens? Het is immers nog steeds optioneel.

Andere voorbeelden van AI-gebruik die het DHS geeft, zijn onder meer het doorzoeken van oudere beelden om eerdere onbekende slachtoffers van uitbuiting te identificeren, het inschatten van de schade na een ramp en het oppakken van smokkelaars door verdacht gedrag te identificeren.

In zijn routekaart heeft het DHS de uitdagingen opgemerkt die er naast de kansen bestaan. AI-instrumenten zijn net zo toegankelijk voor zowel dreigingsactoren als de autoriteiten, en het DHS maakt zich zorgen dat grootschalige aanvallen binnen het bereik van cybercriminelen liggen, evenals aanvallen op kritieke infrastructuur. En dan is er nog de dreiging van door AI gegenereerde inhoud.

Voor 2024 zijn een aantal doelen gesteld. Deze omvatten onder meer het creëren van een AI Sandbox waarin DHS-gebruikers met de technologie kunnen spelen en het inhuren van 50 AI-experts. Het plant ook een HackDHS-oefening waarbij doorgelichte onderzoekers de opdracht krijgen om kwetsbaarheden in zijn systemen te vinden. ®

Tijdstempel:

Meer van Het register