DHS bo testiral uporabo genAI za usposabljanje ameriških imigracijskih uradnikov

DHS bo testiral uporabo genAI za usposabljanje ameriških imigracijskih uradnikov

DHS bo testiral uporabo genAI za usposabljanje uradnikov za priseljence v ZDA PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Ameriško ministrstvo za domovinsko varnost (DHS) ima načrt za umetno inteligenco in tri testne projekte za uvedbo tehnologije, od katerih je eden namenjen usposabljanju uradnikov za priseljevanje z uporabo generativne umetne inteligence. Kaj bi lahko šlo narobe?

V poročilu ni bil imenovan noben prodajalec umetne inteligence, ki je trdil, da je bila uporaba tehnologije namenjena izboljšanju pripravnikov za boljše razumevanje in ohranjanje "ključnih informacij", pa tudi za "povečanje natančnosti njihovega procesa odločanja."

to je je dejal, da OpenAI, Anthropic in Meta ter velikani v oblaku Microsoft, Google in Amazon so Homeland Security zagotovili tehnologijo umetne inteligence in spletne storitve za eksperimentiranje v zvezi z usposabljanjem in odločanjem.

"Služba ZDA za državljanstvo in priseljevanje (USCIS) bo poskusno uporabljala študije LLM za pomoč pri usposabljanju uradnikov za begunce, azil in mednarodne operacije o tem, kako voditi razgovore s prosilci za zakonito priseljevanje," Uncle Sam's načrt [PDF], objavljen sinoči, pojasnjuje.

Kljub nedavno delo o zmanjševanju netočnosti v modelih umetne inteligence je znano, da LLM ustvarjajo netočne informacije s tako samozavestjo, ki bi lahko preslepila mladega pripravnika.

Zaradi napak - imenovanih "halucinacije" - je težko zaupati rezultatu umetne inteligence klepetalnice, generiranje slik in celo delo pravnega pomočnika, z več kot ena odvetnik zabredel v težave zaradi navajanja lažnih primerov, ki jih je iz nič ustvaril ChatGPT.

Znano je tudi, da LLM-ji kažejo tako rasno kot spolno pristranskost, ko so nameščeni v orodja za najemanje, rasne in spolne pristranskosti pri uporabi v prepoznavanje obraza sistemov in lahko celo kažejo rasistične pristranskosti pri obdelavi besed, kot je prikazano v a nedavni dokument kjer se različni LLM odločijo o osebi na podlagi niza besedilnih pozivov. Raziskovalci so v svojem marčevskem dokumentu poročali, da odločitve LLM o ljudeh, ki uporabljajo afroameriško narečje, odražajo rasistične stereotipe.

Kljub temu DHS trdi, da je zavezan zagotavljanju, da je njegova uporaba umetne inteligence »odgovorna in vredna zaupanja; varuje zasebnost, državljanske pravice in državljanske svoboščine; izogiba se neprimernim pristranskosti; in je pregleden ter razložljiv delavcem in ljudem, ki se obdelujejo. Ne pove pa, kateri zaščitni ukrepi so vzpostavljeni.

Agencija trdi, da bo uporaba generativne umetne inteligence DHS omogočila, da "izboljša" delo uradnikov za priseljevanje, z interaktivno aplikacijo, ki uporablja generativno umetno inteligenco, ki je v razvoju za pomoč pri usposabljanju uradnikov. Cilj vključuje omejitev potrebe po preusposabljanju skozi čas.

Večje poročilo DHS opisuje načrte ministrstva za tehnologijo bolj na splošno in je po besedah ​​Alejandra N Mayorkasa, ameriškega ministrstva za domovinsko varnost, "najpodrobnejši načrt AI, ki ga je do zdaj predstavila zvezna agencija."

Druga dva pilotna projekta bosta vključevala uporabo sistemov, ki temeljijo na LLM, v preiskavah in uporabo generativne umetne inteligence v procesu zmanjševanja nevarnosti za lokalne vlade.

Zgodovina se ponavlja

DHS že več kot desetletje uporablja AI, vključno s tehnologijo strojnega učenja (ML) za preverjanje identitete. Njegov pristop je najbolje opisati kot kontroverzen, pri čemer je agencija na sprejemni strani pravna pisma nad uporabo tehnologije za prepoznavanje obraza. Kljub temu so ZDA napredovale zaskrbljenost z nekaterih strani.

DHS dejansko navaja umetno inteligenco kot nekaj, kar uporablja za "varnejše in lažje" potovanje - kdo bi sploh lahko nasprotoval fotografiranju, ki bi mu pomagalo pri navigaciji v varnostnem okolju, ki je vse preveč razširjeno na letališčih? Navsezadnje je še vedno izbirna.

Drugi primeri uporabe umetne inteligence, ki jih navaja DHS, vključujejo brskanje po starejših slikah za identifikacijo prejšnjih neznanih žrtev izkoriščanja, ocenjevanje škode po katastrofi in lovljenje tihotapcev z odkrivanjem sumljivega vedenja.

DHS je v svojem načrtu opozoril na izzive, ki obstajajo poleg priložnosti. Orodja umetne inteligence so prav tako dostopna akterjem groženj in oblastem, DHS pa skrbi, da so napadi večjega obsega dosegljivi kibernetskim kriminalcem, pa tudi napadi na kritično infrastrukturo. In potem je tu še grožnja vsebine, ustvarjene z umetno inteligenco.

Za leto 2024 so bili postavljeni številni cilji. Ti vključujejo ustvarjanje AI Sandboxa, v katerem se lahko uporabniki DHS igrajo s tehnologijo, in najem 50 strokovnjakov za AI. Načrtuje tudi vajo HackDHS, v kateri bodo preverjeni raziskovalci zadolženi za iskanje ranljivosti v njegovih sistemih. ®

Časovni žig:

Več od Register