DHS va testa folosind genAI pentru a instrui ofițerii americani de imigrație

DHS va testa folosind genAI pentru a instrui ofițerii americani de imigrație

DHS will test using genAI to train US immigration officers PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Departamentul de Securitate Internă al SUA (DHS) are o foaie de parcurs AI și un trio de proiecte de testare pentru a implementa tehnologia, dintre care unul are ca scop instruirea ofițerilor de imigrare folosind AI generativă. Ce ar putea merge prost?

Niciun furnizor de inteligență artificială nu a fost numiți în raport, care a susținut că utilizarea tehnologiei a fost menită să ajute cursanții să înțeleagă și să rețină mai bine „informațiile esențiale”, precum și să „mărească acuratețea procesului lor de luare a deciziilor”.

este a spus că OpenAI, Anthropic și Meta, precum și giganții cloud Microsoft, Google și Amazon, au oferit Homeland Security tehnologie AI și servicii online pentru a experimenta, în ceea ce privește instruirea și luarea deciziilor.

„Serviciile de cetățenie și imigrare din SUA (USCIS) vor folosi LLM-uri pentru a ajuta la instruirea ofițerilor pentru refugiați, azil și operațiuni internaționale cu privire la modul de a efectua interviuri cu solicitanții de imigrare legală”, a spus Unchiul Sam. foaie de parcurs [PDF], lansat aseară, explică.

În ciuda munca recenta În ceea ce privește atenuarea inexactităților în modelele de inteligență artificială, se știe că LLM-urile generează informații inexacte cu tipul de încredere care ar putea deruta un tânăr stagiar.

Fluburile – denumite „halucinații” – fac dificil să aveți încredere în rezultatul AI chatbots, generarea imaginii și chiar lucrează de asistent juridic, cu mai mult de unu avocat a intrat în probleme pentru că a citat cazuri false generate din aer de ChatGPT.

De asemenea, se știe că LLM-urile prezintă atât părtiniri rasiale, cât și de gen atunci când sunt desfășurate în angajarea de instrumente, prejudecățile rasiale și de gen atunci când sunt utilizate în recunoastere faciala sisteme și poate chiar manifestă părtiniri rasiste la procesarea cuvintelor, așa cum se arată în a hârtie recentă unde diverși LLM iau o decizie cu privire la o persoană pe baza unei serii de solicitări text. Cercetătorii au raportat în lucrarea lor din martie că deciziile LLM cu privire la persoanele care folosesc dialectul afro-american reflectă stereotipuri rasiste.

Cu toate acestea, DHS susține că se angajează să se asigure că utilizarea AI „este responsabilă și demnă de încredere; protejează intimitatea, drepturile civile și libertățile civile; evită prejudecățile inadecvate; și este transparent și explicabil pentru lucrătorii și persoanele care sunt procesate. Totuși, nu spune ce măsuri de protecție sunt în vigoare.

Agenția susține că utilizarea AI generativă va permite DHS să „îmbunătățească” munca ofițerilor de imigrație, cu o aplicație interactivă care utilizează IA generativă în curs de dezvoltare pentru a ajuta la pregătirea ofițerilor. Scopul include limitarea nevoii de recalificare în timp.

Raportul mai amplu DHS subliniază planurile Departamentului pentru tehnologie în general și, potrivit lui Alejandro N Mayorkas, secretarul Departamentului pentru Securitate Internă al SUA, „este cel mai detaliat plan AI propus de o agenție federală până în prezent”.

Alte două proiecte pilot vor implica utilizarea sistemelor bazate pe LLM în investigații și aplicarea IA generativă în procesul de atenuare a pericolelor pentru administrațiile locale.

Istoria se repetă

DHS a folosit AI de mai bine de un deceniu, inclusiv tehnologia de învățare automată (ML) pentru verificarea identității. Abordarea sa poate fi cel mai bine descrisă ca fiind controversată, cu agenția la capătul destinatar scrisori legale folosind tehnologia de recunoaștere facială. Cu toate acestea, SUA au mers înainte, în ciuda neliniște din unele părţi.

Într-adevăr, DHS menționează inteligența artificială drept ceva pe care îl folosește pentru a face călătoriile „mai sigure și mai ușoare” – cine ar putea obiecta să se facă o fotografie pentru a ajuta la navigarea în teatrul de securitate care este prea răspândit în aeroporturi? La urma urmei, este încă opțional.

Alte exemple de utilizare a IA oferite de DHS includ traul prin imagini mai vechi pentru a identifica victimele anterioare necunoscute ale exploatării, evaluarea daunelor după un dezastru și ridicarea contrabandiștilor prin identificarea comportamentului suspect.

În foaia sa de parcurs, DHS a notat provocările care există alături de oportunități. Instrumentele AI sunt la fel de accesibile atât de către actorii amenințărilor, cât și de către autorități, iar DHS își face griji că atacurile la scară mai mare sunt la îndemâna infractorilor cibernetici, precum și atacurile asupra infrastructurii critice. Și apoi există amenințarea conținutului generat de AI.

Au fost stabilite o serie de obiective pentru 2024. Acestea includ crearea unui AI Sandbox în care utilizatorii DHS se pot juca cu tehnologia și angajarea a 50 de experți AI. De asemenea, planifică un exercițiu HackDHS în care cercetătorii verificați vor fi însărcinați să găsească vulnerabilități în sistemele sale. ®

Timestamp-ul:

Mai mult de la Registrul