DHS przetestuje wykorzystanie genAI do szkolenia amerykańskich urzędników imigracyjnych

DHS przetestuje wykorzystanie genAI do szkolenia amerykańskich urzędników imigracyjnych

DHS przetestuje wykorzystanie genAI do szkolenia amerykańskich urzędników imigracyjnych PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych (DHS) ma plan działania dotyczący sztucznej inteligencji i trzy projekty testowe mające na celu wdrożenie tej technologii, z których jeden ma na celu przeszkolenie urzędników imigracyjnych w zakresie generatywnej sztucznej inteligencji. Co może pójść nie tak?

W raporcie nie wymieniono żadnych dostawców sztucznej inteligencji, twierdząc, że wykorzystanie tej technologii miało na celu pomóc stażystom lepiej zrozumieć i zachować „kluczowe informacje”, a także „zwiększyć dokładność ich procesu decyzyjnego”.

Jego powiedział, że OpenAI, Anthropic i Meta, a także giganci chmurowi Microsoft, Google i Amazon udostępnili Homeland Security technologię sztucznej inteligencji i usługi online do eksperymentowania w zakresie szkoleń i podejmowania decyzji.

„Służby ds. obywatelstwa i imigracji Stanów Zjednoczonych (USCIS) przeprowadzą pilotażowe wykorzystanie LLM, aby pomóc w szkoleniu funkcjonariuszy ds. uchodźców, azyli i operacji międzynarodowych w zakresie prowadzenia rozmów z osobami ubiegającymi się o legalną imigrację” – Uncle Sam's mapa drogowa [PDF], opublikowany wczoraj wieczorem, wyjaśnia.

Mimo Ostatnia praca w zakresie łagodzenia niedokładności w modelach sztucznej inteligencji wiadomo, że LLM generują niedokładne informacje z pewnością, która może zmylić młodego stażystę.

Fluby – zwane „halucynacjami” – sprawiają, że trudno zaufać wynikom sztucznej inteligencji nasze chatboty, generowanie obrazu a nawet asystent prawny, z ponad pierwszej prawnik wpadasz w kłopoty z powodu powoływania się na fałszywe przypadki wygenerowane z powietrza przez ChatGPT.

Wiadomo również, że LLM po rozmieszczeniu wykazują uprzedzenia rasowe i płciowe zatrudnianie narzędzi, uprzedzenia rasowe i płciowe, jeśli są używane w rozpoznawanie twarzy systemów, a nawet może przejawiać rasistowskie uprzedzenia podczas przetwarzania słów, jak pokazano na a Ostatni artykuł gdzie różne LLM podejmują decyzję dotyczącą osoby na podstawie serii podpowiedzi tekstowych. Badacze podali w swoim marcowym artykule, że decyzje LLM dotyczące osób posługujących się dialektem afroamerykańskim odzwierciedlają rasistowskie stereotypy.

Niemniej jednak DHS twierdzi, że dokłada wszelkich starań, aby korzystanie z sztucznej inteligencji było „odpowiedzialne i godne zaufania; chroni prywatność, prawa obywatelskie i wolności obywatelskie; unika niewłaściwych uprzedzeń; oraz jest przejrzysty i łatwy do zrozumienia dla pracowników i osób przetwarzanych. Nie mówi jednak, jakie zabezpieczenia zastosowano.

Agencja twierdzi, że wykorzystanie generatywnej sztucznej inteligencji umożliwi DHS „ulepszenie” pracy urzędników imigracyjnych dzięki interaktywnej aplikacji wykorzystującej generatywną sztuczną inteligencję, która jest w fazie opracowywania, aby pomóc w szkoleniu funkcjonariuszy. Celem jest ograniczenie konieczności przekwalifikowania się w miarę upływu czasu.

Większy raport DHS bardziej ogólnie przedstawia plany Departamentu dotyczące tej technologii i według Alejandro N Mayorkasa, sekretarza Departamentu Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, „jest najbardziej szczegółowym planem sztucznej inteligencji przedstawionym dotychczas przez agencję federalną”.

Kolejne dwa projekty pilotażowe będą dotyczyć wykorzystania systemów opartych na LLM w dochodzeniach i zastosowania generatywnej sztucznej inteligencji w procesie łagodzenia zagrożeń dla samorządów lokalnych.

Powtarzanie historii

DHS wykorzystuje sztuczną inteligencję od ponad dziesięciu lat, w tym technologię uczenia maszynowego (ML) do weryfikacji tożsamości. Jego podejście można najlepiej opisać jako kontrowersyjne, w którym agencja jest odbiorcą pisma prawne w związku z używaniem technologii rozpoznawania twarzy. Jednak pomimo tego Stany Zjednoczone poszły naprzód niepokój z niektórych kręgów.

Rzeczywiście DHS cytuje sztuczną inteligencję jako coś, czego używa, aby podróżowanie było „bezpieczniejsze i łatwiejsze” – kto mógłby sprzeciwić się zrobieniu zdjęcia, aby pomóc w poruszaniu się po obszarze bezpieczeństwa, który jest aż nazbyt powszechny na lotniskach? W końcu jest to nadal opcjonalne.

Inne przykłady wykorzystania sztucznej inteligencji podane przez DHS obejmują przeszukiwanie starszych zdjęć w celu identyfikacji wcześniejszych nieznanych ofiar wyzysku, ocenianie szkód po katastrofie oraz wyłapywanie przemytników poprzez identyfikację podejrzanych zachowań.

W swoim planie działania DHS odnotował wyzwania, które istnieją obok możliwości. Narzędzia sztucznej inteligencji są w równym stopniu dostępne dla podmiotów stwarzających zagrożenie, jak i dla władz, a DHS obawia się, że cyberprzestępcy mogą uzyskać ataki na większą skalę, podobnie jak ataki na infrastrukturę krytyczną. Istnieje także zagrożenie ze strony treści generowanych przez sztuczną inteligencję.

Na rok 2024 wyznaczono szereg celów. Obejmują one utworzenie piaskownicy AI, w której użytkownicy DHS będą mogli bawić się technologią, oraz zatrudnienie 50 ekspertów AI. Planuje także ćwiczenie HackDHS, podczas którego zweryfikowani badacze będą mieli za zadanie znaleźć luki w swoich systemach. ®

Znak czasu:

Więcej z Rejestr