DHS با استفاده از genAI برای آموزش افسران مهاجرت ایالات متحده آزمایش خواهد کرد

DHS با استفاده از genAI برای آموزش افسران مهاجرت ایالات متحده آزمایش خواهد کرد

DHS will test using genAI to train US immigration officers PlatoBlockchain Data Intelligence. Vertical Search. Ai.

وزارت امنیت داخلی ایالات متحده (DHS) یک نقشه راه هوش مصنوعی و سه پروژه آزمایشی برای استقرار این فناوری دارد که هدف یکی از آنها آموزش افسران مهاجرت با استفاده از هوش مصنوعی مولد است. چه چیزی ممکن است اشتباه باشد؟

هیچ فروشنده‌ای در این گزارش نام نبرده است که ادعا می‌کند استفاده از این فناوری به منظور کمک به کارآموزان برای درک بهتر و حفظ «اطلاعات مهم» و همچنین «افزایش دقت فرآیند تصمیم‌گیری» بوده است.

این گفت که OpenAI، Anthropic، و Meta، و همچنین غول های ابری مایکروسافت، گوگل و آمازون، امنیت داخلی را با فناوری هوش مصنوعی و خدمات آنلاین برای آزمایش، با توجه به آموزش و تصمیم گیری ارائه کرده اند.

"خدمات شهروندی و مهاجرت ایالات متحده (USCIS) با استفاده از LLM برای کمک به آموزش افسران پناهندگی، پناهندگی و عملیات بین المللی در مورد نحوه انجام مصاحبه با متقاضیان برای مهاجرت قانونی، آزمایشی خواهد شد." نقشه راه [PDF]، که دیشب منتشر شد، توضیح می دهد.

با وجود کار اخیر در کاهش نادرستی در مدل‌های هوش مصنوعی، LLMها به تولید اطلاعات نادرست با نوع اطمینانی که ممکن است یک کارآموز جوان را متحیر کند، شناخته شده است.

فلاب ها - که به آنها "توهم" گفته می شود - اعتماد به خروجی هوش مصنوعی را دشوار می کند chatbots, تولید تصویر و حتی کار دستیار حقوقی، با بیش از یک وکیل برای استناد به کیس های جعلی تولید شده توسط ChatGPT دچار مشکل می شوند.

همچنین مشخص شده است که LLM ها هنگام استقرار در هر دو سوگیری نژادی و جنسیتی نشان می دهند ابزار استخدام، تعصب نژادی و جنسیتی هنگام استفاده در تشخیص چهره سیستم ها، و حتی می تواند تعصبات نژادپرستانه را نشان می دهند هنگام پردازش کلمات، همانطور که در a نشان داده شده است مقاله اخیر جایی که LLM های مختلف بر اساس یک سری درخواست های متنی درباره یک فرد تصمیم می گیرند. محققان در مقاله مارس خود گزارش دادند که تصمیمات LLM در مورد افرادی که از گویش آمریکایی آفریقایی تبار استفاده می کنند، بازتاب کلیشه های نژادپرستانه است.

با این وجود، DHS مدعی است که متعهد به اطمینان از استفاده از هوش مصنوعی «مسئولانه و قابل اعتماد است. از حریم خصوصی، حقوق مدنی و آزادی های مدنی محافظت می کند. اجتناب از تعصبات نامناسب؛ و برای کارگران و افرادی که در حال پردازش هستند شفاف و قابل توضیح است. با این حال، نمی گوید چه تدابیری وجود دارد.

این آژانس ادعا می کند که استفاده از هوش مصنوعی مولد به DHS اجازه می دهد تا کار افسران مهاجرت را با یک برنامه تعاملی با استفاده از هوش مصنوعی مولد در حال توسعه برای کمک به آموزش افسران "تقویت" کند. هدف شامل محدود کردن نیاز به بازآموزی در طول زمان است.

گزارش بزرگتر DHS به طور کلی تر برنامه های وزارت برای این فناوری را مشخص می کند و به گفته آلخاندرو ان مایورکاس، وزیر امنیت داخلی ایالات متحده، "جزئی ترین طرح هوش مصنوعی است که توسط یک آژانس فدرال ارائه شده است."

دو پروژه آزمایشی دیگر شامل استفاده از سیستم‌های مبتنی بر LLM در تحقیقات و استفاده از هوش مصنوعی مولد در فرآیند کاهش خطر برای دولت‌های محلی است.

تکرار تاریخ

DHS بیش از یک دهه است که از هوش مصنوعی، از جمله فناوری یادگیری ماشین (ML) برای تأیید هویت استفاده کرده است. رویکرد آن را می‌توان به بهترین وجه بحث‌برانگیز توصیف کرد، زیرا آژانس در حال دریافت آن است نامه های قانونی بیش از استفاده از فناوری تشخیص چهره با این حال، ایالات متحده با وجود این پیشروی کرده است ناراحت کننده از بعضی جاها

در واقع، DHS از هوش مصنوعی به عنوان چیزی یاد می‌کند که برای «ایمن‌تر و آسان‌تر کردن» سفر استفاده می‌کند – چه کسی احتمالاً می‌تواند با گرفتن عکس برای کمک به حرکت در سالن امنیتی که در فرودگاه‌ها بسیار رایج است مخالفت کند؟ پس از همه، هنوز هم اختیاری است.

نمونه های دیگری از استفاده از هوش مصنوعی ارائه شده توسط DHS عبارتند از جستجوی تصاویر قدیمی تر برای شناسایی قربانیان ناشناخته قبلی استثمار، ارزیابی خسارت پس از یک فاجعه، و جمع آوری قاچاقچیان با شناسایی رفتارهای مشکوک.

DHS در نقشه راه خود به چالش هایی که در کنار فرصت ها وجود دارد اشاره کرد. ابزارهای هوش مصنوعی به همان اندازه توسط عوامل تهدید و همچنین مقامات قابل دسترسی هستند، و DHS نگران است که حملات در مقیاس بزرگتر در دسترس مجرمان سایبری و همچنین حملات به زیرساخت های حیاتی باشد. و سپس تهدید محتوای تولید شده توسط هوش مصنوعی وجود دارد.

تعدادی از اهداف برای سال 2024 تعیین شده است. این اهداف شامل ایجاد یک جعبه ایمنی هوش مصنوعی است که در آن کاربران DHS می توانند با این فناوری بازی کنند و استخدام 50 متخصص هوش مصنوعی. همچنین یک تمرین HackDHS را در نظر گرفته است که در آن محققان تایید شده وظیفه یافتن آسیب‌پذیری‌ها در سیستم‌های آن را خواهند داشت. ®

تمبر زمان:

بیشتر از ثبت نام