دموکراسی عمیق: فناوری هوش مصنوعی امنیت انتخابات را پیچیده می کند

دموکراسی عمیق: فناوری هوش مصنوعی امنیت انتخابات را پیچیده می کند

دموکراسی Deepfake: فناوری هوش مصنوعی امنیت انتخابات را پیچیده می کند، اطلاعات پلاتو بلاک چین. جستجوی عمودی Ai.

رویدادهای اخیر، از جمله یک دیپ فیک ایجاد شده توسط هوش مصنوعی (AI). فراخوانی کاذب با جعل هویت رئیس جمهور بایدن ترغیب رای دهندگان نیوهمپشایر به پرهیز از انتخابات مقدماتی، یادآور این نکته است که بازیگران بدخواه به طور فزاینده ای پلتفرم های هوش مصنوعی مولد مدرن (GenAI) را به عنوان سلاحی قوی برای هدف قرار دادن انتخابات ایالات متحده می بینند.

پلتفرم‌هایی مانند ChatGPT، Google's Gemini (بارد سابق)، یا هر تعداد از مدل‌های زبان بزرگ دارک وب (LLM) می‌توانند نقش مهمی در ایجاد اختلال در روند دموکراتیک، با حملاتی که شامل کمپین‌های نفوذ انبوه، ترولینگ خودکار، و تکثیر محتوای دیپ فیک

در واقع، کریستوفر رای، مدیر اف بی آی اخیراً نگرانی هایی را ابراز کرده است در مورد جنگ اطلاعاتی جاری با استفاده از دیپ فیک هایی که می تواند اطلاعات نادرست را در طول مبارزات انتخاباتی ریاست جمهوری آینده بکارد، بازیگران مورد حمایت دولت تلاش برای تغییر موازنه های ژئوپلیتیکی

GenAI همچنین می تواند افزایش "رفتار غیر اصیل هماهنگشبکه‌هایی که تلاش می‌کنند از طریق رسانه‌های اخبار جعلی، نمایه‌های رسانه‌های اجتماعی متقاعدکننده، و سایر راه‌ها، مخاطبانی را برای کمپین‌های اطلاعات نادرست خود ایجاد کنند - با هدف ایجاد اختلاف و تضعیف اعتماد عمومی در روند انتخابات.

تأثیر انتخابات: خطرات اساسی و سناریوهای کابوس

از دیدگاه Padraic O'Reilly، مدیر ارشد نوآوری CyberSaint، خطر "قابل توجه" است زیرا این فناوری به سرعت در حال پیشرفت است.

او می‌گوید: «این نوید می‌دهد که جالب و شاید کمی نگران‌کننده نیز باشد، زیرا انواع جدیدی از اطلاعات نادرست را می‌بینیم که از فناوری دیپ‌فیک استفاده می‌کنند.

به طور خاص، اوریلی می گوید، "سناریوی کابوس" این است که هدف گذاری خرد با محتوای تولید شده توسط هوش مصنوعی در پلت فرم های رسانه های اجتماعی گسترش می یابد. این یک تاکتیک آشنا از طرف است رسوایی Cambridge Analtica، جایی که این شرکت داده های پروفایل روانشناختی 230 میلیون رای دهنده آمریکایی را جمع آوری کرد تا از طریق فیس بوک پیام های بسیار مناسبی را در اختیار افراد قرار دهد تا بر عقاید - و آرای آنها تأثیر بگذارد. اما GenAI می‌تواند این فرآیند را در مقیاس خودکار کند و محتوای بسیار قانع‌کننده‌ای ایجاد کند که ویژگی‌های «ربات» کمی داشته باشد که می‌تواند مردم را خاموش کند.

او توضیح می‌دهد: «داده‌های هدف‌گیری دزدیده شده [عکس‌های فوری شخصیتی از شخصیت کاربر و علایق آن‌ها] که با محتوای تولید شده توسط هوش مصنوعی ادغام شده‌اند، یک خطر واقعی است. کمپین‌های اطلاعات نادرست روسیه در سال‌های 2013 تا 2017 نشان‌دهنده چیزهای دیگری است که می‌تواند رخ دهد و اتفاق خواهد افتاد، و ما از دروغ‌های عمیقی که توسط شهروندان آمریکایی [مانند موردی] که بایدن را نشان می‌دهد، می‌دانیم. الیزابت وارن"

ترکیبی از رسانه های اجتماعی و فناوری دیپ فیک به راحتی در دسترس است او می‌افزاید که می‌تواند یک سلاح روز قیامت برای قطبی‌سازی شهروندان ایالات متحده در کشوری باشد که از قبل عمیقاً تقسیم شده است.

اوریلی می‌گوید: «دموکراسی مبتنی بر سنت‌ها و اطلاعات مشترک است، و خطر در اینجا افزایش بالکانیزاسیون در میان شهروندان است، که منجر به چیزی می‌شود که رنه دی‌رستا، محقق استنفورد آن را «واقعیت‌های سفارشی» می‌نامد، که همان افراد معتقد به «واقعیت‌های جایگزین» هستند.

پلتفرم هایی که بازیگران تهدید برای ایجاد تفرقه از آنها استفاده می کنند احتمالاً کمک چندانی نخواهد کرد: او اضافه می کند که برای مثال، پلتفرم رسانه اجتماعی X، که قبلاً توییتر نامیده می شد، تضمین کیفیت (QA) خود را در محتوا از بین برده است.

او هشدار می‌دهد: «سایر پلت‌فرم‌ها تضمین‌هایی را ارائه کرده‌اند که به اطلاعات نادرست رسیدگی خواهند کرد، اما حفاظت از آزادی بیان و فقدان مقررات همچنان عرصه را برای بازیگران بد باز می‌گذارد».

هوش مصنوعی TTP های فیشینگ موجود را تقویت می کند

به گفته اسکات اسمال، مدیر اطلاعات تهدیدات سایبری در Tidal Cyber، GenAI در حال حاضر برای ایجاد کمپین های فیشینگ هدفمندتر و قابل باورتر در مقیاس مورد استفاده قرار می گیرد - اما در زمینه امنیت انتخابات، این پدیده بیشتر نگران کننده است.

ما انتظار داریم که دشمنان سایبری هوش مصنوعی مولد را اتخاذ کنند تا حملات فیشینگ و مهندسی اجتماعی - اشکال اصلی حملات مرتبط با انتخابات از نظر حجم ثابت در طی سالیان متمادی - قانع‌کننده‌تر باشد و احتمال تعامل اهداف با محتوای مخرب را افزایش دهد. " او توضیح می دهد.

اسمال می‌گوید که استفاده از هوش مصنوعی همچنین مانع ورود به چنین حملاتی را کاهش می‌دهد، عاملی که احتمالاً باعث افزایش حجم کمپین‌هایی در سال جاری می‌شود که سعی در نفوذ به کمپین‌ها یا تسخیر حساب‌های نامزد برای اهداف جعل هویت، از جمله دیگر پتانسیل‌ها دارد.

«متخاصمان جنایتکار و دولت-ملت به طور منظم فریب های فیشینگ و مهندسی اجتماعی را با رویدادهای جاری و مضامین رایج تطبیق می دهند، و این بازیگران تقریباً به طور قطع سعی خواهند کرد از رونق محتوای دیجیتالی مرتبط با انتخابات که به طور کلی در سال جاری توزیع می شود، سرمایه گذاری کنند و سعی در ارائه مخرب کنند. محتوا برای کاربران ناآگاه،” او می گوید.

دفاع در برابر تهدیدات انتخاباتی هوش مصنوعی

برای دفاع در برابر این تهدیدات، مقامات و کمپین های انتخاباتی باید از خطرات GenAI و نحوه دفاع در برابر آنها آگاه باشند.

جیمز تورگال، معاون ریسک سایبری در Optiv می‌گوید: «مقامات انتخاباتی و نامزدها دائماً مصاحبه‌ها و کنفرانس‌های مطبوعاتی می‌دهند که بازیگران تهدید می‌توانند از آن‌ها برای دیپ‌فیک‌های مبتنی بر هوش مصنوعی استفاده کنند. بنابراین، این وظیفه آنهاست که مطمئن شوند که یک فرد یا تیم مسئول کنترل محتوا را دارند.»

آنها همچنین باید مطمئن شوند که داوطلبان و کارگران در مورد تهدیدات مبتنی بر هوش مصنوعی مانند مهندسی اجتماعی پیشرفته، عوامل تهدید پشت سر آنها و نحوه واکنش به فعالیت های مشکوک آموزش دیده اند.

برای این منظور، کارکنان باید در آموزش مهندسی اجتماعی و ویدیوی عمیق جعلی که شامل اطلاعاتی درباره همه اشکال و بردارهای حمله، از جمله الکترونیکی (ایمیل، متن و پلتفرم‌های رسانه‌های اجتماعی)، تلاش‌های حضوری و تلفنی است، شرکت کنند.

تورگال می‌گوید: «این بسیار مهم است - به ویژه در مورد داوطلبان - زیرا همه از بهداشت سایبری خوبی برخوردار نیستند.

علاوه بر این، داوطلبان مبارزات انتخاباتی و انتخاباتی باید در مورد نحوه ارائه ایمن اطلاعات به صورت آنلاین و سازمان های خارجی، از جمله پست های رسانه های اجتماعی، آموزش ببینند و در انجام این کار احتیاط کنند.

او هشدار می‌دهد: «بازیگران تهدید سایبری می‌توانند این اطلاعات را جمع‌آوری کنند تا فریب‌های مهندسی شده اجتماعی را برای اهداف خاص طراحی کنند.

اوریلی می گوید طولانی مدت، مقرراتی که شامل واترمارک برای دیپ فیک های صوتی و تصویری با توجه به اینکه دولت فدرال در حال همکاری با صاحبان LLM برای اعمال حفاظت است، بسیار مفید خواهد بود.

در واقع، کمیسیون ارتباطات فدرال (FCC) به تازگی اعلام کرده است تماس‌های صوتی ایجاد شده توسط هوش مصنوعی تحت قانون حمایت از مصرف‌کننده تلفنی (TCPA)، استفاده از فناوری شبیه‌سازی صدا را غیرقانونی می‌کند و ابزارهای جدیدی را برای مبارزه با چنین فعالیت‌های کلاهبرداری به دادستان‌های کل کشور در سراسر کشور ارائه می‌دهد.

اوریلی می‌گوید: «هوش مصنوعی به‌قدری سریع حرکت می‌کند که این خطر ذاتی وجود دارد که قوانین پیشنهادی ممکن است با پیشرفت فناوری ناکارآمد شوند و به طور بالقوه هدف را از دست بدهند. از برخی جهات، این غرب وحشی است و هوش مصنوعی با پادمانی بسیار کمی به بازار می آید.»

تمبر زمان:

بیشتر از تاریک خواندن