Deepfake Democracy: טכנולוגיית בינה מלאכותית מסבכת את אבטחת הבחירות

Deepfake Democracy: טכנולוגיית בינה מלאכותית מסבכת את אבטחת הבחירות

Deepfake Democracy: טכנולוגיית AI מסבכת את אבטחת הבחירות של PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

אירועים אחרונים, כולל זיוף עמוק שנוצר על ידי בינה מלאכותית (AI). רובוקאל מתחזה לנשיא ביידן קורא למצביעים בניו המפשייר להימנע מהפריימריז, משמשת תזכורת ברורה לכך ששחקנים זדוניים רואים יותר ויותר בפלטפורמות AI (GenAI) מודרניות נשק רב עוצמה להתמקדות בבחירות בארה"ב.

פלטפורמות כמו ChatGPT, Gemini של גוגל (לשעבר בארד), או כל מספר של מודלים של שפה כהה (LLMs) בנוי ייעודי עשויות למלא תפקיד בשיבוש התהליך הדמוקרטי, עם התקפות הכוללות קמפיינים להשפעה המונית, טרולים אוטומטיים והתפשטות של תוכן מזויף עמוק.

למעשה, ראש ה-FBI כריסטופר ריי לאחרונה הביעו חששות על לוחמת מידע מתמשכת באמצעות זיופים עמוקים שעלולים לזרוע דיסאינפורמציה במהלך הקמפיין לנשיאות הקרוב, כמו שחקנים הנתמכים על ידי המדינה ניסיון להשפיע על איזונים גיאופוליטיים.

GenAI יכול גם להפוך את העלייה של "התנהגות לא אותנטית מתואמת"רשתות שמנסות לפתח קהלים לקמפיינים של דיסאינפורמציה שלהם באמצעות ערוצי חדשות מזויפות, פרופילים של מדיה חברתית משכנעת ואפיקים אחרים - במטרה לזרוע מחלוקת ולערער את אמון הציבור בתהליך הבחירות.

השפעת בחירות: סיכונים מהותיים ותרחישי סיוט

מנקודת המבט של Padraic O'Reilly, מנהל החדשנות הראשי של CyberSaint, הסיכון הוא "משמעותי" מכיוון שהטכנולוגיה מתפתחת כל כך מהר.

"זה מבטיח להיות מעניין ואולי גם קצת מדאיג, מכיוון שאנו רואים גרסאות חדשות של דיסאינפורמציה הממנפות טכנולוגיית זיוף עמוק", הוא אומר.

באופן ספציפי, אומר אוריילי, "תרחיש הסיוט" הוא שמיקרו-טירגוט עם תוכן שנוצר בינה מלאכותית יתרבה בפלטפורמות המדיה החברתית. זו טקטיקה מוכרת מה- קיימברידג 'אנליטיקה שערורייה, שם החברה צברה נתוני פרופיל פסיכולוגי על 230 מיליון מצביעים בארה"ב, על מנת להגיש הודעות מותאמות במיוחד דרך פייסבוק לאנשים בודדים בניסיון להשפיע על אמונותיהם - וההצבעות. אבל GenAI יכול להפוך את התהליך הזה לאוטומטי בקנה מידה, וליצור תוכן מאוד משכנע שיהיו לו מעט, אם בכלל, מאפיינים של "בוטים" שיכולים לכבות אנשים.

"נתוני מיקוד גנובים [תמונות אישיות של מיהו המשתמש ותחומי העניין שלו] שהתמזגו עם תוכן שנוצר בינה מלאכותית הם סיכון אמיתי", הוא מסביר. "מסעות הדיסאינפורמציה הרוסיים של 2013–2017 מרמזים על מה עוד יכול ויקרה, ואנו יודעים על זיופים עמוקים שנוצרו על ידי אזרחי ארה"ב [כמו זה] בהשתתפות ביידן, ו אליזבת וורן".

השילוב של מדיה חברתית ו טכנולוגיית deepfake זמינה יכול להיות נשק יום הדין לקיטוב של אזרחי ארה"ב במדינה מחולקת ממילא עמוקה, הוא מוסיף.

"הדמוקרטיה מבוססת על מסורות ומידע משותפים מסוימים, והסכנה כאן היא הגברת הבלקניזציה בין האזרחים, מה שמוביל למה שהחוקרת מסטנפורד רנה דירסטה כינתה 'מציאות בהתאמה אישית'", אומר אוריילי, הלא הוא אנשים המאמינים ב"עובדות חלופיות".

הפלטפורמות שבהן משתמשים שחקני איומים כדי לזרוע חלוקה יעזרו ככל הנראה מעט: הוא מוסיף, למשל, פלטפורמת המדיה החברתית X, שנודעה בעבר כ-Twitter, ביטלה את אבטחת האיכות (QA) שלה לגבי תוכן.

"הפלטפורמות האחרות סיפקו הבטחות שהן יטפלו בדיסאינפורמציה, אבל הגנות חופש הביטוי והיעדר רגולציה עדיין משאירים את התחום פתוח לרווחה עבור שחקנים רעים", הוא מזהיר.

AI מגביר TTPs הקיימים של פישינג

כבר נעשה שימוש ב-GenAI ליצירת קמפיינים דיוגים אמינים וממוקדים יותר בקנה מידה - אבל בהקשר של אבטחת בחירות התופעה הזו מדאיגה יותר, לדברי סקוט סמול, מנהל מודיעין איומי סייבר ב-Tidal Cyber.

"אנו מצפים לראות יריבי סייבר מאמצים בינה מלאכותית גנרטיבית כדי להפוך התקפות פישינג והנדסה חברתית - הצורות המובילות של התקפות הקשורות לבחירות במונחים של נפח עקבי לאורך שנים רבות - למשכנעות יותר, מה שמגדיל את הסבירות שהמטרות יתקשרו עם תוכן זדוני, " הוא מסביר.

סמול אומר שאימוץ AI גם מוריד את מחסום הכניסה להפעלת התקפות כאלה, גורם שעשוי להגדיל את נפח הקמפיינים השנה שמנסים לחדור לקמפיינים או להשתלט על חשבונות מועמדים למטרות התחזות, בין היתר.

"יריבים פושעים ומדינות לאום מתאימים באופן קבוע פתיונות דיוג והנדסה חברתית לאירועים עכשוויים ולנושאים פופולריים, ושחקנים אלה ינסו כמעט בוודאות לנצל את הפריחה בתוכן דיגיטלי הקשור לבחירות המופץ בדרך כלל השנה, כדי לנסות לספק זדוני תוכן למשתמשים תמימים", הוא אומר.

הגנה מפני איומי בחירות בינה מלאכותית

כדי להתגונן מפני איומים אלה, פקידי בחירות וקמפיינים חייבים להיות מודעים לסיכונים המופעלים על ידי GenAI וכיצד להתגונן מפניהם.

"פקידי בחירות ומועמדים מעניקים ללא הרף ראיונות ומסיבות עיתונאים ששחקני איומים יכולים לשלוף מהם נגיסות קוליות עבור זיופים עמוקים מבוססי בינה מלאכותית", אומר ג'יימס טורגל, סגן נשיא לסיכוני סייבר ב-Optiv. "לכן, מוטלת עליהם החובה לוודא שיש להם אדם או צוות שאחראי על הבטחת השליטה בתוכן."

הם גם חייבים לוודא שמתנדבים ועובדים מאומנים על איומים המופעלים על ידי בינה מלאכותית כמו הנדסה חברתית משופרת, גורמי האיום שמאחוריהם וכיצד להגיב לפעילות חשודה.

לשם כך, הצוות צריך להשתתף בהנדסה חברתית ובהדרכות וידאו עמוקות הכוללות מידע על כל הטפסים והוקטורים לתקיפה, כולל אלקטרוני (אימייל, טקסט ופלטפורמות מדיה חברתית), ניסיונות אישיים וטלפוניים.

"זה כל כך חשוב - במיוחד עם מתנדבים - כי לא לכולם יש היגיינת סייבר טובה", אומר טורגל.

בנוסף, יש להכשיר את מתנדבי הקמפיין והבחירות כיצד לספק מידע בצורה בטוחה באינטרנט ולישויות חיצוניות, כולל פוסטים במדיה חברתית, ולהשתמש בזהירות כאשר עושים זאת.

"שחקני איומי סייבר יכולים לאסוף את המידע הזה כדי להתאים פתיונות מהונדסים חברתית למטרות ספציפיות", הוא מזהיר.

אוריילי אומר לטווח ארוך, רגולציה הכוללת סימון מים עבור זיופים עמוקים של אודיו ווידאו יהיה אינסטרומנטלי, וציין שהממשלה הפדרלית עובדת עם הבעלים של LLMs כדי להציב הגנות.

למעשה, ועדת התקשורת הפדרלית (FCC) הכריזה זה עתה שיחות קוליות שנוצרו על ידי בינה מלאכותית כ"מלאכותיות" במסגרת חוק הגנת צרכן הטלפון (TCPA), עושות שימוש בטכנולוגיית שיבוט קול בלתי חוקי ומספקות לפרקליטות המדינה בפריסה ארצית כלים חדשים להילחם בפעילויות הונאה שכאלו.

"AI נע כל כך מהר שיש סכנה מובנית שכל כללים מוצעים עלולים להפוך לבלתי יעילים ככל שהטכנולוגיה מתקדמת, ועלולה להחמיץ את המטרה", אומר אוריילי. "במובנים מסוימים, זה המערב הפרוע, ובינה מלאכותית מגיעה לשוק עם מעט מאוד אמצעי הגנה."

בול זמן:

עוד מ קריאה אפלה