Deepfake Democracy: เทคโนโลยี AI ทำให้การรักษาความปลอดภัยในการเลือกตั้งมีความซับซ้อน

Deepfake Democracy: เทคโนโลยี AI ทำให้การรักษาความปลอดภัยในการเลือกตั้งมีความซับซ้อน

Deepfake Democracy: เทคโนโลยี AI ทำให้การรักษาความปลอดภัยการเลือกตั้งมีความซับซ้อน PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

เหตุการณ์ล่าสุด รวมถึง Deepfake ที่สร้างโดยปัญญาประดิษฐ์ (AI) robocall แอบอ้างเป็นประธานาธิบดีไบเดน การเรียกร้องให้ผู้มีสิทธิเลือกตั้งในรัฐนิวแฮมป์เชียร์งดเว้นจากการเลือกตั้งขั้นต้น ถือเป็นเครื่องเตือนใจว่าผู้ประสงค์ร้ายมองว่าแพลตฟอร์ม Generative AI (GenAI) สมัยใหม่เป็นอาวุธที่มีศักยภาพในการกำหนดเป้าหมายการเลือกตั้งสหรัฐฯ มากขึ้น

แพลตฟอร์มเช่น ChatGPT, Gemini ของ Google (เดิมชื่อ Bard) หรือโมเดลภาษาขนาดใหญ่ (LLM) ของ Dark Web ที่สร้างขึ้นตามวัตถุประสงค์จำนวนเท่าใดก็ได้ อาจมีบทบาทในการขัดขวางกระบวนการประชาธิปไตย ด้วยการโจมตีที่ครอบคลุมแคมเปญที่มีอิทธิพลมวลชน การหมุนรอบอัตโนมัติ และการแพร่กระจายของ เนื้อหาที่เป็นการปลอมแปลงอย่างลึกซึ้ง

อันที่จริง ผู้อำนวยการ FBI คริสโตเฟอร์ เรย์ เมื่อเร็ว ๆ นี้แสดงความกังวล เกี่ยวกับสงครามข้อมูลที่กำลังดำเนินอยู่โดยใช้ Deepfakes ที่อาจหว่านข้อมูลบิดเบือนในระหว่างการหาเสียงของประธานาธิบดีที่กำลังจะมาถึง เช่น นักแสดงที่ได้รับการสนับสนุนจากรัฐ พยายามบิดเบือนสมดุลทางภูมิรัฐศาสตร์

GenAI ยังสามารถทำให้การเพิ่มขึ้นของ “พฤติกรรมที่ผิดประสานกัน” เครือข่ายที่พยายามพัฒนาผู้ชมสำหรับการรณรงค์บิดเบือนข้อมูลผ่านทางสำนักข่าวปลอม โปรไฟล์โซเชียลมีเดียที่น่าเชื่อถือ และช่องทางอื่นๆ โดยมีเป้าหมายเพื่อหว่านความขัดแย้งและบ่อนทำลายความไว้วางใจของสาธารณชนในกระบวนการเลือกตั้ง

อิทธิพลของการเลือกตั้ง: ความเสี่ยงและสถานการณ์ฝันร้ายที่สำคัญ

จากมุมมองของ Padraic O'Reilly ประธานเจ้าหน้าที่ฝ่ายนวัตกรรมของ CyberSaint ความเสี่ยงนั้น “สำคัญมาก” เนื่องจากเทคโนโลยีมีการพัฒนาอย่างรวดเร็ว

“มันสัญญาว่าจะน่าสนใจและอาจจะน่าตกใจเล็กน้อยเช่นกัน เนื่องจากเราเห็นรูปแบบใหม่ของข้อมูลที่บิดเบือนซึ่งใช้ประโยชน์จากเทคโนโลยี Deepfake” เขากล่าว

โดยเฉพาะอย่างยิ่ง O'Reilly กล่าวว่า “สถานการณ์ฝันร้าย” คือการกำหนดเป้าหมายย่อยด้วยเนื้อหาที่สร้างโดย AI จะแพร่หลายบนแพลตฟอร์มโซเชียลมีเดีย นั่นเป็นกลยุทธ์ที่คุ้นเคยจาก เรื่องอื้อฉาว Cambridge Analyticaโดยบริษัทได้รวบรวมข้อมูลโปรไฟล์ทางจิตวิทยาของผู้ลงคะแนนเสียงในสหรัฐฯ จำนวน 230 ล้านคน เพื่อให้บริการข้อความที่ได้รับการปรับแต่งเป็นพิเศษผ่าน Facebook ให้กับแต่ละบุคคลเพื่อพยายามโน้มน้าวความเชื่อและการลงคะแนนเสียงของพวกเขา แต่ GenAI สามารถทำให้กระบวนการนั้นเป็นอัตโนมัติในวงกว้าง และสร้างเนื้อหาที่น่าเชื่อถือสูงซึ่งอาจมีลักษณะ "บอท" เพียงเล็กน้อย (ถ้ามี) ที่อาจทำให้ผู้คนเลิกสนใจได้

“ข้อมูลการกำหนดเป้าหมายที่ถูกขโมย [ภาพรวมบุคลิกภาพของผู้ใช้และความสนใจของพวกเขา] รวมกับเนื้อหาที่สร้างโดย AI ถือเป็นความเสี่ยงที่แท้จริง” เขาอธิบาย “แคมเปญบิดเบือนข้อมูลของรัสเซียในปี 2013-2017 เป็นการชี้นำถึงสิ่งที่อาจเกิดขึ้นและจะเกิดขึ้นอีก และเราทราบดีถึงการปลอมแปลงข้อมูลโดยพลเมืองสหรัฐฯ (เช่นเดียวกับที่) มีไบเดนร่วมแสดงด้วย และ วอร์เรนลิซาเบ ธ".

การผสมผสานของโซเชียลมีเดียและ เทคโนโลยี Deepfake ที่หาได้ง่าย อาจเป็นอาวุธวันโลกาวินาศสำหรับการแบ่งแยกขั้วของพลเมืองสหรัฐฯ ในประเทศที่มีการแบ่งแยกอย่างลึกซึ้งอยู่แล้ว เขากล่าวเสริม

“ประชาธิปไตยถูกกำหนดไว้ล่วงหน้าจากประเพณีและข้อมูลบางอย่างที่มีร่วมกัน และอันตรายที่นี่คือการทำให้ประชาชนสับสนมากขึ้น ซึ่งนำไปสู่สิ่งที่นักวิจัยจากมหาวิทยาลัยสแตนฟอร์ด เรอเน ดิเรสตา เรียกว่า 'ความเป็นจริงตามความต้องการ'” O'Reilly กล่าว หรือที่รู้จักในชื่อผู้คนที่เชื่อใน "ข้อเท็จจริงทางเลือก"

แพลตฟอร์มที่นักแสดงที่เป็นภัยคุกคามใช้เพื่อหว่านการแบ่งแยกมีแนวโน้มที่จะช่วยได้เพียงเล็กน้อย: เขาเสริมว่า ตัวอย่างเช่น แพลตฟอร์มโซเชียลมีเดีย X ซึ่งเดิมชื่อ Twitter ได้ใช้การประกันคุณภาพ (QA) ในเนื้อหาแล้ว

“แพลตฟอร์มอื่นๆ ได้ให้การรับรองเบื้องต้นว่าพวกเขาจะจัดการกับข้อมูลที่บิดเบือน แต่การปกป้องเสรีภาพในการพูดและการขาดกฎระเบียบยังคงเปิดกว้างสำหรับนักแสดงที่ไม่ดี” เขาเตือน

AI ขยาย TTP ฟิชชิ่งที่มีอยู่

GenAI ถูกนำมาใช้เพื่อสร้างแคมเปญฟิชชิ่งที่น่าเชื่อถือและกำหนดเป้าหมายในวงกว้าง แต่ในบริบทของความมั่นคงในการเลือกตั้ง ปรากฏการณ์ดังกล่าวเป็นเหตุการณ์ที่น่ากังวลมากกว่า ตามที่ Scott Small ผู้อำนวยการฝ่ายข่าวกรองภัยคุกคามทางไซเบอร์ของ Tidal Cyber ​​กล่าว

“เราคาดหวังว่าจะได้เห็นศัตรูทางไซเบอร์นำ AI เจนเนอเรชั่นมาใช้ในการโจมตีแบบฟิชชิ่งและวิศวกรรมสังคม ซึ่งเป็นรูปแบบชั้นนำของการโจมตีที่เกี่ยวข้องกับการเลือกตั้งในแง่ของปริมาณที่สม่ำเสมอตลอดหลายปีที่ผ่านมา น่าเชื่อถือมากขึ้น ทำให้มีแนวโน้มมากขึ้นที่เป้าหมายจะโต้ตอบกับเนื้อหาที่เป็นอันตราย ” เขาอธิบาย

Small กล่าวว่าการนำ AI มาใช้ยังช่วยลดอุปสรรคในการเข้าสู่การโจมตีดังกล่าว ซึ่งเป็นปัจจัยที่มีแนวโน้มที่จะเพิ่มปริมาณแคมเปญในปีนี้ที่พยายามแทรกซึมแคมเปญหรือเข้าครอบครองบัญชีของผู้สมัครเพื่อจุดประสงค์ในการแอบอ้างบุคคลอื่น

“ศัตรูทางอาญาและรัฐชาติมักจะดัดแปลงฟิชชิ่งและวิศวกรรมสังคมให้เข้ากับเหตุการณ์ปัจจุบันและธีมยอดนิยม และผู้แสดงเหล่านี้จะพยายามใช้ประโยชน์จากเนื้อหาดิจิทัลที่เกี่ยวข้องกับการเลือกตั้งที่ได้รับความนิยมอย่างรวดเร็วซึ่งเผยแพร่โดยทั่วไปในปีนี้ เพื่อพยายามส่งมอบที่เป็นอันตราย เนื้อหาสำหรับผู้ใช้ที่ไม่สงสัย” เขากล่าว

การป้องกันการคุกคามจากการเลือกตั้งของ AI

เพื่อป้องกันภัยคุกคามเหล่านี้ เจ้าหน้าที่การเลือกตั้งและการรณรงค์ต้องตระหนักถึงความเสี่ยงที่ขับเคลื่อนโดย GenAI และวิธีป้องกัน

“เจ้าหน้าที่การเลือกตั้งและผู้สมัครให้สัมภาษณ์และแถลงข่าวอยู่ตลอดเวลาว่าผู้แสดงภัยคุกคามสามารถดึงเสียงจาก Deepfakes ที่ใช้ AI ได้” James Turgal รองประธานฝ่ายความเสี่ยงทางไซเบอร์ของ Optiv กล่าว “ดังนั้นจึงเป็นหน้าที่ของพวกเขาที่จะต้องแน่ใจว่าพวกเขามีบุคคลหรือทีมงานที่รับผิดชอบในการควบคุมเนื้อหา”

พวกเขายังต้องตรวจสอบให้แน่ใจว่าอาสาสมัครและพนักงานได้รับการฝึกอบรมเกี่ยวกับภัยคุกคามที่ขับเคลื่อนด้วย AI เช่น วิศวกรรมสังคมที่ได้รับการปรับปรุง ผู้แสดงภัยคุกคามที่อยู่เบื้องหลังพวกเขา และวิธีการตอบสนองต่อกิจกรรมที่น่าสงสัย

ด้วยเหตุนี้ เจ้าหน้าที่ควรมีส่วนร่วมในการฝึกอบรมด้านวิศวกรรมสังคมและวิดีโอ Deepfake ซึ่งรวมถึงข้อมูลเกี่ยวกับรูปแบบและรูปแบบการโจมตีทั้งหมด รวมถึงทางอิเล็กทรอนิกส์ (อีเมล ข้อความ และแพลตฟอร์มโซเชียลมีเดีย) ความพยายามด้วยตนเองและทางโทรศัพท์

“สิ่งนี้สำคัญมาก โดยเฉพาะกับอาสาสมัคร เพราะไม่ใช่ทุกคนที่มีสุขอนามัยทางไซเบอร์ที่ดี” Turgal กล่าว

นอกจากนี้ อาสาสมัครรณรงค์หาเสียงและการเลือกตั้งจะต้องได้รับการฝึกอบรมเกี่ยวกับวิธีการให้ข้อมูลอย่างปลอดภัยทางออนไลน์และแก่หน่วยงานภายนอก รวมถึงโพสต์บนโซเชียลมีเดีย และใช้ความระมัดระวังเมื่อทำเช่นนั้น

“ผู้แสดงภัยคุกคามทางไซเบอร์สามารถรวบรวมข้อมูลนี้เพื่อปรับแต่งเหยื่อล่อที่ได้รับการออกแบบทางวิศวกรรมทางสังคมให้ตรงกับเป้าหมายเฉพาะ” เขาเตือน

O'Reilly กล่าวว่าในระยะยาว กฎระเบียบที่รวมถึง ลายน้ำสำหรับเสียงและวิดีโอที่ลึกล้ำ จะเป็นประโยชน์ โดยสังเกตว่ารัฐบาลกลางกำลังทำงานร่วมกับเจ้าของ LLM เพื่อนำความคุ้มครองไปใช้

ในความเป็นจริง คณะกรรมการกลางกำกับดูแลกิจการสื่อสาร (FCC) เพิ่งประกาศ การโทรด้วยเสียงที่สร้างโดย AI ถือเป็น "เทียม" ภายใต้พระราชบัญญัติคุ้มครองผู้บริโภคทางโทรศัพท์ (TCPA) ทำให้การใช้เทคโนโลยีโคลนนิ่งเสียงเป็นสิ่งผิดกฎหมาย และมอบเครื่องมือใหม่ให้กับอัยการสูงสุดทั่วประเทศเพื่อต่อสู้กับกิจกรรมฉ้อโกงดังกล่าว

“AI กำลังดำเนินไปอย่างรวดเร็วจนมีอันตรายโดยธรรมชาติที่กฎที่เสนอไว้อาจไม่มีประสิทธิภาพเนื่องจากความก้าวหน้าทางเทคโนโลยี และอาจพลาดเป้าหมาย” O'Reilly กล่าว “ในบางแง่ มันเป็น Wild West และ AI กำลังออกสู่ตลาดโดยมีมาตรการป้องกันน้อยมาก”

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด