Dân chủ Deepfake: Công nghệ AI làm phức tạp an ninh bầu cử

Dân chủ Deepfake: Công nghệ AI làm phức tạp an ninh bầu cử

Dân chủ Deepfake: Công nghệ AI làm phức tạp an ninh bầu cử Trí thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Các sự kiện gần đây, bao gồm cả deepfake do trí tuệ nhân tạo (AI) tạo ra robocall mạo danh Tổng thống Biden kêu gọi cử tri New Hampshire bỏ phiếu trắng trong cuộc bầu cử sơ bộ, đóng vai trò như một lời nhắc nhở rõ ràng rằng những kẻ độc hại ngày càng coi nền tảng AI (GenAI) hiện đại như một vũ khí mạnh mẽ để nhắm mục tiêu vào các cuộc bầu cử ở Hoa Kỳ.

Các nền tảng như ChatGPT, Gemini của Google (trước đây là Bard) hoặc bất kỳ mô hình ngôn ngữ lớn (LLM) Dark Web nào được xây dựng có mục đích đều có thể đóng vai trò phá vỡ tiến trình dân chủ, với các cuộc tấn công bao gồm các chiến dịch gây ảnh hưởng đại chúng, troll tự động và sự phổ biến của nội dung giả mạo sâu.

Trên thực tế, Giám đốc FBI Christopher Wray gần đây đã lên tiếng lo ngại về cuộc chiến thông tin đang diễn ra bằng cách sử dụng deepfake có thể gieo rắc thông tin sai lệch trong chiến dịch tranh cử tổng thống sắp tới, như các tác nhân được nhà nước hậu thuẫn cố gắng làm thay đổi cán cân địa chính trị.

GenAI cũng có thể tự động hóa sự phát triển của “phối hợp hành vi không xác thực” các mạng cố gắng phát triển khán giả cho các chiến dịch đưa thông tin sai lệch của họ thông qua các hãng tin giả, hồ sơ thuyết phục trên mạng xã hội và các con đường khác - với mục tiêu gây bất hòa và làm suy yếu niềm tin của công chúng vào quá trình bầu cử.

Ảnh hưởng bầu cử: Rủi ro đáng kể & Kịch bản ác mộng

Theo quan điểm của Padraic O'Reilly, giám đốc đổi mới của CyberSaint, rủi ro là “đáng kể” vì công nghệ đang phát triển quá nhanh.

Ông nói: “Nó hứa hẹn sẽ rất thú vị và có lẽ hơi đáng báo động khi chúng ta thấy các biến thể mới của thông tin sai lệch tận dụng công nghệ deepfake”.

Cụ thể, O'Reilly cho biết, “kịch bản ác mộng” là việc nhắm mục tiêu vi mô với nội dung do AI tạo ra sẽ phổ biến trên các nền tảng truyền thông xã hội. Đó là chiến thuật quen thuộc của Tranh chấp Cambridge Analytica, nơi công ty tích lũy dữ liệu hồ sơ tâm lý của 230 triệu cử tri Hoa Kỳ, để cung cấp tin nhắn phù hợp cao qua Facebook cho các cá nhân nhằm cố gắng tác động đến niềm tin của họ - và phiếu bầu. Nhưng GenAI có thể tự động hóa quy trình đó trên quy mô lớn và tạo ra nội dung có tính thuyết phục cao mà sẽ có rất ít đặc điểm “bot” có thể khiến mọi người chán nản, nếu có.

Ông giải thích: “Dữ liệu nhắm mục tiêu bị đánh cắp [ảnh chụp nhanh tính cách của người dùng và sở thích của họ] được kết hợp với nội dung do AI tạo ra là một rủi ro thực sự”. “Các chiến dịch thông tin sai lệch của Nga trong năm 2013–2017 gợi ý về những gì khác có thể và sẽ xảy ra, đồng thời chúng tôi biết về các tác phẩm giả mạo sâu do các công dân Hoa Kỳ tạo ra [như chiến dịch] có sự góp mặt của Biden, và Elizabeth Warren".

Sự kết hợp giữa truyền thông xã hội và công nghệ deepfake sẵn có Ông cho biết thêm, có thể là vũ khí ngày tận thế nhằm gây ra sự phân cực của công dân Mỹ ở một quốc gia vốn đã bị chia rẽ sâu sắc.

O'Reilly nói: “Nền dân chủ được xác định dựa trên những truyền thống và thông tin được chia sẻ nhất định, và mối nguy hiểm ở đây là sự phân chia vùng lãnh thổ ngày càng gia tăng giữa các công dân, dẫn đến điều mà nhà nghiên cứu Renée DiResta của Stanford gọi là 'thực tế riêng biệt'," O'Reilly nói, hay còn gọi là những người tin vào "sự thật thay thế".

Các nền tảng mà các tác nhân đe dọa sử dụng để gieo rắc sự chia rẽ có thể sẽ chẳng giúp ích được gì nhiều: Ông nói thêm rằng, chẳng hạn, nền tảng truyền thông xã hội X, trước đây gọi là Twitter, đã loại bỏ hoạt động đảm bảo chất lượng (QA) đối với nội dung.

Ông cảnh báo: “Các nền tảng khác đã đưa ra những đảm bảo ban đầu rằng họ sẽ giải quyết thông tin sai lệch, nhưng các biện pháp bảo vệ quyền tự do ngôn luận và việc thiếu quy định vẫn khiến lĩnh vực này rộng mở cho những kẻ xấu”.

AI khuếch đại các TTP lừa đảo hiện có

Theo Scott Small, giám đốc tình báo mối đe dọa mạng tại Tidal Cyber, GenAI hiện đang được sử dụng để tạo ra các chiến dịch lừa đảo có mục tiêu, đáng tin cậy hơn trên quy mô lớn — nhưng trong bối cảnh an ninh bầu cử, hiện tượng đó đáng lo ngại hơn.

“Chúng tôi hy vọng sẽ thấy những kẻ thù trên mạng áp dụng AI tổng hợp để thực hiện các cuộc tấn công lừa đảo và kỹ thuật xã hội – các hình thức tấn công liên quan đến bầu cử hàng đầu với số lượng nhất quán trong nhiều năm – thuyết phục hơn, khiến các mục tiêu có nhiều khả năng tương tác với nội dung độc hại hơn, " anh ấy giải thích.

Small cho biết việc áp dụng AI cũng làm giảm rào cản gia nhập để phát động các cuộc tấn công như vậy, một yếu tố có khả năng làm tăng số lượng các chiến dịch trong năm nay cố gắng xâm nhập vào các chiến dịch hoặc chiếm đoạt tài khoản ứng viên cho mục đích mạo danh, cùng các tiềm năng khác.

“Những kẻ thù hình sự và quốc gia thường xuyên điều chỉnh các chiêu dụ lừa đảo và kỹ thuật xã hội phù hợp với các sự kiện hiện tại và các chủ đề phổ biến, và những kẻ này gần như chắc chắn sẽ cố gắng tận dụng sự bùng nổ về nội dung kỹ thuật số liên quan đến bầu cử đang được phân phối nói chung trong năm nay, để cố gắng phát tán mã độc. nội dung cho những người dùng không nghi ngờ,” ông nói.

Bảo vệ chống lại các mối đe dọa bầu cử AI

Để chống lại những mối đe dọa này, các quan chức bầu cử và các chiến dịch tranh cử phải nhận thức được những rủi ro do GenAI gây ra và cách phòng chống chúng.

James Turgal, phó chủ tịch phụ trách rủi ro mạng tại Optiv cho biết: “Các quan chức bầu cử và các ứng cử viên liên tục thực hiện các cuộc phỏng vấn và họp báo mà các tác nhân đe dọa có thể tạo ra âm thanh từ các tác phẩm giả mạo sâu dựa trên AI”. “Do đó, họ có trách nhiệm đảm bảo rằng họ có một người hoặc nhóm chịu trách nhiệm đảm bảo kiểm soát nội dung.”

Họ cũng phải đảm bảo rằng các tình nguyện viên và nhân viên được đào tạo về các mối đe dọa do AI cung cấp như kỹ thuật xã hội nâng cao, các tác nhân đe dọa đằng sau chúng và cách ứng phó với hoạt động đáng ngờ.

Để đạt được mục tiêu đó, nhân viên nên tham gia khóa đào tạo về kỹ thuật xã hội và video deepfake bao gồm thông tin về tất cả các hình thức và vectơ tấn công, bao gồm các nền tảng điện tử (email, văn bản và mạng xã hội), các nỗ lực trực tiếp và qua điện thoại.

Turgal nói: “Điều này rất quan trọng — đặc biệt là với các tình nguyện viên — vì không phải ai cũng vệ sinh mạng tốt.

Ngoài ra, các tình nguyện viên chiến dịch và bầu cử phải được đào tạo về cách cung cấp thông tin trực tuyến một cách an toàn và cho các tổ chức bên ngoài, bao gồm các bài đăng trên mạng xã hội và phải thận trọng khi thực hiện việc đó.

Ông cảnh báo: “Các tác nhân đe dọa mạng có thể thu thập thông tin này để điều chỉnh các mồi nhử được thiết kế xã hội phù hợp với các mục tiêu cụ thể”.

O'Reilly nói về lâu dài, quy định bao gồm hình mờ cho âm thanh và video deepfake sẽ là công cụ, lưu ý rằng chính phủ Liên bang đang làm việc với chủ sở hữu LLM để đưa ra các biện pháp bảo vệ.

Trong thực tế, Ủy ban Truyền thông Liên bang (FCC) vừa tuyên bố Các cuộc gọi thoại do AI tạo ra được coi là "nhân tạo" theo Đạo luật bảo vệ người tiêu dùng điện thoại (TCPA), sử dụng công nghệ nhân bản giọng nói là bất hợp pháp và cung cấp cho tổng chưởng lý tiểu bang trên toàn quốc các công cụ mới để chống lại các hoạt động lừa đảo như vậy.

O'Reilly cho biết: “AI đang phát triển quá nhanh đến mức có nguy cơ cố hữu là bất kỳ quy tắc nào được đề xuất đều có thể trở nên không hiệu quả khi công nghệ tiến bộ, có khả năng trượt mục tiêu”. “Theo một cách nào đó, đó là miền Tây hoang dã và AI sắp được tung ra thị trường với rất ít biện pháp bảo vệ.”

Dấu thời gian:

Thêm từ Đọc tối