Deepfake 민주주의: AI 기술로 인해 선거 보안이 복잡해졌습니다.

Deepfake 민주주의: AI 기술로 인해 선거 보안이 복잡해졌습니다.

Deepfake 민주주의: AI 기술로 인해 선거 보안 PlatoBlockchain 데이터 인텔리전스가 복잡해졌습니다. 수직 검색. 일체 포함.

인공지능(AI)이 생성한 딥페이크를 포함한 최근 사건 바이든 대통령 사칭 로보콜 뉴햄프셔 유권자들에게 예비 선거에서 기권할 것을 촉구하는 것은 악의적인 행위자들이 점점 더 현대적인 생성 AI(GenAI) 플랫폼을 미국 선거를 표적으로 삼는 강력한 무기로 보고 있다는 사실을 극명하게 상기시키는 역할을 합니다.

ChatGPT, Google의 Gemini(이전 Bard) 또는 특정 목적으로 구축된 다양한 다크 웹 대형 언어 모델(LLM)과 같은 플랫폼은 대규모 영향력 캠페인, 자동화된 트롤링 및 확산을 포괄하는 공격을 통해 민주적 프로세스를 방해하는 역할을 할 수 있습니다. 딥페이크 콘텐츠.

실제로 크리스토퍼 레이 FBI 국장은 최근 우려의 목소리 다가오는 대선 캠페인 기간 동안 허위 정보를 뿌릴 수 있는 딥페이크를 사용한 진행 중인 정보 전쟁에 대해 국가가 지원하는 배우 지정학적 균형을 흔들려고 시도합니다.

GenAI는 또한 “조정 된 비진 실적 행동” 가짜 뉴스 매체, 설득력 있는 소셜 미디어 프로필 및 기타 방법을 통해 허위 정보 캠페인을 위한 청중을 개발하려고 시도하는 네트워크입니다. 이는 선거 과정에서 불화를 심고 대중의 신뢰를 약화시키는 것을 목표로 합니다.

선거 영향: 상당한 위험 및 악몽 시나리오

CyberSaint의 최고 혁신 책임자인 Padraic O'Reilly의 관점에서 볼 때 기술이 매우 빠르게 발전하고 있기 때문에 위험은 "상당한" 것입니다.

“딥페이크 기술을 활용한 허위 정보의 새로운 변종을 볼 수 있기 때문에 흥미롭기도 하고 다소 우려스러울 수도 있습니다.”라고 그는 말합니다.

특히 O'Reilly는 AI 생성 콘텐츠를 이용한 마이크로 타겟팅이 소셜 미디어 플랫폼에서 확산되는 것이 "악몽의 시나리오"라고 말합니다. 익숙한 전술이네요 Cambridge Analytica 추문, 회사는 개인의 신념과 투표에 영향을 미치기 위해 Facebook을 통해 개인에게 고도로 맞춤화된 메시지를 제공하기 위해 230억 XNUMX천만 명의 미국 유권자에 대한 심리 프로필 데이터를 축적했습니다. 그러나 GenAI는 해당 프로세스를 대규모로 자동화하고 사람들을 실망시킬 수 있는 "봇" 특성이 거의 없는 매우 설득력 있는 콘텐츠를 만들 수 있습니다.

“AI 생성 콘텐츠와 결합된 도난당한 타겟팅 데이터(사용자가 누구인지와 관심 분야에 대한 성격 스냅샷)는 실제로 위험합니다.”라고 그는 설명합니다. “2013~2017년 러시아의 허위 정보 캠페인은 또 어떤 일이 일어날 수 있는지 암시하고 있으며 우리는 Biden이 등장하는 것과 같은 미국 시민이 생성한 딥페이크에 대해 알고 있습니다. 엘리자베스 워렌. "

소셜미디어와 소셜미디어의 혼합 쉽게 이용할 수 있는 딥페이크 기술 그는 이미 심각하게 분열된 국가에서 미국 시민의 양극화를 위한 최후의 무기가 될 수 있다고 덧붙였습니다.

"민주주의는 특정 공유된 전통과 정보에 근거하고 있으며, 여기서 위험은 시민들 사이의 분열이 증가하여 스탠포드 연구원 Renée DiResta가 '맞춤형 현실'이라고 부르는 것으로 이어지는 것입니다."라고 O'Reilly는 말합니다. 사람들은 '대체 사실'을 믿습니다.

위협 행위자들이 분열을 심기 위해 사용하는 플랫폼은 거의 도움이 되지 않을 것입니다. 예를 들어, 이전에 Twitter로 알려진 소셜 미디어 플랫폼 X는 콘텐츠에 대한 품질 보증(QA)을 완전히 망쳤습니다.

“다른 플랫폼에서는 허위 정보를 처리할 것이라는 상용구 보증을 제공했지만 언론의 자유 보호와 규제 부족으로 인해 여전히 악의적인 행위자가 발생할 수 있는 분야가 활짝 열려 있습니다.”라고 그는 경고합니다.

AI가 기존 피싱 TTP를 증폭시킵니다.

GenAI는 이미 보다 믿을 수 있고 표적화된 피싱 캠페인을 대규모로 제작하는 데 사용되고 있습니다. 그러나 Tidal Cyber의 사이버 위협 인텔리전스 이사인 Scott Small에 따르면 선거 보안의 맥락에서 이러한 현상은 더 우려스러운 사건입니다.

“우리는 사이버 공격자들이 생성적 AI를 채택하여 피싱 및 사회 공학 공격(수년간 일관된 볼륨 측면에서 선거 관련 공격의 주요 형태)을 더욱 설득력 있게 만들어 표적이 악성 콘텐츠와 상호 작용할 가능성을 높일 것으로 예상합니다. "라고 그는 설명한다.

스몰은 AI 도입으로 그러한 공격을 시작하기 위한 진입 장벽도 낮아지는데, 이는 올해 캠페인에 침투하거나 사칭 목적으로 후보 계정을 탈취하려는 캠페인의 양을 증가시킬 가능성이 있는 요인이라고 말합니다.

“범죄 및 국가적 공격자들은 정기적으로 시사 및 인기 주제에 맞춰 피싱 및 사회 공학적 미끼를 사용합니다. 이러한 행위자들은 올해 일반적으로 배포되는 선거 관련 디지털 콘텐츠의 붐을 이용하여 악성 콘텐츠를 전달하려고 시도할 것이 거의 확실합니다. 의심하지 않는 사용자에게 콘텐츠를 제공합니다.”라고 그는 말합니다.

AI 선거 위협으로부터 방어

이러한 위협으로부터 방어하기 위해 선거 공무원과 캠페인은 GenAI 기반 위험과 이를 방어하는 방법을 인식해야 합니다.

Optiv의 사이버 위험 담당 부사장인 James Turgal은 “선거 관리들과 후보자들은 위협 행위자들이 AI 기반 딥페이크에 대해 소리를 끌어낼 수 있는 인터뷰와 기자 회견을 지속적으로 제공하고 있습니다.”라고 말했습니다. “따라서 콘텐츠에 대한 통제권을 보장할 책임이 있는 사람이나 팀을 확보하는 것이 그들의 의무입니다.”

또한 자원봉사자와 직원이 향상된 사회 공학, 그 배후에 있는 위협 행위자, 의심스러운 활동에 대응하는 방법과 같은 AI 기반 위협에 대해 교육을 받았는지 확인해야 합니다.

이를 위해 직원은 전자(이메일, 문자 및 소셜 미디어 플랫폼), 대면 및 전화 기반 시도를 포함하여 모든 형태와 공격 벡터에 대한 정보가 포함된 사회 공학 및 딥페이크 비디오 교육에 참여해야 합니다.

Turgal은 “모든 사람이 사이버 위생을 제대로 유지하고 있는 것은 아니기 때문에 특히 자원봉사자의 경우 이는 매우 중요합니다.”라고 말합니다.

또한 캠페인 및 선거 자원봉사자는 소셜 미디어 게시물을 포함하여 온라인 및 외부 단체에 정보를 안전하게 제공하는 방법에 대한 교육을 받아야 하며, 그렇게 할 때 주의를 기울여야 합니다.

그는 “사이버 위협 행위자는 이 정보를 수집하여 사회 공학적 미끼를 특정 대상에 맞게 조정할 수 있습니다.”라고 경고합니다.

O'Reilly는 다음을 포함하는 장기적 규제를 말합니다. 오디오 및 비디오 딥페이크용 워터마킹 연방 정부가 LLM 소유자와 협력하여 보호 장치를 마련하고 있음을 알리는 데 중요한 역할을 할 것입니다.

사실, 연방통신위원회(FCC)가 방금 선언했습니다. AI가 생성한 음성 통화는 전화 ​​소비자 보호법(TCPA)에 따라 "인공"으로 간주되어 음성 복제 기술을 불법으로 사용하고 전국 주 검찰총장에게 이러한 사기 행위에 맞서 싸울 수 있는 새로운 도구를 제공합니다.

O'Reilly는 “AI는 너무 빠르게 움직이기 때문에 기술이 발전함에 따라 제안된 규칙이 효과가 없어 잠재적으로 목표를 놓칠 수 있는 위험이 내재되어 있습니다.”라고 말합니다. “어떤 면에서는 그것은 서부 개척 시대이며, AI는 보호 장치가 거의 없는 상태로 시장에 출시되고 있습니다.”

타임 스탬프 :

더보기 어두운 독서