인텔은 실시간 PlatoBlockchain Data Intelligence에서 딥페이크에서 살아있는 인간을 분류할 수 있다고 말합니다. 수직 검색. 일체 포함.

인텔은 딥페이크에서 살아있는 인간을 실시간으로 분류할 수 있다고 말합니다.

인텔은 피사체가 살아있는 인간이라면 분명할 미묘한 색상 변화를 찾아 비디오가 딥페이크 기술을 사용하고 있는지 실시간으로 감지할 수 있는 AI 모델을 개발했다고 주장합니다.

FakeCatcher는 밀리초 단위로 결과를 반환할 수 있고 96%의 정확도를 가질 수 있다고 주장합니다.

가 발생했습니다 관심사 최근 몇 년 동안 AI 알고리즘을 사용하여 사람들의 가짜 영상을 생성하는 소위 딥페이크 비디오에 대해. 주요 관심사는 정치인이나 유명인이 실제로 말하거나 행동하지 않은 발언을 하거나 행동을 하는 것처럼 보이게 만드는 데 잠재적으로 사용된다는 점입니다.

“딥페이크 비디오는 이제 어디에나 있습니다. 아마 이미 본 적이 있을 것입니다. 유명인사들이 실제로 한 적이 없는 행동을 하거나 말하는 비디오”라고 Intel Labs 직원 연구 과학자 Ilke Demir가 말했습니다. 연예인에게만 영향을 미치는 것이 아니라 일반 시민 피해자가 되었습니다.

칩 제조업체에 따르면 일부 딥 러닝 기반 감지기는 원시 비디오 데이터를 분석하여 가짜로 식별할 수 있는 숨길 수 없는 신호를 찾으려고 합니다. 대조적으로, FakeCatcher는 피사체가 실제임을 나타내는 시각적 단서를 찾기 위해 실제 비디오를 분석하는 것과 관련하여 다른 접근 방식을 취합니다.

여기에는 몸 전체에 혈액을 공급하는 심장의 혈류로 인해 비디오 픽셀의 미묘한 색상 변화가 포함됩니다. 이러한 혈류 신호는 얼굴 전체에서 수집되며 알고리즘은 이를 시공간 맵으로 변환하여 비디오가 실제인지 여부를 감지할 수 있는 딥 러닝 모델을 가능하게 한다고 인텔은 말했습니다. 일부 탐지 도구는 분석을 위해 비디오 콘텐츠를 업로드한 다음 결과를 기다리는 시간이 필요하다고 주장했습니다.

하지만 충분한 시간과 자원이 주어지면 가짜 동영상을 만들 동기가 있는 사람이라면 누구나 FakeCatcher를 속일 수 있는 알고리즘을 개발할 수 있을 것이라고 상상하는 것은 가능성의 영역을 넘어선 것이 아닙니다.

인텔은 자연스럽게 딥 러닝 모델을 최적화하기 위한 OpenVINO 오픈 소스 툴킷과 실시간 이미지 및 비디오 처리를 위한 OpenCV를 포함하여 FakeCatcher 개발에 자체 기술을 광범위하게 사용했습니다. 또한 개발자 팀은 Open Visual Cloud 플랫폼을 사용하여 Intel의 Xeon Scalable 프로세서용 통합 소프트웨어 스택을 제공했습니다. FakeCatcher 소프트웨어는 72세대 Xeon Scalable 프로세서에서 동시에 최대 3개의 서로 다른 탐지 스트림을 실행할 수 있습니다.

인텔에 따르면 사용자가 소셜 미디어에 유해한 딥페이크 비디오를 업로드하는 것을 방지하고 뉴스 조직이 조작된 콘텐츠를 방송하지 않도록 돕는 등 FakeCatcher에 대한 몇 가지 잠재적인 사용 사례가 있습니다. ®

타임 스탬프 :

더보기 등록