AI 옷벗기: Deepfake 누드 서비스 인기 급증 - Decrypt

AI 옷벗기: Deepfake 누드 서비스 인기 급증 – Decrypt

AI 옷벗기: Deepfake 누드 서비스 인기 급상승 - PlatoBlockchain 데이터 인텔리전스를 해독합니다. 수직 검색. 일체 포함.

악의적인 딥페이크 생성의 재앙은 유명인과 공인의 영역을 넘어 확산되었으며, 합의되지 않은 친밀한 이미지(NCII)에 대한 새로운 보고서에서는 이미지 생성기가 발전하고 확산됨에 따라 이러한 관행이 점점 더 커지고 있음을 발견했습니다.

'옷 벗는 AI'가 늘고 있다 신고 소셜 미디어 분석 회사인 Graphika는 금요일에 이러한 관행을 다음과 같이 설명했습니다. 생성 적 AI 사용자가 업로드한 이미지에서 옷을 제거하기 위해 미세 조정된 도구입니다.

게임 및 트위치 스트리밍 커뮤니티는 올해 초 저명한 방송인 Brandon 'Atrioc' Ewing이 자신이 친구라고 부르는 여성 스트리머의 AI 생성 딥페이크 포르노를 보고 있었다고 실수로 폭로하면서 이 문제와 씨름했습니다. 신고 by Kotaku.

Ewing은 XNUMX월에 플랫폼으로 돌아와 자신이 입힌 피해를 완화하기 위해 수행한 몇 주 간의 작업에 대해 통회하고 보고했습니다. 그러나 이 사건으로 인해 온라인 커뮤니티 전체가 수문을 열게 되었습니다.

Graphika의 보고서에 따르면 이 사건은 단지 일회성 사건에 불과했습니다.

Graphika 정보 분석가 Santiago Lakatos는 "Meltwater에서 제공한 데이터를 사용하여 합성 NCII 서비스를 제공하는 34개 웹사이트와 52개 Telegram 채널에 대한 추천 링크가 포함된 Reddit 및 X의 댓글과 게시물 수를 측정했습니다."라고 썼습니다. "올해 현재까지의 1,280개에 비해 2022년에는 총 32,100개로 전년 대비 2,408% 증가한 양을 나타냅니다."

뉴욕에 본사를 둔 Graphika는 NCII의 폭발적인 증가는 도구가 틈새 토론 게시판에서 소규모 산업으로 이동했음을 보여준다고 말했습니다.

Graphika는 "이러한 모델을 사용하면 더 많은 제공업체가 사실적인 NCII를 쉽고 저렴하게 대규모로 만들 수 있습니다."라고 말했습니다. "이러한 제공업체가 없으면 고객은 자체 맞춤형 이미지 확산 모델을 호스팅, 유지 관리 및 실행해야 합니다. 이는 시간이 많이 걸리고 때로는 비용이 많이 드는 프로세스입니다."

Graphika는 AI 옷 벗기 도구의 인기가 높아지면 가짜 옷뿐만 아니라 포르노 자료뿐만 아니라 표적 괴롭힘, 성착취, 아동 성적 학대 자료(CSAM) 생성도 포함됩니다.

그라피카에 따르면 신고, AI 옷 벗기 도구 개발자는 소셜 미디어에 광고하여 잠재 사용자를 해당 도구를 찾을 수 있는 웹사이트, 비공개 텔레그램 채팅 또는 Discord 서버로 안내합니다.

Graphika는 "일부 제공업체는 '옷을 벗는' 서비스를 제공한다고 말하고 증거로 '옷을 벗었다'고 주장하는 사람들의 사진을 게시하는 등 활동을 공개적으로 하고 있습니다."라고 썼습니다. "다른 사람들은 덜 명시적이며 프로필과 게시물에 합성 NCII와 관련된 주요 용어를 포함하면서 AI 아트 서비스 또는 Web3 사진 갤러리로 자신을 소개합니다."

옷을 벗는 AI는 일반적으로 사진에 초점을 맞추지만 AI는 옷을 벗는 데에도 사용되었습니다. 비디오 YouTube 성격을 포함해 유명인의 초상을 이용한 딥페이크 미스터 비스트 그리고 헐리우드의 상징적인 배우 톰 행크스.

어떤 배우들은 좋아해요 스칼렛 요한슨 그리고 인도 배우 아닐 카푸어 AI 딥페이크의 지속적인 위협에 맞서기 위해 법률 시스템을 도입하고 있습니다. 그래도 주류 연예인들이 언론의 관심을 더 많이 받을 수 있는 반면, 성인 연예인 그들의 목소리가 거의 들리지 않는다고 말합니다.

“정말 어렵다” 전설적인 성인 연기자이자 스타팩토리 홍보실장인 타냐 테이트(Tanya Tate)는 이야기 해독 더 일찍. "누군가가 주류에 있다면 훨씬 쉬울 것이라고 확신합니다."

테이트는 AI와 딥페이크 기술이 발전하지 않더라도 자신의 가능성과 콘텐츠를 활용해 소셜미디어가 이미 가짜 계정으로 가득 차 있다고 설명했다. 문제를 해결하는 데 도움이 되지 않는 것은 성노동자들이 직면하고 있는 지속적인 오명이며, 그들과 그들의 팬들은 그림자 속에 머물도록 강요하고 있습니다.

지난 20,254월, 영국에 본사를 둔 인터넷 감시 회사인 인터넷 감시 재단(Internet Watch Foundation, IWF)은 별도의 보고서에서 단 한 달 만에 단일 다크웹 포럼에서 XNUMX개 이상의 아동 학대 이미지가 발견되었다고 지적했습니다. IWF는 AI가 생성한 아동 포르노가 “압도하다" 인터넷.

생성적 AI 이미징의 발전 덕분에 IWF는 다음과 같이 경고합니다. 딥 페이크 포르노는 AI가 생성한 이미지와 실제 이미지의 차이를 구분하는 것이 점점 더 복잡해지는 지점까지 발전했으며, 이로 인해 법 집행 기관은 실제 학대 피해자 대신 온라인 유령을 추적하게 되었습니다.

Internet Watch Foundation의 CTO인 Dan Sexton은 "그래서 상황이 실제인지 아닌지 믿을 수 없는 문제가 계속 발생하고 있습니다."라고 말했습니다. 해독티. “사실인지 아닌지를 알려주는 것들은 100%가 아니기 때문에 믿을 수도 없습니다.”

Ewing의 경우 Kotaku는 스트리머가 돌아와 기자, 기술자, 연구원 및 사건의 영향을 받은 여성들과 함께 일하고 있다고 말했습니다. 일월. 유잉은 또한 로스앤젤레스에 있는 라이언 모리슨의 법률 회사에 자금을 보냈다고 말했습니다. 모리슨 쿠퍼, 자신의 이미지를 게시하는 사이트에 게시 중단 알림을 보내는 데 도움이 필요한 Twitch의 모든 여성에게 법률 서비스를 제공합니다.

Ewing은 신비한 딥페이크 연구원인 Genevieve Oh로부터 딥페이크 문제의 깊이에 대한 연구를 받았다고 덧붙였습니다.

“나는 이런 종류의 콘텐츠에 맞서 싸울 때 '밝은 점'을 찾으려고 노력했습니다.”라고 Ewing은 말했습니다.

에 의해 수정 라이언 오자와.

암호화 뉴스를 최신 상태로 유지하고 받은 편지함에서 매일 업데이트를 받으십시오.

타임 스탬프 :

더보기 해독