Taylor Swift e Emma Watson são alvos de ataques pornográficos de IA

Taylor Swift e Emma Watson são alvos de ataques pornográficos de IA

Imagens de celebridades femininas de alto perfil, incluindo Taylor Swift, Natalie Portman e Emma Watson, foram manipuladas usando tecnologia de IA para criar conteúdo erótico ou pornográfico, à medida que surge material pornográfico deepfake, de acordo com o Daily Mail.

Um novo relatório da empresa de software ActiveFence, com sede em Nova York, descobriu que o número de plataformas na web aberta “discutindo e compartilhando” celebridades pornografia deepfake durante os sete meses até agosto deste ano aumentou 87% em comparação com o mesmo período de 2022.

'Ninguém está seguro'

Embora as estrelas da lista A da indústria musical e cinematográfica tenham sido os principais alvos do conteúdo sexual ilícito, os pesquisadores alertam que “ninguém está a salvo” do potencial abuso. A ActiveFence disse que o número de particulares “despidos” usando IA aumentou quase 400% no ano passado.

“Hoje, estamos vendo que isso está afetando indivíduos porque é muito imediato, muito rápido”, disse Amir Oneli, pesquisador da ActiveFence, ao Mail. Ele se referia à eficiência com que a IA pode gerar imagens ou filmes sexuais falsos, colocando em risco a vida das pessoas.

“O mais trágico é que ninguém está seguro”, disse ele.

As fotos deepfake de celebridades nuas são feitas usando um tipo de ferramenta generativa de IA que é capaz de despir pessoas totalmente vestidas em imagens estáticas. O rosto de uma celebridade como Taylor Swift pode ser sobreposto ao corpo de outra pessoa envolvida em atos sexuais pornográficos.

Segundo a ActiveFence, as fotos das celebridades alvo desses ataques foram tiradas de suas redes sociais ou perfis de namoro. Por exemplo, vídeos pornográficos falsos criados por IA “com a cantora Swift foram vistos centenas de milhares de vezes”, diz o relatório.

Não é necessária grande habilidade para indivíduos excitados acessarem o material pervertido. Um simples A pesquisa do Google irá revelar uma variedade de deepfakes de celebridades prontamente disponíveis. Oneli está preocupada que muitas mulheres, tanto de classe alta quanto de classe baixa, possam se tornar vítimas de “pornografia de vingança” criada pela IA.

Veja também: 'Nus' de meninas provocam indignação na cidade espanhola

O pesquisador culpou parcialmente empresas de tecnologia como Microsoft, OpenAI e o Google por piorar o problema. Em fevereiro, por exemplo, o proprietário do Facebook Meta abriu o código-fonte de sua tecnologia de IA, permitindo que desenvolvedores novatos personalizassem seus Chatbots AI para criar pornografia deepfake.

A OpenAI costuma dizer que seus chatbots são treinados para recusar solicitações relacionadas a sexo, racismo, abuso infantil e outros tipos de descontentamento. Da mesma forma, tanto o Google quanto a Microsoft enfatizaram que implementaram proteções abrangentes para evitar abusos.

Taylor Swift, Emma Watson e outros alvos de surtos de pornografia com IA

Taylor Swift, Emma Watson e outros alvos de surtos de pornografia com IA

O boom da IA

Agora, a indústria pornográfica de IA está crescendo, disse a empresa de segurança online ActiveFence. Uma enxurrada de sites está surgindo na Internet, com fãs compartilhando ferramentas de inteligência artificial online que supostamente podem “despir qualquer pessoa”.

Existem muitos 'guias práticos', incluindo conselhos sobre como selecionar as fotos certas para deixar qualquer pessoa nua. Milhões de pessoas pagam para acessar conteúdo sexual explícito de IA todos os meses, informou o Mail.

MrDeepFakes, um popular site pornográfico falso, possui 17 milhões de usuários por mês, de acordo com a empresa de análise da web SimilarWeb. A ActiveFence descobriu que alguns sites cobram apenas US$ 6 para baixar conteúdo pornográfico falso, e os preços podem chegar a US$ 560 por 2,000 imagens.

Por US$ 400, alguns sites oferecem aos usuários a chance de pular a fila por meio do chamado bilhete de “passe rápido”, informou o Mail. Quando os usuários compram versões mais longas de pornografia AI do MrDeepFakes, eles são redirecionados para o Fan-Topia, um site que afirma pagar muito caro pela criação de conteúdo sexual adulto.

“O fato de [MrDeepFakes] ter permissão para operar e ser conhecido é uma acusação completa de todos os reguladores no espaço, de todas as autoridades, de todo o sistema”, disse a especialista jurídica em tecnologia Noelle Martin. disse NBC

O Congresso dos EUA ainda está debatendo o projeto de lei sobre prevenção de deepfakes de imagens íntimas, que visa impedir o compartilhamento de material sexual ilícito classificado como menor. O projeto foi apresentado em maio.

Carimbo de hora:

Mais de MetaNotícias