'Los delincuentes criptográficos adoptan la suplantación holográfica de Zoom' PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

'Crypto ladrones toman la suplantación de Zoom holográfica'

La escena de inversión en criptomonedas ha generado grandes fortunas, pero también es un refugio para chiflados y delincuentes. Ahora, es pionera en una nueva innovación en el software de colaboración: el uso de hologramas falsos profundos en Zoom para un propósito nefasto.

Eso es según Patrick Hillman, director de comunicaciones del intercambio de criptomonedas Binance, quien afirma que los estafadores se han hecho pasar por él en Zoom con un deepfake.

En una publicación de blog, Hillman proporcionó una captura de pantalla de una publicación de LinkedIn en la que alguien le pide que confirme que ha participado en una llamada de Zoom con ellos. El mensaje es uno de varios que ha recibido de personas que le agradecen por participar en reuniones sobre oportunidades para incluir criptoactivos en Binance.

Aquí hay un problema. Su rol no le da ninguna idea o supervisión de las listas de Binance. Tampoco ha conocido a las personas que le envían mensajes.

Dice Hillman: “Resulta que un sofisticado equipo de piratería usó entrevistas de noticias anteriores y apariciones en televisión a lo largo de los años para crear un 'deepfake' de mí. Aparte de las 15 libras que gané durante la ausencia notable de Covid, este ake profundo fue lo suficientemente refinado como para engañar a varios miembros de la criptocomunidad altamente inteligentes".

La estafa deepfake apareció en medio de un aumento en el incidente de piratas informáticos que pretendían ser empleados de Binance en las redes sociales y aplicaciones de mensajería.

El sitio web de tecnología de consumo, The Verge, expresa cierto escepticismo en cuanto a si los deepfakes son lo suficientemente sofisticados como para sostener una suplantación de identidad durante una llamada en vivo.

"Los expertos recomiendan que la forma más sencilla de saber si estás hablando con un deepfake es simplemente pedirle a la persona que gire la cabeza, ya que los modelos de aprendizaje automático utilizados para crear el deepfake generalmente no incluyen el perfil de una cara", dice el sitio web. .

Otro sitio web de tecnología de consumo, Gizmodo, afirma que también se están utilizando falsificaciones profundas para solicitar trabajos de trabajo remoto, según los funcionarios encargados de hacer cumplir la ley. Gizmodo da este consejo: “La mejor manera de distinguir un deepfake de un ser humano real es observar cualquier defecto de video o falla visual o textura de la piel que no parezca real. Aún así, muchos estafadores usan cámaras de baja calidad para tratar de enmascarar cualquier señal de que la persona detrás de la cámara es una imagen digital.

Enlaces externos:

Sello de tiempo:

Mas de AV interactivo