Los deepfakes de IA también son una amenaza para las empresas: este es el motivo - Decrypt

Los deepfakes de IA también son una amenaza para las empresas: este es el motivo – Decrypt

Los deepfakes de IA también son una amenaza para las empresas. Este es el motivo: Decrypt PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

A medida que los gigantes tecnológicos compiten para llevar la inteligencia artificial a las masas y adueñarse del floreciente mercado, la carrera armamentista de la IA está impulsando un aumento de videos y audio “deepfake”, contenido que a menudo parece o suena convincentemente legítimo, pero que en realidad es una tergiversación fraudulenta. Y también están afectando a las empresas, según un nuevo informe.

Los deepfakes son creaciones generadas por IA, como imágenes, vídeos y audio manipulados para engañar a las personas. Los estafadores utilizan deepfakes para cometer fraude extorsión, o para dañar la reputación. La proliferación de IA generativa herramientas ha hecho que sea más fácil que nunca para los estafadores crear contenido falso.

Se está insertando a celebridades y otras figuras públicas en imágenes artificiales y a veces explícitas sin su consentimiento de maneras que a veces se vuelven virales o pueden causar pánico en las redes sociales. En un informe proporcionado a Descifrar, firma contable global KPMG escribió que el sector empresarial tampoco es inmune a la amenaza de los deepfake.

El contenido deepfake se puede utilizar en ataques de ingeniería social y otros tipos de ciberataques dirigidos a empresas, escribió KPMG, mientras que dicho contenido también puede afectar la reputación de las empresas y sus líderes. Las representaciones falsas de los representantes de la empresa también se pueden utilizar en planes para estafar a los clientes o para convencer a los empleados de que proporcionen información o transfieran dinero a actores ilícitos.

KPMG citó un ejemplo de 2020 de un gerente de sucursal de una empresa de Hong Kong que fue engañado para transferir fondos de la empresa por valor de 35 millones de dólares a estafadores después de creer que su jefe estaba hablando por teléfono y ordenándole que lo hiciera. En cambio, era una recreación clonada por IA de la voz del supervisor, todo parte de un elaborado plan para estafar dinero a la empresa.

“Las consecuencias de los ciberataques que utilizan contenido sintético (contenido digital que ha sido generado o manipulado con fines nefastos) pueden ser vastas, costosas y tener una variedad de impactos socioeconómicos, incluidos financieros, reputacionales, de servicios y geopolíticos, entre otros”. dice el informe.

Imágenes deepfake de Donald Trump siendo detenido a principios de este año, Papa Francisco vistiendo ropa de lujo de Balenciaga, y Elon Musk La promoción de estafas criptográficas se ha vuelto viral en el último año a medida que la tecnología deepfake ha mejorado gracias a la evolución de las herramientas de inteligencia artificial.

"Ya sean falsificaciones baratas o deepfakes, el modelo económico ha cambiado significativamente debido a los modelos generativos de IA", escribió KPMG.

Más allá de las figuras públicas mencionadas anteriormente, entre las celebridades destacadas cuyas imágenes han sido robadas y aplicadas a imágenes falsificadas se encuentran la actriz Emma Watson y el músico Taylor Swift. Pero es el impacto potencial para las empresas y sus líderes, a veces prominentes, sobre lo que KPMG está dando la alarma.

“Como factor de riesgo, el contenido deepfake no es simplemente una preocupación para las redes sociales, los sitios de citas y la industria del entretenimiento; ahora es un tema de junta directiva”, dijo KPMG. "Por ejemplo, casi todos los encuestados (92%) de una reciente encuesta de KPMG sobre IA generativa a 300 ejecutivos de múltiples industrias y geografías dicen que sus preocupaciones sobre los riesgos de implementar la IA generativa son de moderadas a altamente significativas".

No son sólo las empresas y las celebridades las que están lidiando con el aumento tanto en la calidad como en la cantidad de videos deepfake en Internet. Los gobiernos y los reguladores también están considerando el impacto potencial en la sociedad y las elecciones, mientras que los creadores de este tipo de herramientas de inteligencia artificial están sopesando su posible impacto negativo.

La semana pasada, la Comisión Federal Electoral de EE. UU., anticipando el uso de deepfakes en las elecciones de 2024, avanzó con una petición prohibir el uso de inteligencia artificial en los anuncios de campaña.

Si se aprueba, la agencia modificaría las regulaciones actuales sobre la tergiversación fraudulenta de la “autoridad de la campaña” y aclararía que la prohibición se aplica a los anuncios de campaña de IA deliberadamente engañosos.

"Los reguladores deben seguir entendiendo y considerando el impacto de la evolución de las amenazas en las regulaciones existentes", dijo Matthew Miller, director de servicios de seguridad cibernética de KPMG. Descifrar. "Los requisitos propuestos para etiquetar y marcar con marcas de agua el contenido generado por IA podrían tener un impacto positivo".

En julio, investigadores del MIT propuesto agregar cambios de código a modelos de gran difusión para mitigar el riesgo de deepfakes, agregando pequeños cambios que son difíciles de ver pero que, en última instancia, cambian la forma en que funcionan los modelos, lo que hace que generen imágenes que no parecen reales. Meta, mientras tanto, recientemente retuvo una herramienta de IA debido a su potencial de deepfake.

El entusiasmo en torno al potencial creativo de las herramientas de IA generativa se ha visto atenuado por la constatación de que también pueden crear oportunidades para contenido malicioso. En última instancia, en medio de rápidas mejoras en dichas herramientas, Miller instó a todos a estar atentos al potencial de contenido falso.

“El público necesita mantener una vigilancia continua cuando interactúa a través de canales digitales”, dijo Descifrar. “La conciencia situacional y el sentido común contribuyen en gran medida a evitar que ocurra un incidente. Si algo no 'se siente bien', tiene una alta probabilidad de ser una actividad maliciosa".

Manténgase al tanto de las noticias criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.

Sello de tiempo:

Mas de Descifrar