La FTC pregunta al público si desea protección contra falsificaciones de IA

La FTC pregunta al público si desea protección contra falsificaciones de IA

La FTC pregunta al público si les gustaría la protección contra falsificaciones de IA PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

La FTC está tomando medidas para ilegalizar no sólo la suplantación fraudulenta de personas gubernamentales y empresariales mediante IA, sino que también está preguntando al público estadounidense si también desea cierta protección. 

El organismo de control del consumidor de EE. UU. anunció tanto el jueves, junto con la introducción de una regla final que le dará a la Comisión la capacidad de presentar directamente demandas federales contra estafadores de suplantación de identidad de IA que se dirigen a empresas y agencias gubernamentales. Los cambios también permitirán que la agencia apunte más rápidamente a los creadores del código utilizado en tales estafas.

Sin embargo, la propuesta inicial no cubre la suplantación de identidad de particulares. Entonces la FTC está lanzando así [PDF] aviso complementario solicitando comentarios públicos sobre si también deberían estar cubiertos por las nuevas reglas.

"Los estafadores están utilizando herramientas de inteligencia artificial para hacerse pasar por personas con una precisión inquietante y a una escala mucho más amplia", afirmó la presidenta de la FTC, Lina Khan. “Con el aumento de la clonación de voz y otras estafas impulsadas por la inteligencia artificial, proteger a los estadounidenses del fraude de imitadores es más fundamental que nunca”. 

Más allá de simplemente declarar ilegal hacerse pasar por otra persona para cometer fraude, la propuesta también incluye una disposición para responsabilizar a las empresas por el uso indebido de la tecnología que crean.  

La disposición denominada “medios e instrumentalidades” en la propuesta le daría a la FTC la capacidad de responsabilizar a las empresas que crean tecnología de inteligencia artificial que podría usarse para hacerse pasar por personas si “tuvieran razones para saber que los bienes y servicios que brindaron serán utilizado con fines de suplantación de identidad”, dijo la FTC.

A pesar de una disposición para responsabilizar a los desarrolladores por el uso indebido de su tecnología, no está claro quiénes, ni en qué medida, las organizaciones podrían ser procesadas. 

Según la propuesta, es ilegal que un estafador llame o envíe mensajes a una persona haciéndose pasar por otro individuo, envíe correo físico tergiversando su afiliación, cree un sitio web, un perfil de redes sociales o una dirección de correo electrónico haciéndose pasar por una persona o coloque anuncios que se hagan pasar por una persona o sus afiliados.

No está claro si las organizaciones que transmiten mensajes fraudulentos podrían ser consideradas responsables junto con las empresas que facilitan la creación de voces y vídeos de IA. Le hemos pedido una aclaración a la FTC, pero no hemos recibido respuesta.

La FCC tomó sus propias medidas para combatir la suplantación de IA a principios de este mes y decidió que era Es ilegal utilizar voces generadas por IA en llamadas automáticas.. A diferencia de esta norma recientemente propuesta por la FTC, la FCC simplemente aclaró que las leyes existentes de protección al consumidor telefónico cubrían el uso de voces generadas por IA. ®

Sello de tiempo:

Mas de El registro