La línea entre la creación real y la IA es demasiado delgada para la vista

La línea entre la creación real y la IA es demasiado delgada para la vista

La línea entre la creación real y la IA es demasiado delgada para el ojo Inteligencia de datos PlatoBlockchain. Búsqueda vertical. Ai.

A medida que los desarrolladores de IA generativa continúan perfeccionando sus modelos para hacerlos más sofisticados, también se vuelve cada vez más difícil distinguir entre imágenes reales y creaciones de IA, revelan los investigadores.

Un estudio realizado por investigadores del Universidad de Waterloo estableció que a las personas les resulta difícil descifrar la imagen de una persona real y la de una persona generada por IA.

Por debajo del umbral esperado

Para llevar a cabo el estudio, investigadores de la Universidad de Waterloo proporcionaron 20 fotografías sin etiquetar a 260 participantes. La mitad de las fotografías eran de personas reales tomadas de Google Imágenes, mientras que la otra mitad fueron generadas por IA utilizando herramientas como Dall-E y Difusión estable.

Luego se pidió a los participantes que etiquetaran las imágenes, si eran reales o generadas por IA, justificando sus respuestas.

Aunque el 61% de los participantes podía distinguir entre imágenes reales e imágenes generadas por IA, esto todavía estaba muy por debajo del umbral esperado del 85%.

Mientras examinaban las imágenes, los participantes prestaron atención a detalles como ojos, dedos, dientes y otros indicadores que indican la búsqueda de imágenes creadas por IA, pero "sus evaluaciones no siempre fueron correctas".

“La gente no es tan experta en hacer distinciones como cree”. dijo La autora principal del estudio, Andrea Pocol, quien también es candidata a doctorado en Ciencias de la Computación en la universidad.

Si bien los usuarios de Internet pueden mirar las imágenes de pasada, los investigadores de Waterloo dijeron que permitieron a los participantes tomarse su tiempo para analizar las imágenes.

"Las personas que simplemente están explorando el mundo del destino o que no tienen tiempo no captarán estas señales", dijo Pocol.

Lea también: El director ejecutivo de Leonardo destaca la estupidez de los usuarios ante las amenazas de la IA en Davos

Abusando de la tecnología

Sus estudio , titulado “Ver ya no creer: una encuesta sobre el estado de los deepfakes, los humanos generados por IA y otros medios no verídicos”, que aparece en la revista Advances in Computer Graphics, también destaca los riesgos asociados con los avances en la tecnología de IA generativa. .

Los investigadores también observaron con preocupación el ritmo al que la tecnología de IA generativa está cambiando rápidamente, volviéndose más sofisticada cada día que pasa. La investigación académica y la legislación no logran seguir el ritmo de la evolución de la industria generativa.

Pocol dijo que las imágenes de IA se están volviendo más reales, lo que hace que a algunas personas les resulte difícil distinguir fácilmente entre imágenes reales y generadas por IA. Esto, dijo Pocol, está creando un terreno fértil para los malos actores que se aprovechan de la tecnología para difundir malicia y perpetuar la desinformación o engañar a la gente.

"La desinformación no es nueva, pero las herramientas de la desinformación han estado cambiando y evolucionando constantemente", dijo Pocol.

“Puede llegar a un punto en el que las personas, sin importar cuán capacitadas estén, todavía tendrán dificultades para diferenciar las imágenes reales de las falsas. Por eso necesitamos desarrollar herramientas para identificarlo y contrarrestarlo. Es como una nueva carrera armamentista de IA”.

Los investigadores también reconocieron los desafíos que plantea la tecnología, especialmente cuando se trata de la difusión de deepfakes.

La tecnología en manos equivocadas

Ante las dificultades que experimenta la gente común para distinguir entre imágenes reales y falsas, existe un temor creciente de un aumento en la difusión de deepfakes. Los expertos han advertido que los malos actores aprovecharán la tecnología generativa de inteligencia artificial para difundir falsedades electorales en sus intentos de engañar a los votantes.

La Centro para la lucha contra el odio digital (CCDH), una organización sin fines de lucro que monitorea el discurso de odio en línea ya ha prevenido en su informe que los generadores de imágenes impulsados ​​por IA están empeorando la desinformación sobre las elecciones de 2024.

"La posibilidad de que estas imágenes generadas por IA sirvan como 'prueba fotográfica' podría exacerbar la difusión de afirmaciones falsas, planteando un desafío importante para preservar la integridad de las elecciones", dijeron los investigadores del CCDH en su informe.

Sin embargo, esto se produce en medio de un anuncio de que unas 20 grandes empresas tecnológicas, incluidas OpenAI, Microsoft y la estabilidad AI firmó un acuerdo trabajar juntos para evitar que el contenido engañoso de la IA “interfiera con las elecciones que tendrán lugar a nivel mundial este año”.

Sello de tiempo:

Mas de MetaNoticias