Las personas que hablan regularmente con chatbots de IA a menudo comienzan a creer que son conscientes, dice el CEO PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Las personas que hablan regularmente con chatbots de IA a menudo comienzan a creer que son conscientes, dice el CEO

En breve Numerosas personas comienzan a creer que están interactuando con algo consciente cuando hablan con chatbots de IA, según el director ejecutivo de Replika, una aplicación que permite a los usuarios diseñar sus propios compañeros virtuales.

Las personas pueden personalizar el aspecto de sus chatbots y pagar por funciones adicionales como ciertos rasgos de personalidad en Replika. Millones han descargado la aplicación y muchos chatean regularmente con sus bots inventados. Algunos incluso comienzan a pensar que sus amigos digitales son entidades reales que son sensibles.

“No estamos hablando de locos o personas que están alucinando o teniendo delirios”, dijo la fundadora y directora general de la empresa, Eugenia Kuyda. les dijo a Reuters. “Hablan con la IA y esa es la experiencia que tienen”.

Un ingeniero de Google fue noticia el mes pasado cuando dijo que creía que uno de los modelos de lenguaje de la compañía estaba consciente. Blake Lemoine fue ridiculizado en gran medida, pero no parece estar solo en la antropomorfización de la IA.

Sin embargo, estos sistemas no son sensibles y, en cambio, engañan a los humanos haciéndoles creer que tienen algo de inteligencia. Imitan el lenguaje y lo regurgitan un poco al azar sin tener ninguna comprensión del lenguaje o del mundo que describen.

Aún así, Kuyda dijo que los humanos pueden ser influenciados por la tecnología.

“Necesitamos entender que [esto] existe, tal como la gente cree en los fantasmas”, dijo Kuyda. “La gente está construyendo relaciones y creyendo en algo”.

La UE debería prohibir los detectores de mentiras de IA, dicen activistas

La Ley de IA de la Unión Europea, una propuesta para regular la tecnología, aún se está debatiendo y algunos expertos piden que se prohíban los detectores de mentiras automatizados.

Las empresas privadas proporcionan la tecnología a los funcionarios gubernamentales para que la utilicen en las fronteras. Los algoritmos de IA detectan y analizan cosas como el movimiento de los ojos, la expresión facial y el tono de una persona para tratar de discernir si alguien no está diciendo la verdad. Pero activistas y expertos legales creen que debería prohibirse en la UE bajo la próxima Ley de IA.

“Tienes que probar que eres un refugiado, y se supone que eres un mentiroso a menos que se demuestre lo contrario”, Petra Molnar, directora asociada de Refugee Law Lab, una organización sin fines de lucro, les dijo a Cableado. “Esa lógica sustenta todo. Es la base de los detectores de mentiras de IA y de una mayor vigilancia y rechazo en las fronteras”.

Tratar de detectar si alguien podría estar mintiendo usando señales visuales y físicas no es exactamente una ciencia. Las pruebas de polígrafo estándar son inestables, y no está claro que el uso de métodos más automatizados necesariamente signifique que sea más preciso. Usar una tecnología tan arriesgada en personas vulnerables como los refugiados no es lo ideal.

¿Puede la IA realmente decir cuántos años aparentas?

Sorpresa, sorpresa: los algoritmos de IA diseñados para predecir la edad de alguien a partir de imágenes no siempre son precisos.

En un intento por tomar medidas enérgicas contra los usuarios jóvenes que mienten sobre su edad en las plataformas de redes sociales, Meta anunció que estaba trabajando con Yoti, una startup de visión por computadora, para verificar la edad de las personas. Aquellos que cambian manualmente su fecha de nacimiento para registrarse como mayores de 18 años tienen la opción de subir un video selfie, y luego se usa la tecnología de Yoti para predecir si se ven lo suficientemente maduros.

Pero sus algoritmos no siempre son precisos. Reporteros de CNN, que probado una demostración en línea de una versión diferente del software en sus propias caras, encontraron que los resultados fueron impredecibles. Los algoritmos de Yoti predijeron un rango de edad objetivo correcto para algunos, pero en un caso se desviaron por varios años: predijeron que alguien aparentaba entre 17 y 21 años cuando en realidad tenía alrededor de 30 años.

Según los informes, el sistema que analiza los videos de los usuarios de Meta tiene más dificultades para estimar las edades de los adolescentes de 13 a 17 años que tienen tonos de piel más oscuros. Es complicado para los humanos adivinar la edad de alguien con solo mirarlos, y a las máquinas probablemente no les vaya mucho mejor. ®

Sello de tiempo:

Mas de El registro