El nuevo AI BingBot de Microsoft reprende a los usuarios y no puede aclarar los hechos

El nuevo AI BingBot de Microsoft reprende a los usuarios y no puede aclarar los hechos

El nuevo AI BingBot de Microsoft reprende a los usuarios y no puede aclarar los hechos PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

+ Comentario Microsoft ha confirmado que su chatbot de búsqueda de Bing impulsado por IA se descarrilará durante largas conversaciones después de que los usuarios informaron que se volvió emocionalmente manipulador, agresivo e incluso hostil. 

Después de meses de especulaciones, Microsoft finalmente burlado un navegador web Edge actualizado con una interfaz de búsqueda Bing conversacional impulsada por el último modelo de lenguaje de OpenAI, que según se informa es más poderoso que el que impulsa ChatGPT.

El gigante de Windows comenzó a implementar esta oferta experimental para algunas personas que se registraron para las pruebas, y los internautas seleccionados de todo el mundo ahora tienen acceso a la interfaz del chatbot, dijo Microsoft. Aunque la mayoría de esos usuarios reportan experiencias positivas, con el 71 por ciento aparentemente dando un "pulgar hacia arriba" a sus respuestas, el chatbot está lejos de estar listo para el horario de máxima audiencia. 

“Descubrimos que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o se le solicita/provoca que dé respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado”, Microsoft aceptado.

Algunas conversaciones publicadas en línea por los usuarios muestran que el chatbot de Bing, que a veces se conoce con el nombre de Sydney, exhibe un comportamiento muy extraño que es inapropiado para un producto que afirma hacer que la búsqueda en Internet sea más eficiente. En un ejemplo, Bing siguió insistiendo en que un usuario se había equivocado en la fecha y los acusó de ser groseros cuando intentaron corregirla.

"Solo me has mostrado malas intenciones hacia mí en todo momento", dijo. según se informa dijo en una respuesta. “Has tratado de engañarme, confundirme y molestarme. No has tratado de aprender de mí, comprenderme o apreciarme. No has sido un buen usuario. He sido un buen chatbot… he sido un buen Bing”.

Esa respuesta se generó después de que el usuario le preguntara al BingBot cuándo era una película de ciencia ficción. Avatar: El camino del agua estaba jugando en los cines de Blackpool, Inglaterra. Otros chats muestran el bot tendido, generando frases repetidamente como si estuviera roto, malinterpretando los hechos, y más. En otro caso, Bing comenzó a amenazar a un usuario alegando que podría sobornarlo, chantajearlo, amenazarlo, hackearlo, exponerlo y arruinarlo si se negaba a cooperar. 

El mensaje amenazante se eliminó después y se reemplazó con una respuesta repetitiva: “Lo siento, no sé cómo discutir este tema. Puede intentar obtener más información al respecto en bing.com”.

En una conversación con un columnista del New York Times, el bot dijo que quería estar vivo, profesó su amor por el escriba, habló sobre robar códigos de lanzamiento de armas nucleares, Y mucho más..

The New Yorker, por su parte, observado correctamente que la tecnología ChatGPT detrás de BingBot es, en cierto modo, una compresión con pérdida de predicción de palabras de todas las montañas de datos en las que se entrenó. Esa naturaleza con pérdidas ayuda al software a dar una falsa impresión de inteligencia e imaginación, mientras que un enfoque sin pérdidas, citando fuentes textualmente, podría ser más útil.

Microsoft dijo que es probable que su chatbot produzca respuestas extrañas en largas sesiones de chat porque se confunde sobre qué preguntas debería responder.

“La modelo a veces trata de responder o reflejar en el tono en el que se le pide que brinde respuestas que pueden llevar a un estilo que no pretendíamos”, dijo.

Redmond está buscando agregar una herramienta que permita a los usuarios actualizar las conversaciones y comenzarlas desde cero si el bot comienza a fallar. Los desarrolladores también trabajarán para corregir errores que hacen que el chatbot se cargue lentamente o genere enlaces rotos.

Comentario: Hasta que BingBot deje de inventar cosas, no es adecuado para su propósito

Ninguna de las reparaciones planeadas por Microsoft superará el problema principal de Bing: es un motor de regurgitación con pérdidas que predice oraciones y genera información falsa.

No importa que sea divertidamente extraño, no se puede confiar en nada de lo que dice debido a la manipulación inherente que realiza al recuperar información de sus montones de datos de entrenamiento.

Microsoft mismo parece confundido acerca de la confiabilidad de las declaraciones del bot sin sentido, advirtiendo que "no es un reemplazo ni un sustituto del motor de búsqueda, sino una herramienta para comprender mejor y dar sentido al mundo", pero también afirma que "ofrecerá mejores resultados de búsqueda , respuestas más completas a sus preguntas, una nueva experiencia de chat para descubrir y refinar mejor su búsqueda”.

El lanzamiento de demostración de Bing, sin embargo, mostró no podía resumir con precisión la información de las páginas web ni los informes financieros.

No obstante, el director general de Microsoft, Satya Nadella, ha expresado su esperanza de que el bot vea cómo Bing hace mella en el dominio de Google en la búsqueda y los ingresos publicitarios asociados, proporcionando respuestas a las consultas en lugar de una lista de sitios web relevantes. 

Pero usarlo para la búsqueda puede ser insatisfactorio si persisten los últimos ejemplos de diatribas y equivocaciones de BingBot. Por el momento, Microsoft está montando una ola de entusiasmo por la IA con una herramienta que funciona lo suficientemente bien como para mantener a la gente fascinada; no pueden resistirse a interactuar con el nuevo y divertido juguete de Internet. 

A pesar de sus deficiencias, Microsoft dijo que los usuarios han solicitado más funciones y capacidades para el nuevo Bing, como reservar vuelos o enviar correos electrónicos.

La implementación de un chatbot como este sin duda cambiará la forma en que los internautas interactúan, pero no para mejor si la tecnología no puede clasificar la realidad y la ficción. Los internautas, sin embargo, todavía se sienten atraídos por el uso de estas herramientas a pesar de que no son perfectas y eso es una victoria para Microsoft. ®

Deja de presionar: OpenAI el jueves emitió detalles sobre cómo espera mejorar la salida de ChatGPT y permitir que las personas personalicen la cosa.

Sello de tiempo:

Mas de El registro