Siguiente, Proteínas diseñadas por IA para medicina

Siguiente, Proteínas diseñadas por IA para medicina

A continuación, proteínas diseñadas por IA para medicina PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

La organización de salud mental Koko aprovechó con éxito ChatGPT para ayudarlos a mejorar su soporte en línea, pero cuando los usuarios se enteraron de que un chatbot estaba coescribiendo respuestas, los beneficios percibidos desaparecieron.

La recepción del experimento en las redes sociales ha sido mixta, con algunas personas fascinadas por el potencial de la IA en el campo y otras fuertemente opuestas a la intrusión de la inteligencia artificial.

No hay atajos para el bienestar mental

Un experimento reciente de Koko que complementó las respuestas humanas con ChatGPT al principio parecía ofrecer beneficios significativos a sus usuarios.

Koko es una organización de salud mental sin fines de lucro que ofrece apoyo e intervención a cualquier persona que lucha por el bienestar mental, pero en particular a los adolescentes. Como parte de su misión de hacer que la salud mental sea accesible para todos, la empresa aumentó sus recursos de voluntarios con inteligencia artificial.

Según el fundador de Koko, Rob Morris, el ensayo inicialmente resultó exitoso. Morris afirma que las respuestas asistidas por IA fueron inicialmente mejor recibidas y ayudaron a reducir los tiempos de espera. Lamentablemente, los beneficios no duraron.

“Una vez que la gente supo que los mensajes fueron co-creados por una máquina, no funcionó. La empatía simulada se siente extraña, vacía”, dijo Morris en Twitter. la semana pasada. "Las máquinas no han vivido la experiencia humana, así que cuando dicen 'eso suena difícil' o 'entiendo', suena falso".

Morris finalmente llegó a la conclusión de que los chatbots “no se toman el tiempo de su día para pensar en ti. Una respuesta de chatbot que se genera en 3 segundos, sin importar cuán elegante sea, se siente barata de alguna manera”.

La integración de ChatGPT into Koko es parte de una asociación de larga data que se remonta a junio de 2020, con ChatGPT ayudando a los asistentes humanos a responder más de 30,000 mensajes.

Una respuesta mixta

La idea de una intervención de salud mental asistida por IA ha despertado una gran fascinación y un pequeño pero palpable grado de horror en las redes sociales.

Varias personas se ofendieron con la declaración de Morris de que una IA "suena poco auténtica" cuando simpatiza con los humanos.

Como usuario de Twitter AlmostStryder señaló, “No 'suena' falso, ES falso. La totalidad de la conversación es una de mímica optimizada”.

Muchos compartían ampliamente los mismos o similares sentimientos. Otros expresaron conmoción o disgusto y cuestionaron la ética de tal experimento en primer lugar.

Sin embargo, no todos estaban tan horrorizados. HienaMamá comparó la autenticidad favorablemente con la provisión de salud mental bajo el Servicio Nacional de Salud (NHS) del Reino Unido, "Se sintió falso cuando viniendo de mis profesionales de salud mental del NHS también... Tomaré GPT sobre eso en cualquier momento".

En cuanto al hecho de que los chatbots no tienen experiencia vivida, agregó, "los terapeutas y especialmente los psiquiatras y psicólogos tampoco podrían haber vivido la experiencia".

Anhelando cualquier compañía en absoluto

La respuesta inmediata al experimento de Koko parece sugerir que la humanidad está preparada para la empatía artificial, pero ¿eso podría cambiar con el tiempo?

Como pregunta el propio Morris: “¿Pueden las máquinas superar este [problema]? Probablemente."

Morris continúa: "Tal vez estamos tan desesperados por ser escuchados, por tener algo que realmente nos preste atención sin distraernos, sin mirar un teléfono o revisar el correo electrónico o Twitter, tal vez anhelamos eso tan profundamente que convencernos de que las máquinas realmente se preocupan por nosotros”.

Las aclaraciones causan más confusión

Morris ha respondido a la reacción violenta del reciente experimento de Koku, buscando sofocar las fuertes críticas que la organización ha enfrentado por parte de algunos sectores.

Lamentablemente, la aclaración solo parece causar más confusión.

Morris ahora afirma que todos los usuarios sabían que las respuestas se diseñaron con la ayuda de una inteligencia artificial y que nadie que buscaba ayuda chateó directamente con una IA.

"Esta característica fue opcional", dijo Morris antes de enturbiar las aguas una vez más al agregar. “Todos sabían sobre la función cuando estuvo activa durante unos días”.

Ya sea que los usuarios supieran sobre la función desde el principio o no, las consecuencias del experimento demuestran que existen trampas tangibles que se deben evitar al emplear la tecnología de IA en los servicios existentes.

Sello de tiempo:

Mas de MetaNoticias