Los investigadores exploran la promesa y el peligro de utilizar la IA para combatir el cáncer - Decrypt

Los investigadores exploran la promesa y el peligro de utilizar la IA para combatir el cáncer – Decrypt

La inteligencia artificial (IA) tiene un enorme potencial para acelerar los avances en la salud y la medicina, pero también conlleva riesgos si no se aplica con cuidado, como lo demuestran los resultados contradictorios de estudios recientes sobre el tratamiento del cáncer.

Por un lado, la startup de biotecnología Etcembly, con sede en el Reino Unido, acaba de anunciar que pudo utilizar IA generativa para diseñar una nueva inmunoterapia dirigida a cánceres difíciles de tratar. Esta representa la primera vez que se desarrolla un candidato a inmunoterapia utilizando IA, y Etcembly, que es miembro del programa Inception de Nvidia, pudo crearlo en solo 11 meses, o el doble de rápido que los métodos convencionales.

La nueva terapia de Etcembly, llamada ETC-101, es un activador biespecífico de células T, lo que significa que se dirige a una proteína que se encuentra en muchos cánceres y no en tejidos sanos. También demuestra afinidad picomolar y, por lo tanto, es hasta un millón de veces más potente que los receptores naturales de células T.

La compañía dice que también tiene una sólida cartera de otras inmunoterapias para el cáncer y enfermedades autoinmunes diseñadas por su motor de inteligencia artificial, llamado EMLy.

Imagen: Etcembly

"Etcembly nació de nuestro deseo de reunir dos conceptos que están por delante de la corriente científica principal (TCR e IA generativa) para diseñar la próxima generación de inmunoterapias", dijo la directora ejecutiva, Michelle Teng. "Estoy emocionado de aprovechar estos activos para que podamos hacer realidad el futuro de la terapia TCR y brindar tratamientos transformadores a los pacientes".

Anteriormente, los investigadores demostraron que la IA podría ayudar predecir resultados del tratamiento experimental del cáncer, mejorar técnicas de detección del cáncer, descubrir nuevos fármacos senolíticos, detectar Signos de la enfermedad de Parkinson y entender interacciones de proteínas para diseñar nuevos compuestos.

Peligros de implementar una IA no validada

Por otra parte, persisten riesgos importantes. algunos individuos están empezando a utilizar chatbots de IA en lugar de médicos y terapeutas, con una persona incluso suicidándose después de seguir los dañinos consejos de un chatbot.

Los científicos también se están alineando con la idea de que las personas no deberían seguir ciegamente los consejos de la IA. Un nuevo estudio publicado de JAMA Oncology sugiere que ChatGPT tiene limitaciones críticas a la hora de generar planes de tratamiento del cáncer, lo que subraya los riesgos si las recomendaciones de IA se implementan clínicamente sin una validación exhaustiva. 

Los investigadores del Brigham and Women's Hospital de Boston descubrieron que las recomendaciones de tratamiento de ChatGPT para varios casos de cáncer contenían muchos errores fácticos e información contradictoria.

De 104 consultas, alrededor de un tercio de las respuestas de ChatGPT tenían detalles incorrectos, según el estudio publicado en JAMA Oncology.

"Todos los resultados con una recomendación incluyeron al menos 1 tratamiento concordante con la NCCN, pero 35 de 102 (34.3%) de estos resultados también recomendaron 1 o más tratamientos no concordantes", encontró el estudio.

Fuente: JAMA Oncología

Aunque el 98% de los planes incluían algunas pautas precisas, casi todos mezclaban contenido correcto e incorrecto.

"Nos sorprendió el grado en que la información incorrecta se mezclaba con hechos precisos, lo que hacía que los errores fueran difíciles de identificar, incluso para los especialistas", dijo la coautora, la Dra. Danielle Bitterman. 

Específicamente, el estudio encontró que el 12.5% de las recomendaciones de tratamiento de ChatGPT fueron completamente alucinadas o inventadas por el robot sin precisión objetiva. La IA enfrentó problemas especiales para generar terapias localizadas confiables para cánceres avanzados y el uso apropiado de medicamentos de inmunoterapia.

El propio OpenAI advierte que ChatGPT no está destinado a brindar asesoramiento médico ni servicios de diagnóstico para afecciones de salud graves. Aun así, la tendencia del modelo a responder con confianza con información contradictoria o falsa aumenta los riesgos si se implementa clínicamente sin una validación rigurosa.

Comer veneno para hormigas es un obvio no-no, incluso si La IA de tu supermercado te aconseja, obviamente, pero cuando se trata de términos académicos complejos y consejos delicados, también debes hablar con un humano.

Con una validación cuidadosa, las herramientas impulsadas por IA podrían desbloquear rápidamente nuevos tratamientos que salven vidas y al mismo tiempo evitar pasos en falso peligrosos. Pero por ahora, los pacientes hacen bien en ver los consejos médicos generados por IA con una buena dosis de escepticismo.

Manténgase al tanto de las noticias criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.

Sello de tiempo:

Mas de Descifrar