Pesquisadores exploram a promessa e o perigo do uso de IA para combater o câncer

Pesquisadores exploram a promessa e o perigo do uso de IA para combater o câncer

A inteligência artificial (IA) tem um enorme potencial para acelerar os avanços na saúde e na medicina, mas também apresenta riscos se não for aplicada com cuidado, como evidenciado pelos resultados conflitantes de estudos recentes sobre o tratamento do cancro.

Por um lado, a startup de biotecnologia Etcembly, sediada no Reino Unido, acaba de anunciar que foi capaz de utilizar IA generativa para conceber uma nova imunoterapia que visa cancros difíceis de tratar. Isto representa a primeira vez que um candidato a imunoterapia foi desenvolvido usando IA, e a Etcembly – que é membro do programa Inception da Nvidia – foi capaz de criá-lo em apenas 11 meses, ou duas vezes mais rápido que os métodos convencionais.

A nova terapêutica da Etcembly, chamada ETC-101, é um acoplador de células T biespecífico, o que significa que tem como alvo uma proteína encontrada em muitos tipos de câncer e não em tecidos saudáveis. Também demonstra afinidade picomolar e, portanto, é até um milhão de vezes mais potente que os receptores naturais de células T.

A empresa afirma que também possui um pipeline robusto de outras imunoterapias para câncer e doenças autoimunes projetadas por seu mecanismo de IA, chamado EMLy.

Imagem: Etcembly

“A Etcembly nasceu do nosso desejo de reunir dois conceitos que estão à frente da corrente científica – TCRs e IA generativa – para projetar a próxima geração de imunoterapias”, disse a CEO Michelle Teng. “Estou entusiasmado em levar esses ativos adiante para que possamos tornar o futuro da terapêutica TCR uma realidade e trazer tratamentos transformadores aos pacientes”.

Anteriormente, os pesquisadores mostraram que a IA poderia ajudar predizer resultados experimentais do tratamento do câncer, melhorar técnicas de rastreio do cancro, descobrir novos medicamentos senolíticos, descobrir sinais da doença de Parkinson e compreender interações de proteínas para projetar novos compostos.

Perigos de implantar uma IA não validada

Por outro lado, permanecem riscos significativos. Alguns indivíduos estão começando a usar chatbots de IA em vez de médicos e terapeutas, com uma pessoa até se matando depois de seguir os conselhos prejudiciais de um chatbot.

Os cientistas também estão alinhando-se com a ideia de que as pessoas não devem seguir cegamente os conselhos da IA. Um novo estudo publicado da JAMA Oncology sugere que o ChatGPT tem limitações críticas ao gerar planos de tratamento do câncer, ressaltando os riscos se as recomendações de IA forem implementadas clinicamente sem validação extensiva. 

Pesquisadores do Brigham and Women's Hospital, em Boston, descobriram que as recomendações de tratamento do ChatGPT para vários casos de câncer continham muitos erros factuais e informações contraditórias.

Das 104 consultas, cerca de um terço das respostas do ChatGPT continham detalhes incorretos, de acordo com o estudo publicado na JAMA Oncology.

“Todos os resultados com recomendação incluíram pelo menos 1 tratamento concordante com a NCCN, mas 35 de 102 (34.3%) desses resultados também recomendaram 1 ou mais tratamentos não concordantes”, concluiu o estudo.

Fonte: JAMA Oncologia

Embora 98% dos planos incluíssem algumas diretrizes precisas, quase todos misturavam conteúdo certo e errado.

“Ficamos impressionados com o grau em que informações incorretas foram misturadas com fatos precisos, tornando os erros difíceis de identificar, mesmo para especialistas”, disse a coautora Dra. Danielle Bitterman. 

Especificamente, o estudo descobriu que 12.5% das recomendações de tratamento do ChatGPT foram completamente alucinadas ou fabricadas pelo bot, sem precisão factual. A IA enfrentou problemas específicos na geração de terapias localizadas confiáveis ​​para cânceres avançados e no uso apropriado de medicamentos imunoterápicos.

A própria OpenAI alerta que o ChatGPT não se destina a fornecer aconselhamento médico ou serviços de diagnóstico para problemas de saúde graves. Mesmo assim, a tendência do modelo para responder com confiança com informações contraditórias ou falsas aumenta os riscos se for implementado clinicamente sem validação rigorosa.

Comer veneno de formiga é uma proibição óbvia, mesmo que a IA do seu supermercado aconselha você a, obviamente, mas quando se trata de termos acadêmicos complexos e conselhos delicados, você também deve conversar com um ser humano.

Com uma validação cuidadosa, as ferramentas alimentadas por IA poderiam desbloquear rapidamente novos tratamentos que salvam vidas, evitando erros perigosos. Mas, por enquanto, é aconselhável que os pacientes vejam os conselhos médicos gerados pela IA com uma boa dose de ceticismo.

Fique por dentro das notícias sobre criptomoedas, receba atualizações diárias em sua caixa de entrada.

Carimbo de hora:

Mais de Descifrar