I ricercatori esplorano le promesse e i pericoli dell'uso dell'intelligenza artificiale per combattere il cancro - Decrypt

I ricercatori esplorano le promesse e i pericoli dell'uso dell'intelligenza artificiale per combattere il cancro: decrittografia

L’intelligenza artificiale (AI) ha un enorme potenziale per accelerare i progressi nel campo della salute e della medicina, ma comporta anche dei rischi se non viene applicata con attenzione, come evidenziato dai risultati contrastanti di recenti studi sul trattamento del cancro.

Da un lato, la startup biotecnologica britannica Etcembly ha appena annunciato di essere in grado di utilizzare l’intelligenza artificiale generativa per progettare una nuova immunoterapia mirata ai tumori difficili da trattare. Questa rappresenta la prima volta che un candidato all'immunoterapia è stato sviluppato utilizzando l'intelligenza artificiale, ed Etcembly, che è membro del programma Inception di Nvidia, è stato in grado di crearlo in soli 11 mesi, o due volte più velocemente dei metodi convenzionali.

Il nuovo farmaco di Etcembly, chiamato ETC-101, è un coinvolgente bispecifico delle cellule T, il che significa che prende di mira una proteina presente in molti tumori e non nei tessuti sani. Dimostra anche affinità picomolare ed è quindi fino a un milione di volte più potente dei recettori naturali delle cellule T.

L’azienda afferma di avere anche una solida pipeline di altre immunoterapie per il cancro e le malattie autoimmuni progettate dal suo motore di intelligenza artificiale, chiamato EMLy.

Immagine: Etcembly

“Etcembly è nata dal nostro desiderio di riunire due concetti che sono all’avanguardia rispetto al mainstream scientifico – TCR e AI generativa – per progettare la prossima generazione di immunoterapie”, ha affermato il CEO Michelle Teng. “Sono entusiasta di portare avanti queste risorse in modo da poter trasformare il futuro delle terapie TCR in realtà e offrire trattamenti trasformativi ai pazienti”.

In precedenza, i ricercatori avevano dimostrato che l’intelligenza artificiale poteva aiutare predire risultati del trattamento sperimentale del cancro, competenze tecniche di screening del cancro, scoprire nuovi farmaci senolitici, individuare Segni della malattia di Parkinson e capire interazioni proteiche per progettare nuovi composti.

Pericoli derivanti dall'implementazione di un'IA non convalidata

D’altro canto permangono rischi significativi. Alcuni individui stanno iniziando a utilizzare chatbot IA invece di medici e terapisti, addirittura con una persona uccidendosi dopo aver seguito il consiglio dannoso di un chatbot.

Gli scienziati si stanno anche allineando all’idea che le persone non dovrebbero seguire ciecamente i consigli dell’intelligenza artificiale. Un nuovo studio pubblicato di JAMA Oncology suggerisce che ChatGPT presenta limiti critici nella generazione di piani di trattamento del cancro, sottolineando i rischi se le raccomandazioni dell’IA vengono implementate clinicamente senza un’ampia validazione. 

I ricercatori del Brigham and Women's Hospital di Boston hanno scoperto che le raccomandazioni terapeutiche di ChatGPT per vari casi di cancro contenevano molti errori fattuali e informazioni contraddittorie.

Secondo lo studio pubblicato su JAMA Oncology, su 104 domande, circa un terzo delle risposte di ChatGPT contenevano dettagli errati.

"Tutti i risultati con una raccomandazione includevano almeno 1 trattamento concordante con il NCCN, ma 35 su 102 (34.3%) di questi risultati raccomandavano anche 1 o più trattamenti non concordanti", ha rilevato lo studio.

Fonte: JAMA Oncologia

Sebbene il 98% dei piani includesse alcune linee guida precise, quasi tutti mescolavano contenuti giusti e sbagliati.

"Siamo rimasti colpiti dal grado in cui le informazioni errate si sono mescolate con fatti accurati, rendendo gli errori difficili da identificare, anche per gli specialisti", ha affermato la coautrice Dott.ssa Danielle Bitterman. 

Nello specifico, lo studio ha rilevato che il 12.5% delle raccomandazioni terapeutiche di ChatGPT erano completamente allucinate o fabbricate dal bot senza alcuna accuratezza fattuale. L’intelligenza artificiale ha dovuto affrontare particolari difficoltà nel generare terapie localizzate affidabili per i tumori avanzati e nell’uso appropriato di farmaci immunoterapici.

La stessa OpenAI avverte che ChatGPT non è destinato a fornire consulenza medica o servizi diagnostici per gravi condizioni di salute. Anche così, la tendenza del modello a rispondere con sicurezza con informazioni contraddittorie o false aumenta i rischi se implementato clinicamente senza una validazione rigorosa.

Mangiare veleno per formiche è un ovvio no, anche se te lo consiglia l'intelligenza artificiale del tuo supermercato, ovviamente, ma quando si tratta di termini accademici complessi e consigli delicati, dovresti parlare anche con un essere umano.

Con un’attenta validazione, gli strumenti basati sull’intelligenza artificiale potrebbero sbloccare rapidamente nuovi trattamenti salvavita evitando pericolosi passi falsi. Ma per ora, i pazienti fanno bene a considerare i consigli medici generati dall’intelligenza artificiale con una buona dose di scetticismo.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt