Cercetătorii explorează promisiunea și pericolul utilizării inteligenței artificiale pentru a lupta împotriva cancerului - Decriptează

Cercetătorii explorează promisiunea și pericolul utilizării inteligenței artificiale pentru a lupta împotriva cancerului – Decriptează

Inteligența artificială (IA) deține un potențial extraordinar de a accelera progresele în domeniul sănătății și al medicinei, dar vine și cu riscuri dacă nu este aplicată cu atenție, așa cum demonstrează rezultatele duelului din studiile recente privind tratamentul cancerului.

Pe de o parte, startup-ul biotehnologic Etcembly din Marea Britanie tocmai a anunțat că a putut să folosească IA generativă pentru a proiecta o nouă imunoterapie care vizează cancerele greu de tratat. Aceasta reprezintă prima dată când un candidat pentru imunoterapie a fost dezvoltat folosind AI, iar Etcembly, care este membru al programului Inception al Nvidia, a reușit să-l creeze în doar 11 luni sau de două ori mai repede decât metodele convenționale.

Noul agent terapeutic Etcembly, numit ETC-101, este un agent bispecific al celulelor T, ceea ce înseamnă că vizează o proteină găsită în multe tipuri de cancer și nu în țesutul sănătos. De asemenea, demonstrează afinitate picomolară și este astfel de până la un milion de ori mai puternic decât receptorii naturali ai celulelor T.

Compania spune că are, de asemenea, o serie de alte imunoterapii pentru cancer și boli autoimune concepute de motorul său AI, numit EMLy.

Imagine: Etcembly

„Etcembly s-a născut din dorința noastră de a reuni două concepte care sunt înaintea curentului științific – TCR și IA generativă – pentru a proiecta următoarea generație de imunoterapii”, a spus CEO Michelle Teng. „Sunt încântat să duc aceste active înainte, astfel încât să putem face viitorul terapiei TCR o realitate și să aducem tratamente transformatoare pacienților”.

Anterior, cercetătorii au arătat că AI ar putea ajuta prezice rezultate experimentale ale tratamentului cancerului, îmbunătăţi tehnici de screening pentru cancer, descoperi noi medicamente senolitice, detecta semnele bolii Parkinson și înţelege interacțiuni cu proteine ​​pentru a proiecta noi compuși.

Pericole de implementare a unui AI nevalidat

Pe de altă parte, există riscuri semnificative. Unii indivizi încep să folosească chatbot-uri AI în loc de medici și terapeuți, chiar și cu o singură persoană omorindu-se pe sine după ce ai urmat sfatul dăunător al unui chatbot.

Oamenii de știință se aliniază, de asemenea, ideii că oamenii nu ar trebui să urmeze orbește sfaturile AI. Un nou studiu publicat de JAMA Oncology sugerează că ChatGPT are limitări critice atunci când generează planuri de tratament pentru cancer, subliniind riscurile dacă recomandările AI sunt implementate clinic fără validare extinsă. 

Cercetătorii de la Brigham and Women's Hospital din Boston au descoperit că recomandările ChatGPT de tratament pentru diferite cazuri de cancer conțineau multe erori de fapt și informații contradictorii.

Din 104 de interogări, aproximativ o treime din răspunsurile ChatGPT au avut detalii incorecte, conform studiului publicat în JAMA Oncology.

„Toate rezultatele cu o recomandare au inclus cel puțin 1 tratament concordant NCCN, dar 35 din 102 (34.3%) dintre aceste rezultate au recomandat, de asemenea, 1 sau mai multe tratamente neconcordante”, a constatat studiul.

Sursa: JAMA Oncology

Deși 98% dintre planuri au inclus niște îndrumări precise, aproape toate au amestecat conținut corect și greșit.

„Am fost surprinși de gradul în care informațiile incorecte au fost combinate cu fapte exacte, făcând erori dificil de identificat – chiar și pentru specialiști”, a spus co-autorul dr. Danielle Bitterman. 

Mai exact, studiul a constatat că 12.5% dintre recomandările de tratament ale ChatGPT au fost complet halucinate sau fabricate de bot fără o acuratețe reală. AI s-a confruntat cu probleme deosebite în generarea de terapii localizate fiabile pentru cancerele avansate și utilizarea adecvată a medicamentelor pentru imunoterapie.

OpenAI însuși avertizează că ChatGPT nu este menit să ofere sfaturi medicale sau servicii de diagnosticare pentru afecțiuni grave de sănătate. Chiar și așa, tendința modelului de a răspunde cu încredere cu informații contradictorii sau false crește riscurile dacă este implementat clinic fără o validare riguroasă.

A mânca otravă de furnici este un nu-nu evident, chiar dacă AI-ul supermarketului tău te sfătuiește, evident, dar când vine vorba de termeni academici complexe și sfaturi delicate, ar trebui să vorbești și cu un om.

Cu o validare atentă, instrumentele bazate pe inteligență artificială ar putea debloca rapid noi tratamente care salvează vieți, evitând în același timp pașii greșiți periculoși. Dar, deocamdată, pacienții sunt înțelepți să vadă sfaturile medicale generate de AI cu o doză sănătoasă de scepticism.

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

Timestamp-ul:

Mai mult de la decriptaţi