Dincolo de hype, AI promite un avans pentru cercetarea științifică

Dincolo de hype, AI promite un avans pentru cercetarea științifică

Beyond the hype, AI promises leg up for scientific research PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ultimul deceniu a înregistrat progrese mari în aplicarea inteligenței artificiale la descoperirea științifică, dar practicienii trebuie să știe când și cum să își îmbunătățească utilizarea AI și trebuie să provoace calitatea slabă a datelor.

De la descoperirea de droguri, Știința materialelor, astrofizică și fuziune nucleară, oamenii de știință care folosesc IA văd rezultate în precizie îmbunătățită și timp de experiment redus.

Publicat astăzi în revista de cercetare Nature, o hartie de la o echipă de 30 de cercetători din întreaga lume evaluează progresele înregistrate în domeniul mult hypeed și înțelege ce trebuie făcut.

Organizat de Hanchen Wang, cercetător post-doctoral la Stanford Computer Science and Genentech Group, lucrarea subliniază că AI poate ajuta la „optimizarea parametrilor și funcțiilor, automatizarea procedurilor de colectare, vizualizare și procesare a datelor, explorând spații vaste de ipoteze candidate pentru a forma. teorii și generarea de ipoteze și estimarea incertitudinii acestora pentru a sugera experimente relevante.”

De exemplu, în astrofizică, o tehnică de învățare nesupravegheată pentru rețelele neuronale pentru eliminarea zgomotului, au fost utilizate autoencodere variaționale pentru a estima parametrii detectorului undelor gravitaționale pe baza modelelor de forme de undă ale găurilor negre preantrenate. „Această metodă este cu până la șase ordine de mărime mai rapidă decât metodele tradiționale, ceea ce face practic capturarea evenimentelor tranzitorii ale undelor gravitaționale”, se spune în lucrare.

Un alt exemplu vine din încercările de a realiza fuziunea nucleară. Cercetătorul Google DeepMind Jonas Degrave a dezvoltat un controler AI pentru a regla fuziunea nucleară prin câmpuri magnetice într-un reactor tokamak. Cercetătorii au arătat cum un agent AI ar putea face măsurători în timp real ale nivelurilor de tensiune electrică și ale configurațiilor plasmei pentru a ajuta la controlul câmpului magnetic și la atingerea țintelor experimentale.

„[Abordările de întărire-învățare s-au dovedit a fi eficiente pentru controlul magnetic al plasmelor tokamak, în care algoritmul interacționează cu simulatorul tokamak pentru a optimiza o politică de control al procesului”, se spune în lucrare.

Deși promițătoare, aplicarea AI în știință trebuie să se ridice la o serie de provocări pentru a deveni mai răspândită, susține lucrarea.

„Implementarea practică a unui sistem AI implică inginerie software și hardware complexă, necesitând o serie de pași interdependenți care merg de la curatarea și procesarea datelor până la implementarea algoritmului și proiectarea interfețelor utilizator și aplicație. Variațiile minore în implementare pot duce la schimbări considerabile ale performanței și pot avea un impact asupra succesului integrării modelelor AI în practica științifică. Prin urmare, trebuie luate în considerare atât standardizarea datelor, cât și a modelelor”, se spune.

Între timp, există o problemă în reproducerea rezultatelor asistate de IA din cauza abordării aleatorii sau stocastice a antrenării modelelor de învățare profundă. „Reperele standardizate și designul experimental pot atenua astfel de probleme. O altă direcție către îmbunătățirea reproductibilității este prin inițiative open-source care lansează modele deschise, seturi de date și programe educaționale”, adaugă lucrările de cercetare.

De asemenea, subliniază că Big Tech are puterea de a dezvolta AI pentru știință prin faptul că „cerințele de calcul și de date pentru calcularea acestor actualizări sunt colosale, rezultând o amprentă mare de energie și costuri de calcul ridicate”.

Resursele vaste și investițiile Big Tech în infrastructura de calcul și servicii cloud „împing limitele de scară și eficiență”.

Cu toate acestea, instituțiile de învățământ superior s-ar putea ajuta cu o mai bună integrare în mai multe discipline, exploatând în același timp bazele de date istorice unice și tehnologiile de măsurare care nu există în afara sectorului.

Lucrarea solicită dezvoltarea unui cadru etic care să protejeze împotriva aplicării greșite a IA în știință și o educație mai bună în toate domeniile științifice.

„Pe măsură ce sistemele AI se apropie de performanța care rivalizează și depășește oamenii, folosirea acesteia ca înlocuitor pentru munca de rutină de laborator devine fezabilă. Această abordare permite cercetătorilor să dezvolte modele predictive din date experimentale în mod iterativ și să selecteze experimente pentru a le îmbunătăți fără a efectua manual sarcini laborioase și repetitive. Pentru a sprijini această schimbare de paradigmă, apar programe educaționale pentru a instrui oamenii de știință în proiectarea, implementarea și aplicarea automatizării de laborator și a IA în cercetarea științifică. Aceste programe îi ajută pe oamenii de știință să înțeleagă când este adecvată utilizarea IA și să prevină concluziile interpretate greșit din analizele AI”, se spune.

Lucrarea notează că creșterea învățării profunde la începutul anilor 2010 a „extins în mod semnificativ sfera și ambiția acestor procese de descoperire științifică”.

La mai puțin de un deceniu mai târziu, Google DeepMind a susținut că software-ul său de învățare automată AlphaFold a prezis rapid structura proteinelor cu o acuratețe decentă, potențial un salt înainte în descoperirea medicamentelor. Pentru ca știința academică să aplice tehnici similare într-o gamă largă de discipline, trebuie să-și acționeze împreună pentru a concura cu buzunarele adânci ale Big Tech. ®

Timestamp-ul:

Mai mult de la Registrul