Recapitulare promisiuni și capcane – Partea a patra » Blog CCC

Recapitulare promisiuni și capcane – Partea a patra » Blog CCC

CCC a susținut trei sesiuni științifice la Conferința anuală AAAS din acest an. Săptămâna aceasta, vom rezuma cele mai importante momente ale sesiunii, „AI generativă în știință: promisiuni și capcane.” Acest panou, moderat de Dr. Matthew Turk, președinte al Institutului Tehnologic Toyota din Chicago), prezentate Dr. Rebecca Willett, profesor de statistică și informatică la Universitatea din Chicago, Dr. Markus Buehler, profesor de inginerie la Institutul de Tehnologie din Massachusetts și Dr. Duncan Watson-Parris, profesor asistent la Scripps Institution of Oceanography și Halıcıoğlu Data Science Institute din UC San Diego. În partea a patra, rezumăm porțiunea de întrebări și răspunsuri a panoului. 

O sesiune de întrebări și răspunsuri a urmat prezentărilor panelistului, iar dr. Matthew Turk a dat startul discuției. „„Promisiuni și capcane” se află în titlul acestui panou. Am discutat multe dintre promisiuni, dar nu am abordat multe dintre capcane. Ce vă îngrijorează cu privire la viitorul AI generativ?”

„Fiabilitatea și încrederea acestor modele reprezintă o mare preocupare”, a început dr. Rebecca Wilett. „Aceste modele pot prezice lucruri care sunt plauzibile, dar care lipsesc elemente cheie, proeminente; Pot, ca om, să recunosc că lipsește ceva acolo?”

Dr. Markus Buehler a adăugat că predicția reală a unui model poate dura o secundă, dar procesul experimental de validare poate dura luni sau un an sau mai mult. Deci, cum ar trebui să acţionăm între timp când nu am verificat rezultatele? „Trebuie, de asemenea, să educăm următoarea generație de dezvoltatori AI generativi, astfel încât să proiecteze modele care să fie de încredere și verificabile și să putem folosi informații bazate pe fizică în construirea acestor modele.”

Dr. Duncan Watson-Parris a construit pe ambele puncte anterioare, spunând „Deoarece aceste modele sunt concepute pentru a genera rezultate plauzibile, nu putem doar să ne uităm la rezultate pentru a verifica acuratețea lor. Cercetătorii de IA generativă trebuie să aibă o înțelegere profundă a modului în care funcționează aceste modele pentru a le verifica rezultatele, motiv pentru care educarea corectă a următoarei generații este atât de importantă.”

Membru al publicului: „În știința materialelor, cunoaștem direcția de urmat pentru studierea unor materiale, dar pentru altele, cum ar fi supraconductorii la temperatura camerei, nu știm cum să mergem mai departe. Cum credeți că va arăta calea de urmat în studierea acestor materiale necunoscute? Și cum ar trebui să fie activat acest tip de cercetare din punct de vedere normativ?”

„Ei bine, nu sunt un expert în cercetarea supraconductorilor”, a spus dr. Buehler, „deci nu voi vorbi direct despre asta, dar pot vorbi în general despre modul în care facem progrese în știința materialelor, în special în domeniul meu de proteine. și dezvoltarea biomaterialelor. Modul în care facem progrese este abilitatea de a împinge plicul. Facem noi experimente și testăm idei și teorii ciudate și vedem care funcționează și de ce. În ceea ce privește modul în care ar trebui să permitem această cercetare, avem nevoie de mai multe modele open-source cu acces colectiv. Aș încuraja politicienii să nu reglementeze excesiv aceste tehnologii, astfel încât cercetătorii și publicul să aibă acces la aceste tipuri de modele. Nu cred că este o idee bună să îi împiedicăm pe oameni să folosească aceste modele, mai ales atunci când putem aduna idei și dezvoltări și introducem cunoștințe din diverse domenii ale activității umane. De exemplu, când a fost inventată tipografia, autoritățile au încercat să limiteze disponibilitatea acestei tehnologii, astfel încât puține cărți să poată fi citite în masă, dar acest efort a eșuat lamentabil. Cel mai bun mod de a proteja publicul este de a facilita accesul la aceste modele astfel încât să le putem dezvolta, explora și evalua pe larg pentru beneficiul maxim al societății.”

Membru al publicului: „Cele mai multe modele AI generative de astăzi sunt modele de regresie care se concentrează pe simularea sau emularea diferitelor scenarii. Cu toate acestea, descoperirea în știință este alimentată de ipotezele și predicțiile pe care le visăm. Așadar, cum creăm modele care sunt menite să conceapă noi predicții în loc de modelele actuale care sunt utilizate în principal pentru experimentare?”

Dr. Buehler a răspuns primul, spunând: „Aveți dreptate, majoritatea modelelor tradiționale de învățare automată sunt adesea bazate pe regresie, dar modelele despre care am vorbit astăzi funcționează diferit. Când puneți împreună sisteme multi-agenți cu multe capacități, aceștia încep de fapt să exploreze noi scenarii și încep să raționeze și să facă predicții pe baza experimentelor pe care le-au efectuat. Ei devin mai umani. Tu, ca cercetător, nu ai derula un experiment și ai fi terminat – ai rula un experiment și apoi ai începe să te uiți la datele și să le validezi și să faci noi predicții pe baza acestor date, pentru a conecta punctele și a extrapola prin formulând ipoteze și imaginând cum s-ar desfășura un nou scenariu. Veți experimenta, ați colecta date noi, ați dezvolta o teorie și ați propune, poate, un cadru integrat despre o anumită problemă de interes. Apoi ți-ai apăra ideile împotriva criticilor colegilor tăi și poate ți-ai revizui ipoteza atunci când sunt folosite informații noi. Acesta este modul în care funcționează noile sisteme adverse multi-agenți, dar, desigur, completează abilitățile umane cu o capacitate mult mai mare de a raționa asupra unor cantități mari de date și reprezentări ale cunoștințelor. Aceste modele pot genera deja noi ipoteze care împing plicul mult dincolo de ceea ce a fost deja studiat, adăugând la procesul științific de descoperire și inovare.”

„Aș completa asta”, a intervenit dr. Willett, „cu zona descoperirii finalizării și regresiei simbolice ca fiind o altă zonă mult mai orientată spre generarea de ipoteze. Există multă muncă în desfășurare în acest spațiu.”

Membru al publicului: „Cum creștem accesul la aceste tipuri de modele și cum depășim obstacolele, cum ar fi majoritatea modelelor create pentru vorbitorii de engleză?”

Dr. Rebecca Willett a răspuns, spunând: „Mulți oameni au acces la utilizarea acestor modele, dar proiectarea și instruirea lor costă multe milioane de dolari. Dacă doar un mic set de organizații este capabil să creeze aceste modele, atunci doar un set foarte mic de oameni iau decizii și stabilesc prioritățile în comunitatea științifică. Și adesea prioritățile acestor organizații și indivizi sunt bazate pe profit. Acestea fiind spuse, cred că peisajul începe să se schimbe. Organizații precum NSF încearcă să construiască infrastructură care poate fi accesată de comunitatea științifică mai largă. Acest efort seamănă cu dezvoltarea timpurie a supercalculatoarelor. În primele zile, cercetătorii au trebuit să trimită propuneri lungi pentru a avea acces la un supercomputer. Cred că vom vedea paradigme similare emergente în AI și AI generativă.”

„Sunt de acord”, a spus dr. Watson-Parris. „Adăugând la asta din punct de vedere normativ, nu cred că ar trebui să reglementăm cercetarea de bază, poate spațiile de aplicare, dar nu cercetarea în sine.”

Vă mulțumim foarte mult pentru citire și rămâneți la curent cu recapitulările celorlalte două paneluri de la AAAS 2024.

Timestamp-ul:

Mai mult de la Blog CCC