Ca un copil, această inteligență artificială inspirată de creier își poate explica raționamentul

Ca un copil, această inteligență artificială inspirată de creier își poate explica raționamentul

Ca un copil, acest AI inspirat de creier își poate explica raționamentul PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Copiii sunt oameni de știință naturală. Ei observă lumea, formează ipoteze și le testează. În cele din urmă, ei învață să-și explice raționamentul (uneori încântător de hilar).

AI, nu atât. Nu există nicio îndoială că învățarea profundă – un tip de învățare automată bazată vag pe creier – schimbă dramatic tehnologia. De la prezicerea tiparelor meteorologice extreme până la proiectarea de noi medicamente sau diagnosticarea cancerelor mortale, IA este din ce în ce mai integrată la nivelul frontierele științei.

Dar învățarea profundă are un dezavantaj masiv: algoritmii nu își pot justifica răspunsurile. Adesea numită problema „cutiei negre”, această opacitate împiedică utilizarea lor în situații cu risc ridicat, cum ar fi în medicină. Pacienții doresc o explicație atunci când sunt diagnosticați cu o boală care le-a schimbat viața. Deocamdată, algoritmii bazați pe învățarea profundă – chiar dacă au o acuratețe ridicată de diagnosticare – nu pot furniza aceste informații.

Pentru a deschide cutia neagră, o echipă de la Universitatea din Texas Southwestern Medical Center a apelat la mintea umană pentru inspirație. În un studiu in Nature Computational Science, ei au combinat principiile din studiul rețelelor cerebrale cu o abordare mai tradițională AI, care se bazează pe blocuri explicabile.

AI rezultată se comportă un pic ca un copil. Condensează diferite tipuri de informații în „hub-uri”. Fiecare hub este apoi transcris în ghiduri de codare pe care oamenii să le citească - CliffsNotes pentru programatori care explică concluziile algoritmului despre modelele găsite în date în limba engleză simplă. De asemenea, poate genera cod de programare complet executabil pentru a-l încerca.

Denumită „distilare profundă”, AI funcționează ca un om de știință atunci când este provocat cu o varietate de sarcini, cum ar fi probleme dificile de matematică și recunoașterea imaginilor. Scotocind prin date, AI le distilează în algoritmi pas cu pas care îi pot depăși pe cei proiectați de om.

„Distilarea profundă este capabilă să descopere principii generalizabile complementare expertizei umane.” scris echipa în lucrarea lor.

Subtire ca hartia

AI greșește uneori în lumea reală. Luați robotaxis. Anul trecut, unii au rămas blocați în mod repetat într-un cartier din San Francisco - o pacoste pentru localnici, dar totuși au chicotit. Mai grav, vehiculele care se conduceau singure au blocat traficul și ambulanțele și, într-un caz, au afectat îngrozitor un pieton.

În domeniul sănătății și al cercetării științifice, pericolele pot fi și ele mari.

Când vine vorba de aceste domenii cu risc ridicat, algoritmii „necesită o toleranță scăzută la eroare”, dr. Joseph Bakarji de la Universitatea Americană din Beirut, care nu a fost implicat în studiu, scris într-o piesă însoțitoare despre lucrare.

Bariera pentru majoritatea algoritmilor de învățare profundă este inexplicabilitatea lor. Sunt structurate ca rețele cu mai multe straturi. Prin preluarea de tone de informații brute și primirea nenumărate runde de feedback, rețeaua își ajustează conexiunile pentru a produce în cele din urmă răspunsuri precise.

Acest proces se află în centrul învățării profunde. Dar se luptă atunci când nu există suficiente date sau dacă sarcina este prea complexă.

În 2021, echipa dezvoltat un AI care a avut o abordare diferită. Denumită raționament „simbolic”, rețeaua neuronală codifică reguli și experiențe explicite prin observarea datelor.

În comparație cu învățarea profundă, modelele simbolice sunt mai ușor de interpretat de către oameni. Gândiți-vă la IA ca la un set de blocuri Lego, fiecare reprezentând un obiect sau un concept. Ele se pot potrivi împreună în moduri creative, dar conexiunile urmează un set clar de reguli.

În sine, IA este puternică, dar fragilă. Se bazează în mare măsură pe cunoștințele anterioare pentru a găsi blocuri de construcție. Când este provocat de o situație nouă, fără experiență anterioară, nu poate să iasă din cutie - și se sparge.

Aici intervine neuroștiința. Echipa a fost inspirată de conectomi, care sunt modele ale modului în care diferite regiuni ale creierului lucrează împreună. Îmbinând această conectivitate cu raționamentul simbolic, au creat o IA care are baze solide și explicabile, dar care se poate adapta și flexibil atunci când se confruntă cu noi probleme.

În mai multe teste, modelul „neurocognitiv” a învins alte rețele neuronale profunde în sarcini care necesitau raționament.

Dar poate înțelege datele și algoritmii de ingineri pentru a-l explica?

O atingere umană

Una dintre cele mai dificile părți ale descoperirii științifice este observarea datelor zgomotoase și distilarea unei concluzii. Acest proces este ceea ce duce la noi materiale și medicamente, o înțelegere mai profundă a biologiei și perspective despre lumea noastră fizică. Adesea, este un proces repetitiv care durează ani de zile.

AI poate fi capabil să accelereze lucrurile și să găsească potențial modele care au scăpat minții umane. De exemplu, învățarea profundă a fost utilă în special în predicția structurilor proteinelor, dar raționamentul său pentru prezicerea acestor structuri este dificil de înțeles.

„Putem proiecta algoritmi de învățare care distilează observațiile în reguli simple și cuprinzătoare, așa cum o fac oamenii de obicei?” a scris Bakarji.

Noul studiu a luat modelul neurocognitiv existent al echipei și i-a oferit un talent suplimentar: capacitatea de a scrie cod.

Numită distilare profundă, AI grupează concepte similare, fiecare neuron artificial codificând un concept specific și conexiunea acestuia cu alții. De exemplu, un neuron ar putea învăța conceptul de pisică și știe că este diferit de un câine. Un alt tip gestionează variabilitatea atunci când este provocat cu o nouă imagine - să zicem, un tigru - pentru a determina dacă seamănă mai mult cu o pisică sau un câine.

Acești neuroni artificiali sunt apoi stivuiți într-o ierarhie. Cu fiecare strat, sistemul diferențiază din ce în ce mai mult concepte și în cele din urmă găsește o soluție.

În loc să analizeze AI cât mai multe date posibil, antrenamentul este pas cu pas — aproape ca și cum ai preda un copil mic. Acest lucru face posibilă evaluarea raționamentului AI pe măsură ce rezolvă treptat noi probleme.

În comparație cu antrenamentul standard al rețelei neuronale, aspectul auto-explicativ este încorporat în AI, a explicat Bakarji.

Într-un test, echipa a provocat AI cu un joc video clasic – Conway’s Game of Life. Dezvoltat pentru prima dată în anii 1970, jocul este despre creșterea unei celule digitale în diferite modele, având în vedere un set specific de reguli (încercați singur aici). Antrenată pe date simulate de joc, IA a fost capabilă să prezică rezultate potențiale și să-și transforme raționamentul în linii directoare care pot fi citite de om sau cod de programare pentru computer.

AI a funcționat bine și într-o varietate de alte sarcini, cum ar fi detectarea liniilor în imagini și rezolvarea problemelor dificile de matematică. În unele cazuri, a generat un cod de computer creativ care a depășit metodele stabilite – și a putut explica de ce.

Distilarea profundă ar putea fi un impuls pentru științele fizice și biologice, unde părțile simple dau naștere la sisteme extrem de complexe. O aplicație potențială a metodei este ca co-om de știință pentru cercetători care decodează funcțiile ADN. O mare parte din ADN-ul nostru este „materie întunecată”, în sensul că nu știm ce rol are, dacă este cazul. O IA explicabilă ar putea reduce secvențele genetice și ar putea ajuta geneticienii să identifice mutații rare care cauzează boli moștenite devastatoare.

În afara cercetării, echipa este încântată de perspectiva unei colaborări mai puternice între IA și om.

Abordări neurosimbolice ar putea permite mai multe capacități de învățare automată asemănătoare omului”, a scris echipa.

Bakarji este de acord. Noul studiu merge „dincolo de progresele tehnice, atingând provocările etice și societale cu care ne confruntăm astăzi”. Explicabilitatea ar putea funcționa ca o balustradă, ajutând sistemele AI să se sincronizeze cu valorile umane pe măsură ce sunt antrenate. Pentru aplicațiile cu risc ridicat, cum ar fi îngrijirea medicală, ar putea genera încredere.

Deocamdată, algoritmul funcționează cel mai bine atunci când rezolvă probleme care pot fi împărțite în concepte. Nu se poate ocupa de date continue, cum ar fi fluxurile video.

Acesta este următorul pas în distilarea profundă, a scris Bakarji. „Ar deschide noi posibilități în calculul științific și cercetarea teoretică”.

Credit imagine: 7AV 7AV / Unsplash 

Timestamp-ul:

Mai mult de la Singularity Hub