Kako se zdi, da transformatorji posnemajo dele možganov PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Kako se zdi, da transformatorji posnemajo dele možganov

Razumevanje, kako možgani organizirajo in dostopajo do prostorskih informacij – kje smo, kaj je za vogalom, kako priti tja – ostaja izjemen izziv. Proces vključuje priklic celotne mreže spominov in shranjenih prostorskih podatkov iz več deset milijard nevronov, od katerih je vsak povezan s tisoči drugih. Nevroznanstveniki so identificirali ključne elemente, kot so mrežne celice, nevroni, ki preslikajo lokacije. Toda iti globlje se bo izkazalo za težavno: raziskovalci ne morejo odstraniti in preučiti rezine človeške sive snovi, da bi opazovali, kako lokacijski spomini slik, zvokov in vonjav tečejo skozi in se med seboj povezujejo.

Umetna inteligenca ponuja še eno pot. Nevroznanstveniki že leta izkoriščajo številne vrste nevronskih mrež – motorje, ki poganjajo večino aplikacij za globoko učenje – za modeliranje proženja nevronov v možganih. V nedavnem delu so raziskovalci pokazali, da je hipokampus, struktura možganov, ki je ključnega pomena za spomin, v bistvu posebna vrsta nevronske mreže, znane kot transformator, v preobleki. Njihov novi model sledi prostorskim informacijam na način, ki je vzporeden z notranjim delovanjem možganov. Videli so izjemen uspeh.

"Dejstvo, da vemo, da so ti modeli možganov enakovredni transformatorju, pomeni, da naši modeli delujejo veliko bolje in jih je lažje trenirati," je dejal James Whittington, kognitivni nevroznanstvenik, ki svoj čas deli med univerzo Stanford in laboratorijem Tim Behrens na Univerzi v Oxfordu.

Študije Whittingtona in drugih namigujejo, da lahko transformatorji močno izboljšajo sposobnost modelov nevronske mreže, da posnemajo vrste izračunov, ki jih izvajajo mrežne celice in drugi deli možganov. Takšni modeli bi lahko spodbudili naše razumevanje delovanja umetnih nevronskih mrež in, še bolj verjetno, kako se v možganih izvajajo izračuni, je dejal Whittington.

"Ne poskušamo ponovno ustvariti možganov," je rekel David Ha, računalničar pri Google Brain, ki dela tudi na modelih transformatorjev. "Ali lahko ustvarimo mehanizem, ki lahko naredi to, kar počnejo možgani?"

Transformerji so se prvič pojavili pred petimi leti kot nov način za AI za obdelavo jezika. So skrivna omaka v tistih programih, ki zbujajo naslovnice in dopolnjujejo stavke, kot je BERTI in GPT-3, ki lahko ustvari prepričljiva besedila pesmi, sestavi Shakespearove sonete in posnema predstavnike službe za stranke.

Transformatorji delujejo z uporabo mehanizma, imenovanega samopozornost, v katerem je vsak vhod - beseda, piksel, številka v zaporedju - vedno povezan z vsakim drugim vhodom. (Druge nevronske mreže povezujejo vhode samo z določenimi drugimi vhodi.) Toda medtem ko so bili transformatorji zasnovani za jezikovne naloge, so od takrat blesteli pri drugih nalogah, kot je razvrščanje slik - in zdaj modeliranje možganov.

V letu 2020 je skupina pod vodstvom Sepp Hochreiter, računalniški znanstvenik na Univerzi Johannesa Keplerja v Linzu v Avstriji, je uporabil transformator za ponovno pripravo zmogljivega, dolgotrajnega modela pridobivanja pomnilnika, imenovanega Hopfieldovo omrežje. Ta omrežja, ki jih je pred 40 leti prvič predstavil fizik s Princetona John Hopfield, sledijo splošnemu pravilu: nevroni, ki so hkrati aktivni, gradijo močne medsebojne povezave.

Hochreiter in njegovi sodelavci, ki ugotavljajo, da so raziskovalci iskali boljše modele priklica spomina, so videli povezavo med tem, kako Hopfieldova omrežja pridobivajo spomine in kako transformatorji izvajajo pozornost. Nadgradili so Hopfieldovo omrežje in ga v bistvu spremenili v transformator. Ta sprememba je modelu omogočila shranjevanje in pridobivanje več spominov zaradi učinkovitejših povezav, je dejal Whittington. Sam Hopfield je skupaj z Dmitrijem Krotovim iz MIT-IBM Watson AI Lab dokazal, da je Hopfieldovo omrežje, ki temelji na transformatorju, biološko verjetno.

Nato v začetku tega leta, Whittington in Behrens sta pripomogla k nadaljnji prilagoditvi Hochreiterjevega pristopa in spreminjanju transformatorja, tako da namesto da bi spomine obravnaval kot linearno zaporedje - kot niz besed v stavku - jih je kodiral kot koordinate v prostorih višjih dimenzij. Ta "zasuk", kot so ga poimenovali raziskovalci, je še izboljšal uspešnost modela pri nevroznanstvenih nalogah. Pokazali so tudi, da je model matematično enakovreden modelom vzorcev proženja mrežnih celic, ki jih nevroznanstveniki vidijo pri skeniranju fMRI.

"Mrežne celice imajo tako vznemirljivo, lepo, pravilno strukturo in z osupljivimi vzorci, ki se verjetno ne bodo pojavili naključno," je dejal Caswell Barry, nevroznanstvenik na University College London. Novo delo je pokazalo, kako transformatorji natančno posnemajo tiste vzorce, opažene v hipokampusu. "Spoznali so, da lahko transformator ugotovi, kje je na podlagi prejšnjih stanj in kako se premika, in to na način, ki je vključen v tradicionalne modele mrežnih celic."

Druga nedavna dela kažejo, da bi lahko transformatorji izboljšali naše razumevanje tudi drugih možganskih funkcij. Lansko leto je Martin Schrimpf, računalniški nevroznanstvenik na tehnološkem inštitutu Massachusetts, analiziral 43 različnih modelov nevronske mreže da bi videli, kako dobro so napovedali meritve človeške živčne aktivnosti, kot sta jih poročala fMRI in elektrokortikografija. Ugotovil je, da so transformatorji trenutno vodilne, najsodobnejše nevronske mreže, ki napovedujejo skoraj vse variacije, ki jih najdemo v slikanju.

In Ha, skupaj s kolegom računalničarjem Yujin Tang, je pred kratkim zasnoval model, ki bi lahko namenoma pošiljal velike količine podatkov skozi transformator na naključen, neurejen način, ki posnema, kako človeško telo prenaša senzorična opazovanja v možgane. Njihov transformator bi tako kot naši možgani lahko uspešno obvladal neurejen pretok informacij.

"Nevronske mreže so trdo povezane, da sprejmejo določen vnos," je dejal Tang. Toda v resničnem življenju se nabori podatkov pogosto hitro spremenijo in večina umetne inteligence se ne more prilagoditi. "Želeli smo eksperimentirati z arhitekturo, ki se lahko zelo hitro prilagaja."

Kljub tem znakom napredka Behrens vidi transformatorje le kot korak k natančnemu modelu možganov - ne kot konec iskanja. "Tukaj moram biti skeptičen nevroznanstvenik," je dejal. "Mislim, da transformatorji ne bodo na koncu takšni, kot na primer razmišljamo o jeziku v možganih, čeprav imajo trenutno najboljši model stavkov."

»Ali je to najučinkovitejša osnova za napovedi o tem, kje sem in kaj bom videl naslednje? Če sem iskren, je še prezgodaj, da bi povedal,« je dejal Barry.

Tudi Schrimpf je opazil, da so tudi najuspešnejši transformatorji omejeni, dobro delujejo na primer za besede in kratke fraze, ne pa tudi za obsežnejše jezikovne naloge, kot je pripovedovanje zgodb.

"Mislim, da vas ta arhitektura, ta transformator, postavi v pravi prostor za razumevanje strukture možganov in ga je mogoče izboljšati z usposabljanjem," je dejal Schrimpf. "To je dobra smer, vendar je področje super zapleteno."

Časovni žig:

Več od Quantamagazine