Som et barn kan denne hjerne-inspirerede AI forklare sin begrundelse

Som et barn kan denne hjerne-inspirerede AI forklare sin begrundelse

Som et barn kan denne hjerne-inspirerede AI forklare sin grund til PlatoBlockchain-dataintelligens. Lodret søgning. Ai.

Børn er naturvidenskabsmænd. De observerer verden, danner hypoteser og tester dem. Til sidst lærer de at forklare deres (til tider indtagende morsomme) ræsonnement.

AI, ikke så meget. Der er ingen tvivl om, at deep learning – en type maskinlæring løst baseret på hjernen – er ved at ændre teknologien dramatisk. Fra at forudsige ekstreme vejrmønstre til at designe ny medicin eller diagnosticere dødelige kræftformer, bliver kunstig intelligens i stigende grad integreret i videnskabens grænser.

Men deep learning har en massiv ulempe: Algoritmerne kan ikke retfærdiggøre deres svar. Ofte kaldet "den sorte boks"-problemet, forhindrer denne uigennemsigtighed deres brug i højrisikosituationer, såsom i medicin. Patienter ønsker en forklaring, når de diagnosticeres med en livsændrende sygdom. Indtil videre kan deep learning-baserede algoritmer – selvom de har høj diagnostisk nøjagtighed – ikke give den information.

For at åbne den sorte boks trykkede et hold fra University of Texas Southwestern Medical Center på det menneskelige sind for at få inspiration. I et studie in Natur Computational Science, kombinerede de principper fra studiet af hjernenetværk med en mere traditionel AI-tilgang, der er afhængig af forklarlige byggesten.

Den resulterende AI opfører sig lidt som et barn. Det kondenserer forskellige typer information til "hubs". Hver hub bliver derefter transskriberet til kodningsretningslinjer, som mennesker kan læse - CliffsNotes til programmører, der forklarer algoritmens konklusioner om mønstre, den fandt i dataene på almindeligt engelsk. Det kan også generere fuldt eksekverbar programmeringskode til at prøve.

Kaldet "dyb destillering" fungerer AI som en videnskabsmand, når den udfordres med en række opgaver, såsom vanskelige matematiske problemer og billedgenkendelse. Ved at rode gennem dataene destillerer AI dem til trin-for-trin algoritmer, der kan udkonkurrere menneskeligt designede.

"Dybdestillering er i stand til at opdage generaliserbare principper, der komplementerer menneskelig ekspertise," skrev holdet i deres papir.

Papir tyndt

AI tager nogle gange fejl i den virkelige verden. Tag robotakse. Sidste år satte nogle sig gentagne gange fast i et kvarter i San Francisco - til gene for lokalbefolkningen, men fik stadig et grin. Mere alvorligt blokerede selvkørende køretøjer for trafik og ambulancer, og i ét tilfælde skadede en fodgænger frygtelig.

I sundhedsvæsenet og videnskabelig forskning kan farerne også være store.

Når det kommer til disse højrisikodomæner, kræver algoritmer en lav tolerance for fejl, siger Dr. Joseph Bakarji fra American University of Beirut, som ikke var involveret i undersøgelsen, skrev i et ledsagende stykke om værket.

Barrieren for de fleste deep learning-algoritmer er deres uforklarlighed. De er struktureret som netværk i flere lag. Ved at indtage tonsvis af rå information og modtage utallige runder af feedback, justerer netværket sine forbindelser for til sidst at producere præcise svar.

Denne proces er kernen i dyb læring. Men det kæmper, når der ikke er nok data, eller hvis opgaven er for kompleks.

Tilbage i 2021, holdet udviklet en AI der tog en anden tilgang. Kaldet "symbolsk" ræsonnement, koder det neurale netværk eksplicitte regler og oplevelser ved at observere dataene.

Sammenlignet med dyb læring er symbolske modeller lettere for folk at fortolke. Tænk på AI som et sæt legoklodser, der hver repræsenterer et objekt eller koncept. De kan passe sammen på kreative måder, men forbindelserne følger et klart sæt regler.

I sig selv er AI kraftfuld, men skør. Den er stærkt afhængig af tidligere viden for at finde byggeklodser. Når den udfordres med en ny situation uden forudgående erfaring, kan den ikke tænke ud af boksen – og den går i stykker.

Det er her neurovidenskab kommer ind. Holdet blev inspireret af connectomes, som er modeller for, hvordan forskellige hjerneregioner arbejder sammen. Ved at kombinere denne forbindelse med symbolsk ræsonnement, lavede de en AI, der har solidt, forklarligt grundlag, men som også fleksibelt kan tilpasse sig, når de står over for nye problemer.

I flere test slog den "neurokognitive" model andre dybe neurale netværk på opgaver, der krævede ræsonnement.

Men kan det give mening med data og ingeniøralgoritmer til at forklare det?

Et menneskeligt præg

En af de sværeste dele af videnskabelig opdagelse er at observere støjende data og destillere en konklusion. Denne proces er det, der fører til nye materialer og medicin, dybere forståelse af biologi og indsigt om vores fysiske verden. Ofte er det en gentagen proces, der tager år.

AI kan muligvis fremskynde tingene og potentielt finde mønstre, der er undsluppet det menneskelige sind. For eksempel har dyb læring været særlig nyttig i forudsigelsen af ​​proteinstrukturer, men dens begrundelse for at forudsige disse strukturer er vanskelig at forstå.

"Kan vi designe læringsalgoritmer, der destillerer observationer til enkle, omfattende regler, som mennesker typisk gør?" skrev Bakarji.

Den nye undersøgelse tog holdets eksisterende neurokognitive model og gav den et yderligere talent: Evnen til at skrive kode.

Kaldet deep destillation grupperer AI lignende koncepter sammen, hvor hver kunstig neuron koder for et specifikt koncept og dets forbindelse til andre. For eksempel kan en neuron lære begrebet en kat og vide, at den er anderledes end en hund. En anden type håndterer variation, når den udfordres med et nyt billede - for eksempel en tiger - for at afgøre, om det er mere som en kat eller en hund.

Disse kunstige neuroner stables derefter i et hierarki. For hvert lag differentierer systemet i stigende grad koncepter og finder til sidst en løsning.

I stedet for at få AI til at knuse så meget data som muligt, er træningen trin-for-trin - næsten som at lære et lille barn. Dette gør det muligt at evaluere AI'ens ræsonnement, da det gradvist løser nye problemer.

Sammenlignet med standard træning i neurale netværk er det selvforklarende aspekt indbygget i AI, forklarede Bakarji.

I en test udfordrede holdet AI'en med et klassisk videospil - Conway's Game of Life. Spillet blev først udviklet i 1970'erne og handler om at dyrke en digital celle til forskellige mønstre givet et specifikt sæt regler (prøv det selv link.). Uddannet på simulerede spildata var AI'en i stand til at forudsige potentielle resultater og omdanne dens ræsonnement til menneskelæselige retningslinjer eller computerprogrammeringskode.

AI'en fungerede også godt i en række andre opgaver, såsom at opdage linjer i billeder og løse vanskelige matematiske problemer. I nogle tilfælde genererede den kreativ computerkode, der udkonkurrerede etablerede metoder – og var i stand til at forklare hvorfor.

Dybdestillering kan være et løft for fysiske og biologiske videnskaber, hvor simple dele giver anledning til ekstremt komplekse systemer. En potentiel anvendelse for metoden er som medforsker for forskere, der afkoder DNA-funktioner. Meget af vores DNA er "mørkt stof", idet vi ikke ved, hvilken – hvis nogen – rolle det har. En forklarelig AI kan potentielt knuse genetiske sekvenser og hjælpe genetikere med at identificere sjældne mutationer, der forårsager ødelæggende arvelige sygdomme.

Uden for forskning er holdet begejstret over udsigten til et stærkere AI-menneskeligt samarbejde.

"Neurosymbolske tilgange kunne potentielt give mulighed for mere menneskelignende maskinlæringsfunktioner,” skrev teamet.

Bakarji er enig. Den nye undersøgelse går "ud over tekniske fremskridt og berører etiske og samfundsmæssige udfordringer, vi står over for i dag." Forklarlighed kunne fungere som et autoværn, der hjælper AI-systemer med at synkronisere med menneskelige værdier, efterhånden som de trænes. Til højrisikoapplikationer, såsom lægebehandling, kan det skabe tillid.

Indtil videre fungerer algoritmen bedst, når man løser problemer, der kan opdeles i begreber. Det kan ikke håndtere kontinuerlige data, såsom videostreams.

Det er næste skridt i dyb destillering, skrev Bakarji. Det "ville åbne nye muligheder inden for videnskabelig databehandling og teoretisk forskning."

Billede Credit: 7AV 7AV / Unsplash 

Tidsstempel:

Mere fra Singularitet Hub