AI modellerer hjernen for å hjelpe oss med å se, høre og lage PlatoBlockchain-dataintelligens. Vertikalt søk. Ai.

AI modellerer hjernen for å hjelpe oss å se, høre og skape

Dette er en redigert versjon av et innlegg som opprinnelig ble kjørt her..


Nevrovitenskap og AI har en lang, sammenvevd historie. Pionerer innen kunstig intelligens så på prinsippene for organisering av hjernen som inspirasjon til å lage intelligente maskiner. I en overraskende reversering hjelper AI oss nå med å forstå selve kilden til inspirasjon: den menneskelige hjernen. Denne tilnærmingen til å bruke AI til å bygge modeller av hjernen blir referert til som neuroAI. I løpet av det neste tiåret vil vi gjøre stadig mer presise i silico hjernemodeller, spesielt modeller av våre to mest fremtredende sanser, syn og hørsel. Som et resultat vil vi kunne laste ned og bruke sensoriske modeller, på forespørsel, med samme bekvemmelighet som vi kan gjøre objektgjenkjenning eller naturlig språkbehandling.

Mange nevrovitenskapsmenn og kunstig intelligens-forskere er – forståelig nok! – veldig spent på dette: hjerner på forespørsel! Oppdage hva det vil si å se, føle, å være menneske! Mindre anerkjent er at det er brede praktiske anvendelser i industrien. Jeg har lenge vært forsker på dette feltet, etter å ha jobbet med hvordan hjernen transformerer syn til mening siden doktorgraden min. Jeg har sett utviklingen av feltet fra starten, og jeg tror nå er tiden inne for å forfølge hvordan neuroAI kan drive mer kreativitet og forbedre helsen vår. 

Jeg spår at neuroAI først vil finne utbredt bruk i kunst og reklame, spesielt når de kobles til nye generative AI-modeller som GPT-3 og DALL-E. Mens nåværende generative AI-modeller kan produsere kreativ kunst og medier, kan de ikke fortelle deg om det mediet til slutt vil kommunisere en melding til det tiltenkte publikummet – men neuroAI kan. For eksempel kan vi erstatte prøving og feiling av fokusgrupper og A/B-tester og direkte lage medier som kommuniserer akkurat det vi ønsker. Det enorme markedspresset rundt denne applikasjonen vil skape en god syklus som forbedrer neuroAI-modeller. 

De resulterende forbedrede modellene vil muliggjøre anvendelser innen helse i medisin, fra å hjelpe mennesker med nevrologiske problemer til å forbedre brønnens evner. Tenk deg å lage de riktige bildene og lydene for å hjelpe en person å gjenopprette synet eller hørselen raskere etter henholdsvis LASIK-operasjon eller etter å ha fått et cochleaimplantat. 

Disse innovasjonene vil bli gjort langt mer potente av andre teknologier som kommer på banen: utvidet virkelighet og hjerne-datamaskin-grensesnitt. For å fullt ut realisere den potensielle nytten av sensoriske systemer som kan lastes ned på etterspørsel, må vi fylle nåværende hull i verktøy, talent og finansiering.

I dette stykket skal jeg forklare hva neuroAI er, hvordan det kan begynne å utvikle seg og begynne å påvirke livene våre, hvordan det utfyller andre innovasjoner og teknologier, og hva som trengs for å presse det fremover.  

Hva er neuroAI?

NeuroAI er en fremvoksende disiplin som søker å 1) studere hjernen for å lære hvordan man bygger bedre kunstig intelligens og 2) bruke kunstig intelligens for å bedre forstå hjernen. Et av kjerneverktøyene til neuroAI er å bruke kunstige nevrale nett for å lage datamodeller av spesifikke hjernefunksjoner. Denne tilnærmingen ble kickstartet i 2014, da forskere ved MIT og Columbia viste at dype kunstige nevrale nett kunne forklare responser i en del av hjernen som gjenkjenner gjenstander: den inferotemporale cortex (IT). De introduserte en grunnleggende oppskrift for å sammenligne et kunstig nevrale nett med en hjerne. Ved å bruke denne oppskriften og gjenta iterative tester på tvers av hjerneprosesser – formgjenkjenning, bevegelsesbehandling, talebehandling, kontroll av armen, romlig hukommelse – bygger forskerne et lappeteppe av datamodeller for hjernen. 

En oppskrift for å sammenligne hjerner med maskiner

Så hvordan bygger du en NeuroAI-modell? Siden oppstarten i 2014 har feltet fulgt den samme grunnoppskriften:

1. Trene kunstige nevrale nettverk i silico for å løse en oppgave, for eksempel for objektgjenkjenning. Det resulterende nettverket kalles oppgaveoptimalisert. Viktigere er at dette vanligvis involverer trening på bare bilder, filmer og lyder, ikke hjernedata.

2. Sammenlign de mellomliggende aktiveringene av trente kunstige nevrale nettverk med ekte hjerneopptak. Sammenligning gjøres ved hjelp av statistiske teknikker som lineær regresjon eller representasjonslikhetsanalyse.

3. Velg den modellen med best ytelse som den nåværende beste modellen av disse områdene av hjernen.

Denne oppskriften kan brukes med data samlet inn i hjernen fra enkeltnevroner eller fra ikke-invasive teknikker som magneto-encefalografi (MEG) eller funksjonell magnetisk resonansavbildning (fMRI).

En neuroAI-modell av en del av hjernen har to hovedtrekk. Det kan beregnes: vi kan mate denne datamodellen med en stimulans, og den vil fortelle oss hvordan et hjerneområde vil reagere. Det er også differensierbart: det er et dypt nevralt nett som vi kan optimalisere på samme måte som vi optimaliserer modeller som løser visuell gjenkjenning og naturlig språkbehandling. Det betyr at nevrovitenskapsmenn får tilgang til alle de kraftige verktøyene som har drevet dyplæringsrevolusjonen, inkludert tensoralgebrasystemer som PyTorch og TensorFlow. 

Hva betyr dette? Vi gikk fra å ikke forstå store deler av hjernen til å kunne laste ned gode modeller av den på mindre enn et tiår. Med de riktige investeringene vil vi snart ha utmerkede modeller av store deler av hjernen. Det visuelle systemet var det første som ble modellert; hørselssystemet var ikke langt bak; og andre områder vil helt sikkert falle som dominobrikker når uforferdede nevrovitenskapsmenn skynder seg for å løse hjernens mysterier. Bortsett fra å tilfredsstille vår intellektuelle nysgjerrighet – en stor motivator for forskere! – vil denne innovasjonen tillate enhver programmerer å laste ned gode modeller av hjernen og låse opp utallige applikasjoner.

Bruksområder

Kunst og reklame

La oss starte med dette enkle premisset: 99 % av mediene vi opplever er gjennom våre øyne og ører. Det er hele bransjer som kan kokes ned til å levere de riktige pikslene og tonene til disse sansene: visuell kunst, design, filmer, spill, musikk og reklame er bare noen av dem. Nå er det ikke øynene og ørene våre selv som tolker disse opplevelsene, ettersom de bare er sensorer: det er hjernen vår som gir mening om denne informasjonen. Media er skapt for å informere, for å underholde, for å frembringe ønskede følelser. Men å avgjøre om budskapet i et maleri, et profesjonelt hodebilde eller en annonse mottas etter hensikten er en frustrerende øvelse i prøving og feiling: mennesker må være i løkken for å finne ut om meldingen treffer, noe som er dyrt og tid- forbruker.

Storskala nettjenester har funnet ut måter rundt dette ved å automatisere prøving-og-feil: A/B-tester. Google berømt testet hvilken av 50 nyanser av blått som skal brukes til lenkene på søkemotorens resultatside. I følge The Guardian forårsaket det beste valget forbedringer i inntekter over basislinjen på 200 millioner dollar i 2009, eller omtrent 1 % av Googles inntekter på det tidspunktet. Netflix tilpasser miniatyrbildene til seeren for å optimalisere brukeropplevelsen. Disse metodene er tilgjengelige for nettgiganter med massiv trafikk, som kan overvinne støyen som ligger i folks oppførsel.

Hva om vi kunne forutsi hvordan folk vil reagere på media før de får data? Dette vil gjøre det mulig for små bedrifter å optimere sine skriftlige materialer og nettsteder til tross for at de har liten forhåndseksisterende trekkraft. NeuroAI kommer nærmere og nærmere å kunne forutsi hvordan folk vil reagere på visuelle materialer. For eksempel forskere hos Adobe jobber med verktøy å forutsi og rette visuell oppmerksomhet i illustrasjoner.

Forskere har også demonstrert redigering av bilder for å lage dem mer visuelt minneverdig eller estetisk tilfredsstille. Den kan for eksempel brukes til å automatisk velge et profesjonelt hodebilde som passer best til bildet folk ønsker å projisere av seg selv – profesjonelt, seriøst eller kreativt. Kunstige nevrale nettverk kan til og med finne måter å kommunisere budskap på mer effektivt enn realistiske bilder. OpenAIs CLIP kan undersøkes for å finne bilder som er tilpasset følelser. Bildet som passer best til konseptet sjokk ville ikke være malplassert ved siden av Munchs skrik.

OpenAI CLIP maksimerende bilde for konseptet sjokk. Via OpenAI Microscope, utgitt under CC-BY 4.0.

I løpet av det siste året har OpenAI og Google demonstrert generative kunstnettverk med en imponerende evne til å generere fotorealistiske bilder fra tekstforespørsler. Vi har ikke helt truffet det øyeblikket for musikk, men med fremgangen i generative modeller, vil dette garantert skje i løpet av de neste årene. Ved å bygge maskiner som kan høre som mennesker, kan vi kanskje demokratisere musikkproduksjon, og gi hvem som helst muligheten til å gjøre det dyktige musikkprodusenter kan: å kommunisere de rette følelsene under et refreng, enten det er melankoli eller glede; å lage en øreorm av en melodi; eller for å gjøre et stykke uimotståelig dansbart.

Det er et enormt markedspress for å optimalisere audiovisuelle medier, nettsteder og spesielt annonser, og vi integrerer allerede neuroAI og algoritmisk kunst i denne prosessen. Dette presset vil føre til en god syklus der neuroAI vil bli bedre og mer nyttig ettersom flere ressurser blir brukt i praktiske applikasjoner. En bieffekt av det er at vi får veldig gode modeller av hjernen som vil være nyttige langt utenfor annonser. 

Tilgjengelighet og algoritmisk design

En av de mest spennende bruksområdene til neuroAI er tilgjengelighet. De fleste medier er designet for den "gjennomsnittlige" personen, men vi behandler alle visuell og auditiv informasjon forskjellig. 8 % av mennene og 0.5 % av kvinnene er rødgrønne fargeblinde, og en stor mengde medier er ikke tilpasset deres behov. Det finnes en rekke produkter som simulerer fargeblindhet i dag, men krever at en person med normalt fargesyn tolker resultatene og gjør nødvendige endringer. Statisk fargeremapping fungerer heller ikke for disse behovene, ettersom noen materialer ikke bevarer semantikken med fargeremapping (f.eks. grafer som blir vanskelige å lese). Vi kunne automatisere genereringen av fargeblindhetssikre materialer og nettsteder gjennom neuroAI-metoder som opprettholder semantikken til eksisterende grafikk.

Et annet eksempel er å hjelpe mennesker med lærevansker, som dysleksi, som rammer opptil 10 % av mennesker over hele verden. En av de underliggende problemene ved dysleksi er følsomhet for trengsel, som er vanskeligheten med å gjenkjenne former med lignende underliggende funksjoner, inkludert speilsymmetriske bokstaver som p og q. Anne Harrington og Arturo Deza ved MIT jobber med neuroAI-modeller som modellerer denne effekten og få noen veldig lovende resultater. Tenk deg å ta modeller av det dyslektiske visuelle systemet for å designe fonter som er både estetisk tiltalende og lettere å lese. Med riktig data om en bestemt persons visuelle system kan vi til og med tilpasse skrifttypen til en bestemt person, som har vist lovende for å forbedre leseytelsen. Dette er potensielt store forbedringer i livskvalitet som venter her.

Helse

Mange nevrovitenskapsmenn går inn i feltet med håp om at forskningen deres vil ha en positiv innvirkning på menneskers helse, spesielt for mennesker som lever med nevrologiske lidelser eller psykiske helseproblemer. Jeg håper veldig på at neuroAI vil låse opp nye terapier: med en god modell av hjernen kan vi lage de riktige stimuli slik at den riktige meldingen kommer til den, som om en nøkkel passer til en lås. I den forstand kan neuroAI brukes på samme måte som algoritmisk medikamentdesign, men i stedet for små molekyler leverer vi bilder og lyder. 

De mest tilgjengelige problemene involverer reseptorene i øynene og ørene, som allerede er godt karakterisert. Hundretusenvis av mennesker har fått cochleaimplantater, nevroproteser som elektrisk stimulerer øresneglen, slik at døve eller tunghørte kan høre igjen. Disse implantatene, som inneholder noen få dusin elektroder, kan være vanskelige å bruke i støyende omgivelser med flere høyttalere. En hjernemodell kan optimalisere stimuleringsmønsteret til implantatet for å forsterke tale. Det som er bemerkelsesverdig er at denne teknologien, utviklet for personer med implantater, kan tilpasses for å hjelpe mennesker uten implantater bedre å forstå tale ved å modifisere lyder i sanntid, enten de har en auditiv prosesseringsforstyrrelse eller de rett og slett er i høye omgivelser.

Mange opplever endringer i sansesystemene gjennom hele livet, enten det er å komme seg etter kataraktoperasjon eller bli nærsynt med alderen. Vi vet at etter en slik endring kan folk lære å re-tolke verden riktig gjennom repetisjon, et fenomen som kalles perseptuell læring. Vi kan kanskje maksimere denne perseptuelle læringen slik at folk kan gjenvinne ferdighetene sine raskere og mer effektivt. En lignende idé kan hjelpe folk som har mistet evnen til å bevege lemmene flytende etter et slag. Hvis vi kunne finne den riktige sekvensen av bevegelser for å styrke hjernen optimalt, kan vi kanskje hjelpe slagoverlevere med å gjenvinne mer funksjon, som å gå mer flytende eller bare holde en kopp kaffe uten å søle. I tillegg til å hjelpe folk med å gjenopprette tapte fysiske funksjoner, kan den samme ideen hjelpe friske mennesker til å oppnå maksimal sensorisk ytelse – enten de er baseballspillere, bueskyttere eller patologer.

Til slutt kunne vi se at disse ideene ble brukt til behandling av stemningslidelser. Jeg dro på mange visuelle kunstutstillinger for å lindre kjedsomheten min under pandemien, og det løftet humøret mitt enormt. Visuell kunst og musikk kan løfte humøret vårt, og det er et proof-of-concept som vi kan være i stand til å levere terapier for stemningslidelser gjennom sansene. Vi vet at å kontrollere aktiviteten til bestemte deler av hjernen med elektrisk stimulering kan lindre behandlingsresistent depresjon; kanskje kan det å kontrollere hjernens aktivitet indirekte gjennom sansene vise lignende effekter. Ved å distribuere enkle modeller – lavthengende frukt – som påvirker velforståtte deler av hjernen, vil vi få ballen i gang med å bygge mer komplekse modeller som kan hjelpe menneskers helse. 

Muliggjør teknologitrender

NeuroAI vil ta mange år å bli temmet og distribuert i applikasjoner, og det vil fange opp andre nye teknologitrender. Her trekker jeg spesielt frem to trender som vil gjøre neuroAI langt kraftigere: augmented reality (AR), som kan levere stimuli presist; og hjerne-datamaskin-grensesnitt (BCI), som kan måle hjerneaktivitet for å bekrefte at stimuli virker på forventet måte.  

Utvidet virkelighet

En trend som vil gjøre neuroAI-applikasjoner langt kraftigere er bruken av augmented reality-briller. Augmented reality (AR) har potensial til å bli en allestedsnærværende dataplattform, fordi AR integreres i dagliglivet.

Hypotesen til Michael Abrash, sjefforsker ved Meta Reality Labs, er at hvis du bygger tilstrekkelig dyktige AR-briller, vil alle ha dem. Det betyr å bygge verdensbevisste briller som kan skape vedvarende verdenslåste virtuelle objekter; lette og moteriktige rammer, som et par Ray-Bans; og gir deg virkelige superkrefter, som å kunne samhandle naturlig med mennesker uavhengig av avstand og forbedre hørselen din. Hvis du kan bygge disse – en stor teknisk utfordring – kan AR-briller følge en iPhone-lignende bane, slik at alle vil ha en (eller en knockoff) 5 år etter lansering.

For å gjøre dette til en realitet brukte Meta 10 milliarder dollar i fjor på FoU for metaversen. Selv om vi ikke vet sikkert hva Apple driver med, er det det sterke tegn på at de jobber med AR-briller. Så det er også et enormt trykk på tilbudssiden for å få AR til å skje.

Dette vil gjøre en skjermenhet allment tilgjengelig som er langt kraftigere enn dagens statiske skjermer. Hvis det følger banen til VR, vil den etter hvert ha integrert øyesporing. Dette ville bety en allment tilgjengelig måte å presentere stimuli på som er langt mer kontrollert enn det som er mulig for øyeblikket, en drøm for nevrovitenskapsmenn. Og disse enhetene vil sannsynligvis ha vidtrekkende helseapplikasjoner, som fortalt av Michael Abrash i 2017, for eksempel å forbedre synet i svakt lys, eller sette folk i stand til å leve et normalt liv til tross for makuladegenerasjon.

Betydningen for neuroAI er klar: vi kan levere den rette stimulansen på en svært kontrollert måte på en kontinuerlig basis i hverdagen. Dette gjelder for syn, og kanskje mindre åpenbart for hørsel, ettersom vi kan levere romlig lyd. Hva det betyr er at verktøyene våre for å få til neuroAI-terapier for mennesker med nevrologiske problemer eller tilgjengelighetsforbedringer vil bli langt kraftigere.

BCI

Med en flott skjerm og høyttalere kan vi kontrollere de viktigste inngangene til hjernen nøyaktig. Det neste, kraftigere stadiet i å levere stimuli gjennom sansene er å bekrefte at hjernen reagerer på den forventede måten gjennom et skrivebeskyttet hjerne-datamaskin-grensesnitt (BCI). Dermed kan vi måle effekten av stimuli på hjernen, og hvis de ikke er som forventet, kan vi justere deretter i det som kalles closed-loop-kontroll. 

For å være tydelig, her snakker jeg ikke om BCI-metoder som Neuralinks chip eller dype hjernestimulatorer som går inn i skallen; det er tilstrekkelig for disse formålene å måle hjerneaktivitet utenfor hodeskallen, ikke-invasivt. Du trenger heller ikke å stimulere hjernen direkte: briller og hodetelefoner er alt du trenger for å kontrollere de fleste av hjernens input.

Det er en rekke ikke-invasive skrivebeskyttede BCI-er som kommersialiseres i dag eller i rørledningen som kan brukes til kontroll med lukket sløyfe. Noen eksempler inkluderer:

  • EEG. Elektroencefalografi måler den elektriske aktiviteten til hjernen utenfor hodeskallen. Fordi skallen fungerer som en volumleder, har EEG høy tidsoppløsning, men lav romlig oppløsning. Selv om dette har begrenset forbrukeranvendelse til meditasjonsprodukter (Muse) og nisjeapplikasjoner for nevromarkedsføring, er jeg positivt innstilt på noen av bruksområdene i forbindelse med kontroll med lukket sløyfe. EEG kan være mye kraftigere når man har kontroll over stimulansen, fordi det er mulig å korrelere den presenterte stimulusen med EEG-signalet og dekode hva en person tok hensyn til (fremkalte potensielle metoder). Faktisk ble NextMind, som laget et EEG-basert "tankeklikk" basert på fremkalte potensialer, anskaffet av Snap, som nå lager AR-produkter. OpenBCI er planlegging å frigjøre et hodesett som integrerer EEG-sensorene med Varjos avanserte Aero-headset. Jeg ville ikke telle ut EEG.
  • fMRI. Funksjonell magnetisk resonansavbildning måler de små endringene i blodoksygenering assosiert med nevral aktivitet. Den er treg, den er ikke bærbar, den krever sitt eget rom og den er veldig dyr. Imidlertid er fMRI den eneste teknologien som ikke-invasivt kan lese aktivitet dypt i hjernen på en romlig presis måte. Det er to paradigmer som er ganske modne og relevante for nevral kontroll med lukket sløyfe. Den første er fMRI-basert biofeedback. Et underfelt av fMRI viser at folk kan modulere hjerneaktiviteten sin ved å presentere den visuelt på en skjerm eller hodetelefoner. Den andre er kortikal kartlegging, inkludert tilnærminger som populasjonsmottakelige felt og estimere voxel-selektivitet med filmklipp eller podcaster, som lar en anslå hvordan ulike hjerneområder reagerer på ulike visuelle og auditive stimuli. Disse to metodene antyder at det bør være mulig å estimere hvordan en neuroAI-intervensjon påvirker hjernen og styre den til å bli mer effektiv.
  • fNIRS. Funksjonell nær infrarød spektroskopi bruker diffust lys for å estimere cerebralt blodvolum mellom en sender og en reseptor. Den er avhengig av at blodet er ugjennomsiktig og økt nevral aktivitet fører til en forsinket blodtilstrømning i et gitt hjernevolum (samme prinsipp som fMRI). Konvensjonell NIRS har lav romlig oppløsning, men med time gating (TD-NIRS) og massiv oversampling (diffus optisk tomografi), er romlig oppløsning langt bedre. På den akademiske fronten, Joe Culvers gruppe på WUSTL har demonstrert dekoding av filmer fra den visuelle cortex. På den kommersielle fronten er Kernel nå lage og sende TD-NIRS headset som er imponerende ingeniørkunst. Og det er et område hvor folk fortsetter å presse og fremgangen er rask; min gamle gruppe på Meta demonstrerte en 32 ganger forbedring i signal-til-støy-forhold (som kan skaleres til >300) i en relatert teknikk.
  • MEG. Magnetoencefalografi måler små endringer i magnetiske felt, og lokaliserer dermed hjerneaktivitet. MEG ligner på EEG ved at det måler endringer i det elektromagnetiske feltet, men det lider ikke av volumledning og har derfor bedre romlig oppløsning. Bærbar MEG som ikke krever kjøling vil være en game changer for ikke-invasiv BCI. Folk gjør fremskritt med optisk pumpede magnetometre, og det er mulig å kjøpe individuelle OPM-sensorer på det åpne markedet, fra produsenter som QuSpin.

I tillegg til disse bedre kjente teknikkene, kan noen dark horse-teknologier som digital holografi, fotoakustisk tomografi og funksjonell ultralyd føre til raske paradigmeskifter i dette rommet.

Mens ikke-invasiv BCI av forbrukerkvalitet fortsatt er i sin spede begynnelse, er det en rekke markedspress rundt AR-brukstilfeller som vil gjøre kaken større. Faktisk er et betydelig problem for AR å kontrollere enheten: du vil ikke måtte gå rundt med en kontroller eller mumle til brillene dine hvis du kan unngå det. Bedrifter er ganske seriøse når det gjelder å løse dette problemet, noe som fremgår av Facebook som kjøper CTRL+Labs i 2019, Snap anskaffer NextMind, og Valve slår seg sammen med OpenBCI. Dermed vil vi sannsynligvis se lavdimensjonale BCI-er utvikles raskt. Høydimensjonale BCI-er kan følge samme bane hvis de finner en morderapp som AR. Det er mulig at den typen neuroAI-applikasjoner jeg tar til orde for her, er akkurat den riktige brukssaken for denne teknologien.

Hvis vi kan kontrollere input til øyne og ører samt måle hjernetilstander nøyaktig, kan vi levere neuroAI-baserte terapier på en overvåket måte for maksimal effekt.

Hva mangler på banen

Kjernevitenskapen bak NeuroAI-applikasjoner modnes raskt, og det er en rekke positive trender som vil øke dens generelle anvendelighet. Så hva mangler for å bringe neuroAI-applikasjoner til markedet?

  1. Verktøy. Andre underfelt innen AI har hatt enorm nytte av verktøykasser som muliggjør rask fremgang og deling av resultater. Dette inkluderer tensoralgebra-biblioteker som Tensorflow og PyTorch, treningsmiljøer som OpenAI Gym og økosystemer for å dele data og modeller som 🤗 HuggingFace. Et sentralisert depot av modeller og metoder, samt evalueringspakker, som potensielt kan utnytte rikelig med simuleringsdata, ville presse feltet fremover. Det er allerede et sterkt fellesskap av åpen kildekode-nevrovitenskapsorganisasjoner, og de kan fungere som naturlige verter for denne innsatsen.
  2. Talent. Det er et forsvinnende lite antall steder hvor forskning og utvikling gjøres i skjæringspunktet mellom nevrovitenskap og AI. Bay Area, med laboratorier i Stanford og Berkeley, og Boston metroområde med mange laboratorier ved MIT og Harvard vil sannsynligvis se mesteparten av investeringen fra det eksisterende venturekapitaløkosystemet. Et tredje sannsynlig knutepunkt er Montreal, Canada, løftet av massive nevrovitenskapelige avdelinger ved McGill og Universite de Montreal, kombinert med tiltrekningen av Mila, instituttet for kunstig intelligens grunnlagt av AI-pioneren Yoshua Bengio. Feltet vårt vil dra nytte av spesialiserte PhD-programmer og ekspertisesentre innen neuroAI for å kickstarte kommersialisering.
  3. Nye finansierings- og kommersialiseringsmodeller for medisinske applikasjoner. Medisinske applikasjoner har en lang vei til kommersialisering, og beskyttet åndsverk er vanligvis en forutsetning for å skaffe finansiering for å redusere risikoen for investeringer i teknologien. AI-baserte innovasjoner er notorisk vanskelige å patentere, og software-as-a-medical-device (SaMD) begynner bare å komme på markedet, noe som gjør veien til kommersialisering usikker. Vi trenger midler som er fokusert på å bringe sammen AI og medisinsk teknologiekspertise for å pleie dette gryende feltet. 

La oss bygge neuroAI

Forskere og filosofer har undret seg over hvordan hjerner fungerer i uminnelige tider. Hvordan gjør et tynt ark vev, en kvadratfot i areal, oss i stand til å se, høre, føle og tenke? NeuroAI hjelper oss å få tak i disse dype spørsmålene ved å bygge modeller av nevrologiske systemer i datamaskiner. Ved å tilfredsstille den grunnleggende tørsten etter kunnskap – hva vil det si å være menneske? – Nevrovitenskapsmenn bygger også verktøy som kan hjelpe millioner av mennesker til å leve et rikere liv.

Lagt ut 4. august 2022

Teknologi, innovasjon og fremtiden, som fortalt av de som bygger den.

Takk for at du registrerte deg.

Sjekk innboksen din for et velkomstbrev.

Tidstempel:

Mer fra Andreessen Horowitz