L'intelligenza artificiale sta modellando il cervello per aiutarci a vedere, ascoltare e creare data intelligence PlatoBlockchain. Ricerca verticale. Ai.

L'IA sta modellando il cervello per aiutarci a vedere, ascoltare e creare

Questa è una versione modificata di un post originariamente pubblicato qui.


La neuroscienza e l'IA hanno una lunga storia intrecciata. I pionieri dell'intelligenza artificiale hanno considerato i principi dell'organizzazione del cervello come ispirazione per creare macchine intelligenti. Con una sorprendente inversione di tendenza, l'IA ci sta ora aiutando a capire la sua stessa fonte di ispirazione: il cervello umano. Questo approccio all'utilizzo dell'IA per costruire modelli del cervello è indicato come neuroAI. Nel prossimo decennio, renderemo sempre più precisi in silico modelli cerebrali, in particolare modelli dei nostri due sensi più importanti, vista e udito. Di conseguenza, saremo in grado di scaricare e utilizzare modelli sensoriali, su richiesta, con la stessa comodità con cui possiamo eseguire il riconoscimento di oggetti o l'elaborazione del linguaggio naturale.

Molti neuroscienziati e ricercatori di intelligenza artificiale lo sono – comprensibilmente! – molto entusiasta di questo: cervelli su richiesta! Scoprire cosa significa vedere, sentire, essere umani! Meno ben noto è che ci sono ampie applicazioni pratiche nell'industria. Sono stato a lungo un ricercatore in questo campo, avendo lavorato su come il cervello trasforma la visione in significato sin dal mio dottorato di ricerca. Ho visto la progressione del campo sin dal suo inizio e penso che ora sia il momento di perseguire il modo in cui la neuroAI può guidare più creatività e migliorare la nostra salute. 

Prevedo che la neuroAI troverà prima un uso diffuso nell'arte e nella pubblicità, specialmente se collegata a nuovi modelli di IA generativa come GPT-3 e DALL-E. Sebbene gli attuali modelli di IA generativa possano produrre arte e media creativi, non possono dirti se quei media comunicheranno alla fine un messaggio al pubblico previsto, ma la neuroAI potrebbe. Ad esempio, potremmo sostituire i tentativi ed errori dei focus group e dei test A/B e creare direttamente dei media che comunichino esattamente ciò che vogliamo. Le enormi pressioni del mercato attorno a questa applicazione creeranno un circolo virtuoso che migliora i modelli di neuroAI. 

I modelli migliorati risultanti consentiranno applicazioni nella salute in medicina, dall'aiuto alle persone con problemi neurologici al miglioramento delle capacità del pozzo. Immagina di creare le immagini e i suoni giusti per aiutare una persona a recuperare la vista o l'udito più rapidamente dopo l'intervento chirurgico LASIK o dopo aver ricevuto un impianto cocleare, rispettivamente. 

Queste innovazioni saranno rese molto più potenti da altre tecnologie in arrivo: realtà aumentata e interfacce cervello-computer. Tuttavia, per realizzare appieno la potenziale utilità dei sistemi sensoriali scaricabili on demand, dovremo colmare le attuali lacune in termini di strumenti, talenti e finanziamenti.

In questo pezzo spiegherò cos'è la neuroAI, come potrebbe iniziare a evolversi e ad avere un impatto sulle nostre vite, come integra altre innovazioni e tecnologie e cosa è necessario per farla avanzare.  

Cos'è la neuroAI?

La NeuroAI è una disciplina emergente che cerca di 1) studiare il cervello per imparare a costruire una migliore intelligenza artificiale e 2) usare l'intelligenza artificiale per comprendere meglio il cervello. Uno degli strumenti principali della neuroAI è l'utilizzo di reti neurali artificiali per creare modelli computerizzati di specifiche funzioni cerebrali. Questo approccio è stato avviato nel 2014, quando i ricercatori di CON ed Columbia ha mostrato che le reti neurali artificiali profonde potrebbero spiegare le risposte in una parte del cervello che fa il riconoscimento degli oggetti: la corteccia inferotemporale (IT). Hanno introdotto una ricetta di base per confrontare una rete neurale artificiale con un cervello. Usando questa ricetta e ripetendo test iterativi attraverso i processi cerebrali - riconoscimento della forma, elaborazione del movimento, elaborazione del parlato, controllo del braccio, memoria spaziale - gli scienziati stanno costruendo un mosaico di modelli informatici per il cervello. 

Una ricetta per confrontare i cervelli con le macchine

Quindi, come si costruisce un modello NeuroAI? Fin dalla sua nascita nel 2014, il campo ha seguito la stessa ricetta di base:

1. Addestrare reti neurali artificiali in silico per risolvere un compito, ad esempio per il riconoscimento di oggetti. La rete risultante è denominata ottimizzata per le attività. È importante sottolineare che questo in genere comporta l'allenamento solo su immagini, filmati e suoni, non sui dati del cervello.

2. Confronta le attivazioni intermedie di reti neurali artificiali addestrate con registrazioni cerebrali reali. Il confronto viene eseguito utilizzando tecniche statistiche come la regressione lineare o l'analisi della somiglianza rappresentativa.

3. Scegli il modello più performante come il miglior modello attuale di queste aree del cervello.

Questa ricetta può essere applicata con i dati raccolti all'interno del cervello da singoli neuroni o da tecniche non invasive come la magnetoencefalografia (MEG) o la risonanza magnetica funzionale (fMRI).

Un modello neuroAI di una parte del cervello ha due caratteristiche chiave. È calcolabile: possiamo fornire uno stimolo a questo modello di computer e ci dirà come reagirà un'area del cervello. È anche differenziabile: è una rete neurale profonda che possiamo ottimizzare nello stesso modo in cui ottimizziamo i modelli che risolvono il riconoscimento visivo e l'elaborazione del linguaggio naturale. Ciò significa che i neuroscienziati hanno accesso a tutti i potenti strumenti che hanno alimentato la rivoluzione del deep learning, inclusi i sistemi di algebra tensoriale come PyTorch e TensorFlow. 

Cosa significa questo? Siamo passati dal non capire grossi pezzi del cervello all'essere in grado di scaricarne buoni modelli in meno di un decennio. Con i giusti investimenti, avremo presto ottimi modelli di grandi porzioni di cervello. Il sistema visivo è stato il primo ad essere modellato; il sistema uditivo non era da meno; e altre aree cadranno sicuramente come un domino mentre intrepidi neuroscienziati si affretteranno a risolvere i misteri del cervello. Oltre a soddisfare la nostra curiosità intellettuale, un grande motivatore per gli scienziati!, questa innovazione consentirà a qualsiasi programmatore di scaricare buoni modelli del cervello e sbloccare una miriade di applicazioni.

Campi di applicazione

Arte e pubblicità

Cominciamo con questa semplice premessa: il 99% dei media che sperimentiamo è attraverso i nostri occhi e le nostre orecchie. Ci sono interi settori che possono essere ridotti a fornire i giusti pixel e toni a questi sensi: arte visiva, design, film, giochi, musica e pubblicità sono solo alcuni di questi. Ora, non sono i nostri occhi e le nostre orecchie ad interpretare queste esperienze, poiché sono semplicemente dei sensori: sono i nostri cervelli che danno un senso a queste informazioni. I media sono creati per informare, intrattenere, suscitare le emozioni desiderate. Ma determinare se il messaggio in un dipinto, in un primo piano professionale o in un annuncio viene ricevuto come previsto è un esercizio frustrante di tentativi ed errori: gli esseri umani devono essere in loop per determinare se il messaggio arriva, il che è costoso e dispendioso in termini di tempo. consumare.

I servizi online su larga scala hanno trovato il modo di aggirare questo problema automatizzando tentativi ed errori: test A/B. Google famoso testato quale delle 50 sfumature di blu utilizzare per i collegamenti nella pagina dei risultati del motore di ricerca. Secondo The Guardian, la scelta migliore ha comportato miglioramenti nelle entrate rispetto alla linea di base di 200 milioni di dollari nel 2009, o all'incirca 1% delle entrate di Google in quel momento. Netflix personalizza le miniature allo spettatore per ottimizzare la sua esperienza utente. Questi metodi sono disponibili per i giganti online con traffico massiccio, che possono superare il rumore insito nel comportamento delle persone.

E se potessimo prevedere come reagiranno le persone ai media prima di ottenere qualsiasi dato? Ciò consentirebbe alle piccole imprese di ottimizzare i propri materiali scritti e siti Web nonostante abbiano poca trazione preesistente. NeuroAI si sta avvicinando sempre di più alla possibilità di prevedere come reagiranno le persone ai materiali visivi. Ad esempio, i ricercatori in Adobe stanno lavorando su strumenti per prevedere e dirigere l'attenzione visiva nelle illustrazioni.

I ricercatori hanno anche dimostrato di modificare le foto per realizzarle più visivamente memorabile o esteticamente piacevole. Potrebbe essere utilizzato, ad esempio, per selezionare automaticamente un primo piano professionale più allineato all'immagine che le persone vogliono proiettare di se stesse: professionale, seria o creativa. Le reti neurali artificiali possono persino trovare modi per comunicare messaggi in modo più efficace rispetto alle immagini realistiche. Il CLIP di OpenAI può essere sondato per trovare immagini che siano allineate alle emozioni. L'immagine meglio allineata al concetto di shock non sarebbe fuori luogo accanto a Munch's Scream.

OpenAI CLIP massimizza l'immagine per il concetto di shock. Tramite il microscopio OpenAI, rilasciato sotto CC-BY 4.0.

Nell'ultimo anno, OpenAI e Google hanno dimostrato reti di arte generativa con un'impressionante capacità di generare immagini fotorealistiche da messaggi di testo. Non abbiamo ancora raggiunto quel momento per la musica, ma con il ritmo dei progressi nei modelli generativi, questo accadrà sicuramente nei prossimi anni. Costruendo macchine in grado di ascoltare come gli esseri umani, potremmo essere in grado di democratizzare la produzione musicale, dando a chiunque la possibilità di fare ciò che i produttori musicali altamente qualificati possono fare: comunicare la giusta emozione durante un ritornello, che sia malinconia o gioia; creare un orecchio di una melodia; o per rendere un pezzo irresistibilmente ballabile.

Ci sono enormi pressioni di mercato per ottimizzare i media audiovisivi, i siti Web e soprattutto gli annunci pubblicitari, e stiamo già integrando la neuroAI e l'arte algoritmica in questo processo. Questa pressione porterà a un circolo virtuoso in cui la neuroAI diventerà migliore e più utile man mano che più risorse verranno riversate nelle applicazioni pratiche. Un effetto collaterale di ciò è che otterremo ottimi modelli del cervello che saranno utili ben al di fuori degli annunci. 

Accessibilità e progettazione algoritmica

Una delle applicazioni più interessanti della neuroAI è l'accessibilità. La maggior parte dei media è progettata per la persona "media", ma tutti elaboriamo le informazioni visive e uditive in modo diverso. L'8% degli uomini e lo 0.5% delle donne sono daltonici rosso-verdi e una grande quantità di media non è adattata alle loro esigenze. Esistono numerosi prodotti che simulano il daltonismo oggi, ma richiedono che una persona con una normale visione dei colori interpreti i risultati e apporti le modifiche necessarie. Anche la rimappatura statica dei colori non funziona per queste esigenze, poiché alcuni materiali non conservano la loro semantica con la rimappatura dei colori (ad es. grafici che diventano difficili da leggere). Potremmo automatizzare la generazione di materiali e siti Web sicuri dal daltonismo attraverso metodi di neuroAI che mantengono la semantica della grafica esistente.

Un altro esempio è aiutare le persone con difficoltà di apprendimento, come la dislessia, che colpiscono fino al 10% delle persone nel mondo. Uno dei problemi alla base della dislessia è sensibilità all'affollamento, che è la difficoltà a riconoscere forme con caratteristiche sottostanti simili, comprese lettere speculari come p e q. Anne Harrington e Arturo Deza al MIT stanno lavorando su modelli di neuroAI che modellano questo effetto e ottenendo risultati molto promettenti. Immagina di prendere modelli del sistema visivo dislessico per progettare caratteri che siano sia esteticamente piacevoli che più facili da leggere. Con i dati giusti sul sistema visivo di una persona specifica, possiamo anche personalizzare il carattere per un individuo specifico, che ha mostrato risultati promettenti nel migliorare le prestazioni di lettura. Questi sono potenzialmente grandi miglioramenti nella qualità della vita che aspettano qui.

Salute e benessere

Molti neuroscienziati entrano nel campo con la speranza che la loro ricerca abbia un impatto positivo sulla salute umana, in particolare per le persone che vivono con disturbi neurologici o problemi di salute mentale. Sono molto fiducioso che la neuroAI sblocchi nuove terapie: con un buon modello del cervello, possiamo creare gli stimoli giusti in modo che arrivi il messaggio giusto, come una chiave si inserisce in una serratura. In questo senso, la neuroAI potrebbe essere applicata in modo simile alla progettazione algoritmica di farmaci, ma invece di piccole molecole, forniamo immagini e suoni. 

I problemi più affrontabili riguardano i recettori degli occhi e delle orecchie, che sono già ben caratterizzati. Centinaia di migliaia di persone hanno ricevuto impianti cocleari, neuroprotesi che stimolano elettricamente la coclea dell'orecchio, consentendo ai non udenti o con problemi di udito di udire di nuovo. Questi impianti, che contengono poche dozzine di elettrodi, possono essere difficili da usare in ambienti rumorosi con più altoparlanti. Un modello di cervello può ottimizzare il pattern di stimolazione dell'impianto per amplificare il discorso. Ciò che è straordinario è che questa tecnologia, sviluppata per le persone con impianti, potrebbe essere adattata per aiutare le persone senza impianti a comprendere meglio il parlato modificando i suoni in tempo reale, indipendentemente dal fatto che abbiano un disturbo dell'elaborazione uditiva o semplicemente si trovino frequentemente in ambienti rumorosi.

Molte persone sperimentano cambiamenti nei loro sistemi sensoriali nel corso della loro vita, sia che si tratti di riprendersi da un intervento di cataratta o di diventare miopi con l'età. Sappiamo che dopo un tale cambiamento, le persone possono imparare a reinterpretare correttamente il mondo attraverso la ripetizione, un fenomeno chiamato apprendimento percettivo. Potremmo essere in grado di massimizzare questo apprendimento percettivo in modo che le persone possano riguadagnare le proprie abilità in modo più rapido ed efficace. Un'idea simile potrebbe aiutare le persone che hanno perso la capacità di muovere gli arti in modo fluido dopo un ictus. Se potessimo trovare la giusta sequenza di movimenti per rafforzare il cervello in modo ottimale, potremmo essere in grado di aiutare i sopravvissuti a un ictus a riacquistare più funzionalità, come camminare in modo più fluido o semplicemente tenere una tazza di caffè senza rovesciarla. Oltre ad aiutare le persone a recuperare le funzioni fisiche perse, la stessa idea potrebbe aiutare le persone sane a raggiungere le massime prestazioni sensoriali, che si tratti di giocatori di baseball, arcieri o patologi.

Infine, abbiamo potuto vedere queste idee applicate al trattamento dei disturbi dell'umore. Sono andato a molte mostre di arte visiva per alleviare la mia noia durante la pandemia e ha sollevato tremendamente il mio umore. L'arte visiva e la musica possono sollevare il nostro spirito, ed è una prova di concetto che potremmo esserlo in grado di fornire terapie per i disturbi dell'umore attraverso i sensi. Sappiamo che il controllo dell'attività di parti specifiche del cervello con la stimolazione elettrica può alleviare la depressione resistente al trattamento; forse controllare l'attività del cervello indirettamente attraverso i sensi potrebbe mostrare effetti simili. Distribuendo modelli semplici - frutti a bassa pendenza - che interessano parti del cervello ben comprese, daremo il via alla costruzione di modelli più complessi che possono aiutare la salute umana. 

Tendenze tecnologiche abilitanti

NeuroAI impiegherà molti anni per essere domato e implementato nelle applicazioni e intercetterà altre tendenze tecnologiche emergenti. Qui evidenzierò in particolare due tendenze che renderanno la neuroAI molto più potente: la realtà aumentata (AR), che può fornire stimoli con precisione; e le interfacce cervello-computer (BCI), che possono misurare l'attività cerebrale per verificare che gli stimoli agiscano nel modo previsto.  

Realtà aumentata

Una tendenza che renderà le applicazioni neuroAI molto più potenti è l'adozione di occhiali per realtà aumentata. La realtà aumentata (AR) ha il potenziale per diventare una piattaforma informatica onnipresente, perché l'AR si integra nella vita quotidiana.

L'ipotesi di Michael Abrash, scienziato capo di Meta Reality Labs, è che se costruisci occhiali AR sufficientemente capaci, tutti li vorranno. Ciò significa costruire occhiali consapevoli del mondo in grado di creare oggetti virtuali persistenti bloccati nel mondo; montature leggere e alla moda, come un paio di Ray-Ban; e darti superpoteri nella vita reale, come poterlo fare interagire in modo naturale con le persone indipendentemente dalla distanza ed migliorare il tuo udito. Se riesci a costruirli, un'enorme sfida tecnica, gli occhiali AR potrebbero seguire una traiettoria simile a quella di un iPhone, in modo tale che tutti ne avranno uno (o un knockoff) 5 anni dopo il lancio.

Per renderlo una realtà, Meta ha speso 10 miliardi di dollari l'anno scorso in ricerca e sviluppo per il metaverso. Anche se non sappiamo con certezza cosa stia combinando Apple, ci sono forti segnali che stanno lavorando su occhiali AR. Quindi c'è anche un'enorme spinta dal lato dell'offerta per realizzare l'AR.

Ciò renderà ampiamente disponibile un dispositivo di visualizzazione molto più potente degli odierni schermi statici. Se esso segue la traiettoria di VR, alla fine avrà integrato il tracciamento oculare. Ciò significherebbe un modo ampiamente disponibile di presentare gli stimoli che è molto più controllato di quanto sia attualmente possibile, un sogno per i neuroscienziati. È probabile che questi dispositivi abbiano applicazioni sanitarie di vasta portata, come raccontato da Michael Abrash nel 2017, come migliorare la vista in condizioni di scarsa illuminazione o consentire alle persone di vivere una vita normale nonostante la degenerazione maculare.

Il significato per la neuroAI è chiaro: potremmo fornire lo stimolo giusto in modo altamente controllato su base continua nella vita di tutti i giorni. Questo è vero per la vista, e forse meno ovviamente per l'udito, poiché possiamo fornire un audio spaziale. Ciò significa che i nostri strumenti per realizzare terapie neuroAI per persone con problemi neurologici o per migliorare l'accessibilità diventeranno molto più potenti.

BCI

Con un ottimo display e altoparlanti, possiamo controllare con precisione i principali input del cervello. La fase successiva, più potente per fornire stimoli attraverso i sensi, è verificare che il cervello stia reagendo nel modo previsto attraverso un'interfaccia cervello-computer (BCI) di sola lettura. Pertanto, possiamo misurare gli effetti degli stimoli sul cervello e, se non sono come previsto, possiamo adattarci di conseguenza in quello che viene chiamato controllo a circuito chiuso. 

Per essere chiari, qui non sto parlando di metodi BCI come il chip di Neuralink o stimolatori del cervello profondo che vanno all'interno del cranio; è sufficiente per questi scopi misurare l'attività cerebrale al di fuori del cranio, in modo non invasivo. Non c'è nemmeno bisogno di stimolare direttamente il cervello: occhiali e cuffie sono tutto ciò che serve per controllare la maggior parte degli input del cervello.

Esistono numerosi BCI non invasivi di sola lettura commercializzati oggi o in cantiere che potrebbero essere utilizzati per il controllo a circuito chiuso. Alcuni esempi includono:

  • EEG. L'elettroencefalografia misura l'attività elettrica del cervello al di fuori del cranio. Poiché il cranio funge da conduttore di volume, l'EEG ha un'elevata risoluzione temporale ma una bassa risoluzione spaziale. Sebbene ciò abbia limitato l'applicazione dei consumatori ai prodotti di meditazione (Muse) e applicazioni di neuromarketing di nicchia, sono ottimista su alcuni dei suoi usi nel contesto del controllo a circuito chiuso. L'EEG può essere molto più potente quando si ha il controllo sullo stimolo, perché è possibile correlare lo stimolo presentato con il segnale EEG e decodificare ciò a cui una persona stava prestando attenzione (metodi potenziali evocati). In effetti, è stato acquisito NextMind, che ha eseguito un "click mentale" basato su EEG basato sui potenziali evocati di Snap, che ora produce prodotti AR. OpenBCI è pianificazione per rilasciare una cuffia che integra i suoi sensori EEG con la cuffia Aero di fascia alta di Varjo. Non conterei l'EEG.
  • risonanza magnetica. La risonanza magnetica funzionale misura i piccoli cambiamenti nell'ossigenazione del sangue associati all'attività neurale. È lento, non è portatile, richiede una stanza tutta sua ed è molto costoso. Tuttavia, fMRI rimane l'unica tecnologia in grado di leggere in modo non invasivo l'attività in profondità nel cervello in modo spazialmente preciso. Ci sono due paradigmi che sono abbastanza maturi e rilevanti per il controllo neurale ad anello chiuso. Il primo è il biofeedback basato su fMRI. Un sottocampo di fMRI mostra che le persone possono modulare la propria attività cerebrale presentandola visivamente su uno schermo o in cuffia. Il secondo è la mappatura corticale, inclusi approcci come i campi ricettivi della popolazione e stima della selettività voxel con filmati o podcast, che consentono di stimare come diverse aree cerebrali rispondono a diversi stimoli visivi e uditivi. Questi due metodi suggeriscono che dovrebbe essere possibile stimare come un intervento di neuroAI influenzi il cervello e guidarlo per essere più efficace.
  • fNIRS. La spettroscopia funzionale nel vicino infrarosso utilizza la luce diffusa per stimare il volume del sangue cerebrale tra un trasmettitore e un recettore. Si basa sul fatto che il sangue è opaco e l'aumento dell'attività neurale porta a un afflusso di sangue ritardato in un dato volume cerebrale (stesso principio della fMRI). Il NIRS convenzionale ha una bassa risoluzione spaziale, ma con il time gating (TD-NIRS) e il massiccio sovracampionamento (tomografia ottica diffusa), la risoluzione spaziale è di gran lunga migliore. Sul fronte accademico, Il gruppo di Joe Culver al WUSTL hanno dimostrato la decodifica di film dalla corteccia visiva. Sul fronte commerciale, Kernel è ora produzione e spedizione di cuffie TD-NIRS che sono prodezze di ingegneria impressionanti. Ed è un'area in cui le persone continuano a spingere e il progresso è rapido; il mio vecchio gruppo a Meta ha dimostrato un miglioramento di 32 volte nel rapporto segnale-rumore (che potrebbe essere ridimensionato a> 300) in una tecnica correlata.
  • MEG. La magnetoencefalografia misura piccoli cambiamenti nei campi magnetici, localizzando così l'attività cerebrale. MEG è simile all'EEG in quanto misura i cambiamenti nel campo elettromagnetico, ma non soffre di conduzione del volume e quindi ha una migliore risoluzione spaziale. Il MEG portatile che non richiede refrigerazione sarebbe un punto di svolta per il BCI non invasivo. Le persone stanno facendo progressi con i magnetometri a pompaggio ottico ed è possibile acquistare singoli sensori OPM sul mercato aperto, da produttori come QuSpin.

Oltre a queste tecniche più note, alcune tecnologie del cavallo oscuro come l'olografia digitale, la tomografia fotoacustica e gli ultrasuoni funzionali potrebbero portare a rapidi cambiamenti di paradigma in questo spazio.

Sebbene la BCI non invasiva di livello consumer sia ancora agli inizi, ci sono una serie di pressioni di mercato intorno ai casi d'uso di AR che renderanno la torta più grande. In effetti, un problema significativo per AR è il controllo del dispositivo: non devi andare in giro con un controller o borbottare agli occhiali se puoi evitarlo. Le aziende sono piuttosto serie nel risolvere questo problema, come dimostrato dall'acquisto di CTRL+Labs da parte di Facebook in 2019, Snap acquisisce NextMind e Valve collabora con OpenBCI. Pertanto, è probabile che si sviluppino rapidamente BCI a bassa dimensione. I BCI ad alta dimensione potrebbero seguire la stessa traiettoria se trovano un'app killer come AR. È possibile che i tipi di applicazioni di neuroAI che sostengo qui siano proprio il caso d'uso giusto per questa tecnologia.

Se siamo in grado di controllare l'input agli occhi e alle orecchie e misurare con precisione gli stati cerebrali, possiamo fornire terapie basate sulla neuroAI in modo monitorato per la massima efficacia.

Cosa manca dal campo

La scienza di base dietro le applicazioni NeuroAI sta maturando rapidamente e ci sono una serie di tendenze positive che aumenteranno la sua applicabilità generale. Quindi cosa manca per portare sul mercato le applicazioni di neuroAI?

  1. Utensili. Altri sottocampi all'interno dell'IA hanno beneficiato enormemente dei toolbox che consentono un rapido progresso e la condivisione dei risultati. Questo include librerie di algebra tensoriale come Tensorflow e PyTorch, ambienti di allenamento come OpenAI Gym ed ecosistemi per condividere dati e modelli come 🤗 HuggingFace. Un repository centralizzato di modelli e metodi, nonché suite di valutazione, potenzialmente sfruttando abbondanti dati di simulazione, farebbero avanzare il campo. Esiste già una forte comunità di organizzazioni di neuroscienze open source e potrebbero fungere da host naturali per questi sforzi.
  2. Talento. C'è un numero esiguo di luoghi in cui la ricerca e lo sviluppo si svolgono all'intersezione tra neuroscienza e intelligenza artificiale. La Bay Area, con i laboratori a Stanford e Berkeley, e l'area metropolitana di Boston con numerosi laboratori al MIT e ad Harvard, vedranno probabilmente la maggior parte degli investimenti dal preesistente ecosistema di capitale di rischio. Un terzo hub probabile è Montreal, in Canada, grazie agli enormi dipartimenti di neuroscienze della McGill e dell'Universite de Montreal, combinati con l'attrazione di Mila, l'istituto di intelligenza artificiale fondato dal pioniere dell'IA Yoshua Bengio. Il nostro campo beneficerebbe di programmi di dottorato specializzati e centri di eccellenza in neuroAI per avviare la commercializzazione.
  3. Nuovi modelli di finanziamento e commercializzazione per applicazioni mediche. Le applicazioni mediche hanno una lunga strada verso la commercializzazione e la proprietà intellettuale protetta è solitamente un prerequisito per ottenere finanziamenti per ridurre il rischio di investimenti nella tecnologia. Le innovazioni basate sull'intelligenza artificiale sono notoriamente difficili da brevettare e il software-as-a-medical-device (SaMD) sta appena iniziando ad arrivare sul mercato, rendendo incerta la strada verso la commercializzazione. Avremo bisogno di fondi incentrati sull'unione delle competenze di intelligenza artificiale e tecnologia medica per coltivare questo campo nascente. 

Costruiamo la neuroAI

Scienziati e filosofi si sono interrogati su come funzionano i cervelli da tempo immemorabile. In che modo un sottile foglio di tessuto, di un metro quadrato di superficie, ci consente di vedere, ascoltare, sentire e pensare? NeuroAI ci sta aiutando a gestire queste domande profonde costruendo modelli di sistemi neurologici nei computer. Soddisfacendo quella fondamentale sete di conoscenza, cosa significa essere umani? – i neuroscienziati stanno anche costruendo strumenti che potrebbero aiutare milioni di persone a vivere una vita più ricca.

Inserito il 4 agosto 2022

Tecnologia, innovazione e futuro, raccontato da chi lo costruisce.

Grazie per esserti iscritto.

Controlla la tua casella di posta per una nota di benvenuto.

Timestamp:

Di più da Andreessen Horowitz