KI modelliert das Gehirn, um uns zu helfen, PlatoBlockchain-Datenintelligenz zu sehen, zu hören und zu erstellen. Vertikale Suche. Ai.

KI modelliert das Gehirn, um uns beim Sehen, Hören und Schaffen zu helfen

Dies ist eine bearbeitete Version eines Beitrags, der ursprünglich lief hier.


Neurowissenschaft und KI haben eine lange, miteinander verflochtene Geschichte. Pioniere der künstlichen Intelligenz betrachteten die Prinzipien der Organisation des Gehirns als Inspiration für die Herstellung intelligenter Maschinen. In einer überraschenden Umkehrung hilft uns die KI jetzt, ihre eigentliche Inspirationsquelle zu verstehen: das menschliche Gehirn. Dieser Ansatz, KI zum Erstellen von Gehirnmodellen zu verwenden, wird als NeuroAI bezeichnet. In den nächsten zehn Jahren werden wir immer präziser werden in silico Gehirnmodelle, insbesondere Modelle unserer beiden wichtigsten Sinne, Sehen und Hören. Infolgedessen können wir sensorische Modelle bei Bedarf herunterladen und verwenden, und zwar mit der gleichen Bequemlichkeit wie bei der Objekterkennung oder der Verarbeitung natürlicher Sprache.

Viele Neurowissenschaftler und Forscher der künstlichen Intelligenz sind – verständlicherweise! – sehr gespannt darauf: brains on demand! Entdecken, was es heißt, zu sehen, zu fühlen, Mensch zu sein! Weniger bekannt ist, dass es breite praktische Anwendungen in der Industrie gibt. Ich forsche seit langem auf diesem Gebiet und arbeite seit meiner Promotion daran, wie das Gehirn Visionen in Bedeutung umwandelt. Ich habe die Weiterentwicklung des Feldes von Anfang an miterlebt, und ich denke, jetzt ist es an der Zeit, zu untersuchen, wie neuroAI mehr Kreativität fördern und unsere Gesundheit verbessern kann. 

Ich gehe davon aus, dass neuroAI zunächst in Kunst und Werbung weit verbreitet sein wird, insbesondere in Verbindung mit neuen generativen KI-Modellen wie GPT-3 und DALL-E. Während aktuelle generative KI-Modelle kreative Kunst und Medien hervorbringen können, können sie Ihnen nicht sagen, ob diese Medien letztendlich eine Botschaft an das beabsichtigte Publikum übermitteln werden – neuroAI könnte dies jedoch tun. Zum Beispiel könnten wir das Trial-and-Error von Fokusgruppen und A/B-Tests ersetzen und direkt Medien erstellen, die genau das kommunizieren, was wir wollen. Der enorme Marktdruck rund um diese Anwendung wird einen positiven Kreislauf schaffen, der neuroKI-Modelle verbessert. 

Die daraus resultierenden verbesserten Modelle werden Anwendungen im Gesundheitsbereich in der Medizin ermöglichen, von der Unterstützung von Menschen mit neurologischen Problemen bis hin zur Verbesserung der Fähigkeiten des Brunnens. Stellen Sie sich vor, die richtigen Bilder und Töne zu erzeugen, um einer Person zu helfen, ihr Seh- oder Hörvermögen nach einer LASIK-Operation bzw. nach dem Einsetzen eines Cochlea-Implantats schneller wiederzuerlangen. 

Diese Innovationen werden durch andere kommende Technologien weitaus wirkungsvoller gemacht: Augmented Reality und Gehirn-Computer-Schnittstellen. Um jedoch den potenziellen Nutzen von auf Abruf herunterladbaren Sensorsystemen voll auszuschöpfen, müssen wir die derzeitigen Lücken in Bezug auf Werkzeuge, Talent und Finanzierung schließen.

In diesem Artikel erkläre ich, was neuroAI ist, wie sie sich entwickeln und unser Leben beeinflussen könnte, wie sie andere Innovationen und Technologien ergänzt und was erforderlich ist, um sie voranzutreiben.  

Was ist neuroAI?

NeuroAI ist eine aufstrebende Disziplin, die versucht, 1) das Gehirn zu untersuchen, um zu lernen, wie man eine bessere künstliche Intelligenz baut, und 2) künstliche Intelligenz zu nutzen, um das Gehirn besser zu verstehen. Eines der Kernwerkzeuge der neuroKI ist die Verwendung künstlicher neuronaler Netze zur Erstellung von Computermodellen bestimmter Gehirnfunktionen. Dieser Ansatz wurde 2014 gestartet, als Forscher bei MIT und Columbia zeigten, dass tiefe künstliche neuronale Netze Reaktionen in einem Teil des Gehirns erklären können, der die Objekterkennung durchführt: dem inferotemporalen Kortex (IT). Sie stellten ein Grundrezept vor, um ein künstliches neuronales Netz mit einem Gehirn zu vergleichen. Mit diesem Rezept und wiederholten iterativen Tests über Gehirnprozesse – Formerkennung, Bewegungsverarbeitung, Sprachverarbeitung, Kontrolle des Arms, räumliches Gedächtnis – bauen Wissenschaftler ein Flickenteppich von Computermodellen für das Gehirn auf. 

Ein Rezept für den Vergleich von Gehirnen mit Maschinen

Wie baut man also ein NeuroAI-Modell? Seit seiner Gründung im Jahr 2014 folgt das Feld dem gleichen Grundrezept:

1. Künstliche neuronale Netze in silico trainieren, um eine Aufgabe zu lösen, beispielsweise zur Objekterkennung. Das resultierende Netzwerk wird als aufgabenoptimiert bezeichnet. Wichtig ist, dass dies normalerweise nur mit Bildern, Filmen und Tönen trainiert wird, nicht mit Gehirndaten.

2. Vergleichen Sie die zwischenzeitlichen Aktivierungen trainierter künstlicher neuronaler Netze mit echten Gehirnaufzeichnungen. Der Vergleich erfolgt mit statistischen Techniken wie linearer Regression oder repräsentativer Ähnlichkeitsanalyse.

3. Wählen Sie das leistungsfähigste Modell als aktuell bestes Modell dieser Bereiche des Gehirns aus.

Dieses Rezept kann mit Daten angewendet werden, die im Gehirn von einzelnen Neuronen oder von nicht-invasiven Techniken wie Magnetenzephalographie (MEG) oder funktioneller Magnetresonanztomographie (fMRI) gesammelt wurden.

Ein neuroAI-Modell eines Teils des Gehirns hat zwei Hauptmerkmale. Es ist berechenbar: Wir können dieses Computermodell mit einem Reiz füttern und es wird uns sagen, wie ein Gehirnbereich reagieren wird. Es ist auch differenzierbar: Es ist ein tiefes neuronales Netz, das wir auf die gleiche Weise optimieren können, wie wir Modelle optimieren, die die visuelle Erkennung und die Verarbeitung natürlicher Sprache lösen. Das bedeutet, dass Neurowissenschaftler Zugang zu all den leistungsstarken Tools erhalten, die die Deep-Learning-Revolution vorangetrieben haben, einschließlich Tensor-Algebra-Systemen wie PyTorch und TensorFlow. 

Was bedeutet das? In weniger als einem Jahrzehnt haben wir es geschafft, große Teile des Gehirns nicht zu verstehen und gute Modelle davon herunterzuladen. Mit den richtigen Investitionen werden wir bald hervorragende Modelle großer Teile des Gehirns haben. Das visuelle System war das erste, das modelliert wurde; das auditive System war nicht weit dahinter; und andere Bereiche werden sicherlich wie Dominosteine ​​umfallen, wenn unerschrockene Neurowissenschaftler sich beeilen, die Rätsel des Gehirns zu lösen. Abgesehen von der Befriedigung unserer intellektuellen Neugier – eine große Motivation für Wissenschaftler! – wird diese Innovation es jedem Programmierer ermöglichen, gute Modelle des Gehirns herunterzuladen und unzählige Anwendungen freizuschalten.

Anwendungsgebiete

Kunst und Werbung

Beginnen wir mit dieser einfachen Prämisse: 99 % der Medien, die wir erleben, erleben wir durch unsere Augen und Ohren. Es gibt ganze Branchen, die darauf reduziert werden können, diesen Sinnen die richtigen Pixel und Töne zu liefern: Bildende Kunst, Design, Filme, Spiele, Musik und Werbung sind nur einige davon. Nun, es sind nicht unsere Augen und Ohren selbst, die diese Erfahrungen interpretieren, da sie lediglich Sensoren sind: Es ist unser Gehirn, das diese Informationen sinnvoll verarbeitet. Medien werden geschaffen, um zu informieren, zu unterhalten, gewünschte Emotionen hervorzurufen. Aber festzustellen, ob die Botschaft in einem Gemälde, einem professionellen Porträtfoto oder einer Anzeige wie beabsichtigt ankommt, ist eine frustrierende Übung mit Trial-and-Error: Menschen müssen auf dem Laufenden sein, um festzustellen, ob die Botschaft ankommt, was teuer und zeitaufwändig ist. verbrauchen.

Große Online-Dienste haben Wege gefunden, dies zu umgehen, indem sie Trial-and-Error-A/B-Tests automatisieren. Google berühmt getestet, welche der 50 Blautöne für die Links auf der Ergebnisseite der Suchmaschine verwendet werden sollen. Laut The Guardian führte die beste Wahl zu Umsatzsteigerungen gegenüber dem Ausgangswert von 200 Mio. $ im Jahr 2009 oder ungefähr 1 % des damaligen Umsatzes von Google. Netflix passt die Thumbnails an an den Betrachter, um seine Benutzererfahrung zu optimieren. Diese Methoden stehen Online-Giganten mit massivem Datenverkehr zur Verfügung, die das dem Verhalten der Menschen innewohnende Rauschen überwinden können.

Was wäre, wenn wir vorhersagen könnten, wie Menschen auf Medien reagieren, bevor sie Daten erhalten? Dies würde es kleinen Unternehmen ermöglichen, ihre schriftlichen Materialien und Websites zu optimieren, obwohl sie bisher nur wenig Zugkraft haben. NeuroAI kommt der Vorhersage, wie Menschen auf visuelle Materialien reagieren werden, immer näher. Zum Beispiel Forscher bei Adobe arbeiten an Tools um die visuelle Aufmerksamkeit in Illustrationen vorherzusagen und zu lenken.

Forscher haben auch gezeigt, wie sie Fotos bearbeiten, um sie zu erstellen visuell einprägsamer oder ästhetischer erfreulich. Es könnte beispielsweise verwendet werden, um automatisch ein professionelles Porträt auszuwählen, das am besten zu dem Bild passt, das die Leute von sich selbst vermitteln möchten – professionell, seriös oder kreativ. Künstliche neuronale Netze können sogar Wege finden, Botschaften effektiver zu kommunizieren als realistische Bilder. CLIP von OpenAI kann untersucht werden, um Bilder zu finden, die auf Emotionen ausgerichtet sind. Das Bild, das am besten zum Begriff des Schocks passt, wäre neben Munchs Schrei nicht fehl am Platz.

OpenAI CLIP maximiert das Bild für das Schockkonzept. Über OpenAI Microscope, veröffentlicht unter CC-BY 4.0.

Im letzten Jahr haben OpenAI und Google generative Kunstnetzwerke mit einer beeindruckenden Fähigkeit demonstriert, fotorealistische Bilder aus Texteingabeaufforderungen zu generieren. Wir haben diesen Moment für die Musik noch nicht ganz erreicht, aber mit dem Tempo des Fortschritts bei generativen Modellen wird dies sicherlich in den nächsten Jahren passieren. Indem wir Maschinen bauen, die wie Menschen hören können, können wir möglicherweise die Musikproduktion demokratisieren und jedem die Möglichkeit geben, das zu tun, was hochqualifizierte Musikproduzenten tun können: die richtigen Emotionen während eines Refrains zu kommunizieren, ob Melancholie oder Freude; einen Ohrwurm einer Melodie erschaffen; oder um ein Stück unwiderstehlich tanzbar zu machen.

Es gibt einen enormen Marktdruck, audiovisuelle Medien, Websites und insbesondere Anzeigen zu optimieren, und wir integrieren bereits neuroKI und algorithmische Kunst in diesen Prozess. Dieser Druck wird zu einem positiven Kreislauf führen, in dem neuroAI besser und nützlicher wird, wenn mehr Ressourcen in praktische Anwendungen fließen. Ein Nebeneffekt davon ist, dass wir sehr gute Modelle des Gehirns bekommen werden, die weit über die Werbung hinaus nützlich sein werden. 

Zugänglichkeit und algorithmisches Design

Eine der spannendsten Anwendungen von neuroAI ist die Zugänglichkeit. Die meisten Medien sind für die „durchschnittliche“ Person konzipiert, aber wir alle verarbeiten visuelle und auditive Informationen unterschiedlich. 8 % der Männer und 0.5 % der Frauen sind rot-grün-blind, und viele Medien sind nicht an ihre Bedürfnisse angepasst. Es gibt heute eine Reihe von Produkten, die Farbenblindheit simulieren, aber eine Person mit normalem Farbsehen erfordern, um die Ergebnisse zu interpretieren und notwendige Änderungen vorzunehmen. Statische Farb-Neuzuordnung funktioniert für diese Anforderungen auch nicht, da einige Materialien ihre Semantik bei Farb-Neuzuordnung nicht bewahren (z. B. Diagramme, die schwer lesbar werden). Wir könnten die Generierung von farbenblindheitssicheren Materialien und Websites durch neuroAI-Methoden automatisieren, die die Semantik bestehender Grafiken beibehalten.

Ein weiteres Beispiel ist die Unterstützung von Menschen mit Lernschwierigkeiten wie Legasthenie, von der bis zu 10 % der Menschen weltweit betroffen sind. Eines der zugrunde liegenden Probleme bei Legasthenie ist Empfindlichkeit gegenüber Gedränge, das ist die Schwierigkeit, Formen mit ähnlichen zugrunde liegenden Merkmalen zu erkennen, einschließlich spiegelsymmetrischer Buchstaben wie p und q. Anne Harrington und Arturo Deza am MIT arbeiten an neuroAI-Modellen die diesen Effekt modellieren und einige sehr vielversprechende Ergebnisse zu erzielen. Stellen Sie sich vor, Sie nehmen Modelle des Legastheniker-Sehsystems, um Schriftarten zu entwerfen, die sowohl ästhetisch ansprechend als auch leichter lesbar sind. Mit den richtigen Daten über das visuelle System einer bestimmten Person können wir sogar Personalisieren Sie die Schriftart für eine bestimmte Person, das sich bei der Verbesserung der Leseleistung als vielversprechend erwiesen hat. Dies sind potenziell große Verbesserungen der Lebensqualität, die hier warten.

Gesundheit

Viele Neurowissenschaftler betreten das Feld in der Hoffnung, dass ihre Forschung positive Auswirkungen auf die menschliche Gesundheit haben wird, insbesondere für Menschen mit neurologischen Störungen oder psychischen Problemen. Ich bin sehr zuversichtlich, dass die neuroKI neue Therapien erschließen wird: Mit einem guten Modell des Gehirns können wir die richtigen Stimuli erzeugen, damit die richtige Botschaft ankommt, so wie ein Schlüssel in ein Schloss passt. In diesem Sinne könnte neuroAI ähnlich wie das algorithmische Arzneimitteldesign angewendet werden, aber statt kleiner Moleküle liefern wir Bilder und Töne. 

Die zugänglichsten Probleme betreffen die Rezeptoren der Augen und Ohren, die bereits gut charakterisiert sind. Hunderttausende Menschen haben Cochlea-Implantate erhalten, Neuroprothesen, die die Cochlea des Ohrs elektrisch stimulieren und es Gehörlosen oder Schwerhörigen ermöglichen, wieder zu hören. Diese Implantate, die ein paar Dutzend Elektroden enthalten, können in lauten Umgebungen mit mehreren Sprechern schwierig zu verwenden sein. Ein Gehirnmodell kann Optimierung des Stimulationsmusters des Implantats Sprache zu verstärken. Bemerkenswert ist, dass diese Technologie, die für Menschen mit Implantaten entwickelt wurde, angepasst werden könnte, um Menschen ohne Implantate zu helfen, Sprache besser zu verstehen, indem sie Geräusche in Echtzeit modifiziert, unabhängig davon, ob sie eine Hörverarbeitungsstörung haben oder sich einfach häufig in lauten Umgebungen aufhalten.

Viele Menschen erleben im Laufe ihres Lebens Veränderungen ihrer Sinnessysteme, sei es bei der Genesung nach einer Kataraktoperation oder bei der Altersweitsichtigkeit. Wir wissen, dass Menschen nach einer solchen Veränderung lernen können, die Welt durch Wiederholung neu zu interpretieren, ein Phänomen, das als Wahrnehmungslernen bezeichnet wird. Möglicherweise können wir dieses Wahrnehmungslernen maximieren, sodass die Menschen ihre Fähigkeiten schneller und effektiver wiedererlangen können. Eine ähnliche Idee könnte Menschen helfen, die nach einem Schlaganfall die Fähigkeit verloren haben, ihre Gliedmaßen flüssig zu bewegen. Wenn wir die richtige Bewegungsabfolge finden könnten, um das Gehirn optimal zu stärken, könnten wir Schlaganfall-Überlebenden helfen, wieder mehr Funktionen zu erlangen, wie flüssiger zu gehen oder einfach eine Tasse Kaffee zu halten, ohne etwas zu verschütten. Abgesehen davon, dass es Menschen hilft, verlorene körperliche Funktionen wiederherzustellen, könnte die gleiche Idee gesunden Menschen helfen, sensorische Spitzenleistungen zu erbringen – egal ob es sich um Baseballspieler, Bogenschützen oder Pathologen handelt.

Schließlich konnten wir sehen, wie diese Ideen auf die Behandlung von Stimmungsstörungen angewendet wurden. Ich ging zu vielen Ausstellungen für bildende Kunst, um meine Langeweile während der Pandemie zu lindern, und es hob meine Stimmung enorm. Bildende Kunst und Musik können unsere Stimmung heben, und es ist ein Proof-of-Concept, das wir sein können in der Lage, Therapien für Stimmungsstörungen durch die Sinne zu liefern. Wir wissen, dass die Kontrolle der Aktivität bestimmter Teile des Gehirns durch elektrische Stimulation behandlungsresistente Depressionen lindern kann; vielleicht könnte die indirekte Steuerung der Gehirnaktivität durch die Sinne ähnliche Wirkungen zeigen. Durch den Einsatz einfacher Modelle – Low Hanging Fruits – die gut verstandene Teile des Gehirns beeinflussen, bringen wir den Stein ins Rollen, um komplexere Modelle zu erstellen, die der menschlichen Gesundheit helfen können. 

Technologietrends ermöglichen

NeuroAI wird viele Jahre brauchen, um gezähmt und in Anwendungen eingesetzt zu werden, und es wird andere aufkommende Technologietrends abfangen. Hier hebe ich vor allem zwei Trends hervor, die neuroAI noch viel leistungsfähiger machen werden: Augmented Reality (AR), die Reize präzise liefern kann; und Gehirn-Computer-Schnittstellen (BCI), die die Gehirnaktivität messen können, um zu überprüfen, ob Reize in der erwarteten Weise wirken.  

Erweiterte Realität

Ein Trend, der neuroKI-Anwendungen weitaus leistungsfähiger machen wird, ist die Einführung von Augmented-Reality-Brillen. Augmented Reality (AR) hat das Potenzial, eine allgegenwärtige Computerplattform zu werden, da sich AR in das tägliche Leben integriert.

Die Hypothese von Michael Abrash, Chefwissenschaftler bei Meta Reality Labs, lautet: Baut man ausreichend leistungsfähige AR-Brillen, wird jeder sie haben wollen. Das heißt bauen weltbewusste Brille, die persistente, weltgebundene virtuelle Objekte erstellen kann; leichte und modische Fassungen, wie ein Paar Ray-Bans; und dir echte Superkräfte zu geben, wie zum Beispiel in der Lage zu sein interagieren auf natürliche Weise mit Menschen, unabhängig von der Entfernung und Verbesserung Ihres Gehörs. Wenn Sie diese bauen können – eine große technische Herausforderung – könnte die AR-Brille einer iPhone-ähnlichen Flugbahn folgen, sodass jeder 5 Jahre nach dem Start eine (oder eine Nachahmung) haben wird.

Um dies Wirklichkeit werden zu lassen, verbrachte Meta 10 Milliarden Dollar letztes Jahr für F&E für das Metaverse. Wir wissen zwar nicht genau, was Apple vorhat, aber es gibt sie starke Anzeichen dafür, dass sie an einer AR-Brille arbeiten. Es gibt also auch einen enormen Druck auf der Angebotsseite, AR zu verwirklichen.

Dadurch wird ein Anzeigegerät weithin verfügbar, das weitaus leistungsfähiger ist als die heutigen statischen Bildschirme. Wenn es folgt der Flugbahn von VR, es wird schließlich Eye-Tracking integriert haben. Dies würde eine weithin verfügbare Möglichkeit bedeuten, Reize viel kontrollierter zu präsentieren, als dies derzeit möglich ist, ein Traum für Neurowissenschaftler. Und diese Geräte haben wahrscheinlich weitreichende gesundheitliche Anwendungen, wie von Michael Abrash im Jahr 2017 erzählt, wie die Verbesserung des Schwachlichtsehens, oder die Ermöglichung eines normalen Lebens trotz Makuladegeneration.

Die Bedeutung für neuroAI liegt auf der Hand: Wir könnten den richtigen Stimulus hochgradig kontrolliert und kontinuierlich im Alltag liefern. Dies gilt für das Sehen und vielleicht weniger offensichtlich für das Hören, da wir räumliches Audio liefern können. Das bedeutet, dass unsere Tools zur Durchführung von NeuroAI-Therapien für Menschen mit neurologischen Problemen oder zur Verbesserung der Zugänglichkeit weitaus leistungsfähiger werden.

BCI

Mit einem großartigen Display und Lautsprechern können wir die wichtigsten Eingänge zum Gehirn präzise steuern. Die nächste, leistungsstärkere Stufe bei der Abgabe von Reizen durch die Sinne besteht darin, über eine schreibgeschützte Gehirn-Computer-Schnittstelle (BCI) zu überprüfen, ob das Gehirn in der erwarteten Weise reagiert. So können wir die Auswirkungen der Reize auf das Gehirn messen, und wenn sie nicht wie erwartet sind, können wir sie in der sogenannten Closed-Loop-Regelung entsprechend anpassen. 

Um es klar zu sagen, ich spreche hier nicht von BCI-Methoden wie Neuralinks Chip oder Tiefenhirnstimulatoren, die in den Schädel eingeführt werden; Für diese Zwecke reicht es aus, die Gehirnaktivität nicht-invasiv außerhalb des Schädels zu messen. Es ist auch nicht nötig, das Gehirn direkt zu stimulieren: Brille und Kopfhörer sind alles, was Sie brauchen, um die meisten Eingaben des Gehirns zu steuern.

Es gibt eine Reihe von nicht-invasiven Nur-Lese-BCIs, die heute vermarktet werden oder in der Pipeline sind, die für die Regelung mit geschlossenem Regelkreis verwendet werden könnten. Einige Beispiele sind:

  • EEG. Die Elektroenzephalographie misst die elektrische Aktivität des Gehirns außerhalb des Schädels. Da der Schädel als Volumenleiter fungiert, hat das EEG eine hohe zeitliche Auflösung, aber eine geringe räumliche Auflösung. Während dies die Verbraucheranwendung auf Meditationsprodukte beschränkt hat (Muse) und Nischen-Neuromarketing-Anwendungen bin ich optimistisch, was einige seiner Verwendungen im Kontext der Closed-Loop-Steuerung angeht. EEG kann viel leistungsfähiger sein, wenn man die Kontrolle über den Stimulus hat, weil es möglich ist, den dargebotenen Stimulus mit dem EEG-Signal zu korrelieren und zu entschlüsseln, worauf eine Person geachtet hat (Methoden für evozierte Potentiale). Tatsächlich wurde NextMind erworben, das auf der Grundlage evozierter Potenziale einen EEG-basierten „Gedankenklick“ auslöste von Snap, das jetzt AR-Produkte herstellt. OpenBCI ist Planung ein Headset herauszubringen, das seine EEG-Sensoren in das High-End-Aero-Headset von Varjo integriert. EEG würde ich nicht zählen.
  • fMRT. Die funktionelle Magnetresonanztomographie misst die kleinen Änderungen der Sauerstoffversorgung des Blutes, die mit der neuralen Aktivität verbunden sind. Es ist langsam, es ist nicht tragbar, es erfordert einen eigenen Raum und es ist sehr teuer. Die fMRT bleibt jedoch die einzige Technologie, die Aktivitäten tief im Gehirn nicht-invasiv räumlich präzise ablesen kann. Es gibt zwei Paradigmen, die ziemlich ausgereift und für die neuronale Steuerung im geschlossenen Regelkreis relevant sind. Das erste ist fMRT-basiertes Biofeedback. Ein Teilgebiet der fMRT zeigt, dass Menschen ihre Gehirnaktivität modulieren können, indem sie sie visuell auf einem Bildschirm oder Kopfhörer darstellen. Die zweite ist die kortikale Kartierung, einschließlich Ansätzen wie Populationsrezeptionsfeldern und Schätzung der Voxelselektivität mit Filmclips oder Podcasts, die es erlauben abzuschätzen, wie verschiedene Hirnareale auf unterschiedliche visuelle und auditive Reize reagieren. Diese beiden Methoden deuten darauf hin, dass es möglich sein sollte, abzuschätzen, wie sich eine neuroKI-Intervention auf das Gehirn auswirkt, und sie so zu steuern, dass sie effektiver ist.
  • fNIRS. Die funktionelle Nahinfrarotspektroskopie verwendet diffuses Licht, um das zerebrale Blutvolumen zwischen einem Sender und einem Rezeptor abzuschätzen. Es beruht auf der Tatsache, dass Blut undurchsichtig ist und eine erhöhte neurale Aktivität zu einem verzögerten Bluteinstrom in ein bestimmtes Gehirnvolumen führt (gleiches Prinzip wie fMRI). Herkömmliches NIRS hat eine geringe räumliche Auflösung, aber mit Time-Gating (TD-NIRS) und massivem Oversampling (diffuse optische Tomographie) ist die räumliche Auflösung weitaus besser. An der akademischen Front Joe Culvers Gruppe bei WUSTL haben die Dekodierung von Filmen aus dem visuellen Kortex demonstriert. An der kommerziellen Front ist Kernel jetzt Herstellung und Versand von TD-NIRS-Headsets das sind beeindruckende Meisterleistungen der Ingenieurskunst. Und es ist ein Bereich, in dem die Menschen weiter voranschreiten und der Fortschritt schnell ist; meine alte Gruppe bei Meta zeigte eine 32-fache Verbesserung des Signal-Rausch-Verhältnisses (das auf > 300 skaliert werden konnte) in einer verwandten Technik.
  • MEG. Die Magnetoenzephalographie misst kleine Änderungen in Magnetfeldern und lokalisiert so die Gehirnaktivität. MEG ähnelt dem EEG darin, dass es Änderungen im elektromagnetischen Feld misst, aber es leidet nicht unter Volumenleitung und hat daher eine bessere räumliche Auflösung. Tragbares MEG, das keine Kühlung erfordert, wäre ein Game Changer für nicht-invasive BCI. Die Leute machen Fortschritte mit optisch gepumpten Magnetometern, und es ist möglich, einzelne OPM-Sensoren auf dem freien Markt von Herstellern wie QuSpin zu kaufen.

Zusätzlich zu diesen bekannteren Techniken könnten einige Dark-Horse-Technologien wie digitale Holographie, photoakustische Tomographie und funktioneller Ultraschall zu schnellen Paradigmenwechseln in diesem Bereich führen.

Während die nicht-invasive BCI für Verbraucher noch in den Kinderschuhen steckt, gibt es eine Reihe von Marktdruck in Bezug auf AR-Anwendungsfälle, die den Kuchen größer machen werden. In der Tat ist die Steuerung des Geräts ein erhebliches Problem für AR: Sie möchten nicht mit einem Controller herumlaufen oder in Ihre Brille murmeln müssen, wenn Sie dies vermeiden können. Unternehmen meinen es sehr ernst mit der Lösung dieses Problems, wie der Kauf von CTRL+Labs durch Facebook beweist im Jahr 2019 angegeben, Snap erwirbt NextMind und Valve kooperiert mit OpenBCI. Daher werden wir wahrscheinlich eine schnelle Entwicklung niedrigdimensionaler BCIs sehen. Hochdimensionale BCIs könnten denselben Weg gehen, wenn sie eine Killer-App wie AR finden. Es ist möglich, dass die Arten von neuroKI-Anwendungen, für die ich hier plädiere, genau der richtige Anwendungsfall für diese Technologie sind.

Wenn wir den Input an Augen und Ohren kontrollieren und Gehirnzustände genau messen können, können wir neuroKI-basierte Therapien überwacht für maximale Wirksamkeit liefern.

Was auf dem Feld fehlt

Die Kernwissenschaft hinter NeuroAI-Anwendungen reift schnell, und es gibt eine Reihe positiver Trends, die ihre allgemeine Anwendbarkeit erhöhen werden. Was fehlt also, um neuroAI-Anwendungen auf den Markt zu bringen?

  1. Werkzeug. Andere Teilbereiche innerhalb der KI haben enorm von Toolboxen profitiert, die schnelle Fortschritte und den Austausch von Ergebnissen ermöglichen. Dazu gehören Tensor-Algebra-Bibliotheken wie Tensorflow und PyTorch, Trainingsumgebungen wie OpenAI Gym und Ökosysteme zum Teilen von Daten und Modellen wie 🤗 HuggingFace. Ein zentralisiertes Repository von Modellen und Methoden sowie Bewertungssuiten, die möglicherweise reichlich vorhandene Simulationsdaten nutzen, würde das Feld voranbringen. Es gibt bereits eine starke Gemeinschaft von Open-Source-Neurowissenschaftsorganisationen, und sie könnten als natürliche Gastgeber für diese Bemühungen dienen.
  2. Talent. Es gibt verschwindend wenige Orte, an denen an der Schnittstelle von Neurowissenschaft und KI geforscht und entwickelt wird. Die Bay Area mit Labors in Stanford und Berkeley und die Metropolregion Boston mit zahlreichen Labors am MIT und in Harvard werden wahrscheinlich den größten Teil der Investitionen aus dem bereits bestehenden Risikokapital-Ökosystem erhalten. Ein dritter wahrscheinlicher Knotenpunkt ist Montreal, Kanada, das von massiven neurowissenschaftlichen Abteilungen an der McGill und der Universite de Montreal getragen wird, kombiniert mit der Anziehungskraft von Mila, dem Institut für künstliche Intelligenz, das vom KI-Pionier Yoshua Bengio gegründet wurde. Unser Fachgebiet würde von spezialisierten PhD-Programmen und Exzellenzzentren für NeuroKI profitieren, um die Kommerzialisierung anzukurbeln.
  3. Neue Finanzierungs- und Kommerzialisierungsmodelle für medizinische Anwendungen. Medizinische Anwendungen haben einen langen Weg bis zur Kommerzialisierung, und geschütztes geistiges Eigentum ist in der Regel eine Voraussetzung, um Finanzmittel zu erhalten, um das Risiko von Investitionen in die Technologie zu verringern. KI-basierte Innovationen sind bekanntermaßen schwer zu patentieren, und Software als medizinisches Gerät (SaMD) kommt gerade erst auf den Markt, was den Weg zur Kommerzialisierung ungewiss macht. Wir brauchen Mittel, die darauf ausgerichtet sind, KI- und Medizintechnik-Expertise zusammenzubringen, um dieses aufstrebende Gebiet zu fördern. 

Lassen Sie uns neuroAI bauen

Wissenschaftler und Philosophen haben seit jeher darüber nachgedacht, wie Gehirne funktionieren. Wie ermöglicht uns eine dünne Gewebeschicht von einem Quadratmeter Fläche, zu sehen, zu hören, zu fühlen und zu denken? NeuroAI hilft uns, diese tiefgreifenden Fragen in den Griff zu bekommen, indem es Modelle neurologischer Systeme in Computern erstellt. Durch die Befriedigung dieses grundlegenden Wissensdurstes – was bedeutet es, ein Mensch zu sein? – Neurowissenschaftler bauen auch Werkzeuge, die Millionen von Menschen helfen könnten, ein reicheres Leben zu führen.

Gepostet am 4. August 2022

Technologie, Innovation und die Zukunft, wie sie von denen erzählt wird, die sie bauen.

Danke für's Registrieren.

Überprüfen Sie Ihren Posteingang auf eine Willkommensnachricht.

Zeitstempel:

Mehr von Andreessen Horowitz