L'IA modélise le cerveau pour nous aider à voir, entendre et créer des informations sur les données PlatoBlockchain. Recherche verticale. Aï.

L'IA modélise le cerveau pour nous aider à voir, entendre et créer

Il s'agit d'une version modifiée d'un message publié à l'origine ici.


Les neurosciences et l'IA ont une longue histoire entrelacée. Les pionniers de l'intelligence artificielle se sont inspirés des principes de l'organisation du cerveau pour créer des machines intelligentes. Dans un renversement surprenant, l'IA nous aide aujourd'hui à comprendre sa source même d'inspiration : le cerveau humain. Cette approche consistant à utiliser l'IA pour construire des modèles du cerveau est appelée neuroAI. Au cours de la prochaine décennie, nous préciserons de plus en plus in silico des modèles cérébraux, en particulier des modèles de nos deux sens les plus importants, la vision et l'ouïe. En conséquence, nous pourrons télécharger et utiliser des modèles sensoriels, à la demande, avec la même commodité que nous pouvons faire de la reconnaissance d'objets ou du traitement du langage naturel.

De nombreux neuroscientifiques et chercheurs en intelligence artificielle le sont – c'est compréhensible ! – très excité à ce sujet : des cerveaux à la demande ! Découvrir ce que signifie voir, ressentir, être humain ! Ce qui est moins bien reconnu, c'est qu'il existe de nombreuses applications pratiques dans l'industrie. Je suis depuis longtemps chercheur dans ce domaine, ayant travaillé sur la façon dont le cerveau transforme la vision en sens depuis mon doctorat. J'ai vu la progression du domaine depuis sa création, et je pense qu'il est maintenant temps d'explorer comment la neuroIA peut stimuler plus de créativité et améliorer notre santé. 

Je prédis que la neuroAI trouvera d'abord une utilisation généralisée dans l'art et la publicité, en particulier lorsqu'elle sera connectée à de nouveaux modèles d'IA générative comme GPT-3 et DALL-E. Bien que les modèles d'IA générative actuels puissent produire de l'art et des médias créatifs, ils ne peuvent pas vous dire si ces médias communiqueront finalement un message au public visé - mais la neuroAI pourrait. Par exemple, nous pourrions remplacer les essais et erreurs des groupes de discussion et des tests A/B et créer directement des médias qui communiquent exactement ce que nous voulons. Les énormes pressions du marché autour de cette application créeront un cercle vertueux qui améliorera les modèles de neuroIA. 

Les modèles améliorés qui en résulteront permettront des applications dans le domaine de la santé en médecine, de l'aide aux personnes souffrant de problèmes neurologiques à l'amélioration des capacités du puits. Imaginez créer les bonnes images et les bons sons pour aider une personne à retrouver la vue ou l'ouïe plus rapidement après une chirurgie LASIK ou après avoir reçu un implant cochléaire, respectivement. 

Ces innovations seront rendues beaucoup plus puissantes par d'autres technologies à venir : la réalité augmentée et les interfaces cerveau-ordinateur. Cependant, pour réaliser pleinement l'utilité potentielle des systèmes sensoriels téléchargeables à la demande, nous devrons combler les lacunes actuelles en matière d'outillage, de talent et de financement.

Dans cet article, j'expliquerai ce qu'est la neuroIA, comment elle pourrait commencer à évoluer et à avoir un impact sur nos vies, comment elle complète d'autres innovations et technologies, et ce qui est nécessaire pour la faire avancer.  

Qu'est-ce que la neuroIA ?

NeuroAI est une discipline émergente qui cherche à 1) étudier le cerveau pour apprendre à construire une meilleure intelligence artificielle et 2) utiliser l'intelligence artificielle pour mieux comprendre le cerveau. L'un des principaux outils de neuroAI utilise des réseaux de neurones artificiels pour créer des modèles informatiques de fonctions cérébrales spécifiques. Cette approche a été lancée en 2014, lorsque des chercheurs de MIT ainsi que Columbia ont montré que les réseaux de neurones artificiels profonds pouvaient expliquer les réponses dans une partie du cerveau qui reconnaît les objets : le cortex inférotemporal (IT). Ils ont introduit une recette de base pour comparer un réseau neuronal artificiel à un cerveau. En utilisant cette recette et en répétant des tests itératifs sur les processus cérébraux – reconnaissance de forme, traitement du mouvement, traitement de la parole, contrôle du bras, mémoire spatiale – les scientifiques construisent un patchwork de modèles informatiques pour le cerveau. 

Une recette pour comparer les cerveaux aux machines

Alors, comment construire un modèle NeuroAI ? Depuis sa création en 2014, le domaine suit la même recette de base :

1. Entraîner des réseaux de neurones artificiels in silico pour résoudre une tâche, par exemple pour la reconnaissance d'objets. Le réseau résultant est dit optimisé pour les tâches. Il est important de noter que cela implique généralement une formation uniquement sur des images, des films et des sons, et non sur des données cérébrales.

2. Comparez les activations intermédiaires des réseaux de neurones artificiels formés aux enregistrements cérébraux réels. La comparaison est effectuée à l'aide de techniques statistiques telles que la régression linéaire ou l'analyse de similarité de représentation.

3. Choisissez le modèle le plus performant comme le meilleur modèle actuel de ces zones du cerveau.

Cette recette peut être appliquée avec des données recueillies à l'intérieur du cerveau à partir de neurones uniques ou à partir de techniques non invasives comme la magnéto-encéphalographie (MEG) ou l'imagerie par résonance magnétique fonctionnelle (IRMf).

Un modèle neuroAI d'une partie du cerveau présente deux caractéristiques clés. C'est calculable : nous pouvons alimenter ce modèle informatique avec un stimulus et il nous dira comment une zone du cerveau va réagir. C'est aussi différenciable : c'est un réseau neuronal profond que nous pouvons optimiser de la même manière que nous optimisons les modèles qui résolvent la reconnaissance visuelle et le traitement du langage naturel. Cela signifie que les neuroscientifiques ont accès à tous les outils puissants qui ont propulsé la révolution de l'apprentissage en profondeur, y compris les systèmes d'algèbre tensorielle comme PyTorch et TensorFlow. 

Qu'est-ce que ça veut dire? Nous sommes passés de l'ignorance de gros morceaux du cerveau à la possibilité d'en télécharger de bons modèles en moins d'une décennie. Avec les bons investissements, nous aurons bientôt d'excellents modèles de gros morceaux de cerveau. Le système visuel a été le premier à être modélisé ; le système auditif n'était pas loin derrière; et d'autres domaines tomberont sûrement comme des dominos alors que des neuroscientifiques intrépides se précipiteront pour résoudre les mystères du cerveau. En plus de satisfaire notre curiosité intellectuelle – un grand facteur de motivation pour les scientifiques ! – cette innovation permettra à n'importe quel programmeur de télécharger de bons modèles du cerveau et de débloquer une myriade d'applications.

Les domaines d'application

Art et publicité

Commençons par cette simple prémisse : 99 % des médias dont nous faisons l'expérience se font à travers nos yeux et nos oreilles. Il existe des industries entières qui peuvent se résumer à fournir les bons pixels et les bons tons à ces sens : les arts visuels, le design, les films, les jeux, la musique et la publicité ne sont que quelques-uns d'entre eux. Maintenant, ce ne sont pas nos yeux et nos oreilles eux-mêmes qui interprètent ces expériences, car ce ne sont que des capteurs : c'est notre cerveau qui donne un sens à ces informations. Les médias sont créés pour informer, divertir, provoquer les émotions souhaitées. Mais déterminer si le message d'un tableau, d'un portrait professionnel ou d'une publicité est reçu comme prévu est un exercice frustrant d'essais et d'erreurs : les humains doivent être au courant pour déterminer si le message est reçu, ce qui coûte cher et prend du temps. consommant.

Les services en ligne à grande échelle ont trouvé des moyens de contourner ce problème en automatisant les essais et erreurs : les tests A/B. Google célèbre testé laquelle des 50 nuances de bleu utiliser pour les liens sur la page de résultats du moteur de recherche. Selon The Guardian, le meilleur choix a entraîné une amélioration des revenus par rapport au niveau de référence de 200 millions de dollars en 2009, soit environ 1 % des revenus de Google à cette époque. Netflix personnalise les vignettes au spectateur pour optimiser son expérience utilisateur. Ces méthodes sont accessibles aux géants en ligne avec un trafic massif, ce qui permet de s'affranchir du bruit inhérent au comportement des gens.

Et si nous pouvions prédire comment les gens réagiront aux médias avant d'obtenir des données ? Cela permettrait aux petites entreprises d'optimiser leurs documents écrits et leurs sites Web malgré le peu de traction préexistante. NeuroAI se rapproche de plus en plus de la capacité de prédire comment les gens réagiront aux supports visuels. Par exemple, les chercheurs chez Adobe travaillent sur des outils prédire et diriger l'attention visuelle dans les illustrations.

Les chercheurs ont également démontré l'édition de photos pour les rendre plus mémorable visuellement ou esthétiquement plaisant. Il pourrait être utilisé, par exemple, pour sélectionner automatiquement une photo professionnelle la plus alignée sur l'image que les gens veulent projeter d'eux-mêmes - professionnel, sérieux ou créatif. Les réseaux de neurones artificiels peuvent même trouver des moyens de communiquer des messages plus efficacement que des images réalistes. Le CLIP d'OpenAI peut être sondé pour trouver des images alignées sur les émotions. L'image la mieux alignée sur le concept de choc ne serait pas déplacée à côté de Munch's Scream.

OpenAI CLIP maximisant l'image pour le concept de choc. Via OpenAI Microscope, publié sous CC-BY 4.0.

Au cours de la dernière année, OpenAI et Google ont démontré des réseaux d'art génératif avec une capacité impressionnante à générer des images photoréalistes à partir d'invites de texte. Nous n'avons pas tout à fait atteint ce moment pour la musique, mais avec le rythme des progrès des modèles génératifs, cela se produira sûrement dans les prochaines années. En construisant des machines qui peuvent entendre comme des humains, nous pourrons peut-être démocratiser la production musicale, donnant à chacun la possibilité de faire ce que les producteurs de musique hautement qualifiés peuvent faire : communiquer la bonne émotion pendant un refrain, que ce soit de la mélancolie ou de la joie ; créer un ver d'oreille d'une mélodie; ou pour rendre une pièce irrésistiblement dansante.

Il existe d'énormes pressions du marché pour optimiser les médias audiovisuels, les sites Web et en particulier les publicités, et nous intégrons déjà la neuroIA et l'art algorithmique dans ce processus. Cette pression conduira à un cercle vertueux où la neuroIA deviendra meilleure et plus utile à mesure que davantage de ressources seront consacrées à des applications pratiques. Un effet secondaire de cela est que nous obtiendrons de très bons modèles du cerveau qui seront utiles bien au-delà des publicités. 

Accessibilité et conception algorithmique

L'accessibilité est l'une des applications les plus intéressantes de la neuroIA. La plupart des médias sont conçus pour la personne « moyenne », mais nous traitons tous différemment les informations visuelles et auditives. 8% des hommes et 0.5% des femmes sont daltoniens rouge-vert, et une grande quantité de médias n'est pas adaptée à leurs besoins. Il existe aujourd'hui un certain nombre de produits qui simulent le daltonisme, mais qui nécessitent une personne ayant une vision normale des couleurs pour interpréter les résultats et apporter les modifications nécessaires. Le remappage statique des couleurs ne répond pas non plus à ces besoins, car certains matériaux ne conservent pas leur sémantique avec le remappage des couleurs (par exemple, les graphiques qui deviennent difficiles à lire). Nous pourrions automatiser la génération de matériaux et de sites Web sans danger pour les daltoniens grâce à des méthodes de neuroIA qui maintiennent la sémantique des graphiques existants.

Un autre exemple est d'aider les personnes ayant des troubles d'apprentissage, comme la dyslexie, qui affectent jusqu'à 10 % des personnes dans le monde. L'un des problèmes sous-jacents de la dyslexie est sensibilité à l'encombrement, qui est la difficulté à reconnaître des formes avec des caractéristiques sous-jacentes similaires, y compris des lettres à symétrie miroir comme p et q. Anne Harrington et Arturo Deza du MIT travaillent sur des modèles de neuroIA ce modèle cet effet et obtenir des résultats très prometteurs. Imaginez prendre des modèles du système visuel dyslexique pour concevoir des polices à la fois esthétiques et plus faciles à lire. Avec les bonnes données sur le système visuel d'une personne spécifique, nous pouvons même personnaliser la police à une personne spécifique, qui s'est avéré prometteur pour améliorer les performances de lecture. Ce sont des améliorations potentiellement importantes de la qualité de vie qui attendent ici.

Santé

De nombreux neuroscientifiques entrent dans le domaine avec l'espoir que leurs recherches auront un impact positif sur la santé humaine, en particulier pour les personnes vivant avec des troubles neurologiques ou des problèmes de santé mentale. J'ai bon espoir que la neuroIA débloquera de nouvelles thérapies : avec un bon modèle du cerveau, nous pouvons créer les bons stimuli pour que le bon message lui parvienne, comme une clé dans une serrure. En ce sens, la neuroIA pourrait être appliquée de la même manière à la conception algorithmique de médicaments, mais au lieu de petites molécules, nous fournissons des images et des sons. 

Les problèmes les plus abordables concernent les récepteurs des yeux et des oreilles, déjà bien caractérisés. Des centaines de milliers de personnes ont reçu des implants cochléaires, des neuroprothèses qui stimulent électriquement la cochlée de l'oreille, permettant aux sourds ou malentendants d'entendre à nouveau. Ces implants, qui contiennent quelques dizaines d'électrodes, peuvent être difficiles à utiliser dans des environnements bruyants avec plusieurs haut-parleurs. Un modèle cérébral peut optimiser le schéma de stimulation de l'implant pour amplifier la parole. Ce qui est remarquable, c'est que cette technologie, développée pour les personnes implantées, pourrait être adaptée pour aider les personnes sans implants à mieux comprendre la parole en modifiant les sons en temps réel, qu'elles aient un trouble du traitement auditif ou qu'elles soient simplement fréquemment dans des environnements bruyants.

De nombreuses personnes subissent des changements dans leur système sensoriel tout au long de leur vie, qu'il s'agisse de se remettre d'une chirurgie de la cataracte ou de devenir myopes avec l'âge. Nous savons qu'après un tel changement, les gens peuvent apprendre à réinterpréter correctement le monde par la répétition, un phénomène appelé apprentissage perceptif. Nous pourrons peut-être maximiser cet apprentissage perceptif afin que les gens puissent retrouver leurs compétences plus rapidement et plus efficacement. Une idée similaire pourrait aider les personnes qui ont perdu la capacité de bouger leurs membres avec fluidité après un AVC. Si nous pouvions trouver la bonne séquence de mouvements pour renforcer le cerveau de manière optimale, nous pourrions peut-être aider les survivants d'un AVC à retrouver plus de fonctions, comme marcher de manière plus fluide ou simplement tenir une tasse de café sans en renverser. En plus d'aider les gens à récupérer des fonctions physiques perdues, la même idée pourrait aider les personnes en bonne santé à atteindre des performances sensorielles optimales, qu'il s'agisse de joueurs de baseball, d'archers ou de pathologistes.

Enfin, on pourrait voir ces idées être appliquées au traitement des troubles de l'humeur. Je suis allé à de nombreuses expositions d'art visuel pour soulager mon ennui pendant la pandémie, et cela a énormément amélioré mon humeur. L'art visuel et la musique peuvent remonter le moral, et c'est une preuve de concept que nous pouvons être capable de fournir des thérapies pour les troubles de l'humeur par les sens. Nous savons que le contrôle de l'activité de parties spécifiques du cerveau par stimulation électrique peut soulager la dépression résistante au traitement ; peut-être que le contrôle indirect de l'activité du cerveau par les sens pourrait avoir des effets similaires. En déployant des modèles simples - des fruits à portée de main - qui affectent des parties bien comprises du cerveau, nous lancerons la construction de modèles plus complexes qui peuvent aider la santé humaine. 

Tendances technologiques habilitantes

Il faudra de nombreuses années à NeuroAI pour être apprivoisé et déployé dans des applications, et il interceptera d'autres tendances technologiques émergentes. Ici, je mets en évidence deux tendances en particulier qui rendront la neuroIA beaucoup plus puissante : la réalité augmentée (AR), qui peut délivrer des stimuli avec précision ; et les interfaces cerveau-ordinateur (BCI), qui peuvent mesurer l'activité cérébrale pour vérifier que les stimuli agissent de la manière attendue.  

Réalité augmentée

Une tendance qui rendra les applications neuroAI beaucoup plus puissantes est l'adoption de lunettes de réalité augmentée. La réalité augmentée (RA) a le potentiel de devenir une plate-forme informatique omniprésente, car la RA s'intègre dans la vie quotidienne.

L'hypothèse de Michael Abrash, scientifique en chef chez Meta Reality Labs, est que si vous construisez des lunettes AR suffisamment performantes, tout le monde en voudra. Cela signifie construire des lunettes conscientes du monde qui peuvent créer des objets virtuels persistants verrouillés dans le monde; montures légères et à la mode, comme une paire de Ray-Ban ; et vous donner des super-pouvoirs réels, comme être capable de interagir naturellement avec les gens quelle que soit la distance ainsi que améliorer votre audition. Si vous pouvez les construire – un énorme défi technique – les lunettes AR pourraient suivre une trajectoire semblable à celle d'un iPhone, de sorte que tout le monde en aura une (ou une contrefaçon) 5 ans après le lancement.

Pour en faire une réalité, Meta a passé 10 milliards de dollars l'an dernier en R&D pour le métaverse. Bien que nous ne sachions pas avec certitude ce que fait Apple, il y a des signes forts qu'ils travaillent sur des lunettes AR. Il y a donc aussi une énorme poussée du côté de l'offre pour que la RA se produise.

Cela rendra largement disponible un dispositif d'affichage bien plus puissant que les écrans statiques d'aujourd'hui. Si ça suit la trajectoire de la VR, il aura éventuellement un suivi oculaire intégré. Cela signifierait un moyen largement disponible de présenter des stimuli qui est beaucoup plus contrôlé qu'il n'est actuellement possible, un rêve pour les neuroscientifiques. Et ces dispositifs sont susceptibles d'avoir des applications de santé de grande envergure, raconté par Michael Abrash en 2017, comme améliorer la vision dans des conditions de faible luminosité ou permettre aux gens de mener une vie normale malgré la dégénérescence maculaire.

L'importance pour la neuroAI est claire : nous pourrions fournir le bon stimulus de manière hautement contrôlée et en continu dans la vie quotidienne. Cela est vrai pour la vision, et peut-être moins évidemment pour l'ouïe, car nous pouvons fournir un son spatial. Cela signifie que nos outils pour apporter des thérapies neuroIA aux personnes souffrant de problèmes neurologiques ou pour améliorer l'accessibilité deviendront beaucoup plus puissants.

BCI

Avec un excellent écran et des haut-parleurs, nous pouvons contrôler avec précision les principales entrées du cerveau. L'étape suivante, plus puissante, dans la délivrance de stimuli par les sens consiste à vérifier que le cerveau réagit de la manière attendue via une interface cerveau-ordinateur (BCI) en lecture seule. Ainsi, nous pouvons mesurer les effets des stimuli sur le cerveau, et s'ils ne sont pas comme prévu, nous pouvons nous ajuster en conséquence dans ce qu'on appelle le contrôle en boucle fermée. 

Pour être clair, je ne parle pas ici des méthodes BCI comme la puce de Neuralink ou les stimulateurs cérébraux profonds qui vont à l'intérieur du crâne ; il suffit à ces fins de mesurer l'activité cérébrale à l'extérieur du crâne, de manière non invasive. Pas besoin non plus de stimuler directement le cerveau : des lunettes et des écouteurs suffisent pour contrôler la plupart des entrées du cerveau.

Il existe un certain nombre de BCI non invasifs en lecture seule qui sont commercialisés aujourd'hui ou en préparation et qui pourraient être utilisés pour le contrôle en boucle fermée. Voici quelques exemples :

  • EEG. L'électroencéphalographie mesure l'activité électrique du cerveau à l'extérieur du crâne. Parce que le crâne agit comme un conducteur de volume, l'EEG a une résolution temporelle élevée mais une faible résolution spatiale. Bien que cela ait limité l'application des consommateurs aux produits de méditation (Muse) et des applications de neuromarketing de niche, je suis optimiste quant à certaines de ses utilisations dans le cadre du contrôle en boucle fermée. L'EEG peut être beaucoup plus puissant lorsque l'on contrôle le stimulus, car il est possible de corréler le stimulus présenté avec le signal EEG et de décoder ce à quoi une personne prêtait attention (méthodes potentielles évoquées). En effet, NextMind, qui fabriquait un «clic mental» basé sur l'EEG basé sur les potentiels évoqués, a été acquis par Snap, qui fabrique maintenant des produits AR. OpenBCI est et la planification de votre patrimoine pour lancer un casque qui intègre ses capteurs EEG avec le casque Aero haut de gamme de Varjo. Je ne compterais pas l'EEG.
  • IRMf. L'imagerie par résonance magnétique fonctionnelle mesure les petits changements dans l'oxygénation du sang associés à l'activité neuronale. C'est lent, ce n'est pas portable, ça nécessite sa propre pièce et c'est très cher. Cependant, l'IRMf reste la seule technologie capable de lire de manière non invasive l'activité en profondeur dans le cerveau de manière spatialement précise. Il existe deux paradigmes assez matures et pertinents pour le contrôle neuronal en boucle fermée. Le premier est le biofeedback basé sur l'IRMf. Un sous-domaine de l'IRMf montre que les gens peuvent moduler leur activité cérébrale en la présentant visuellement sur un écran ou un casque. La seconde est la cartographie corticale, y compris des approches telles que les champs récepteurs de population et estimation de la sélectivité des voxels avec des clips vidéo ou des podcasts, qui permettent d'estimer comment différentes zones du cerveau réagissent à différents stimuli visuels et auditifs. Ces deux méthodes suggèrent qu'il devrait être possible d'estimer comment une intervention neuroIA affecte le cerveau et de l'orienter pour qu'elle soit plus efficace.
  • fNIRS. La spectroscopie fonctionnelle dans le proche infrarouge utilise la lumière diffuse pour estimer le volume sanguin cérébral entre un émetteur et un récepteur. Elle repose sur le fait que le sang est opaque et que l'augmentation de l'activité neuronale entraîne un afflux sanguin retardé dans un volume cérébral donné (même principe que l'IRMf). Le NIRS conventionnel a une faible résolution spatiale, mais avec le déclenchement temporel (TD-NIRS) et le suréchantillonnage massif (tomographie optique diffuse), la résolution spatiale est bien meilleure. Sur le plan académique, Le groupe de Joe Culver à WUSTL ont démontré le décodage de films à partir du cortex visuel. Sur le plan commercial, Kernel est désormais fabrication et expédition de casques TD-NIRS qui sont des prouesses d'ingénierie impressionnantes. Et c'est un domaine où les gens continuent de pousser et où les progrès sont rapides ; mon ancien groupe à Meta a démontré une amélioration de 32 fois du rapport signal sur bruit (qui pourrait être mis à l'échelle à> 300) dans une technique connexe.
  • MÉG. La magnétoencéphalographie mesure de petits changements dans les champs magnétiques, localisant ainsi l'activité cérébrale. Le MEG est similaire à l'EEG en ce sens qu'il mesure les changements dans le champ électromagnétique, mais il ne souffre pas de conduction volumique et a donc une meilleure résolution spatiale. Le MEG portable qui ne nécessite pas de réfrigération changerait la donne pour la BCI non invasive. Les gens font des progrès avec les magnétomètres à pompage optique, et il est possible d'acheter des capteurs OPM individuels sur le marché libre, auprès de fabricants tels que QuSpin.

En plus de ces techniques mieux connues, certaines technologies du cheval noir comme l'holographie numérique, la tomographie photo-acoustique et l'échographie fonctionnelle pourraient conduire à des changements de paradigme rapides dans cet espace.

Bien que la BCI non invasive de qualité grand public en soit encore à ses balbutiements, il existe un certain nombre de pressions du marché autour des cas d'utilisation de la RA qui augmenteront le gâteau. En effet, un problème important pour AR est le contrôle de l'appareil : vous ne voulez pas avoir à vous promener avec un contrôleur ou à marmonner à vos lunettes si vous pouvez l'éviter. Les entreprises sont assez sérieuses pour résoudre ce problème, comme en témoigne le rachat de CTRL+Labs par Facebook en 2019., Snap acquiert NextMind et Valve s'associe à OpenBCI. Ainsi, nous verrons probablement des BCI de faible dimension se développer rapidement. Les BCI de grande dimension pourraient suivre la même trajectoire s'ils trouvent une application qui tue comme AR. Il est possible que les types d'applications neuroIA que je préconise ici soient précisément le bon cas d'utilisation pour cette technologie.

Si nous pouvons contrôler l'entrée dans les yeux et les oreilles ainsi que mesurer avec précision les états du cerveau, nous pouvons fournir des thérapies basées sur la neuroIA de manière surveillée pour une efficacité maximale.

Ce qui manque sur le terrain

La science fondamentale derrière les applications NeuroAI mûrit rapidement, et il existe un certain nombre de tendances positives qui augmenteront son applicabilité générale. Alors, que manque-t-il pour mettre les applications de neuroIA sur le marché ?

  1. Outillage. D'autres sous-domaines de l'IA ont énormément bénéficié de boîtes à outils qui permettent des progrès rapides et le partage des résultats. Cela inclut des bibliothèques d'algèbre tensorielle telles que Tensorflow et PyTorch, des environnements d'entraînement comme OpenAI Gym et des écosystèmes pour partager des données et des modèles comme 🤗 HuggingFace. Un référentiel centralisé de modèles et de méthodes, ainsi que des suites d'évaluation, tirant potentiellement parti d'abondantes données de simulation, feraient avancer le domaine. Il existe déjà une forte communauté d'organisations de neurosciences open source, et elles pourraient servir d'hôtes naturels pour ces efforts.
  2. Talent. Il existe un nombre extrêmement restreint d'endroits où la recherche et le développement se font à l'intersection des neurosciences et de l'IA. La Bay Area, avec des laboratoires à Stanford et Berkeley, et la région métropolitaine de Boston avec de nombreux laboratoires au MIT et à Harvard verront probablement la plupart des investissements de l'écosystème de capital-risque préexistant. Un troisième pôle probable est Montréal, au Canada, soutenu par d'énormes départements de neurosciences à McGill et à l'Université de Montréal, combinés à l'attraction de Mila, l'institut d'intelligence artificielle fondé par le pionnier de l'IA Yoshua Bengio. Notre domaine bénéficierait de programmes de doctorat spécialisés et de centres d'excellence en neuroIA pour lancer la commercialisation.
  3. Nouveaux modèles de financement et de commercialisation pour les applications médicales. Les applications médicales ont un long chemin vers la commercialisation, et la propriété intellectuelle protégée est généralement une condition préalable à l'obtention de financement pour réduire les risques d'investissement dans la technologie. Les innovations basées sur l'IA sont notoirement difficiles à breveter, et le logiciel en tant que dispositif médical (SaMD) commence seulement à arriver sur le marché, ce qui rend la voie de la commercialisation incertaine. Nous aurons besoin de fonds axés sur le rapprochement de l'expertise en IA et en technologie médicale pour nourrir ce domaine naissant. 

Construisons la neuroIA

Les scientifiques et les philosophes se sont interrogés sur le fonctionnement du cerveau depuis des temps immémoriaux. Comment une mince feuille de tissu, d'une surface d'un pied carré, nous permet-elle de voir, d'entendre, de sentir et de penser ? NeuroAI nous aide à maîtriser ces questions profondes en construisant des modèles de systèmes neurologiques dans les ordinateurs. En satisfaisant cette soif fondamentale de savoir – qu'est-ce que cela signifie d'être humain ? – les neuroscientifiques créent également des outils qui pourraient aider des millions de personnes à vivre une vie plus riche.

Publié le 4 août 2022

La technologie, l'innovation et l'avenir, racontés par ceux qui l'ont construit.

Merci pour l'enregistrement.

Vérifiez votre boîte de réception pour un message de bienvenue.

Horodatage:

Plus de Andreessen Horowitz