A IA está modelando o cérebro para nos ajudar a ver, ouvir e criar inteligência de dados PlatoBlockchain. Pesquisa Vertical. Ai.

A IA está modelando o cérebro para nos ajudar a ver, ouvir e criar

Esta é uma versão editada de um post originalmente publicado SUA PARTICIPAÇÃO FAZ A DIFERENÇA.


A neurociência e a IA têm uma história longa e entrelaçada. Os pioneiros da inteligência artificial olharam para os princípios da organização do cérebro como inspiração para fazer máquinas inteligentes. Em uma reversão surpreendente, a IA agora está nos ajudando a entender sua própria fonte de inspiração: o cérebro humano. Essa abordagem de usar a IA para construir modelos do cérebro é chamada de neuroIA. Na próxima década, tornaremos cada vez mais precisos in silico modelos cerebrais, especialmente modelos de nossos dois sentidos mais proeminentes, visão e audição. Como resultado, poderemos baixar e usar modelos sensoriais, sob demanda, com a mesma conveniência que podemos fazer reconhecimento de objetos ou processamento de linguagem natural.

Muitos neurocientistas e pesquisadores de inteligência artificial são – compreensivelmente! – muito animado com isso: cérebros sob demanda! Descobrindo o que significa ver, sentir, ser humano! Menos reconhecido é que existem amplas aplicações práticas na indústria. Há muito tempo sou pesquisador neste campo, tendo trabalhado em como o cérebro transforma a visão em significado desde o meu doutorado. Vi a progressão do campo desde o início e acho que agora é a hora de buscar como a neuroIA pode impulsionar mais criatividade e melhorar nossa saúde. 

Eu prevejo que a neuroIA encontrará primeiro uso generalizado na arte e na publicidade, especialmente quando conectado a novos modelos generativos de IA, como GPT-3 e DALL-E. Embora os modelos atuais de IA generativa possam produzir arte e mídia criativas, eles não podem dizer se essa mídia acabará comunicando uma mensagem ao público-alvo – mas a neuroIA poderia. Por exemplo, podemos substituir a tentativa e erro de grupos focais e testes A/B e criar diretamente uma mídia que comunique exatamente o que queremos. As tremendas pressões do mercado em torno deste aplicativo criarão um ciclo virtuoso que melhora os modelos de neuroAI. 

Os modelos aprimorados resultantes permitirão aplicações em saúde na medicina, desde ajudar pessoas com problemas neurológicos até melhorar as habilidades do bem. Imagine criar as imagens e sons certos para ajudar uma pessoa a recuperar sua visão ou audição mais rapidamente após a cirurgia LASIK ou após a colocação de um implante coclear, respectivamente. 

Essas inovações serão muito mais potentes por outras tecnologias que estão chegando: realidade aumentada e interfaces cérebro-computador. No entanto, para realizar plenamente a utilidade potencial dos sistemas sensoriais para download sob demanda, precisaremos preencher as lacunas atuais em ferramentas, talentos e financiamento.

Neste artigo, explicarei o que é a neuroAI, como ela pode começar a evoluir e começar a impactar nossas vidas, como ela complementa outras inovações e tecnologias e o que é necessário para impulsioná-la.  

O que é neuroAI?

NeuroAI é uma disciplina emergente que busca 1) estudar o cérebro para aprender a construir uma melhor inteligência artificial e 2) usar a inteligência artificial para entender melhor o cérebro. Uma das principais ferramentas da neuroAI é usar redes neurais artificiais para criar modelos de computador de funções cerebrais específicas. Essa abordagem foi iniciada em 2014, quando pesquisadores da MIT e Columbia mostraram que redes neurais artificiais profundas poderiam explicar as respostas em uma parte do cérebro que faz o reconhecimento de objetos: o córtex inferotemporal (TI). Eles introduziram uma receita básica para comparar uma rede neural artificial a um cérebro. Usando esta receita e repetindo testes iterativos em processos cerebrais – reconhecimento de forma, processamento de movimento, processamento de fala, controle do braço, memória espacial – os cientistas estão construindo uma colcha de retalhos de modelos de computador para o cérebro. 

Uma receita para comparar cérebros com máquinas

Então, como você constrói um modelo NeuroAI? Desde a sua criação em 2014, o campo seguiu a mesma receita básica:

1. Treinar redes neurais artificiais in silico para resolver uma tarefa, por exemplo, para reconhecimento de objetos. A rede resultante é chamada de otimizada para tarefas. É importante ressaltar que isso normalmente envolve treinamento apenas em imagens, filmes e sons, não em dados cerebrais.

2. Compare as ativações intermediárias de redes neurais artificiais treinadas com gravações cerebrais reais. A comparação é feita usando técnicas estatísticas como regressão linear ou análise de similaridade representacional.

3. Escolha o modelo com melhor desempenho como o melhor modelo atual dessas áreas do cérebro.

Esta receita pode ser aplicada com dados coletados dentro do cérebro de neurônios individuais ou de técnicas não invasivas como magnetoencefalografia (MEG) ou ressonância magnética funcional (fMRI).

Um modelo neuroAI de parte do cérebro tem duas características principais. É computável: podemos alimentar este modelo de computador com um estímulo e ele nos dirá como uma área do cérebro reagirá. Também é diferenciável: é uma rede neural profunda que podemos otimizar da mesma forma que otimizamos modelos que resolvem o reconhecimento visual e o processamento de linguagem natural. Isso significa que os neurocientistas têm acesso a todas as ferramentas poderosas que impulsionaram a revolução do aprendizado profundo, incluindo sistemas de álgebra tensorial como PyTorch e TensorFlow. 

O que isto significa? Passamos de não entender grandes partes do cérebro para poder baixar bons modelos dele em menos de uma década. Com os investimentos certos, em breve teremos excelentes modelos de grandes porções do cérebro. O sistema visual foi o primeiro a ser modelado; o sistema auditivo não estava muito atrás; e outras áreas certamente cairão como dominós enquanto os intrépidos neurocientistas correm para resolver os mistérios do cérebro. Além de satisfazer nossa curiosidade intelectual – um grande motivador para os cientistas! – essa inovação permitirá que qualquer programador baixe bons modelos do cérebro e desbloqueie uma infinidade de aplicativos.

As áreas de aplicação

Arte e publicidade

Vamos começar com esta premissa simples: 99% da mídia que experimentamos é através de nossos olhos e ouvidos. Existem setores inteiros que podem ser reduzidos a fornecer os pixels e tons certos para esses sentidos: arte visual, design, filmes, jogos, música e publicidade são apenas alguns deles. Agora, não são nossos próprios olhos e ouvidos que interpretam essas experiências, pois são meros sensores: são nossos cérebros que dão sentido a essas informações. A mídia é criada para informar, entreter, trazer as emoções desejadas. Mas determinar se a mensagem em uma pintura, uma foto profissional ou um anúncio é recebida como pretendido é um exercício frustrante de tentativa e erro: os humanos precisam estar no circuito para determinar se a mensagem chega, o que é caro e demorado. consumindo.

Os serviços online de larga escala descobriram maneiras de contornar isso automatizando a tentativa e erro: testes A/B. Google notoriamente testou qual dos 50 tons de azul usar para os links na página de resultados do mecanismo de pesquisa. De acordo com o The Guardian, a melhor escolha causou melhorias na receita acima da linha de base de 200M$ em 2009, ou aproximadamente 1% da receita do Google na época. Netflix personaliza as miniaturas ao espectador para otimizar a experiência do usuário. Esses métodos estão disponíveis para gigantes online com tráfego massivo, que podem superar o ruído inerente ao comportamento das pessoas.

E se pudéssemos prever como as pessoas reagirão à mídia antes de obter quaisquer dados? Isso possibilitaria que pequenas empresas otimizassem seus materiais escritos e sites, apesar de terem pouca tração pré-existente. A NeuroAI está cada vez mais perto de poder prever como as pessoas reagirão aos materiais visuais. Por exemplo, pesquisadores na Adobe estão trabalhando em ferramentas para prever e direcionar a atenção visual em ilustrações.

Os pesquisadores também demonstraram editar fotos para torná-las mais visualmente memorável ou esteticamente agradável. Ele pode ser usado, por exemplo, para selecionar automaticamente uma foto profissional mais alinhada à imagem que as pessoas desejam projetar de si mesmas – profissional, séria ou criativa. As redes neurais artificiais podem até encontrar maneiras de comunicar mensagens de forma mais eficaz do que imagens realistas. O CLIP da OpenAI pode ser sondado para encontrar imagens alinhadas às emoções. A imagem mais alinhada ao conceito de choque não ficaria fora de lugar ao lado do Grito de Munch.

OpenAI CLIP maximizando a imagem para o conceito de choque. Via OpenAI Microscope, lançado sob CC-BY 4.0.

No ano passado, OpenAI e Google demonstraram redes de arte generativa com uma capacidade impressionante de gerar imagens fotorrealistas a partir de prompts de texto. Ainda não atingimos esse momento para a música, mas com o ritmo do progresso nos modelos generativos, isso certamente acontecerá nos próximos anos. Ao construir máquinas que podem ouvir como humanos, podemos democratizar a produção musical, dando a qualquer um a capacidade de fazer o que produtores musicais altamente qualificados podem fazer: comunicar a emoção certa durante um refrão, seja melancolia ou alegria; para criar um minhoca de uma melodia; ou para tornar uma peça irresistivelmente dançante.

Existem enormes pressões de mercado para otimizar a mídia audiovisual, sites e especialmente anúncios, e já estamos integrando neuroAI e arte algorítmica nesse processo. Essa pressão levará a um ciclo virtuoso em que a neuroIA ficará melhor e mais útil à medida que mais recursos forem despejados em aplicações práticas. Um efeito colateral disso é que teremos modelos muito bons do cérebro que serão úteis muito além dos anúncios. 

Acessibilidade e design algorítmico

Uma das aplicações mais interessantes da neuroAI é a acessibilidade. A maioria das mídias é projetada para a pessoa “média”, mas todos nós processamos informações visuais e auditivas de maneira diferente. 8% dos homens e 0.5% das mulheres são daltônicos vermelho-verde, e uma grande quantidade de mídia não está adaptada às suas necessidades. Existem vários produtos que simulam o daltonismo hoje, mas exigem que uma pessoa com visão de cores normal interprete os resultados e faça as alterações necessárias. O remapeamento estático de cores também não funciona para essas necessidades, pois alguns materiais não preservam sua semântica com o remapeamento de cores (por exemplo, gráficos que se tornam difíceis de ler). Poderíamos automatizar a geração de materiais e sites seguros para daltonismo por meio de métodos neuroAI que mantêm a semântica dos gráficos existentes.

Outro exemplo é ajudar pessoas com dificuldades de aprendizagem, como a dislexia, que atinge até 10% das pessoas no mundo. Um dos problemas subjacentes na dislexia é sensibilidade à aglomeração, que é a dificuldade em reconhecer formas com características subjacentes semelhantes, incluindo letras simétricas como p e q. Anne Harrington e Arturo Deza do MIT estão trabalhando em modelos de neuroAI que modelam esse efeito e obtendo alguns resultados muito promissores. Imagine pegar modelos do sistema visual disléxico para projetar fontes que sejam esteticamente agradáveis ​​e mais fáceis de ler. Com os dados certos sobre o sistema visual de uma pessoa específica, podemos até personalizar a fonte para um indivíduo específico, que se mostrou promissor em melhorar o desempenho de leitura. Estas são potencialmente grandes melhorias na qualidade de vida esperando aqui.

Saúde

Muitos neurocientistas entram no campo com a esperança de que suas pesquisas tenham um impacto positivo na saúde humana, em particular para pessoas que vivem com distúrbios neurológicos ou problemas de saúde mental. Estou muito esperançoso de que a neuroIA desbloqueie novas terapias: com um bom modelo do cérebro, podemos criar os estímulos certos para que a mensagem certa chegue a ele, como uma chave se encaixa em uma fechadura. Nesse sentido, a neuroAI pode ser aplicada de forma semelhante ao design algorítmico de drogas, mas em vez de pequenas moléculas, fornecemos imagens e sons. 

Os problemas mais abordáveis ​​envolvem os receptores dos olhos e ouvidos, que já estão bem caracterizados. Centenas de milhares de pessoas receberam implantes cocleares, neuropróteses que estimulam eletricamente a cóclea do ouvido, permitindo que surdos ou com deficiência auditiva voltem a ouvir. Esses implantes, que contêm algumas dezenas de eletrodos, podem ser difíceis de usar em ambientes ruidosos com vários alto-falantes. Um modelo de cérebro pode otimizar o padrão de estimulação do implante para amplificar a fala. O que é notável é que essa tecnologia, desenvolvida para pessoas com implantes, pode ser adaptada para ajudar pessoas sem implantes a entender melhor a fala modificando sons em tempo real, sejam elas com um distúrbio de processamento auditivo ou simplesmente em ambientes barulhentos.

Muitas pessoas experimentam mudanças em seus sistemas sensoriais ao longo da vida, seja se recuperando de uma cirurgia de catarata ou tornando-se míope com a idade. Sabemos que após tal mudança, as pessoas podem aprender a reinterpretar o mundo corretamente por meio da repetição, fenômeno chamado de aprendizagem perceptiva. Podemos ser capazes de maximizar esse aprendizado perceptual para que as pessoas possam recuperar suas habilidades com mais rapidez e eficácia. Uma ideia semelhante poderia ajudar pessoas que perderam a capacidade de mover seus membros com fluidez após um derrame. Se pudermos encontrar a sequência certa de movimentos para fortalecer o cérebro de maneira ideal, poderemos ajudar os sobreviventes de derrame a recuperar mais funções, como andar com mais fluidez ou simplesmente segurar uma xícara de café sem derramar. Além de ajudar as pessoas a recuperar as funções físicas perdidas, a mesma ideia pode ajudar as pessoas saudáveis ​​a atingir o desempenho sensorial máximo – sejam eles jogadores de beisebol, arqueiros ou patologistas.

Finalmente, pudemos ver essas ideias sendo aplicadas ao tratamento de transtornos de humor. Fui a muitas mostras de artes visuais para aliviar meu tédio durante a pandemia, e isso melhorou muito meu humor. A arte visual e a música podem elevar nossos espíritos, e é uma prova de conceito de que podemos ser capaz de fornecer terapias para transtornos de humor através dos sentidos. Sabemos que controlar a atividade de partes específicas do cérebro com estimulação elétrica pode aliviar a depressão resistente ao tratamento; talvez controlar a atividade do cérebro indiretamente por meio dos sentidos pudesse mostrar efeitos semelhantes. Ao implantar modelos simples – frutos fáceis de alcançar – que afetam partes bem compreendidas do cérebro, daremos início à construção de modelos mais complexos que podem ajudar a saúde humana. 

Habilitando tendências de tecnologia

O NeuroAI levará muitos anos para ser domado e implantado em aplicativos e interceptará outras tendências tecnológicas emergentes. Aqui destaco duas tendências em particular que tornarão a neuroIA muito mais poderosa: realidade aumentada (RA), que pode fornecer estímulos com precisão; e interfaces cérebro-computador (BCI), que podem medir a atividade cerebral para verificar se os estímulos atuam da maneira esperada.  

Realidade aumentada

Uma tendência que tornará os aplicativos de neuroAI muito mais poderosos é a adoção de óculos de realidade aumentada. A realidade aumentada (AR) tem o potencial de se tornar uma plataforma de computação onipresente, porque a AR se integra à vida cotidiana.

A hipótese de Michael Abrash, cientista-chefe do Meta Reality Labs, é que, se você construir óculos AR suficientemente capazes, todos os desejarão. Isso significa construir óculos com reconhecimento de mundo que podem criar objetos virtuais persistentes bloqueados pelo mundo; quadros leves e elegantes, como um par de Ray-Ban; e dando a você superpoderes da vida real, como ser capaz de interagir naturalmente com as pessoas, independentemente da distância e melhorando sua audição. Se você conseguir construir esses – um enorme desafio técnico – os óculos AR podem seguir uma trajetória semelhante ao iPhone, de modo que todos terão um (ou uma imitação) 5 anos após o lançamento.

Para tornar isso realidade, a Meta gastou 10 bilhões de dólares no ano passado em P&D para o metaverso. Embora não saibamos ao certo o que a Apple está fazendo, existem fortes sinais de que eles estão trabalhando em óculos AR. Portanto, há também um tremendo impulso do lado da oferta para fazer a AR acontecer.

Isso tornará amplamente disponível um dispositivo de exibição muito mais poderoso do que as telas estáticas de hoje. Se isso segue a trajetória de VR, ele eventualmente terá o rastreamento ocular integrado. Isso significaria uma maneira amplamente disponível de apresentar estímulos muito mais controlada do que é possível atualmente, um sonho para os neurocientistas. E esses dispositivos provavelmente terão aplicações de saúde de longo alcance, como contado por Michael Abrash em 2017, como melhorar a visão na penumbra ou permitir que as pessoas vivam uma vida normal apesar da degeneração macular.

O significado para a neuroIA é claro: podemos fornecer o estímulo certo de maneira altamente controlada e contínua na vida cotidiana. Isso é verdade para a visão e talvez menos obviamente para a audição, pois podemos fornecer áudio espacial. O que isso significa é que nossas ferramentas para trazer terapias de neuroIA para pessoas com problemas neurológicos ou para melhorias de acessibilidade se tornarão muito mais poderosas.

BCI

Com uma ótima tela e alto-falantes, podemos controlar as principais entradas para o cérebro com precisão. O próximo estágio mais poderoso na entrega de estímulos através dos sentidos é verificar se o cérebro está reagindo da maneira esperada por meio de uma interface cérebro-computador (BCI) somente leitura. Assim, podemos medir os efeitos dos estímulos no cérebro e, se não forem os esperados, podemos ajustar de acordo com o que é chamado de controle de circuito fechado. 

Para ser claro, aqui não estou falando sobre métodos BCI como o chip da Neuralink ou estimuladores cerebrais profundos que entram no crânio; é suficiente para esses propósitos medir a atividade cerebral fora do crânio, de forma não invasiva. Também não há necessidade de estimular diretamente o cérebro: óculos e fones de ouvido são tudo o que você precisa para controlar a maioria das entradas do cérebro.

Há uma série de BCIs somente leitura não invasivas que são comercializadas hoje ou em processo de fabricação que podem ser usadas para controle de malha fechada. Alguns exemplos incluem:

  • EEG. A eletroencefalografia mede a atividade elétrica do cérebro fora do crânio. Como o crânio atua como um condutor de volume, o EEG tem alta resolução temporal, mas baixa resolução espacial. Embora isso tenha limitado a aplicação do consumidor a produtos de meditação (Muse) e aplicativos de neuromarketing de nicho, estou otimista em alguns de seus usos no contexto de controle de circuito fechado. O EEG pode ser muito mais poderoso quando se tem controle sobre o estímulo, pois é possível correlacionar o estímulo apresentado com o sinal de EEG e decodificar o que a pessoa estava prestando atenção (métodos potenciais evocados). De fato, o NextMind, que fez um “clique mental” baseado em EEG com base em potenciais evocados, foi adquirido por Snap, que agora está fabricando produtos AR. OpenBCI é planejamento lançar um fone de ouvido que integra seus sensores de EEG com o fone de ouvido Aero de ponta da Varjo. Eu não contaria o EEG.
  • ressonância magnética funcional. A ressonância magnética funcional mede as pequenas alterações na oxigenação do sangue associadas à atividade neural. É lento, não é portátil, requer seu próprio quarto e é muito caro. No entanto, a fMRI continua sendo a única tecnologia que pode ler de forma não invasiva a atividade profunda no cérebro de maneira espacialmente precisa. Existem dois paradigmas que são bastante maduros e relevantes para o controle neural em malha fechada. O primeiro é o biofeedback baseado em fMRI. Um subcampo de fMRI mostra que as pessoas podem modular sua atividade cerebral apresentando-a visualmente em uma tela ou fones de ouvido. O segundo é o mapeamento cortical, incluindo abordagens como campos receptivos populacionais e estimando a seletividade de voxel com clipes de filme ou podcasts, que permitem estimar como diferentes áreas cerebrais respondem a diferentes estímulos visuais e auditivos. Esses dois métodos sugerem que deve ser possível estimar como uma intervenção de neuroIA afeta o cérebro e orientá-la para ser mais eficaz.
  • fNIRS. A espectroscopia de infravermelho próximo funcional usa luz difusa para estimar o volume de sangue cerebral entre um transmissor e um receptor. Baseia-se no fato de que o sangue é opaco e o aumento da atividade neural leva a um atraso no influxo de sangue em um determinado volume cerebral (mesmo princípio da fMRI). O NIRS convencional tem baixa resolução espacial, mas com time gating (TD-NIRS) e oversampling massivo (tomografia óptica difusa), a resolução espacial é muito melhor. Na frente acadêmica, Grupo de Joe Culver na WUSTL demonstraram a decodificação de filmes do córtex visual. Na frente comercial, Kernel é agora fabricação e envio de fones de ouvido TD-NIRS que são feitos impressionantes de engenharia. E é uma área onde as pessoas continuam pressionando e o progresso é rápido; meu antigo grupo no Meta demonstrou uma melhora de 32 vezes na relação sinal-ruído (que pode ser dimensionada para > 300) em uma técnica relacionada.
  • MEG. A magnetoencefalografia mede pequenas mudanças nos campos magnéticos, localizando assim a atividade cerebral. O MEG é semelhante ao EEG, pois mede mudanças no campo eletromagnético, mas não sofre condução de volume e, portanto, possui melhor resolução espacial. O MEG portátil que não requer refrigeração seria um divisor de águas para o BCI não invasivo. As pessoas estão progredindo com magnetômetros bombeados opticamente, e é possível comprar sensores OPM individuais no mercado aberto, de fabricantes como a QuSpin.

Além dessas técnicas mais conhecidas, algumas tecnologias obscuras, como holografia digital, tomografia fotoacústica e ultrassom funcional, podem levar a rápidas mudanças de paradigma nesse espaço.

Embora o BCI não invasivo de nível de consumidor ainda esteja em sua infância, há várias pressões de mercado em torno dos casos de uso de RA que aumentarão o bolo. De fato, um problema significativo para o AR é controlar o dispositivo: você não quer ter que andar com um controlador ou murmurar para seus óculos, se puder evitá-lo. As empresas são bastante sérias em resolver esse problema, como evidenciado pela compra do Facebook CTRL + Labs em 2019, Snap adquirindo NextMind e Valve em parceria com OpenBCI. Assim, é provável que vejamos BCIs de baixa dimensão sendo desenvolvidos rapidamente. BCIs de alta dimensão podem seguir a mesma trajetória se encontrarem um aplicativo matador como o AR. É possível que os tipos de aplicativos de neuroIA que defendo aqui sejam precisamente o caso de uso certo para essa tecnologia.

Se pudermos controlar a entrada nos olhos e ouvidos, bem como medir os estados cerebrais com precisão, podemos fornecer terapias baseadas em neuroIA de maneira monitorada para máxima eficácia.

O que está faltando no campo

A ciência central por trás dos aplicativos NeuroAI está amadurecendo rapidamente e há várias tendências positivas que aumentarão sua aplicabilidade geral. Então, o que está faltando para trazer aplicativos de neuroAI ao mercado?

  1. Ferramentas. Outros subcampos da IA ​​se beneficiaram tremendamente das caixas de ferramentas que permitem o rápido progresso e o compartilhamento de resultados. Isso inclui bibliotecas de álgebra tensorial como Tensorflow e PyTorch, ambientes de treinamento como OpenAI Gym e ecossistemas para compartilhar dados e modelos como 🤗 HuggingFace. Um repositório centralizado de modelos e métodos, bem como suítes de avaliação, potencialmente alavancando dados de simulação abundantes, impulsionariam o campo. Já existe uma forte comunidade de organizações de neurociência de código aberto, e elas podem servir como hospedeiros naturais para esses esforços.
  2. Talento. Há um número cada vez menor de lugares onde pesquisa e desenvolvimento são feitos na interseção da neurociência e da IA. A Bay Area, com laboratórios em Stanford e Berkeley, e a área metropolitana de Boston com vários laboratórios no MIT e Harvard provavelmente receberão a maior parte do investimento do ecossistema de capital de risco pré-existente. Um terceiro centro provável é Montreal, Canadá, impulsionado por enormes departamentos de neurociência da McGill e da Universite de Montreal, combinados com a atração de Mila, o instituto de inteligência artificial fundado pelo pioneiro da IA ​​Yoshua Bengio. Nosso campo se beneficiaria de programas de doutorado especializados e centros de excelência em neuroAI para iniciar a comercialização.
  3. Novos modelos de financiamento e comercialização para aplicações médicas. As aplicações médicas têm um longo caminho para a comercialização, e a propriedade intelectual protegida geralmente é um pré-requisito para obter financiamento para reduzir o risco do investimento na tecnologia. As inovações baseadas em IA são notoriamente difíceis de patentear, e o software como dispositivo médico (SaMD) está apenas começando a chegar ao mercado, tornando incerto o caminho para a comercialização. Precisaremos de fundos focados em reunir conhecimentos de IA e tecnologia médica para nutrir esse campo nascente. 

Vamos construir neuroAI

Cientistas e filósofos têm intrigado sobre como os cérebros funcionam desde tempos imemoriais. Como uma fina folha de tecido, com um metro quadrado de área, nos permite ver, ouvir, sentir e pensar? A NeuroAI está nos ajudando a lidar com essas questões profundas construindo modelos de sistemas neurológicos em computadores. Satisfazendo essa sede fundamental de conhecimento – o que significa ser humano? – os neurocientistas também estão construindo ferramentas que podem ajudar milhões de pessoas a viver vidas mais ricas.

Postado agosto 4, 2022

Tecnologia, inovação e o futuro, contados por quem o constrói.

Obrigado por inscrever-se.

Verifique sua caixa de entrada para uma nota de boas-vindas.

Carimbo de hora:

Mais de Andreessen Horowitz