Além do hype, a IA promete uma vantagem para a pesquisa científica

Além do hype, a IA promete uma vantagem para a pesquisa científica

Além do hype, a IA promete um avanço para a pesquisa científica PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A última década viu grandes avanços na aplicação da inteligência artificial à descoberta científica, mas os profissionais precisam saber quando e como melhorar o uso da IA ​​e devem desafiar a baixa qualidade dos dados.

De descoberta de drogas, Ciência material, astrofísica e fusão nuclear, os cientistas que usam IA estão obtendo resultados em precisão aprimorada e tempo experimental reduzido.

Publicado na revista de pesquisa Nature hoje, um papel de uma equipe de 30 pesquisadores de todo o mundo avalia o progresso feito no campo tão badalado e entende o que precisa ser feito.

Dirigido por Hanchen Wang, pós-doutorando do Stanford Computer Science and Genentech group, o artigo aponta que a IA pode ajudar a “otimizar parâmetros e funções, automatizar procedimentos para coletar, visualizar e processar dados, explorar vastos espaços de hipóteses candidatas para formar teorias e gerar hipóteses e estimar sua incerteza para sugerir experimentos relevantes”.

Por exemplo, em astrofísica, uma técnica de aprendizado não supervisionado para redes neurais para triagem de ruído, autoencoders variacionais têm sido usados ​​para estimar parâmetros de detectores de ondas gravitacionais com base em modelos de forma de onda de buraco negro pré-treinados. “Este método é até seis ordens de magnitude mais rápido que os métodos tradicionais, tornando prático capturar eventos transitórios de ondas gravitacionais”, diz o artigo.

Outro exemplo vem das tentativas de alcançar a fusão nuclear. O cientista de pesquisa do Google DeepMind, Jonas Degrave, desenvolveu um controlador de IA para regular a fusão nuclear por meio de campos magnéticos em um reator tokamak. Os pesquisadores mostraram como um agente de IA pode fazer medições em tempo real dos níveis de tensão elétrica e configurações de plasma para ajudar a controlar o campo magnético e atingir alvos experimentais.

“[As] abordagens de aprendizado por reforço provaram ser eficazes para o controle magnético de plasmas tokamak, onde o algoritmo interage com o simulador tokamak para otimizar uma política de controle do processo”, diz o artigo.

Embora promissora, a aplicação da IA ​​na ciência deve enfrentar uma série de desafios para se tornar mais difundida, argumenta o artigo.

“A implementação prática de um sistema de IA envolve engenharia complexa de software e hardware, exigindo uma série de etapas interdependentes que vão desde a curadoria e processamento de dados até a implementação de algoritmos e design de interfaces de usuário e aplicativos. Pequenas variações na implementação podem levar a mudanças consideráveis ​​no desempenho e impactar o sucesso da integração de modelos de IA na prática científica. Portanto, a padronização dos dados e do modelo precisa ser considerada”, afirmou.

Enquanto isso, há um problema na reprodução de resultados assistidos por IA devido à abordagem aleatória ou estocástica para treinar modelos de aprendizado profundo. “Benchmarks padronizados e design experimental podem aliviar esses problemas. Outra direção para melhorar a reprodutibilidade é por meio de iniciativas de código aberto que liberam modelos, conjuntos de dados e programas educacionais abertos”, acrescentam os documentos de pesquisa.

Ele também aponta que a Big Tech tem vantagem no desenvolvimento de IA para a ciência, pois “os requisitos computacionais e de dados para calcular essas atualizações são colossais, resultando em uma grande pegada de energia e altos custos computacionais”.

Os vastos recursos e investimentos da Big Tech em infraestrutura computacional e serviços em nuvem estão “ultrapassando os limites de escala e eficiência”.

No entanto, as instituições de ensino superior poderiam se ajudar com uma melhor integração entre várias disciplinas, ao mesmo tempo em que exploram bancos de dados históricos exclusivos e tecnologias de medição que não existem fora do setor.

O documento pede o desenvolvimento de uma estrutura ética para proteger contra a má aplicação da IA ​​na ciência e uma melhor educação em todos os campos científicos.

“À medida que os sistemas de IA abordam o desempenho que rivaliza e supera os humanos, empregá-lo como um substituto para o trabalho de laboratório de rotina está se tornando viável. Essa abordagem permite que os pesquisadores desenvolvam modelos preditivos a partir de dados experimentais de forma iterativa e selecionem experimentos para melhorá-los sem executar manualmente tarefas trabalhosas e repetitivas. Para apoiar essa mudança de paradigma, estão surgindo programas educacionais para treinar cientistas na concepção, implementação e aplicação da automação laboratorial e IA na pesquisa científica. Esses programas ajudam os cientistas a entender quando o uso da IA ​​é apropriado e a evitar conclusões mal interpretadas das análises de IA”, afirma.

O artigo observa que o surgimento do aprendizado profundo no início dos anos 2010 “expandiu significativamente o escopo e a ambição desses processos de descoberta científica”.

Menos de uma década depois, o Google DeepMind afirmou que seu software de aprendizado de máquina AlphaFold previu rapidamente a estrutura de proteínas com precisão decente, potencialmente um salto na descoberta de medicamentos. Para que a ciência acadêmica aplique técnicas semelhantes em uma vasta gama de disciplinas, ela precisa agir em conjunto para competir com os bolsos profundos da Big Tech. ®

Carimbo de hora:

Mais de O registro