De abajo hacia arriba a de arriba hacia abajo: la científica computacional Amanda Barnard habla sobre la belleza de las simulaciones, el aprendizaje automático y cómo se cruzan los dos – Physics World

De abajo hacia arriba a de arriba hacia abajo: la científica computacional Amanda Barnard habla sobre la belleza de las simulaciones, el aprendizaje automático y cómo se cruzan los dos – Physics World

amanda barnard
Especialista en interfaz Amanda Barnard es subdirectora y directora de ciencias computacionales en la Escuela de Informática de la Universidad Nacional de Australia. (Cortesía: Sitthixay Ditthavong/Tiempos de Camberra)

Desde el uso de supercomputadoras para aprovechar nuevos tipos de materiales hasta el entrenamiento de modelos de aprendizaje automático para estudiar propiedades complejas a nanoescala, La científica computacional australiana Amanda Barnard trabaja en la interfaz de la informática y la ciencia de datos. Un profesor titular en la Escuela de Informática de la Universidad Nacional de Australia, Barnard también es subdirector y líder de ciencia computacional. Actualmente, utiliza una variedad de métodos computacionales para resolver problemas en las ciencias físicas, pero Barnard comenzó su carrera como física y recibió su doctorado en física teórica de la materia condensada en 2003.

Después de pasar los siguientes años como postdoctorado en la Centro de Materiales a Nanoescala en el Laboratorio Nacional de Argonne en los EE. UU., comenzó a ampliar sus intereses de investigación para abarcar muchos aspectos de la ciencia computacional, incluido el uso del aprendizaje automático en nanotecnología, ciencia de los materiales, química y medicina.

Un compañero de ambos Instituto Australiano de Física y del Royal Society of Chemistry, en 2022 Barnard fue nombrado Miembro de la Orden de Australia. También ha ganado varios premios, entre ellos el Premio Feynman 2014 en Nanotecnología (Teoría) y la Medalla 2019 de la Asociación de Modeladores Moleculares de Australasia. Habla con Hamish Johnston sobre su interés en aplicar el aprendizaje automático a una variedad de problemas y sobre los desafíos y las recompensas de la administración universitaria.

¿Puedes contarnos un poco sobre lo que haces como científico computacional?

La ciencia computacional implica el diseño y el uso de modelos matemáticos para analizar problemas computacionalmente exigentes en muchas áreas de la ciencia y la ingeniería. Esto incluye avances en infraestructura computacional y algoritmos que permiten a los investigadores en estos diferentes dominios realizar experimentos computacionales a gran escala. En cierto modo, la ciencia computacional implica la investigación de la computación de alto rendimiento, y no solo la investigación con una computadora de alto rendimiento.

Pasamos la mayor parte de nuestro tiempo en algoritmos y tratando de descubrir cómo implementarlos de una manera que aproveche al máximo el hardware avanzado; y ese hardware está cambiando todo el tiempo. Esto incluye simulaciones convencionales basadas en modelos matemáticos desarrollados específicamente en diferentes dominios científicos, ya sea física, química o más allá. También pasamos mucho tiempo usando métodos de máquina de aprendizaje (ML) y inteligencia artificial (AI), la mayoría de los cuales fueron desarrollados por informáticos, lo que hace que sea una investigación muy interdisciplinaria. Esto permite que se utilicen un montón de nuevos enfoques en todas estas diferentes áreas científicas.

El aprendizaje automático nos permite recuperar gran parte de la complejidad que hemos perdido cuando derivamos esas hermosas teorías.

La simulación nació de los aspectos teóricos de cada área científica que, con unos convenientes niveles de abstracción, nos permitieron resolver las ecuaciones. Pero cuando desarrollamos esas teorías, eran casi una simplificación excesiva del problema, que se hizo en la búsqueda de la elegancia matemática o simplemente por el bien de la practicidad. ML nos permite recuperar gran parte de la complejidad que hemos perdido cuando derivamos esas hermosas teorías. Pero, lamentablemente, no todo el aprendizaje automático funciona bien con la ciencia, por lo que los científicos computacionales dedican mucho tiempo a tratar de descubrir cómo aplicar estos algoritmos que nunca fueron destinados para este tipo de conjuntos de datos a fin de superar algunos de los problemas que se presentan. experimentado en la interfaz. Y esa es una de las áreas emocionantes que me gustan.

Comenzó su carrera como físico. ¿Qué te hizo moverte a la ciencia computacional?

La física es un gran punto de partida para prácticamente cualquier cosa. Pero siempre estuve en el camino de la ciencia computacional sin darme cuenta. Durante mi primer proyecto de investigación como estudiante, utilicé métodos computacionales y me enganché al instante. Me encantó la codificación, desde escribir el código hasta los resultados finales, así que supe al instante que las supercomputadoras estaban destinadas a ser mi instrumento científico. Fue emocionante pensar en lo que un científico de materiales podría hacer si pudiera hacer muestras perfectas cada vez. O qué podría hacer un químico si pudiera eliminar todas las contaminaciones y tener reacciones perfectas. ¿Qué podríamos hacer si pudiéramos explorar entornos duros o peligrosos sin correr el riesgo de herir a nadie? Y lo que es más importante, ¿qué pasaría si pudiéramos hacer todas estas cosas simultáneamente, bajo demanda, cada vez que lo intentáramos?

La belleza de las supercomputadoras es que son el único instrumento que nos permite alcanzar esta casi perfección. Lo que más me cautiva es que no solo puedo reproducir lo que mis colegas pueden hacer en el laboratorio, sino también hacer todo lo que ellos no pueden hacer en el laboratorio. Entonces, desde los primeros días, mi física computacional estaba en una computadora. Mi química computacional luego evolucionó a materiales, informática de materiales y ahora casi exclusivamente ML. Pero siempre me he centrado en los métodos de cada una de estas áreas, y creo que una base en física me permite pensar de forma muy creativa sobre cómo abordar computacionalmente todas estas otras áreas.

¿En qué se diferencia el aprendizaje automático de las simulaciones informáticas clásicas?

La mayor parte de mi investigación ahora es ML, probablemente el 80% de ella. Sin embargo, todavía hago algunas simulaciones convencionales, ya que me dan algo muy diferente. Las simulaciones son fundamentalmente un enfoque de abajo hacia arriba. Comenzamos con cierta comprensión de un sistema o un problema, ejecutamos una simulación y luego obtenemos algunos datos al final. ML, por el contrario, es un enfoque de arriba hacia abajo. Comenzamos con los datos, ejecutamos un modelo y luego terminamos con una mejor comprensión del sistema o problema. La simulación se basa en reglas determinadas por nuestras teorías científicas establecidas, mientras que ML se basa en experiencias e historia. Las simulaciones suelen ser en gran parte deterministas, aunque hay algunos ejemplos de métodos estocásticos como Monte Carlo. ML es en gran parte estocástico, aunque hay algunos ejemplos que también son deterministas.

Con simulaciones, puedo hacer muy buenas extrapolaciones. Muchas de las teorías que sustentan las simulaciones nos permiten explorar áreas de un “espacio de configuración” (las coordenadas que determinan todos los estados posibles de un sistema) o áreas de un problema para el cual no tenemos datos o información. Por otro lado, ML es realmente bueno para interpolar y llenar todos los vacíos y es muy bueno para la inferencia.

concepto de flujo de datos

De hecho, los dos métodos se basan en tipos de lógica muy diferentes. La simulación se basa en una lógica "si-entonces-si no", lo que significa que si tengo un determinado problema o un determinado conjunto de condiciones, obtendré una respuesta determinista o, de lo contrario, computacionalmente, probablemente fallará si obtiene está mal. ML, por el contrario, se basa en una lógica de "estimar-mejorar-repetir", lo que significa que siempre dará una respuesta. Esa respuesta siempre es mejorable, pero puede que no siempre sea correcta, así que esa es otra diferencia.

Las simulaciones son intradisciplinares: tienen una relación muy estrecha con el dominio del conocimiento y se apoyan en la inteligencia humana. Por otro lado, ML es interdisciplinario: utiliza modelos desarrollados fuera del dominio original, es independiente del conocimiento del dominio y depende en gran medida de la inteligencia artificial. Por eso me gusta combinar los dos enfoques.

¿Puede contarnos un poco más sobre cómo utiliza el aprendizaje automático en su investigación?

Antes de la llegada de ML, los científicos tenían que comprender bastante bien las relaciones entre las entradas y las salidas. Teníamos que tener la estructura del modelo predeterminada antes de poder resolverlo. Significaba que teníamos que tener una idea de la respuesta antes de poder buscarla.

Podemos desarrollar la estructura de una expresión o una ecuación y resolverla al mismo tiempo. Eso acelera el método científico y es otra razón por la que me gusta usar el aprendizaje automático.

Cuando usa ML, las máquinas usan técnicas estadísticas e información histórica para programarse básicamente a sí mismas. Significa que podemos desarrollar la estructura de una expresión o una ecuación y resolverla al mismo tiempo. Eso acelera el método científico, y es otra razón por la que me gusta usarlo.

Las técnicas de ML que uso son diversas. Hay muchos sabores y tipos diferentes de ML, al igual que hay muchos tipos diferentes de física computacional o métodos de física experimental. Utilizo el aprendizaje no supervisado, que se basa completamente en variables de entrada, y analiza el desarrollo de "patrones ocultos" o trata de encontrar datos representativos. Eso es útil para los materiales en nanociencia, cuando no hemos hecho los experimentos para quizás medir una propiedad, pero sabemos bastante sobre las condiciones de entrada que ponemos para desarrollar el material.

El aprendizaje no supervisado puede ser útil para encontrar grupos de estructuras, denominados conglomerados, que tengan similitudes en el espacio de alta dimensión, o estructuras puras y representativas (arquetipos o prototipos) que describan el conjunto de datos como un todo. También podemos transformar los datos para asignarlos a un espacio de menor dimensión y revelar más similitudes que antes no eran aparentes, de manera similar a como podríamos cambiar al espacio recíproco en la física.

También uso ML supervisado para encontrar relaciones y tendencias, como las relaciones estructura-propiedad, que son importantes en materiales y nanociencia. Esto incluye la clasificación, donde tenemos una etiqueta discreta. Digamos que ya tenemos diferentes categorías de nanopartículas y, en función de sus características, queremos asignarlas automáticamente a una categoría u otra, y asegurarnos de que podemos separar fácilmente estas clases según los datos de entrada únicamente.

También uso el aprendizaje estadístico y el aprendizaje semisupervisado. El aprendizaje estadístico, en particular, es útil en la ciencia, aunque todavía no se usa ampliamente. Pensamos en eso como una inferencia causal que se usa mucho en el diagnóstico médico, y esto se puede aplicar para diagnosticar de manera efectiva cómo se podría crear un material, por ejemplo, en lugar de solo por qué se crea.

Su grupo de investigación incluye personas con una amplia gama de intereses científicos. ¿Puedes darnos una idea de algunas de las cosas que están estudiando?

Cuando comencé en física, nunca pensé que estaría rodeado de un grupo tan increíble de personas inteligentes de diferentes áreas científicas. El grupo de ciencias computacionales de la Universidad Nacional de Australia incluye científicos ambientales, científicos de la tierra, biólogos computacionales y bioinformáticos. También hay investigadores que estudian genómica, neurociencia computacional, química cuántica, ciencia de los materiales, física del plasma, astrofísica, astronomía, ingeniería y, yo, nanotecnología. Así que somos un grupo diverso.

Nuestro grupo incluye Giuseppe Barca, que está desarrollando algoritmos que sustentan los paquetes de software de química cuántica que se utilizan en todo el mundo. Su investigación se centra en cómo podemos aprovechar los nuevos procesadores, como los aceleradores, y cómo podemos repensar cómo se pueden dividir y fragmentar las moléculas grandes para que podamos combinar estratégicamente flujos de trabajo paralelos masivos. También nos está ayudando a usar las supercomputadoras de manera más eficiente, lo que ahorra energía. Y durante los últimos dos años, ha mantenido el récord mundial en el mejor algoritmo de química cuántica de escala.

También a pequeña escala, en términos de ciencia, es Minh Bui, quien es un bioinformático que trabaja en el desarrollo de nuevos modelos estadísticos en el área de los sistemas filogenómicos [un campo multidisciplinario que combina la investigación evolutiva con la biología y la ecología de sistemas, utilizando métodos de la ciencia de redes]. Estos incluyen modelos de partición, modelos conscientes de isomorfismo y modelos de árbol de distribución. Las aplicaciones de esto incluyen áreas en enzimas fotosintéticas o datos profundos de transcripción de filogenia de insectos, y ha realizado trabajos investigando algas, así como bacterias y virus como el VIH y el SARS-CoV-2 (que causa COVID-19).

Minh Bui

En el extremo más grande de la escala está el matemático. Quanling Deng, cuya investigación se centra en el modelado matemático y la simulación de medios a gran escala, como los océanos y la dinámica de la atmósfera, así como los témpanos de hielo antárticos.

La mejor parte es cuando descubrimos que un problema de un dominio en realidad ya se resolvió en otro, y aún mejor cuando descubrimos uno experimentado en múltiples dominios para que podamos escalar de manera súper lineal. Es genial cuando una solución tiene múltiples áreas de impacto. ¿Y con qué frecuencia encontraría a un neurocientífico computacional trabajando junto a un físico de plasma? Simplemente no sucede normalmente.

Además de trabajar con su grupo de investigación, también es subdirector de la Escuela de Informática de la Universidad Nacional de Australia. ¿Puedes contarnos un poco sobre ese papel?

Es en gran medida una función administrativa. Entonces, además de trabajar con un grupo increíble de científicos informáticos en ciencia de datos, áreas fundamentales en idiomas, desarrollo de software, ciberseguridad, visión artificial, robótica, etc., también puedo crear oportunidades para que nuevas personas se unan a la escuela y sean la mejor versión de ellos mismos. Gran parte de mi trabajo en el rol de liderazgo se trata de las personas. Y esto incluye el reclutamiento, el cuidado de nuestro programa de tenencia y también nuestro programa de desarrollo profesional. También tuve la oportunidad de iniciar algunos programas nuevos para áreas que pensé que necesitaban atención.

Un ejemplo de ello fue durante la pandemia mundial de COVID. Muchos de nosotros nos cerramos y no pudimos acceder a nuestros laboratorios, lo que nos dejó preguntándonos qué podemos hacer. Aproveché la oportunidad para desarrollar un programa llamado el Beca conjunta de jubileo, que apoya a los investigadores que trabajan en la interfaz entre la informática y otro dominio, donde resuelven grandes desafíos en sus áreas, pero también usan ese conocimiento del dominio para informar nuevos tipos de informática. El programa apoyó a cinco de estos investigadores en diferentes áreas en 2021.

Yo también soy el presidente de la Programa Mujeres Pioneras, que ofrece becas, conferencias y becas para apoyar a las mujeres que ingresan a la informática y garantizar que tengan éxito a lo largo de su carrera con nosotros.

Y, por supuesto, otra de mis funciones como subdirectora es ocuparme de las instalaciones informáticas de nuestra escuela. Busco formas en que podemos diversificar nuestra cartera de recursos para superar tiempos difíciles, como durante COVID, cuando no pudimos pedir ningún equipo nuevo. También analizo cómo podemos ser más eficientes energéticamente, porque la informática utiliza una enorme cantidad de energía.

Debe ser un momento muy emocionante para las personas que investigan en ML, ya que la tecnología está encontrando muchos usos diferentes. ¿Qué nuevas aplicaciones de ML espera más en su investigación?

Bueno, probablemente algunos de los que ya estás escuchando, a saber, la IA. Si bien existen riesgos asociados con la IA, también hay una gran oportunidad, y creo que la IA generativa será particularmente importante en los próximos años para la ciencia, siempre que podamos superar algunos de los problemas con "alucinaciones" [cuando un sistema de IA , como un modelo de lenguaje grande, genera información falsa, basada en un conjunto de datos de entrenamiento o lógica contextual, o una combinación de ambos].

No importa en qué área de la ciencia estemos, estamos restringidos por el tiempo que tenemos, el dinero, los recursos y el equipo al que tenemos acceso. Significa que estamos comprometiendo nuestra ciencia para ajustarnos a estas limitaciones en lugar de centrarnos en superarlas.

Pero no importa en qué área de la ciencia estemos, ya sea computacional o experimental, todos estamos sufriendo bajo una serie de restricciones. Estamos restringidos por el tiempo que tenemos, el dinero, los recursos y el equipo al que tenemos acceso. Significa que estamos comprometiendo nuestra ciencia para ajustarnos a estas limitaciones en lugar de centrarnos en superarlas. Realmente creo que la infraestructura no debería dictar lo que hacemos, debería ser al revés.

Creo que la IA generativa ha llegado en el momento adecuado para permitirnos superar finalmente algunos de estos problemas porque tiene mucho potencial para llenar los vacíos y brindarnos una idea de qué ciencia podríamos haber hecho, si hubiéramos tenido todo. los recursos necesarios.

De hecho, la IA podría permitirnos obtener más haciendo menos y evitar algunas trampas como el sesgo de selección. Ese es un problema realmente grande cuando se aplica ML a conjuntos de datos científicos. Necesitamos trabajar mucho más para garantizar que los métodos generativos produzcan ciencia significativa, no alucinaciones. Esto es particularmente importante si van a formar la base para grandes modelos previamente entrenados. Pero creo que esta será una era de la ciencia realmente emocionante en la que trabajaremos en colaboración con la IA, en lugar de que solo realice una tarea para nosotros.

Sello de tiempo:

Mas de Mundo de la física