Las redes neuronales dispersas señalan a los físicos datos útiles | Revista Cuanta

Las redes neuronales dispersas señalan a los físicos datos útiles | Revista Cuanta

Las redes neuronales dispersas señalan a los físicos datos útiles | Revista Quanta PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Introducción

Suponga que tiene un libro de mil páginas, pero cada página tiene solo una línea de texto. Se supone que debes extraer la información contenida en el libro usando un escáner, solo que este escáner en particular revisa sistemáticamente todas y cada una de las páginas, escaneando una pulgada cuadrada a la vez. Le llevaría mucho tiempo leer todo el libro con ese escáner, y la mayor parte de ese tiempo se desperdiciaría escaneando espacios vacíos. 

Así es la vida de muchos físicos experimentales. En los experimentos con partículas, los detectores capturan y analizan grandes cantidades de datos, aunque solo una pequeña fracción de ellos contiene información útil. “En una fotografía de, digamos, un pájaro volando en el cielo, cada píxel puede tener significado”, explicó kazuhiro terao, físico del Laboratorio Nacional de Aceleradores SLAC. Pero en las imágenes que mira un físico, a menudo solo una pequeña parte realmente importa. En circunstancias como esa, analizar minuciosamente cada detalle consume innecesariamente tiempo y recursos computacionales.

Pero eso está empezando a cambiar. Con una herramienta de aprendizaje automático conocida como red neuronal convolucional dispersa (SCNN), los investigadores pueden concentrarse en las partes relevantes de sus datos y descartar el resto. Los investigadores han utilizado estas redes para acelerar enormemente su capacidad de realizar análisis de datos en tiempo real. Y planean emplear SCNN en experimentos futuros o existentes en al menos tres continentes. El cambio marca un cambio histórico para la comunidad física. 

“En física, estamos acostumbrados a desarrollar nuestros propios algoritmos y enfoques computacionales”, dijo Carlos Argüelles Delgado, físico de la Universidad de Harvard. “Siempre hemos estado a la vanguardia del desarrollo, pero ahora, en el extremo computacional de las cosas, la informática a menudo está liderando el camino”. 

Caracteres escasos

El trabajo que daría lugar a las SCNN comenzó en 2012, cuando Benjamin Graham, entonces en la Universidad de Warwick, quería crear una red neuronal que pudiera reconocer la escritura china. 

Las principales herramientas en ese momento para tareas relacionadas con imágenes como esta eran las redes neuronales convolucionales (CNN). Para la tarea de escritura a mano en chino, un escritor trazaría un carácter en una tableta digital, produciendo una imagen de, digamos, 10,000 píxeles. Luego, la CNN movería una cuadrícula de 3 por 3 llamada kernel a lo largo de toda la imagen, centrando el kernel en cada píxel individualmente. Para cada ubicación del núcleo, la red realizaría un cálculo matemático complicado llamado convolución que buscaba características distintivas.

Las CNN se diseñaron para usarse con imágenes densas en información, como fotografías. Pero una imagen que contiene un carácter chino está mayormente vacía; los investigadores se refieren a los datos con esta propiedad como escasos. Es una característica común de cualquier cosa en el mundo natural. “Para dar un ejemplo de lo escaso que puede ser el mundo”, dijo Graham, si la Torre Eiffel estuviera encerrada en el rectángulo más pequeño posible, ese rectángulo consistiría en “99.98 % de aire y solo 0.02 % de hierro”.

Introducción

Graham intentó ajustar el enfoque de CNN para que el kernel solo se colocara en secciones de 3 por 3 de la imagen que contengan al menos un píxel que tenga un valor distinto de cero (y no solo esté en blanco). De esta manera, logró producir un sistema que podía identificar eficientemente el chino escrito a mano. Ganó un concurso en 2013 al identificar caracteres individuales con una tasa de error de solo el 2.61 %. (Los humanos obtuvieron un 4.81% en promedio). A continuación, centró su atención en un problema aún mayor: el reconocimiento de objetos tridimensionales.

Para 2017, Graham se había mudado a Facebook AI Research y había refinado aún más su técnica y publicado las detalles para el primer SCNN, que centró el kernel solo en los píxeles que tenían un valor distinto de cero (en lugar de colocar el kernel en cualquier sección de 3 por 3 que tuviera al menos un píxel "distinto de cero"). Fue esta idea general la que Terao trajo al mundo de la física de partículas.

Tomas subterráneas

Terao está involucrado en experimentos en el Laboratorio Nacional de Aceleradores Fermi que investigan la naturaleza de los neutrinos, entre las partículas elementales conocidas más escurridizas. También son las partículas más abundantes en el universo con masa (aunque no mucha), pero rara vez aparecen dentro de un detector. Como resultado, la mayoría de los datos para los experimentos con neutrinos son escasos y Terao buscaba constantemente mejores enfoques para el análisis de datos. Encontró uno en SCNN.

En 2019, aplicó SCNN a simulaciones de los datos esperados del Experimento de neutrinos subterráneo profundo, o DUNE, que será el experimento de física de neutrinos más grande del mundo cuando entre en funcionamiento en 2026. El proyecto disparará neutrinos desde Fermilab, en las afueras de Chicago, a través de 800 millas de tierra hasta un laboratorio subterráneo en Dakota del Sur. En el camino, las partículas "oscilarán" entre los tres tipos conocidos de neutrinos, y estas oscilaciones pueden revelar propiedades detalladas de los neutrinos.

Los SCNN analizaron los datos simulados más rápido que los métodos ordinarios y requirieron una potencia computacional significativamente menor para hacerlo. Los resultados prometedores significan que es probable que los SCNN se utilicen durante la ejecución experimental real.

Mientras tanto, en 2021, Terao ayudó a agregar SCNN a otro experimento de neutrinos en Fermilab conocido como MicroBooNE. Aquí, los científicos observan las consecuencias de las colisiones entre los neutrinos y los núcleos de los átomos de argón. Al examinar las huellas creadas por estas interacciones, los investigadores pueden inferir detalles sobre los neutrinos originales. Para hacer eso, necesitan un algoritmo que pueda mirar los píxeles (o, técnicamente, sus contrapartes tridimensionales llamadas vóxeles) en una representación tridimensional del detector y luego determinar qué píxeles están asociados con qué trayectorias de partículas.

Debido a que los datos son tan escasos, un puñado de líneas diminutas dentro de un detector grande (aproximadamente 170 toneladas de argón líquido), los SCNN son casi perfectos para esta tarea. Con una CNN estándar, la imagen tendría que dividirse en 50 partes, debido a todos los cálculos que hay que hacer, dijo Terao. “Con una CNN escasa, analizamos la imagen completa a la vez, y lo hacemos mucho más rápido”.

Activadores oportunos

Uno de los investigadores que trabajó en MicroBooNE fue un estudiante en prácticas llamado Felix Yu. Impresionado con el poder y la eficiencia de las SCNN, llevó las herramientas consigo a su próximo lugar de trabajo como estudiante graduado en un laboratorio de investigación de Harvard afiliado formalmente al Observatorio de Neutrinos IceCube en el Polo Sur.

Uno de los objetivos clave del observatorio es interceptar los neutrinos más energéticos del universo y rastrearlos hasta sus orígenes, la mayoría de los cuales se encuentran fuera de nuestra galaxia. El detector está compuesto por 5,160 sensores ópticos enterrados en el hielo antártico, de los cuales solo una pequeña fracción se enciende en un momento dado. El resto de la matriz permanece oscuro y no es particularmente informativo. Peor aún, muchos de los "eventos" que registran los detectores son falsos positivos y no son útiles para la caza de neutrinos. Solo los llamados eventos de nivel de activación hacen el corte para un análisis más detallado, y se deben tomar decisiones instantáneas sobre cuáles son dignos de esa designación y cuáles se ignorarán permanentemente.

Las CNN estándar son demasiado lentas para esta tarea, por lo tanto, los científicos de IceCube han confiado durante mucho tiempo en un algoritmo llamado LineFit para informarles sobre detecciones potencialmente útiles. Pero ese algoritmo no es confiable, dijo Yu, "lo que significa que podríamos estar perdiéndonos eventos interesantes". Una vez más, es un entorno de datos dispersos ideal para una SCNN.

Yu, junto con Argüelles-Delgado, su asesor de doctorado, y Jeff Lazar, estudiante de posgrado de la Universidad de Wisconsin, Madison, cuantificaron esa ventaja y mostraron en un trabajo reciente que estas redes serían unas 20 veces más rápidas que las típicas CNN. “Eso es lo suficientemente rápido como para ejecutar cada evento que sale del detector”, alrededor de 3,000 por segundo, dijo Lazar. “Eso nos permite tomar mejores decisiones sobre qué desechar y qué conservar”.

Introducción

Los autores también emplearon con éxito un SCNN en una simulación utilizando datos oficiales de IceCube, y el siguiente paso es probar su sistema en una réplica del sistema informático del Polo Sur. Si todo va bien, Argüelles-Delgado cree que deberían instalar su sistema en el observatorio antártico el próximo año. Pero la tecnología podría tener un uso aún más amplio. “Creemos que [los SCNN podrían beneficiar] a todos los telescopios de neutrinos, no solo a IceCube”, dijo Argüelles-Delgado.

Más allá de los neutrinos

Philip Harris, físico del Instituto Tecnológico de Massachusetts, espera que las SCNN puedan ayudar en el colisionador de partículas más grande de todos: el Gran Colisionador de Hadrones (LHC) en el CERN. Harris se enteró de este tipo de red neuronal por un colega del MIT, el científico informático Song Han. “Song es un experto en hacer que los algoritmos sean rápidos y eficientes”, dijo Harris, perfecto para el LHC, donde ocurren 40 millones de colisiones cada segundo.

Cuando hablaron hace un par de años, Song le contó a Harris sobre un proyecto de vehículo autónomo que estaba realizando con miembros de su laboratorio. El equipo de Song estaba usando SCNN para analizar mapas láser 3D del espacio frente al vehículo, gran parte del cual está vacío, para ver si había obstrucciones más adelante.

Harris y sus colegas enfrentan desafíos similares en el LHC. Cuando dos protones chocan dentro de la máquina, el choque crea una esfera en expansión hecha de partículas. Cuando una de estas partículas golpea el colector, se produce una lluvia de partículas secundarias. "Si puede trazar un mapa de la extensión total de esta lluvia", dijo Harris, "puede determinar la energía de la partícula que la originó", que podría ser un objeto de especial interés, algo así como el bosón de Higgs, que los físicos descubierto en 2012, o una partícula de materia oscura, que los físicos todavía están buscando.

“El problema que estamos tratando de resolver se reduce a conectar los puntos”, dijo Harris, al igual que un automóvil autónomo podría conectar los puntos de un mapa láser para detectar una obstrucción.

Los SCNN acelerarían el análisis de datos en el LHC por al menos un factor de 50, dijo Harris. “Nuestro objetivo final es llevar [SCNN] al detector”, una tarea que requerirá al menos un año de papeleo y aceptación adicional por parte de la comunidad. Pero él y sus colegas tienen esperanzas.

En conjunto, es cada vez más probable que las SCNN, una idea concebida originalmente en el mundo de la informática, pronto desempeñen un papel en los mayores experimentos jamás realizados en física de neutrinos (DUNE), astronomía de neutrinos (IceCube) y física de alta energía (LHC). .

Graham dijo que estaba gratamente sorprendido de saber que las SCNN se habían abierto camino hacia la física de partículas, aunque no estaba totalmente sorprendido. “En un sentido abstracto”, dijo, “una partícula que se mueve en el espacio es un poco como la punta de un bolígrafo que se mueve sobre una hoja de papel”.

Sello de tiempo:

Mas de Revista Quanta