Para regular la IA, hay que empezar por el hardware, sostienen expertos

Para regular la IA, hay que empezar por el hardware, sostienen expertos

Para regular la IA, comience con el hardware, argumentan los expertos de PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

En nuestra búsqueda por limitar el potencial destructivo de la inteligencia artificial, un nuevo artículo de la Universidad de Cambridge sugiere incorporar interruptores de apagado remoto y bloqueos, como los desarrollados para detener el lanzamiento no autorizado de armas nucleares, en el hardware que lo alimenta.

El papel [(PDF)], que incluye voces de numerosas instituciones académicas y varias de OpenAI, defiende que regular el hardware en el que se basan estos modelos puede ser la mejor manera de evitar su uso indebido.

"La computación relevante para la IA es un punto de intervención particularmente eficaz: es detectable, excluible y cuantificable, y se produce a través de una cadena de suministro extremadamente concentrada", argumentan los investigadores.

Entrenar los modelos más prolíficos, que se cree que superan el billón de parámetros, requiere una inmensa infraestructura física: decenas de miles de GPU o aceleradores y semanas o incluso meses de tiempo de procesamiento. Esto, dicen los investigadores, hace que la existencia y el rendimiento relativo de estos recursos sean difíciles de ocultar.

Es más, los chips más avanzados utilizados para entrenar estos modelos son producidos por un número relativamente pequeño de empresas, como Nvidia, AMD e Intel, lo que permite a los responsables políticos restringir la venta de estos productos a personas o países de interés.

Estos factores, junto con otros como las limitaciones de la cadena de suministro en la fabricación de semiconductores, ofrecen a los responsables de la formulación de políticas los medios para comprender mejor cómo y dónde se implementa la infraestructura de IA, quién puede acceder a ella y quién no, y aplicar sanciones por su uso indebido, sostiene el documento. .

Controlando la infraestructura

El documento destaca numerosas formas en que los formuladores de políticas podrían abordar la regulación del hardware de IA. Muchas de las sugerencias –incluidas aquellas diseñadas para mejorar la visibilidad y limitar la venta de aceleradores de IA– ya se están aplicando a nivel nacional.

El año pasado, el presidente estadounidense Joe Biden presentó una orden ejecutiva destinado a identificar empresas que desarrollan grandes modelos de IA de doble uso, así como proveedores de infraestructura capaces de entrenándolos. Si no está familiarizado, "doble uso" se refiere a tecnologías que pueden cumplir una doble función en aplicaciones civiles y militares.

Más recientemente, el Departamento de Comercio de EE.UU. propuesto regulación que requeriría que los proveedores de nube estadounidenses implementen políticas más estrictas de “conozca a su cliente” para evitar que personas o países de interés eludan las restricciones a las exportaciones.

Este tipo de visibilidad es valiosa, señalan los investigadores, ya que podría ayudar a evitar otra carrera armamentista, como la provocada por la controversia sobre la brecha de misiles, donde informes erróneos llevaron a una acumulación masiva de misiles balísticos. Si bien son valiosos, advierten que el cumplimiento de estos requisitos de presentación de informes corre el riesgo de invadir la privacidad del cliente e incluso provocar la filtración de datos confidenciales.

Mientras tanto, en el frente comercial, el Departamento de Comercio ha seguido aumentar restricciones, lo que limita el rendimiento de los aceleradores vendidos a China. Pero, como informamos anteriormente, si bien estos esfuerzos han dificultado que países como China tengan en sus manos chips estadounidenses, están lejos de ser perfectos.

Para abordar estas limitaciones, los investigadores propusieron implementar un registro global para las ventas de chips de IA que los rastrearía a lo largo de su ciclo de vida, incluso después de que hayan abandonado su país de origen. Sugieren que un registro de este tipo podría incorporar un identificador único en cada chip, lo que podría ayudar a combatir contrabando de componentes

En el extremo más extremo del espectro, los investigadores han sugerido que se podrían incorporar interruptores de apagado en el silicio para evitar su uso en aplicaciones maliciosas.

En teoría, esto podría permitir a los reguladores responder más rápido a los abusos de tecnologías sensibles cortando el acceso a los chips de forma remota, pero los autores advierten que hacerlo no está exento de riesgos. La implicación es que, si se implementa incorrectamente, dicho interruptor podría convertirse en un objetivo para los ciberdelincuentes.

Otra propuesta requeriría que varias partes aprueben tareas de entrenamiento de IA potencialmente riesgosas antes de que puedan implementarse a escala. "Las armas nucleares utilizan mecanismos similares llamados vínculos de acción permisivos", escribieron.

En el caso de las armas nucleares, estos bloqueos de seguridad están diseñados para evitar que una persona se vuelva rebelde y lance un primer ataque. Sin embargo, para la IA, la idea es que si un individuo o una empresa quisiera entrenar un modelo por encima de un cierto umbral en la nube, primero necesitaría obtener autorización para hacerlo.

Aunque es una herramienta potente, los investigadores observan que esto podría resultar contraproducente al impedir el desarrollo de la IA deseable. El argumento parece ser que, si bien el uso de armas nucleares tiene un resultado bastante claro, la IA no siempre es tan blanca o negra.

Pero si esto le parece demasiado distópico para su gusto, el artículo dedica una sección entera a reasignar recursos de IA para el mejoramiento de la sociedad en su conjunto. La idea es que los formuladores de políticas podrían unirse para hacer que la computación de IA sea más accesible para grupos que probablemente no la utilicen para el mal, un concepto descrito como “asignación”.

¿Qué hay de malo en regular el desarrollo de la IA?

¿Porque pasar por todo este problema? Bueno, los autores del artículo postulan que el hardware físico es inherentemente más fácil de controlar.

En comparación con el hardware, “otros insumos y productos del desarrollo de la IA (datos, algoritmos y modelos entrenados) son bienes intangibles fácilmente compartibles y no rivales, lo que los hace intrínsecamente difíciles de controlar”, se lee en el documento.

El argumento es que una vez que se publica un modelo, ya sea abiertamente o filtrado, no hay manera de volver a meter al genio en la botella y detener su propagación por la red.

Los investigadores también destacaron que los esfuerzos para prevenir el uso indebido de modelos han demostrado ser poco confiables. En un ejemplo, los autores destacaron la facilidad con la que los investigadores pudieron desmantelar las protecciones en Meta's Llama 2 destinadas a evitar que el modelo generara lenguaje ofensivo.

Llevado al extremo, se teme que se pueda emplear un modelo de doble uso suficientemente avanzado para acelerar la Desarrollo de armas químicas o biológicas.

El documento admite que la regulación del hardware de IA no es una solución milagrosa y no elimina la necesidad de regulación en otros aspectos de la industria.

Sin embargo, la participación de varios investigadores de OpenAI es difícil de ignorar considerando la del CEO Sam Altman. Los intentos para controlar la narrativa en torno a la regulación de la IA. ®

Sello de tiempo:

Mas de El registro