Holly Elmore lidera la protesta sobre la seguridad del código abierto

Holly Elmore lidera la protesta sobre la seguridad del código abierto

Holly Elmore lidera la protesta sobre la seguridad de código abierto PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

En un movimiento audaz contra la reciente postura de Meta sobre la inteligencia artificial (IA) de código abierto, Holly Elmore, defensora de la seguridad de la IA, encabezó una manifestación frente a la base de Meta en San Francisco.

El meollo de la disputa radica en los peligros potenciales de liberar libremente potentes pesos de modelos de IA, lo que, según Elmore y sus partidarios, puede conducir a riesgos de “proliferación irreversible”.

Meta agitó las aguas tecnológicas a principios de este año al la liberación de los pesos de su familia de modelos LLaMA a los investigadores de IA, una decisión que difiere significativamente de las políticas de otros gigantes tecnológicos. Estos pesos, vitales para el funcionamiento del modelo, pueden manipularse y modificarse una vez que están en manos de expertos, lo que genera preocupaciones sobre su mal uso. De hecho, no pasó mucho tiempo antes de que estos pesos fueran filtrado en línea, intensificando las críticas al enfoque de código abierto de Meta.

Los riesgos de soltar pesas

Elmore, una vez asociada con el grupo de expertos Rethink Priorities, expresó sus preocupaciones:

"Liberar pesos es una política peligrosa porque cualquiera puede modificar los modelos y no pueden recuperarse".

Hizo hincapié en la creciente amenaza a medida que los modelos se vuelven más avanzados y potentes. Cuando los pesos de los modelos están disponibles abiertamente, pueden usarse potencialmente para actividades maliciosas, que van desde la construcción de esquemas de phishing hasta la planificación. Ataques ciberneticos. Una vez que las pesas están en la mano, advierte Elmore, hay una facilidad inquietante para sortear las barandillas de seguridad.

Peter S. Park del MIT se hace eco de estos sentimientos. Advierte sobre los peligros si el enfoque actual de código abierto se traslada a una IA más avanzada, que podría operar con mayor autonomía, permitiendo así un uso indebido a una escala mayor y más dañina.

Un contraargumento: la defensa del código abierto

Stella Biderman de EleutherAI, sin embargo, ofrece una perspectiva diferente. Biderman cuestiona la suposición inmediata de que la publicación de los pesos del modelo se correlaciona directamente con un posible uso indebido. Ella cree que el término “proliferación” asociado con armas de destrucción masiva es engañoso en el contexto de la IA. Biderman sostiene que los elementos básicos para construir grandes modelos lingüísticos ya están a la vista y cree que el secreto podría no ser la panacea para un posible uso indebido.

Añade que instar a las empresas a mantener el secreto en torno a sus modelos podría tener "graves consecuencias posteriores para la transparencia, la conciencia pública y la ciencia". Una política de este tipo podría perjudicar inadvertidamente a los investigadores y entusiastas independientes más que proteger contra amenazas potenciales.

Navegando en aguas de fuentes abiertas en IA

El termino 'De código abierto' en el ámbito de la IA es confuso. Como señala Stefano Maffulli de la Open Source Initiative (OSI), diversas organizaciones han adoptado el término, lo que ha llevado a una comprensión ambigua de lo que realmente significa en la IA. Para que el software sea verdaderamente de código abierto, todos sus componentes, desde el código fuente hasta los datos de entrenamiento, deben ser accesibles públicamente y reutilizables.

El futuro de la IA de código abierto aún se está moldeando y OSI intenta activamente definir sus parámetros. Maffulli se mantiene firme sobre la importancia de un enfoque abierto y enfatiza que la IA sólo puede ser “confiable y responsable” si se alinea con los principios del código abierto.

Si bien el debate sobre la IA de código abierto está lejos de estar resuelto, una cosa está clara: el rápido avance de la tecnología exige un cuidadoso equilibrio entre accesibilidad y seguridad. A medida que empresas como Meta avancen con sus políticas, la comunidad tecnológica y el público seguirán lidiando con los desafíos y las implicaciones de la IA de código abierto.

Sello de tiempo:

Mas de MetaNoticias