La CCC responde a la solicitud de información de la NTIA sobre modelos de IA de base de doble uso con pesos de modelo ampliamente disponibles » Blog de la CCC

La CCC responde a la solicitud de información de la NTIA sobre modelos de IA de base de doble uso con pesos de modelo ampliamente disponibles » Blog de la CCC

La semana pasada, la CCC respondió a la solicitud de la Administración Nacional de Telecomunicaciones e Información Solicitud de información sobre modelos de inteligencia artificial de base de doble uso con pesos de modelo ampliamente disponibles. El propio Daniel Lopresti (presidente de la CCC y Universidad de Lehigh) y David Danks (Comité Ejecutivo de la CCC y Universidad de California, San Diego) ayudaron a redactar esta respuesta junto con varios otros miembros de la comunidad informática. Markus Buehler (Instituto de Tecnología de Massachusetts) y Duncan Watson-Parris (Universidad de California, San Diego), quienes hablaron en el panel AAAS patrocinado por CCC este año, titulado: IA generativa en la ciencia: promesas y trampas, ambos contribuyeron a la respuesta de RFI, junto con Casey Fiesler (Universidad de Colorado, Boulder), quien asistió a la reunión del CCC. El futuro de la investigación sobre tecnologías sociales Taller en noviembre.

En su respuesta, los autores se centraron en algunas preguntas específicas del RFI, una de las cuales preguntaba cómo se comparan los riesgos asociados con hacer que las ponderaciones de los modelos estén ampliamente disponibles con los asociados con las ponderaciones de los modelos no públicos. Los autores respondieron que la mayoría de los riesgos asociados con los modelos generativos se exacerban mínimamente al hacer que los pesos de los modelos estén ampliamente disponibles. La mayoría de los riesgos relacionados con los modelos generativos son inherentes a estos modelos, debido a su capacidad de generar rápidamente enormes cantidades de contenido creíble basado en las aportaciones del usuario y sus áreas de aplicación casi ilimitadas. Hacer que las ponderaciones del modelo estén disponibles públicamente no afecta la funcionalidad de los modelos generativos, por lo que actualmente hay poca evidencia de que hacer que las ponderaciones estén ampliamente disponibles cree un riesgo adicional significativo más allá de lo que ya se podría hacer con sistemas propietarios o cerrados. Un riesgo que podría empeorar si las ponderaciones de los modelos propietarios están ampliamente disponibles es la posibilidad de que los datos de entrenamiento queden expuestos. Es poco probable que se puedan aplicar ingeniería inversa a los pesos del modelo para exponer los datos de entrenamiento, pero no se ha demostrado que sea matemáticamente imposible. Sin embargo, en nuestra respuesta enfatizamos que, debido a que es probable que el público en general siga utilizando en gran medida los modelos generativos, los mayores riesgos, en nuestra opinión, provienen de no hacer que las ponderaciones de los modelos de base representativos estén disponibles abiertamente. Negar a los investigadores y a los miembros de la comunidad interesados ​​el acceso a algunas ponderaciones de los modelos propietarios impedirá que la sociedad obtenga una mejor comprensión de cómo funcionan estos modelos y cómo diseñar modelos más inclusivos y accesibles.

Continuar con la práctica de publicar modelos cerrados seguirá perpetuando la falta de diversidad en la tecnología e impedirá que se realicen ciertos tipos de investigaciones, como auditorías de sesgo de estos modelos, que las grandes empresas de tecnología no están incentivadas a realizar. La educación de la futura fuerza laboral es otra consideración increíblemente importante. Estados Unidos no puede esperar mantener el liderazgo en el campo de la IA generativa sin capacitar a la futura generación de desarrolladores en este tipo de modelos en la educación de grado y posgrado. Es importante que los estudiantes puedan explorar estos modelos durante su educación para comprender su funcionalidad básica y aprender cómo incorporar consideraciones éticas en el desarrollo de nuevos modelos. Permitir que sólo las grandes empresas tecnológicas posean las herramientas para capacitar a la próxima generación también podría dar lugar a un pensamiento aislado, y estas organizaciones pueden pasar por alto la educación holística que el acceso a estos modelos puede proporcionar en favor de un marco más eficiente de aprendizaje según sea necesario. En nuestra respuesta, también destacamos la importancia de establecer una cultura de apertura en torno al desarrollo de estos modelos, enfatizando que establecer dicha cultura puede ser tan importante como regular estas tecnologías. Si existe la expectativa de que las empresas de tecnología creen modelos generativos de manera transparente, entonces la regulación futura será mucho más fácil de implementar.

Finalmente, la CCC destacó la necesidad de realizar investigaciones adicionales sobre los modelos fundamentales, citando la actual falta de conocimiento del público sobre cómo funcionan realmente estos modelos y cómo llegan a los resultados que producen. En nuestra respuesta, enumeramos una serie de preguntas de investigación sin respuesta que los investigadores, científicos, académicos y expertos en cuestiones sociales están dispuestos a comenzar a responder, siempre que reciban el acceso abierto que necesitan a los tipos de modelos de grandes bases que la industria está explotando ahora. . Nuestro éxito continuo como sociedad depende de ello.

Lea la respuesta completa de la CCC aquí.

Sello de tiempo:

Mas de Blog de CCC