No se preocupen, aquí viene Chuck Schumer con algunas ideas sobre cómo regular la IA

No se preocupen, aquí viene Chuck Schumer con algunas ideas sobre cómo regular la IA

No se preocupen amigos, aquí viene Chuck Schumer con algunas ideas sobre cómo regular la inteligencia de datos AI PlatoBlockchain. Búsqueda vertical. Ai.

El senador estadounidense Chuck Schumer (D-NY) se ha empeñado últimamente en aprobar una legislación bipartidista que permita auditorías públicas independientes de productos comerciales de IA antes de que se liberen en el mundo.

Después de meses de consultas, el líder de la mayoría del Senado dice que ha redactado un marco para regular el desarrollo, la implementación y el uso de tecnología avanzada de aprendizaje automático. El auge de la IA generativa, toda la exageración que la rodea y los pasos de China para restringir la tecnología han hecho que sea aún más urgente gobernar estos modelos y software en Estados Unidos, dijo.

Ese marco, si los planes de Schumer llegan a buen término, daría como resultado una legislación "integral" en los Estados Unidos que las organizaciones deberían seguir al implementar la inteligencia artificial.

“La era de la IA está aquí y para quedarse”, dijo Schumer en una declaración enlatada. “Ahora es el momento de desarrollar, aprovechar y promover su potencial para beneficiar a nuestro país durante generaciones”.

“Dado el impacto consecuente y rápido de la industria de la IA en la sociedad, la seguridad nacional y la economía global”, continuó, “he trabajado con algunos de los principales profesionales de la IA y líderes de opinión para crear un marco que describa un nuevo régimen regulatorio. eso evitaría daños potencialmente catastróficos a nuestro país y, al mismo tiempo, se aseguraría de que EE. UU. avance y lidere esta tecnología transformadora.

“Pero hay mucho más trabajo por hacer y debemos actuar rápidamente. Espero trabajar a través del pasillo, en toda la industria y en todo el país y más allá, para dar forma a esta propuesta y refinar la legislación para asegurarme de que la IA cumpla su promesa de crear un mundo mejor”.

El marco propuesto por Schumer, que se ha compartido en Capitol Hill y aún no es público, gira en torno a cuatro barandillas: quién, dónde, cómo y proteger.

Específicamente, bajo estas propuestas, debe quedar claro quién entrenó un modelo y quién se supone que debe usarlo, de dónde provienen los datos de entrenamiento y cómo se usará el software. De manera crucial, se debe proporcionar suficiente información para que los expertos externos puedan auditar, probar y revisar los productos y tecnologías de aprendizaje automático antes de que se comercialicen, y que estos hallazgos se hagan públicos.

Finalmente, para la parte de protección, los desarrolladores tendrían que demostrar que sus sistemas de IA están alineados con los valores estadounidenses y que “los desarrolladores de IA cumplen su promesa de crear un mundo mejor”. 

Schumer planea compartir, si no lo ha hecho ya, su marco con líderes de la academia, la industria y el gobierno, y tiene la intención de trabajar con grupos de expertos e instituciones de investigación para refinar sus propuestas antes de presentar un proyecto de ley. El registro presionó a la oficina del senador para obtener más detalles, y un representante no pudo ofrecer nada más que un comunicado de prensa.

Ese lanzamiento deja en claro que el marco propuesto "requerirá que las empresas permitan que expertos independientes revisen y prueben las tecnologías de IA antes de un lanzamiento o actualización pública, y les darán a los usuarios acceso a esos resultados".

Hablando de burocracia... la Junta Europea de Protección de Datos, que ayuda a mantener a los organismos nacionales de control de la privacidad de Europa en sintonía, ha creado un grupo de trabajo para garantizar que esos reguladores compartan información y detalles de cualquier represión en ChatGPT de OpenAI. Esto es después de que Italia tomó una línea dura contra el bot de chat, por temor a la privacidad y la protección de los niños, y otras naciones están considerando el mismo tipo de acción.

Básicamente, esto indica que Europa está convergiendo en una respuesta unificada al sistema de inteligencia artificial de próxima generación que ha sido defendido por Microsoft e inyectado en todos los rincones de la tecnología actual.

Todo esto ocurre cuando el regulador del ciberespacio de China redactó reglas similares que requerirían que los equipos presenten evaluaciones de seguridad que examinen los posibles riesgos de seguridad de sus productos de IA. Los desarrolladores deben asegurarse de que los datos de entrenamiento utilizados para dar forma a sus modelos no conduzcan a la discriminación y reflejen los valores socialistas del país, Reuters reportaron.

La Administración Nacional de Telecomunicaciones e Información del Departamento de Comercio de EE. UU. está buscando comentarios públicos para ayudar a diseñar políticas potenciales destinadas a mejorar la responsabilidad de los productos y servicios de IA. La agencia emitido su "Solicitud de comentario de responsabilidad" formal de AI esta semana. ®

Sello de tiempo:

Mas de El registro