OpenAI anuncia convocatoria de expertos para unirse a su red Red Teaming

OpenAI anuncia convocatoria de expertos para unirse a su red Red Teaming

OpenAI anuncia convocatoria de expertos para unirse a su Red Teaming Network PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

OpenAI ha iniciado una convocatoria abierta para su Red de equipos rojos, buscando expertos en el campo para mejorar las medidas de seguridad de sus modelos de IA. La organización tiene como objetivo colaborar con profesionales de diversos campos para evaluar meticulosamente y formar un “equipo rojo” de sus AI .

Comprensión de la red OpenAI Red Teaming

El término "equipo rojo" abarca una amplia gama de técnicas de evaluación de riesgos para sistemas de IA. Estos métodos van desde el descubrimiento de capacidades cualitativas hasta las pruebas de estrés y el suministro de retroalimentación sobre la escala de riesgo de vulnerabilidades específicas. OpenAI ha aclarado su uso del término “equipo rojo” para evitar confusiones y garantizar la alineación con el lenguaje utilizado con sus colaboradores.

En los últimos años, las iniciativas de equipos rojos de OpenAI han evolucionado desde pruebas internas adversas hasta la colaboración con expertos externos. Estos expertos ayudan a desarrollar taxonomías de riesgos de dominios específicos y a evaluar capacidades potencialmente dañinas en nuevos sistemas. Los modelos notables que se sometieron a dicha evaluación incluyen DALL·E 2 y GPT-4.

La OpenAI Red Teaming Network recientemente lanzada tiene como objetivo establecer una comunidad de expertos confiables. Estos expertos brindarán información sobre la evaluación y mitigación de riesgos a una escala más amplia, en lugar de compromisos esporádicos antes de lanzamientos de modelos importantes. Los miembros serán seleccionados en función de su experiencia y contribuirán con cantidades variables de tiempo, potencialmente tan solo de 5 a 10 horas al año.

Beneficios de unirse a la red

Al unirse a la red, los expertos tendrán la oportunidad de influir en el desarrollo de tecnologías y políticas de IA más seguras. Desempeñarán un papel crucial en la evaluación de los modelos y sistemas de OpenAI a lo largo de sus fases de implementación.

OpenAI enfatiza la importancia de una experiencia diversa en la evaluación de sistemas de IA. La organización busca activamente solicitudes de expertos de todo el mundo, dando prioridad a la diversidad tanto geográfica como de dominio. Algunos de los dominios de interés incluyen ciencias cognitivas, informática, ciencias políticas, atención médica, ciberseguridad y muchos más. La familiaridad con los sistemas de IA no es un requisito previo, pero se valora mucho un enfoque proactivo y una perspectiva única sobre la evaluación del impacto de la IA.

Compensación y Confidencialidad

Los participantes de OpenAI Red Teaming Network recibirán una compensación por sus contribuciones a los proyectos de red teaming. Sin embargo, deben ser conscientes de que la participación en dichos proyectos podría estar sujeta a acuerdos de confidencialidad (NDA) o permanecer confidencial por un período indefinido.

Proceso de Solicitud

Aquellos interesados ​​en unirse a la misión de desarrollar AGI segura para el beneficio de la humanidad pueden postularse para ser parte de OpenAI Red Teaming Network. 

Descargo de responsabilidad y aviso de derechos de autor: el contenido de este artículo tiene fines informativos únicamente y no pretende ser un asesoramiento financiero. Consulte siempre con un profesional antes de tomar cualquier decisión financiera. Este material es propiedad exclusiva de Blockchain.Noticias. Se prohíbe el uso no autorizado, la duplicación o la distribución sin permiso expreso. Se requiere el crédito y la dirección adecuados del contenido original para cualquier uso permitido.

Fuente de la imagen: Shutterstock

Sello de tiempo:

Mas de Blockchain Noticias