Reducción del sesgo y mejora de la seguridad en DALL·E 2 PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Reducción de sesgos y mejora de la seguridad en DALL·E 2

Hoy estamos implementando una nueva técnica para que DALL·E genere imágenes de personas que reflejen con mayor precisión la diversidad de la población mundial. Esta técnica se aplica a nivel del sistema cuando DALL·E recibe un aviso que describe a una persona que no especifica la raza o el género, como "bombero".

Según nuestra evaluación interna, los usuarios tenían 12 veces más probabilidades de decir que las imágenes DALL·E incluían personas de diversos orígenes después de aplicar la técnica. Planeamos mejorar esta técnica con el tiempo a medida que recopilamos más datos y comentarios.


Una foto de un director general

Generar

En abril, comenzamos a realizar una vista previa de la investigación DALL·E 2 para un número limitado de personas, lo que nos ha permitido comprender mejor las capacidades y limitaciones del sistema y mejorar nuestros sistemas de seguridad.

Durante esta fase de vista previa, los primeros usuarios han marcado imágenes sensibles y sesgadas que han ayudado a informar y evaluar esta nueva mitigación.

Seguimos investigando cómo los sistemas de IA, como DALL·E, podrían reflejar sesgos en sus datos de entrenamiento y las diferentes formas en que podemos abordarlos.

Durante la vista previa de la investigación, hemos tomado otras medidas para mejorar nuestros sistemas de seguridad, que incluyen:

  • Minimizar el riesgo de que DALL·E se utilice indebidamente para crear contenido engañoso al rechazar cargas de imágenes que contengan rostros realistas e intentos de crear la semejanza de figuras públicas, incluidas celebridades y figuras políticas prominentes.
  • Hacer que nuestros filtros de contenido sean más precisos para que sean más efectivos en el bloqueo de avisos y cargas de imágenes que violan nuestros política de contenido sin dejar de permitir la expresión creativa.
  • Refinar los sistemas de monitoreo automatizados y humanos para protegerlos contra el uso indebido.

Estas mejoras nos han ayudado a ganar confianza en la capacidad de invitar a más usuarios a experimentar DALL·E.

Ampliar el acceso es una parte importante de nuestra implementar sistemas de IA de manera responsable porque nos permite aprender más sobre el uso en el mundo real y continuar iterando en nuestros sistemas de seguridad.

Sello de tiempo:

Mas de OpenAI