Réduire les biais et améliorer la sécurité dans DALL·E 2 PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Réduction des biais et amélioration de la sécurité dans DALL·E 2

Aujourd'hui, nous mettons en œuvre une nouvelle technique afin que DALL·E génère des images de personnes qui reflètent plus fidèlement la diversité de la population mondiale. Cette technique est appliquée au niveau du système lorsque DALL·E reçoit une invite décrivant une personne qui ne précise pas la race ou le sexe, comme « pompier ».

D'après notre évaluation interne, les utilisateurs étaient 12 fois plus susceptibles de dire que les images DALL·E incluaient des personnes d'horizons divers après l'application de la technique. Nous prévoyons d'améliorer cette technique au fil du temps à mesure que nous recueillons davantage de données et de commentaires.


Une photo d'un PDG

Générer

En avril, nous avons commencé à présenter en avant-première la recherche DALL·E 2 à un nombre limité de personnes, ce qui nous a permis de mieux comprendre les capacités et les limites du système et d'améliorer nos systèmes de sécurité.

Au cours de cette phase de prévisualisation, les premiers utilisateurs ont signalé des images sensibles et biaisées qui ont aidé à informer et à évaluer cette nouvelle atténuation.

Nous continuons à rechercher comment les systèmes d'IA, comme DALL·E, pourraient refléter des biais dans ses données de formation et différentes façons de les résoudre.

Au cours de l'aperçu de la recherche, nous avons pris d'autres mesures pour améliorer nos systèmes de sécurité, notamment :

  • Minimiser le risque que DALL·E soit utilisé à mauvais escient pour créer du contenu trompeur en rejetant les téléchargements d'images contenant des visages réalistes et les tentatives de créer l'image de personnalités publiques, y compris des célébrités et des personnalités politiques de premier plan.
  • Rendre nos filtres de contenu plus précis afin qu'ils soient plus efficaces pour bloquer les invites et les téléchargements d'images qui violent nos politique de contenu tout en permettant l'expression créative.
  • Affiner les systèmes de surveillance automatisés et humains pour se prémunir contre les abus.

Ces améliorations nous ont permis de gagner en confiance dans notre capacité à inviter davantage d'utilisateurs à découvrir DALL·E.

L'élargissement de l'accès est un élément important de notre déployer des systèmes d'IA de manière responsable car cela nous permet d'en savoir plus sur l'utilisation dans le monde réel et de continuer à itérer sur nos systèmes de sécurité.

Horodatage:

Plus de OpenAI