L'engagement d'OpenAI en faveur de la sécurité des enfants : adopter les principes de sécurité dès la conception

L'engagement d'OpenAI en faveur de la sécurité des enfants : adopter les principes de sécurité dès la conception

L'engagement d'OpenAI en faveur de la sécurité des enfants : adopter les principes de sécurité dès la conception PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

OpenAI, aux côtés des leaders du secteur, notamment Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI et Stability AI, s'est engagé à mettre en œuvre de solides mesures de sécurité des enfants dans le développement, le déploiement et la maintenance des technologies d'IA générative, comme énoncé dans les principes de la sécurité dès la conception. Cette initiative, menée par Épine, une organisation à but non lucratif dédiée à la défense des enfants contre les abus sexuels, et Toute technologie est humaine, une organisation dédiée à la lutte contre les problèmes complexes de la technologie et de la société, vise à atténuer les risques que l'IA générative fait courir aux enfants. En adoptant des principes complets de sécurité dès la conception, OpenAI et nos pairs veillent à ce que la sécurité des enfants soit une priorité à chaque étape du développement de l'IA. À ce jour, nous avons déployé des efforts considérables pour minimiser le potentiel de nos modèles à générer du contenu préjudiciable aux enfants, définir des restrictions d'âge pour ChatGPT et collaborer activement avec le Centre national pour les enfants disparus et exploités (NCMEC), la Tech Coalition et d'autres gouvernements. et les intervenants de l'industrie sur les questions de protection de l'enfance et l'amélioration des mécanismes de signalement. 

Dans le cadre de cet effort de sécurité dès la conception, nous nous engageons à :

  1. Développer: Développer, construire et former des modèles d'IA génératifs
    qui traitent de manière proactive les risques liés à la sécurité des enfants.

    • Sourcer de manière responsable nos ensembles de données de formation, détecter et supprimer les activités sexuelles impliquant des enfants.
      matériel abusif (CSAM) et matériel d’exploitation sexuelle d’enfants (CSEM) provenant de
      données de formation et signaler tout CSAM confirmé aux autorités compétentes.
      les autorités.
    • Intégrer des boucles de rétroaction et des stratégies itératives de tests de résistance dans
      notre processus de développement.
    • Déployez des solutions pour lutter contre les abus contradictoires.
  2. Déployer: Publier et distribuer des modèles d'IA génératifs après
    ils ont été formés et évalués pour la sécurité des enfants, offrant des protections
    tout au long du processus.

    • Combattre et répondre aux contenus et comportements abusifs, et intégrer
      efforts de prévention.
    • Encouragez les développeurs à s’approprier la sécurité dès la conception.
  3. Maintenir: Maintenir la sécurité du modèle et de la plate-forme en continuant
    comprendre activement et réagir aux risques liés à la sécurité des enfants.

    • Engagé à supprimer de notre réseau les nouveaux AIG-CSAM générés par de mauvais acteurs
      plate-forme. 
    • Investissez dans la recherche et les solutions technologiques futures.
    • Combattez CSAM, AIG-CSAM et CSEM sur nos plateformes.

Cet engagement marque une étape importante dans la prévention de l’utilisation abusive des technologies d’IA pour créer ou diffuser du matériel pédopornographique (AIG-CSAM) et d’autres formes de préjudices sexuels contre des enfants. En tant que membre du groupe de travail, nous avons également convenu de publier des mises à jour sur les progrès réalisés chaque année.

Horodatage:

Plus de OpenAI