O compromisso da OpenAI com a segurança infantil: adotando princípios de segurança desde o design

O compromisso da OpenAI com a segurança infantil: adotando princípios de segurança desde o design

OpenAI’s commitment to child safety: adopting safety by design principles PlatoBlockchain Data Intelligence. Vertical Search. Ai.

A OpenAI, juntamente com líderes do setor, incluindo Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI e Stability AI, comprometeu-se a implementar medidas robustas de segurança infantil no desenvolvimento, implantação e manutenção de tecnologias generativas de IA, conforme articulado em os princípios de Segurança desde o Design. Esta iniciativa, liderada por Espinho, uma organização sem fins lucrativos dedicada a defender crianças do abuso sexual, e Toda tecnologia é humana, uma organização dedicada a lidar com os problemas complexos da tecnologia e da sociedade, visa mitigar os riscos que a IA generativa representa para as crianças. Ao adotar princípios abrangentes de Safety by Design, a OpenAI e os nossos pares estão a garantir que a segurança infantil é priorizada em todas as fases do desenvolvimento da IA. Até o momento, fizemos um esforço significativo para minimizar o potencial de nossos modelos gerarem conteúdo que prejudique crianças, definimos restrições de idade para o ChatGPT e nos envolvemos ativamente com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), a Tech Coalition e outros órgãos governamentais. e partes interessadas da indústria sobre questões de proteção infantil e melhorias nos mecanismos de denúncia. 

Como parte deste esforço de Safety by Design, comprometemo-nos a:

  1. Desenvolver: Desenvolva, construa e treine modelos generativos de IA
    que abordam proativamente os riscos de segurança infantil.

    • Obtenha com responsabilidade nossos conjuntos de dados de treinamento, detecte e remova informações sexuais infantis
      material de abuso (CSAM) e material de exploração sexual infantil (CSEM) de
      dados de treinamento e relatar qualquer CSAM confirmado ao órgão relevante
      autoridades.
    • Incorporar ciclos de feedback e estratégias iterativas de testes de estresse em
      nosso processo de desenvolvimento.
    • Implante soluções para lidar com o uso indevido adversário.
  2. Implantar: Lançar e distribuir modelos generativos de IA após
    eles foram treinados e avaliados quanto à segurança infantil, fornecendo proteções
    durante todo o processo.

    • Combater e responder a conteúdos e condutas abusivas e incorporar
      esforços de prevenção.
    • Incentive a propriedade do desenvolvedor na segurança desde o projeto.
  3. manter: Mantenha a segurança do modelo e da plataforma continuando
    compreender e responder ativamente aos riscos de segurança infantil.

    • Comprometidos em remover novos AIG-CSAM gerados por malfeitores de nossos
      plataforma. 
    • Investir em pesquisas e soluções tecnológicas futuras.
    • Lute contra CSAM, AIG-CSAM e CSEM em nossas plataformas.

Este compromisso marca um passo importante na prevenção da utilização indevida de tecnologias de IA para criar ou difundir material de abuso sexual infantil (AIG-CSAM) e outras formas de danos sexuais contra crianças. Como parte do grupo de trabalho, também concordamos em divulgar atualizações de progresso todos os anos.

Carimbo de hora:

Mais de OpenAI