Angajamentul OpenAI față de siguranța copiilor: adoptarea principiilor de siguranță prin proiectare

Angajamentul OpenAI față de siguranța copiilor: adoptarea principiilor de siguranță prin proiectare

OpenAI’s commitment to child safety: adopting safety by design principles PlatoBlockchain Data Intelligence. Vertical Search. Ai.

OpenAI, alături de lideri din industrie, inclusiv Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI și Stability AI, s-au angajat să implementeze măsuri robuste de siguranță a copiilor în dezvoltarea, implementarea și întreținerea tehnologiilor AI generative, așa cum sunt articulate în principiile Safety by Design. Această inițiativă, condusă de Ghimpe, o organizație nonprofit dedicată apărării copiilor de abuzul sexual și Toată tehnologia este umană, o organizație dedicată abordării problemelor complexe ale tehnologiei și ale societății, își propune să atenueze riscurile pe care IA generativă le prezintă copiilor. Prin adoptarea principiilor cuprinzătoare Safety by Design, OpenAI și colegii noștri se asigură că siguranța copiilor este prioritară în fiecare etapă a dezvoltării AI. Până în prezent, am depus eforturi semnificative pentru a minimiza potențialul modelelor noastre de a genera conținut care dăunează copiilor, de a stabili restricții de vârstă pentru ChatGPT și de a interacționa activ cu Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC), Coaliția Tehnologică și alte guverne. și părțile interesate din industrie cu privire la problemele de protecție a copilului și îmbunătățirea mecanismelor de raportare. 

Ca parte a acestui efort Safety by Design, ne angajăm să:

  1. Dezvolta: Dezvoltați, construiți și antrenați modele AI generative
    care abordează în mod proactiv riscurile pentru siguranța copiilor.

    • Aprovizionați în mod responsabil seturile noastre de date de formare, detectați și eliminați sexualitatea copiilor
      material de abuz (CSAM) și material de exploatare sexuală a copiilor (CSEM) din
      date de instruire și raportați orice CSAM confirmat către persoana relevantă
      Autoritățile.
    • Încorporați bucle de feedback și strategii iterative de testare a stresului în
      procesul nostru de dezvoltare.
    • Implementați soluții pentru a rezolva abuzurile adverse.
  2. Implementați: Lansați și distribuiți modele AI generative după
    au fost instruiți și evaluați pentru siguranța copiilor, oferind protecție
    pe tot parcursul procesului.

    • Combateți și răspundeți la conținutul și comportamentul abuziv și includeți
      eforturile de prevenire.
    • Încurajați proprietatea dezvoltatorului în siguranță prin proiectare.
  3. Menținerea: Mențineți siguranța modelului și a platformei continuând
    să înțeleagă în mod activ și să răspundă la riscurile pentru siguranța copiilor.

    • Ne-am angajat să eliminăm noul AIG-CSAM generat de actori răi din noi
      platformă. 
    • Investește în cercetare și soluții tehnologice viitoare.
    • Luptă împotriva CSAM, AIG-CSAM și CSEM pe platformele noastre.

Acest angajament marchează un pas important în prevenirea utilizării abuzive a tehnologiilor AI pentru a crea sau răspândi materiale de abuz sexual asupra copiilor (AIG-CSAM) și alte forme de vătămare sexuală împotriva copiilor. Ca parte a grupului de lucru, am convenit să lansăm actualizări de progres în fiecare an.

Timestamp-ul:

Mai mult de la OpenAI