L'impegno di OpenAI per la sicurezza dei bambini: adottare i principi della sicurezza fin dalla progettazione

L'impegno di OpenAI per la sicurezza dei bambini: adottare i principi della sicurezza fin dalla progettazione

L'impegno di OpenAI per la sicurezza dei bambini: adottare i principi della sicurezza attraverso la progettazione PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

OpenAI, insieme a leader del settore tra cui Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI e Stability AI, si è impegnata a implementare solide misure di sicurezza dei bambini nello sviluppo, nell'implementazione e nella manutenzione delle tecnologie di intelligenza artificiale generativa come articolato in i principi della Safety by Design. Questa iniziativa, guidata da spina, un'organizzazione no-profit dedicata alla difesa dei bambini dagli abusi sessuali, e Tutta la tecnologia è umana, un'organizzazione dedicata ad affrontare i complessi problemi della tecnologia e della società, mira a mitigare i rischi che l'intelligenza artificiale generativa pone ai bambini. Adottando principi completi di Safety by Design, OpenAI e i nostri colleghi garantiscono che la sicurezza dei bambini sia prioritaria in ogni fase dello sviluppo dell'IA. Ad oggi, abbiamo compiuto sforzi significativi per ridurre al minimo la possibilità che i nostri modelli generino contenuti che danneggiano i bambini, abbiamo fissato limiti di età per ChatGPT e abbiamo collaborato attivamente con il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC), la Tech Coalition e altri enti governativi. e le parti interessate del settore su questioni relative alla protezione dei minori e miglioramenti ai meccanismi di segnalazione. 

Nell’ambito di questo impegno Safety by Design, ci impegniamo a:

  1. Sviluppare: Sviluppa, costruisci e addestra modelli di intelligenza artificiale generativa
    che affrontano in modo proattivo i rischi per la sicurezza dei bambini.

    • Procurati in modo responsabile i nostri set di dati di formazione, rileva e rimuovi i contenuti sessuali infantili
      materiale di abuso (CSAM) e materiale di sfruttamento sessuale minorile (CSEM) da
      dati di formazione e segnalare qualsiasi materiale pedopornografico confermato alle persone interessate
      autorità.
    • Incorporare cicli di feedback e strategie iterative di stress test
      il nostro processo di sviluppo.
    • Implementare soluzioni per affrontare l’abuso da parte degli avversari.
  2. Distribuire: Successivamente rilascia e distribuisci modelli di intelligenza artificiale generativa
    sono stati addestrati e valutati per la sicurezza dei bambini, fornendo protezioni
    durante tutto il processo.

    • Combattere e rispondere a contenuti e comportamenti offensivi e incorporarli
      sforzi di prevenzione.
    • Incoraggiare la proprietà degli sviluppatori in materia di sicurezza fin dalla progettazione.
  3. mantenere: Mantieni la sicurezza del modello e della piattaforma continuando
    comprendere e rispondere attivamente ai rischi per la sicurezza dei bambini.

    • Ci siamo impegnati a rimuovere dal nostro file i nuovi AIG-CSAM generati da malintenzionati
      piattaforma. 
    • Investire nella ricerca e nelle soluzioni tecnologiche future.
    • Combatti CSAM, AIG-CSAM e CSEM sulle nostre piattaforme.

Questo impegno segna un passo importante nella prevenzione dell’uso improprio delle tecnologie dell’intelligenza artificiale per creare o diffondere materiale pedopornografico (AIG-CSAM) e altre forme di danno sessuale contro i bambini. Nell'ambito del gruppo di lavoro, abbiamo anche concordato di pubblicare ogni anno aggiornamenti sui progressi.

Timestamp:

Di più da OpenAI