OpenAI, insieme a leader del settore tra cui Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI e Stability AI, si è impegnata a implementare solide misure di sicurezza dei bambini nello sviluppo, nell'implementazione e nella manutenzione delle tecnologie di intelligenza artificiale generativa come articolato in i principi della Safety by Design. Questa iniziativa, guidata da spina, un'organizzazione no-profit dedicata alla difesa dei bambini dagli abusi sessuali, e Tutta la tecnologia è umana, un'organizzazione dedicata ad affrontare i complessi problemi della tecnologia e della società, mira a mitigare i rischi che l'intelligenza artificiale generativa pone ai bambini. Adottando principi completi di Safety by Design, OpenAI e i nostri colleghi garantiscono che la sicurezza dei bambini sia prioritaria in ogni fase dello sviluppo dell'IA. Ad oggi, abbiamo compiuto sforzi significativi per ridurre al minimo la possibilità che i nostri modelli generino contenuti che danneggiano i bambini, abbiamo fissato limiti di età per ChatGPT e abbiamo collaborato attivamente con il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC), la Tech Coalition e altri enti governativi. e le parti interessate del settore su questioni relative alla protezione dei minori e miglioramenti ai meccanismi di segnalazione.
Nell’ambito di questo impegno Safety by Design, ci impegniamo a:
-
Sviluppare: Sviluppa, costruisci e addestra modelli di intelligenza artificiale generativa
che affrontano in modo proattivo i rischi per la sicurezza dei bambini.-
Procurati in modo responsabile i nostri set di dati di formazione, rileva e rimuovi i contenuti sessuali infantili
materiale di abuso (CSAM) e materiale di sfruttamento sessuale minorile (CSEM) da
dati di formazione e segnalare qualsiasi materiale pedopornografico confermato alle persone interessate
autorità. -
Incorporare cicli di feedback e strategie iterative di stress test
il nostro processo di sviluppo. - Implementare soluzioni per affrontare l’abuso da parte degli avversari.
-
Procurati in modo responsabile i nostri set di dati di formazione, rileva e rimuovi i contenuti sessuali infantili
-
Distribuire: Successivamente rilascia e distribuisci modelli di intelligenza artificiale generativa
sono stati addestrati e valutati per la sicurezza dei bambini, fornendo protezioni
durante tutto il processo.-
Combattere e rispondere a contenuti e comportamenti offensivi e incorporarli
sforzi di prevenzione. - Incoraggiare la proprietà degli sviluppatori in materia di sicurezza fin dalla progettazione.
-
Combattere e rispondere a contenuti e comportamenti offensivi e incorporarli
-
mantenere: Mantieni la sicurezza del modello e della piattaforma continuando
comprendere e rispondere attivamente ai rischi per la sicurezza dei bambini.-
Ci siamo impegnati a rimuovere dal nostro file i nuovi AIG-CSAM generati da malintenzionati
piattaforma. - Investire nella ricerca e nelle soluzioni tecnologiche future.
- Combatti CSAM, AIG-CSAM e CSEM sulle nostre piattaforme.
-
Ci siamo impegnati a rimuovere dal nostro file i nuovi AIG-CSAM generati da malintenzionati
Questo impegno segna un passo importante nella prevenzione dell’uso improprio delle tecnologie dell’intelligenza artificiale per creare o diffondere materiale pedopornografico (AIG-CSAM) e altre forme di danno sessuale contro i bambini. Nell'ambito del gruppo di lavoro, abbiamo anche concordato di pubblicare ogni anno aggiornamenti sui progressi.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoData.Network Generativo verticale Ai. Potenzia te stesso. Accedi qui.
- PlatoAiStream. Intelligenza Web3. Conoscenza amplificata. Accedi qui.
- PlatoneESG. Carbonio, Tecnologia pulita, Energia, Ambiente, Solare, Gestione dei rifiuti. Accedi qui.
- Platone Salute. Intelligence sulle biotecnologie e sulle sperimentazioni cliniche. Accedi qui.
- Fonte: https://openai.com/blog/child-safety-adopting-sbd-principles
- :ha
- :È
- 39
- 40
- a
- abuso
- attivamente
- attori
- indirizzo
- Adottando
- contraddittorio
- Dopo shavasana, sedersi in silenzio; saluti;
- contro
- concordato
- AI
- Modelli AI
- mira
- a fianco di
- anche
- Amazon
- an
- ed
- Antropico
- in qualsiasi
- SONO
- AS
- At
- Autorità
- Vasca
- stato
- costruire
- by
- centro
- ChatGPT
- bambino
- Tutela dei minori
- Bambini
- coalizione
- combattere
- commettere
- impegno
- impegnata
- complesso
- globale
- Segui il codice di Condotta
- CONFERMATO
- contenuto
- continua
- creare
- dati
- dataset
- Data
- dedicato
- Difendere
- deployment
- Design
- Principi di progettazione
- individuare
- sviluppare
- Costruttori
- Mercato
- distribuire
- sforzo
- sforzi
- impegnarsi
- miglioramenti
- assicurando
- valutato
- Ogni
- sfruttamento
- Exploited
- feedback
- Nel
- forme
- da
- futuro
- Tecnologia del futuro
- generare
- generato
- generativo
- AI generativa
- Enti Pubblici
- Gruppo
- nuocere
- Harms
- Avere
- http
- HTTPS
- Implementazione
- importante
- in
- Compreso
- incorporare
- industria
- iniziativa
- sicurezza
- capi
- Guidato
- fatto
- manutenzione
- materiale
- analisi
- meccanismi di
- Meta
- Microsoft
- ridurre al minimo
- mancante
- uso improprio
- Ridurre la perdita dienergia con una
- modello
- modelli
- il
- New
- Senza scopo di lucro
- of
- on
- OpenAI
- or
- organizzazione
- Altro
- nostro
- proprietà
- parte
- coetanei
- piattaforma
- Piattaforme
- Platone
- Platone Data Intelligence
- PlatoneDati
- pone
- potenziale
- prevenzione
- Frodi
- principi
- priorità
- problemi
- processi
- Progressi
- protezione
- fornitura
- rilasciare
- pertinente
- rimuovere
- rimozione
- rapporto
- Reportistica
- riparazioni
- Rispondere
- in modo responsabile
- restrizioni
- rischi
- robusto
- s
- Sicurezza
- set
- Sessuale
- significativa
- Società
- Soluzioni
- Fonte
- diffondere
- Stabilità
- Stage
- stakeholder
- step
- strategie
- Affronto
- Tech
- Tecnologie
- Tecnologia
- che
- I
- di
- questo
- per tutto
- a
- Treni
- allenato
- Training
- capire
- Aggiornamenti
- we
- con
- lavoro
- Gruppo di lavoro
- anno
- zefiro