Zaveza OpenAI varnosti otrok: sprejemanje varnostnih načel načrtovanja

Zaveza OpenAI varnosti otrok: sprejemanje varnostnih načel načrtovanja

Zaveza OpenAI varnosti otrok: sprejemanje varnosti po načelih oblikovanja PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

OpenAI se je skupaj z vodilnimi v panogi, kot so Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI in Stability AI, zavezal k izvajanju robustnih varnostnih ukrepov za otroke pri razvoju, uvajanju in vzdrževanju generativnih tehnologij umetne inteligence, kot je navedeno v načela Safety by Design. Ta pobuda, ki jo vodi Thorn, neprofitna organizacija, namenjena zaščiti otrok pred spolno zlorabo, in Vsa tehnika je človeška, organizacija, namenjena reševanju kompleksnih problemov tehnologije in družbe, želi ublažiti tveganja, ki jih generativna umetna inteligenca predstavlja za otroke. S sprejetjem celovitih načel varnosti po zasnovi OpenAI in naši kolegi zagotavljajo, da je varnost otrok prednostna naloga na vsaki stopnji razvoja umetne inteligence. Do danes smo vložili veliko truda, da bi zmanjšali možnost naših modelov za ustvarjanje vsebine, ki škoduje otrokom, določili starostne omejitve za ChatGPT in aktivno sodelovali z Nacionalnim centrom za pogrešane in izkoriščane otroke (NCMEC), Tech Coalition in drugimi vladnimi in zainteresirane strani v industriji o vprašanjih zaščite otrok in izboljšavah mehanizmov poročanja. 

Kot del tega prizadevanja za načrtno varnost se zavezujemo, da bomo:

  1. Razviti: Razvijajte, gradite in učite generativne modele AI
    ki proaktivno obravnavajo tveganja za varnost otrok.

    • Odgovorno pridobite naše nabore podatkov o usposabljanju, odkrijte in odstranite spolne odnose otrok
      gradivo o zlorabi (CSAM) in gradivo o spolnem izkoriščanju otrok (CSEM).
      podatke o usposabljanju in sporočite vse potrjene CSAM ustreznim
      Organi oblasti.
    • Vključite povratne zanke in ponavljajoče se strategije stresnega testiranja
      naš razvojni proces.
    • Uvedite rešitve za reševanje kontradiktorne zlorabe.
  2. Uveljavi: Po izdaji in distribuciji generativnih modelov AI
    bili so usposobljeni in ovrednoteni glede varnosti otrok in zagotavljanja zaščite
    skozi celoten postopek.

    • Borite se in se odzovite na žaljivo vsebino in vedenje ter vključite
      preventivna prizadevanja.
    • Spodbujajte lastništvo razvijalcev pri načrtovanju varnosti.
  3. Vzdrževati: Z nadaljevanjem ohranite varnost modela in platforme
    aktivno razumeti tveganja za varnost otrok in se nanje odzvati.

    • Zavezani k odstranitvi novega AIG-CSAM, ki so ga ustvarili slabi akterji, iz našega
      platforma. 
    • Vlagajte v raziskave in prihodnje tehnološke rešitve.
    • Borite se proti CSAM, AIG-CSAM in CSEM na naših platformah.

Ta zaveza pomeni pomemben korak pri preprečevanju zlorabe tehnologij umetne inteligence za ustvarjanje ali širjenje gradiva o spolni zlorabi otrok (AIG-CSAM) in drugih oblik spolnega poškodovanja otrok. Kot del delovne skupine smo se tudi dogovorili, da vsako leto objavimo posodobitve napredka.

Časovni žig:

Več od OpenAI