OpenAI:n sitoutuminen lasten turvallisuuteen: turvallisuuden omaksuminen suunnittelussa

OpenAI:n sitoutuminen lasten turvallisuuteen: turvallisuuden omaksuminen suunnittelussa

OpenAI’s commitment to child safety: adopting safety by design principles PlatoBlockchain Data Intelligence. Vertical Search. Ai.

OpenAI on alan johtajien, kuten Amazonin, Anthropicin, Civitain, Googlen, Metan, Metaphysicin, Microsoftin, Mistral AI:n ja Stability AI:n kanssa sitoutunut toteuttamaan vankkoja lasten turvatoimia generatiivisten tekoälytekniikoiden kehittämisessä, käyttöönotossa ja ylläpidossa. suunnittelun turvallisuuden periaatteet. Tämä aloite, jota johti Piikki, voittoa tavoittelematon järjestö, jonka tehtävänä on suojella lapsia seksuaaliselta hyväksikäytöltä Kaikki tekniikka on ihmisiä, teknologian ja yhteiskunnan monimutkaisten ongelmien ratkaisemiseen keskittynyt organisaatio, pyrkii lieventämään synnyttävien tekoälyjen lapsille aiheuttamia riskejä. Ottamalla käyttöön kattavat Safety by Design -periaatteet OpenAI ja kollegamme varmistavat, että lasten turvallisuus on etusijalla tekoälyn jokaisessa kehitysvaiheessa. Tähän mennessä olemme tehneet merkittäviä ponnisteluja minimoidaksemme malliemme mahdollisuuden luoda lapsille haitallista sisältöä, asettaneet ChatGPT:lle ikärajoituksia ja tehneet aktiivisesti yhteistyötä National Center for Missing and Exploited Children (NCMEC), Tech Coalitionin ja muiden hallitusten kanssa. ja alan sidosryhmät lastensuojelukysymyksistä ja raportointimekanismien parannuksista. 

Osana tätä Safety by Design -työtä sitoudumme:

  1. Kehittää: Kehitä, rakenna ja kouluta generatiivisia tekoälymalleja
    jotka käsittelevät ennakoivasti lasten turvallisuusriskejä.

    • Hanki koulutustietojoukkomme vastuullisesti, havaitse ja poista lasten seksuaalisuus
      hyväksikäyttömateriaalia (CSAM) ja lasten seksuaalista hyväksikäyttöä koskevaa materiaalia (CSEM).
      koulutustiedot ja ilmoita vahvistetuista CSAM:ista asiaankuuluvalle
      viranomaiset.
    • Sisällytä palautesilmukoita ja iteratiivisia stressitestausstrategioita
      kehitysprosessimme.
    • Ota käyttöön ratkaisuja kontradiktorisen väärinkäytön torjumiseksi.
  2. käyttöönottoprosentti: Julkaise ja levitä generatiivisia tekoälymalleja sen jälkeen
    heidät on koulutettu ja arvioitu lasten turvallisuuden kannalta, mikä tarjoaa suojaa
    koko prosessin ajan.

    • Taistele loukkaavaa sisältöä ja käyttäytymistä vastaan ​​ja vastaa niihin ja sisällytä niihin
      ehkäisytoimia.
    • Edistä kehittäjien omistajuutta suunnittelun turvallisuuteen.
  3. Ylläpidä: Säilytä mallin ja alustan turvallisuus jatkamalla
    ymmärtää aktiivisesti lasten turvallisuusriskejä ja reagoida niihin.

    • Sitoutunut poistamaan huonojen toimijoiden luomat uudet AIG-CSAM:t
      alustalla. 
    • Investoi tutkimukseen ja tulevaisuuden teknologiaratkaisuihin.
    • Taistele CSAM:ia, AIG-CSAM:ia ja CSEM:ää vastaan ​​alustoillamme.

Tämä sitoumus on tärkeä askel estääkseen tekoälytekniikoiden väärinkäytön lasten seksuaalista hyväksikäyttöä koskevan materiaalin (AIG-CSAM) ja muun lapsiin kohdistuvan seksuaalisen haitan luomiseksi tai levittämiseksi. Osana työryhmää olemme myös sopineet julkaisevamme edistymispäivityksiä vuosittain.

Aikaleima:

Lisää aiheesta OpenAI