Az OpenAI elkötelezettsége a gyermekek biztonsága mellett: a biztonság tervezési elveinek átvétele

Az OpenAI elkötelezettsége a gyermekek biztonsága mellett: a biztonság tervezési elveinek átvétele

Az OpenAI elkötelezettsége a gyermekek biztonsága mellett: a biztonság kialakítása a PlatoBlockchain Data Intelligence elvek alapján. Függőleges keresés. Ai.

Az OpenAI az iparági vezetők, köztük az Amazon, az Anthropic, a Civitai, a Google, a Meta, a Metaphysic, a Microsoft, a Mistral AI és a Stability AI mellett elkötelezte magát amellett, hogy robusztus gyermekbiztonsági intézkedéseket hajt végre a generatív mesterséges intelligencia-technológiák fejlesztése, telepítése és karbantartása során, ahogyan azt a dokumentumban megfogalmazták. a tervezési biztonság elveit. Ez a kezdeményezés, melynek élén Tüske, egy nonprofit szervezet, amely a gyermekek szexuális visszaélésekkel szembeni védelmével foglalkozik, és Minden Tech EmberA technológia és a társadalom összetett problémáival foglalkozó szervezet célja, hogy csökkentse a generatív mesterséges intelligencia gyermekekre jelentett kockázatait. Az átfogó Safety by Design elvek elfogadásával az OpenAI és társaink biztosítják, hogy a gyermekek biztonsága prioritást élvezzen az AI fejlesztésének minden szakaszában. A mai napig jelentős erőfeszítéseket tettünk annak érdekében, hogy minimálisra csökkentsük modelljeink lehetőségét, hogy gyermekeket károsító tartalmat állítsanak elő, korhatárokat állítsunk be a ChatGPT számára, és aktívan együttműködjünk az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjával (NCMEC), a Tech Coalition-tal és más kormányzattal. és az iparág érdekelt felei a gyermekvédelmi kérdésekről és a jelentési mechanizmusok továbbfejlesztéséről. 

A Safety by Design erőfeszítés részeként kötelezettséget vállalunk a következőkre:

  1. Fejleszteni: Generatív AI-modellek fejlesztése, építése és betanítása
    amelyek proaktívan kezelik a gyermekbiztonsági kockázatokat.

    • Felelősségteljesen szerezze be képzési adatkészleteinket, észlelje és távolítsa el a gyermekek szexualitását
      bántalmazási anyagok (CSAM) és gyermekek szexuális kizsákmányolása (CSEM) származó anyagok
      a képzési adatokat, és jelentse a megerősített CSAM-ot az illetékesnek
      hatóság.
    • Szereljen be visszacsatolási hurkokat és iteratív stressz-tesztelési stratégiákat
      fejlesztési folyamatunkat.
    • Vezessen be megoldásokat az ellenséges visszaélések kezelésére.
  2. Telepítés: A generatív AI modellek kiadása és terjesztése után
    a gyermekek biztonsága érdekében kiképezték és értékelték őket, biztosítva a védelmet
    az egész folyamat során.

    • Harcolj és reagálj visszaélésszerű tartalomra és magatartásra, és építs be
      megelőző erőfeszítéseket.
    • Ösztönözze a fejlesztők tulajdonjogát a tervezési biztonság terén.
  3. Karbantartás: Folytassa a modell és a platform biztonságának megőrzését
    a gyermekbiztonsági kockázatok aktív megértése és reagálása.

    • Elkötelezettek vagyunk amellett, hogy eltávolítsuk a rossz szereplők által generált új AIG-CSAM-ot a mi kínálatunkból
      platform. 
    • Fektessen be a kutatásba és a jövőbeli technológiai megoldásokba.
    • Küzdj a CSAM, AIG-CSAM és CSEM ellen platformjainkon.

Ez az elkötelezettség fontos lépést jelent a mesterséges intelligencia technológiákkal való visszaélések megelőzésében a gyermekek szexuális zaklatását tartalmazó anyagok (AIG-CSAM) és a gyermekek elleni szexuális bántalmazás egyéb formáinak létrehozására vagy terjesztésére. A munkacsoport részeként megállapodtunk abban is, hogy minden évben közzétesszük az előrehaladásról szóló frissítéseket.

Időbélyeg:

Még több OpenAI