OpenAI's toewijding aan de veiligheid van kinderen: veiligheid adopteren door ontwerpprincipes

OpenAI's toewijding aan de veiligheid van kinderen: veiligheid adopteren door ontwerpprincipes

OpenAI's toewijding aan de veiligheid van kinderen: veiligheid adopteren door ontwerpprincipes PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

OpenAI heeft zich, samen met marktleiders als Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI en Stability AI, gecommitteerd aan het implementeren van robuuste kinderveiligheidsmaatregelen bij de ontwikkeling, inzet en onderhoud van generatieve AI-technologieën, zoals verwoord in de Safety by Design-principes. Dit initiatief, geleid door Doorn, een non-profitorganisatie die zich inzet voor de verdediging van kinderen tegen seksueel misbruik, en Alle technologie is menselijk, een organisatie die zich toelegt op het aanpakken van de complexe problemen van technologie en de samenleving, heeft tot doel de risico's die generatieve AI voor kinderen met zich meebrengt te beperken. Door uitgebreide Safety by Design-principes aan te nemen, zorgen OpenAI en onze collega's ervoor dat de veiligheid van kinderen prioriteit krijgt in elke fase van de ontwikkeling van AI. Tot nu toe hebben we aanzienlijke inspanningen geleverd om de mogelijkheid te minimaliseren dat onze modellen inhoud genereren die schadelijk is voor kinderen, leeftijdsbeperkingen instellen voor ChatGPT en actief samenwerken met het National Center for Missing and Exploited Children (NCMEC), Tech Coalition en andere overheidsinstanties. en belanghebbenden uit de sector over kinderbeschermingskwesties en verbeteringen aan rapportagemechanismen. 

Als onderdeel van deze Safety by Design-inspanning verbinden wij ons ertoe:

  1. Ontwikkelen: Ontwikkel, bouw en train generatieve AI-modellen
    die proactief de veiligheidsrisico's voor kinderen aanpakken.

    • Zorg op een verantwoorde manier voor onze trainingsdatasets, detecteer en verwijder seksueel misbruik van kinderen
      materiaal voor misbruik (CSAM) en materiaal voor seksuele uitbuiting van kinderen (CSEM).
      trainingsgegevens en rapporteer eventuele bevestigde CSAM aan de relevante persoon
      autoriteiten.
    • Integreer feedbackloops en iteratieve stressteststrategieën in uw systeem
      ons ontwikkelingsproces.
    • Implementeer oplossingen om misbruik door tegenstanders aan te pakken.
  2. Inzetten: Geef daarna generatieve AI-modellen vrij en distribueer deze
    ze zijn getraind en geëvalueerd op de veiligheid van kinderen en bieden bescherming
    gedurende het hele proces.

    • Bestrijd en reageer op beledigende inhoud en gedrag, en integreer dit
      preventie-inspanningen.
    • Stimuleer het eigenaarschap van ontwikkelaars op het gebied van Safety by Design.
  3. Handhaaf: Behoud de veiligheid van het model en het platform door door te gaan
    om actief de veiligheidsrisico's voor kinderen te begrijpen en erop te reageren.

    • Toegewijd aan het verwijderen van nieuwe AIG-CSAM gegenereerd door slechte actoren uit onze
      platform. 
    • Investeer in onderzoek en toekomstige technologische oplossingen.
    • Bestrijd CSAM, AIG-CSAM en CSEM op onze platforms.

Deze toezegging markeert een belangrijke stap in het voorkomen van misbruik van AI-technologieën om materiaal over seksueel misbruik van kinderen (AIG-CSAM) en andere vormen van seksuele schade tegen kinderen te creëren of te verspreiden. Als onderdeel van de werkgroep hebben we ook afgesproken om jaarlijks voortgangsupdates uit te brengen.

Tijdstempel:

Meer van OpenAI