OpenAI heeft zich, samen met marktleiders als Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI en Stability AI, gecommitteerd aan het implementeren van robuuste kinderveiligheidsmaatregelen bij de ontwikkeling, inzet en onderhoud van generatieve AI-technologieën, zoals verwoord in de Safety by Design-principes. Dit initiatief, geleid door Doorn, een non-profitorganisatie die zich inzet voor de verdediging van kinderen tegen seksueel misbruik, en Alle technologie is menselijk, een organisatie die zich toelegt op het aanpakken van de complexe problemen van technologie en de samenleving, heeft tot doel de risico's die generatieve AI voor kinderen met zich meebrengt te beperken. Door uitgebreide Safety by Design-principes aan te nemen, zorgen OpenAI en onze collega's ervoor dat de veiligheid van kinderen prioriteit krijgt in elke fase van de ontwikkeling van AI. Tot nu toe hebben we aanzienlijke inspanningen geleverd om de mogelijkheid te minimaliseren dat onze modellen inhoud genereren die schadelijk is voor kinderen, leeftijdsbeperkingen instellen voor ChatGPT en actief samenwerken met het National Center for Missing and Exploited Children (NCMEC), Tech Coalition en andere overheidsinstanties. en belanghebbenden uit de sector over kinderbeschermingskwesties en verbeteringen aan rapportagemechanismen.
Als onderdeel van deze Safety by Design-inspanning verbinden wij ons ertoe:
-
Ontwikkelen: Ontwikkel, bouw en train generatieve AI-modellen
die proactief de veiligheidsrisico's voor kinderen aanpakken.-
Zorg op een verantwoorde manier voor onze trainingsdatasets, detecteer en verwijder seksueel misbruik van kinderen
materiaal voor misbruik (CSAM) en materiaal voor seksuele uitbuiting van kinderen (CSEM).
trainingsgegevens en rapporteer eventuele bevestigde CSAM aan de relevante persoon
autoriteiten. -
Integreer feedbackloops en iteratieve stressteststrategieën in uw systeem
ons ontwikkelingsproces. - Implementeer oplossingen om misbruik door tegenstanders aan te pakken.
-
Zorg op een verantwoorde manier voor onze trainingsdatasets, detecteer en verwijder seksueel misbruik van kinderen
-
Inzetten: Geef daarna generatieve AI-modellen vrij en distribueer deze
ze zijn getraind en geëvalueerd op de veiligheid van kinderen en bieden bescherming
gedurende het hele proces.-
Bestrijd en reageer op beledigende inhoud en gedrag, en integreer dit
preventie-inspanningen. - Stimuleer het eigenaarschap van ontwikkelaars op het gebied van Safety by Design.
-
Bestrijd en reageer op beledigende inhoud en gedrag, en integreer dit
-
Handhaaf: Behoud de veiligheid van het model en het platform door door te gaan
om actief de veiligheidsrisico's voor kinderen te begrijpen en erop te reageren.-
Toegewijd aan het verwijderen van nieuwe AIG-CSAM gegenereerd door slechte actoren uit onze
platform. - Investeer in onderzoek en toekomstige technologische oplossingen.
- Bestrijd CSAM, AIG-CSAM en CSEM op onze platforms.
-
Toegewijd aan het verwijderen van nieuwe AIG-CSAM gegenereerd door slechte actoren uit onze
Deze toezegging markeert een belangrijke stap in het voorkomen van misbruik van AI-technologieën om materiaal over seksueel misbruik van kinderen (AIG-CSAM) en andere vormen van seksuele schade tegen kinderen te creëren of te verspreiden. Als onderdeel van de werkgroep hebben we ook afgesproken om jaarlijks voortgangsupdates uit te brengen.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://openai.com/blog/child-safety-adopting-sbd-principles
- : heeft
- :is
- 39
- 40
- a
- misbruik
- actief
- actoren
- adres
- De goedkeuring van
- tegenstander
- Na
- tegen
- leeftijd
- afgesproken
- AI
- AI-modellen
- wil
- naast
- ook
- Amazone
- an
- en
- antropisch
- elke
- ZIJN
- AS
- At
- Overheid
- slecht
- geweest
- bouw
- by
- Centreren
- ChatGPT
- kind
- Kinderbescherming
- Kinderen
- coalitie
- tegen te gaan
- plegen
- verplichting
- toegewijd
- complex
- uitgebreid
- Gedrag
- BEVESTIGD
- content
- voortgezette
- en je merk te creëren
- gegevens
- datasets
- Datum
- toegewijd aan
- Verdedigen
- inzet
- Design
- ontwerpprincipes
- opsporen
- ontwikkelen
- Ontwikkelaar
- Ontwikkeling
- verdelen
- inspanning
- inspanningen
- toegewijd
- uitbreidingen
- zorgen
- geëvalueerd
- Alle
- exploitatie
- Exploited
- feedback
- Voor
- formulieren
- oppompen van
- toekomst
- Toekomstige technologie
- voortbrengen
- gegenereerde
- generatief
- generatieve AI
- Kopen Google Reviews
- Overheid
- Groep
- schaden
- Harms
- Hebben
- http
- HTTPS
- uitvoering
- belangrijk
- in
- Inclusief
- nemen
- -industrie
- initiatief
- problemen
- leiders
- LED
- gemaakt
- onderhoud
- materiaal
- maatregelen
- mechanismen
- meta
- Microsoft
- verkleinen
- vermist
- misbruik
- Verzachten
- model
- modellen
- nationaal
- New
- Non-profit
- of
- on
- OpenAI
- or
- organisatie
- Overige
- onze
- ownership
- deel
- collega's
- platform
- platforms
- Plato
- Plato gegevensintelligentie
- PlatoData
- vormt
- potentieel
- het voorkomen van
- het voorkomen
- principes
- geprioriteerd
- problemen
- Voortgang
- bescherming
- het verstrekken van
- los
- relevante
- verwijderen
- het verwijderen van
- verslag
- Rapportage
- onderzoek
- Reageren
- verantwoorde
- beperkingen
- risico's
- robuust
- s
- Veiligheid
- reeks
- Seksueel
- aanzienlijke
- Maatschappij
- Oplossingen
- bron
- verspreiden
- Stabiliteit
- Stadium
- stakeholders
- Stap voor
- strategieën
- aanpakken
- tech
- Technologies
- Technologie
- dat
- De
- ze
- dit
- overal
- naar
- Trainen
- getraind
- Trainingen
- begrijpen
- updates
- we
- Met
- werkzaam
- Werkgroep
- jaar
- zephyrnet