Minska bias och förbättra säkerheten i DALL·E 2 PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Minska bias och förbättra säkerheten i DALL·E 2

Idag implementerar vi en ny teknik så att DALL·E genererar bilder av människor som mer exakt återspeglar mångfalden av världens befolkning. Denna teknik tillämpas på systemnivå när DALL·E får en uppmaning som beskriver en person som inte specificerar ras eller kön, som "brandman".

Baserat på vår interna utvärdering var användarna 12 gånger mer benägna att säga att DALL·E-bilder inkluderade människor med olika bakgrunder efter att tekniken tillämpats. Vi planerar att förbättra denna teknik med tiden när vi samlar in mer data och feedback.


Ett foto på en VD

Generera

I april började vi förhandsgranska DALL·E 2-forskningen för ett begränsat antal personer, vilket har gjort det möjligt för oss att bättre förstå systemets möjligheter och begränsningar och förbättra våra säkerhetssystem.

Under denna förhandsgranskningsfas har tidiga användare flaggat känsliga och partiska bilder som har hjälpt till att informera och utvärdera denna nya begränsning.

Vi fortsätter att undersöka hur AI-system, som DALL·E, kan återspegla fördomar i sina träningsdata och olika sätt vi kan hantera dem.

Under förhandsgranskningen har vi tagit andra steg för att förbättra våra säkerhetssystem, inklusive:

  • Minimera risken för att DALL·E missbrukas för att skapa vilseledande innehåll genom att avvisa bilduppladdningar som innehåller realistiska ansikten och försök att skapa likheter med offentliga personer, inklusive kändisar och framstående politiska personer.
  • Göra våra innehållsfilter mer exakta så att de är mer effektiva när det gäller att blockera uppmaningar och bilduppladdningar som bryter mot vår innehållspolicy samtidigt som det tillåter kreativt uttryck.
  • Förfina automatiserade och mänskliga övervakningssystem för att skydda mot missbruk.

Dessa förbättringar har hjälpt oss att få förtroende för möjligheten att bjuda in fler användare att uppleva DALL·E.

Att utöka tillgängligheten är en viktig del av vårt implementera AI-system på ett ansvarsfullt sätt eftersom det låter oss lära oss mer om verklig användning och fortsätta att upprepa våra säkerhetssystem.

Tidsstämpel:

Mer från OpenAI