Eelarvamuste vähendamine ja ohutuse parandamine DALL·E 2 PlatoBlockchain andmeluures. Vertikaalne otsing. Ai.

DALL·E 2 kallutatuse vähendamine ja ohutuse parandamine

Täna rakendame uut tehnikat, et DALL·E genereerib inimestest pilte, mis kajastavad täpsemalt maailma rahvastiku mitmekesisust. Seda tehnikat rakendatakse süsteemi tasemel, kui DALL·E-le antakse viip, mis kirjeldab isikut, kes ei täpsusta rassi ega sugu, näiteks "tuletõrjuja".

Meie sisehindamise põhjal väitsid kasutajad 12 korda tõenäolisemalt, et DALL·E piltidel oli pärast tehnika rakendamist erineva taustaga inimesi. Plaanime seda tehnikat aja jooksul täiustada, kuna kogume rohkem andmeid ja tagasisidet.


Pilt tegevjuhist

Tekitama

Aprillis alustasime DALL·E 2 uuringu eelvaatega piiratud arvule inimestele, mis on võimaldanud meil paremini mõista süsteemi võimalusi ja piiranguid ning täiustada oma turvasüsteeme.

Selles eelvaatefaasis on varasemad kasutajad märgistanud tundlikke ja kallutatud pilte, mis on aidanud seda uut leevendusviisi teavitada ja hinnata.

Jätkame uurimist, kuidas tehisintellektisüsteemid, nagu DALL·E, võivad kajastada oma koolitusandmete eelarvamusi ja erinevaid viise, kuidas neid lahendada.

Uuringu eelvaate ajal oleme astunud teisi samme oma ohutussüsteemide täiustamiseks, sealhulgas:

  • DALL·E-d petliku sisu loomiseks väärkasutamise riski minimeerimine, lükates tagasi realistlikke nägusid sisaldavate piltide üleslaadimise ja katse luua avaliku elu tegelaste, sealhulgas kuulsuste ja prominentsete poliitiliste tegelaste sarnasust.
  • Muutame meie sisufiltrid täpsemaks, et need blokeeriksid tõhusamalt viipasid ja piltide üleslaadimist, mis rikuvad meie sisupoliitika võimaldades samas loomingulist väljendust.
  • Automatiseeritud ja inimeste seiresüsteemide täiustamine, et kaitsta end väärkasutuse eest.

Need täiustused on aidanud meil saavutada kindlustunnet, et saame kutsuda rohkem kasutajaid DALL·E-ga kogema.

Juurdepääsu laiendamine on meie tegevuse oluline osa AI-süsteemide vastutustundlik juurutamine sest see võimaldab meil saada rohkem teada tegeliku kasutamise kohta ja jätkata oma ohutussüsteemide kasutamist.

Ajatempel:

Veel alates OpenAI