OpenAI kunngjør en oppfordring til eksperter om å bli med i sitt Red Teaming Network

OpenAI kunngjør en oppfordring til eksperter om å bli med i sitt Red Teaming Network

OpenAI kunngjør oppfordring til eksperter om å bli med i Red Teaming Network PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

OpenAI har startet en åpen utlysning for sin Red Teaming Network, søker domeneeksperter for å forbedre sikkerhetstiltakene til AI-modellene. Organisasjonen har som mål å samarbeide med fagfolk fra forskjellige felt for å omhyggelig evaluere og "red team" sine AI systemer.

Forstå OpenAI Red Teaming Network

Begrepet "red teaming" omfatter et bredt spekter av risikovurderingsteknikker for AI-systemer. Disse metodene spenner fra kvalitativ kapasitetsoppdagelse til stresstesting og å gi tilbakemelding om risikoskalaen for spesifikke sårbarheter. OpenAI har tydeliggjort bruken av begrepet "rødt team" for å unngå forvirring og sikre samsvar med språket som brukes med samarbeidspartnerne.

I løpet av de siste årene har OpenAIs red teaming-initiativer utviklet seg fra interne kontradiktoriske tester til å samarbeide med eksterne eksperter. Disse ekspertene hjelper til med å utvikle domenespesifikke risikotaksonomier og evaluere potensielle skadelige evner i nye systemer. Bemerkelsesverdige modeller som gjennomgikk en slik evaluering inkluderer DALL·E 2 og GPT-4.

Det nylig lanserte OpenAI Red Teaming Network har som mål å etablere et fellesskap av pålitelige eksperter. Disse ekspertene vil gi innsikt i risikovurdering og reduksjon i en bredere skala, snarere enn sporadiske engasjementer før betydelige modellutgivelser. Medlemmene vil bli valgt basert på deres ekspertise og vil bidra med varierende tid, potensielt så lite som 5-10 timer årlig.

Fordeler med å bli med i nettverket

Ved å bli med i nettverket vil eksperter få muligheten til å påvirke utviklingen av sikrere AI-teknologier og policyer. De vil spille en avgjørende rolle i å evaluere OpenAIs modeller og systemer gjennom deres utrullingsfaser.

OpenAI understreker viktigheten av mangfoldig ekspertise i vurdering av AI-systemer. Organisasjonen søker aktivt etter søknader fra eksperter over hele verden, og prioriterer både geografisk og domenemangfold. Noen av domenene av interesse inkluderer kognitiv vitenskap, informatikk, statsvitenskap, helsevesen, cybersikkerhet og mange flere. Kjennskap til AI-systemer er ikke en forutsetning, men en proaktiv tilnærming og unikt perspektiv på AI-konsekvensvurderinger verdsettes høyt.

Kompensasjon og konfidensialitet

Deltakere i OpenAI Red Teaming Network vil motta kompensasjon for sine bidrag til red teaming-prosjekter. De bør imidlertid være klar over at involvering i slike prosjekter kan være underlagt taushetserklæringer (NDAer) eller forbli konfidensiell på ubestemt tid.

Søknadsprosess

De som er interessert i å bli med i oppdraget for å utvikle sikker AGI til fordel for menneskeheten kan søke om å bli en del av OpenAI Red Teaming Network. 

Ansvarsfraskrivelse og merknad om opphavsrett: Innholdet i denne artikkelen er kun til informasjonsformål og er ikke ment som økonomisk rådgivning. Rådfør deg alltid med en profesjonell før du tar økonomiske beslutninger. Dette materialet er den eksklusive eiendommen til Blockchain. Nyheter. Uautorisert bruk, duplisering eller distribusjon uten uttrykkelig tillatelse er forbudt. Riktig kreditt og retning til det originale innholdet kreves for all tillatt bruk.

Bildekilde: Shutterstock

Tidstempel:

Mer fra Blockchain Nyheter