OpenAI tillkännager en uppmaning till experter att gå med i sitt Red Teaming Network

OpenAI tillkännager en uppmaning till experter att gå med i sitt Red Teaming Network

OpenAI tillkännager uppmaning till experter att gå med i sitt Red Teaming Network PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

OpenAI har initierat en öppen utlysning för sin Red Teaming Network, söker domänexperter för att förbättra säkerhetsåtgärderna för sina AI-modeller. Organisationen strävar efter att samarbeta med proffs från olika områden för att noggrant utvärdera och "reda team" dess AI system.

Förstå OpenAI Red Teaming Network

Termen "red teaming" omfattar ett brett spektrum av riskbedömningstekniker för AI-system. Dessa metoder sträcker sig från kvalitativ kapacitetsupptäckt till stresstester och ge feedback om riskskalan för specifika sårbarheter. OpenAI har förtydligat sin användning av termen "röda team" för att undvika förvirring och säkerställa överensstämmelse med språket som används med sina medarbetare.

Under de senaste åren har OpenAI:s röda teaming-initiativ utvecklats från interna kontradiktoriska tester till att samarbeta med externa experter. Dessa experter hjälper till att utveckla domänspecifika risktaxonomier och utvärdera potentiella skadliga funktioner i nya system. Anmärkningsvärda modeller som genomgick en sådan utvärdering inkluderar DALL·E 2 och GPT-4.

Det nyligen lanserade OpenAI Red Teaming Network syftar till att etablera en gemenskap av pålitliga experter. Dessa experter kommer att ge insikter om riskbedömning och begränsning i en bredare skala, snarare än sporadiska engagemang innan betydande modellsläpp. Medlemmar kommer att väljas baserat på deras expertis och kommer att bidra med varierande tid, potentiellt så lite som 5-10 timmar per år.

Fördelar med att gå med i nätverket

Genom att gå med i nätverket kommer experter att ha möjlighet att påverka utvecklingen av säkrare AI-tekniker och policyer. De kommer att spela en avgörande roll i att utvärdera OpenAI:s modeller och system under hela deras implementeringsfaser.

OpenAI betonar vikten av mångsidig expertis för att bedöma AI-system. Organisationen söker aktivt ansökningar från experter över hela världen och prioriterar både geografisk mångfald och domänmångfald. Några av domänerna av intresse inkluderar kognitionsvetenskap, datavetenskap, statsvetenskap, sjukvård, cybersäkerhet och många fler. Kännedom om AI-system är inte en förutsättning, men ett proaktivt förhållningssätt och unikt perspektiv på AI-konsekvensbedömning värderas högt.

Ersättning och Sekretess

Deltagare i OpenAI Red Teaming Network kommer att få ersättning för sina bidrag till röda teaming-projekt. De bör dock vara medvetna om att deltagande i sådana projekt kan vara föremål för sekretessavtal (NDA) eller förbli konfidentiellt på obestämd tid.

Ansökningsprocess

De som är intresserade av att gå med i uppdraget att utveckla säker AGI till förmån för mänskligheten kan ansöka om att bli en del av OpenAI Red Teaming Network. 

Ansvarsfriskrivning och upphovsrättsmeddelande: Innehållet i denna artikel är endast avsett för informationsändamål och är inte avsett som finansiell rådgivning. Rådgör alltid med en professionell innan du fattar några ekonomiska beslut. Detta material är exklusiv egendom av Blockchain. Nyheter. Otillåten användning, kopiering eller distribution utan uttryckligt tillstånd är förbjuden. Korrekt kreditering och vägledning till det ursprungliga innehållet krävs för all tillåten användning.

Bildkälla: Shutterstock

Tidsstämpel:

Mer från Blockchain News