OpenAI ogłasza zaproszenie ekspertów do dołączenia do sieci Red Teaming

OpenAI ogłasza zaproszenie ekspertów do dołączenia do sieci Red Teaming

OpenAI ogłasza zaproszenie ekspertów do dołączenia do sieci Red Teaming PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

OpenAI ogłosiło otwarte zaproszenie do składania wniosków Sieć drużyn czerwonych, poszukując ekspertów dziedzinowych w celu ulepszenia środków bezpieczeństwa swoich modeli sztucznej inteligencji. Organizacja ma na celu współpracę ze specjalistami z różnych dziedzin, aby skrupulatnie oceniać i tworzyć „czerwony zespół” swoich produktów AI systemy.

Zrozumienie sieci OpenAI Red Teaming Network

Termin „red teaming” obejmuje szeroki wachlarz technik oceny ryzyka dla systemów AI. Metody te obejmują jakościowe odkrywanie możliwości, testy warunków skrajnych i dostarczanie informacji zwrotnych na temat skali ryzyka określonych luk w zabezpieczeniach. OpenAI wyjaśniło użycie terminu „czerwony zespół”, aby uniknąć nieporozumień i zapewnić zgodność z językiem używanym przez jego współpracowników.

W ciągu ostatnich lat inicjatywy OpenAI związane z red teamingiem ewoluowały od wewnętrznych testów kontradyktoryjnych do współpracy z ekspertami zewnętrznymi. Eksperci ci pomagają w opracowywaniu taksonomii ryzyka specyficznej dla domeny i ocenie potencjalnych szkodliwych możliwości w nowych systemach. Godne uwagi modele, które przeszły taką ocenę, obejmują DALL·E 2 i GPT-4.

Nowo uruchomiona sieć OpenAI Red Teaming Network ma na celu utworzenie społeczności zaufanych ekspertów. Eksperci ci zapewnią wgląd w ocenę ryzyka i jego ograniczanie na szerszą skalę, zamiast sporadycznych zleceń przed wprowadzeniem znaczących modeli na rynek. Członkowie zostaną wybrani na podstawie ich wiedzy specjalistycznej i będą poświęcać różną ilość czasu, potencjalnie zaledwie 5–10 godzin rocznie.

Korzyści z przyłączenia się do sieci

Dołączając do sieci, eksperci będą mieli możliwość wpływania na rozwój bezpieczniejszych technologii i polityk w zakresie sztucznej inteligencji. Będą odgrywać kluczową rolę w ocenie modeli i systemów OpenAI na wszystkich etapach ich wdrażania.

OpenAI podkreśla znaczenie zróżnicowanej wiedzy specjalistycznej w ocenie systemów AI. Organizacja aktywnie poszukuje aplikacji od ekspertów z całego świata, traktując priorytetowo zarówno różnorodność geograficzną, jak i domenową. Niektóre z interesujących dziedzin obejmują kognitywistykę, informatykę, nauki polityczne, opiekę zdrowotną, cyberbezpieczeństwo i wiele innych. Znajomość systemów sztucznej inteligencji nie jest warunkiem wstępnym, ale wysoko cenione jest proaktywne podejście i unikalne spojrzenie na ocenę wpływu sztucznej inteligencji.

Wynagrodzenie i poufność

Uczestnicy sieci OpenAI Red Teaming Network otrzymają wynagrodzenie za swój wkład w projekty red teaming. Powinni jednak mieć świadomość, że zaangażowanie w takie projekty może podlegać umowom o zachowaniu poufności (NDA) lub pozostać poufne przez czas nieokreślony.

Proces aplikacji

Osoby zainteresowane dołączeniem do misji opracowania bezpiecznego AGI dla dobra ludzkości mogą ubiegać się o przyłączenie się do sieci OpenAI Red Teaming Network. 

Zastrzeżenie i informacja o prawach autorskich: Treść tego artykułu służy wyłącznie celom informacyjnym i nie jest zamierzona jako porada finansowa. Przed podjęciem jakichkolwiek decyzji finansowych zawsze konsultuj się ze specjalistą. Materiał ten stanowi wyłączną własność firmy Blockchain.Aktualności. Nieautoryzowane użycie, powielanie lub rozpowszechnianie bez wyraźnej zgody jest zabronione. Do każdego dozwolonego użycia wymagane jest podanie odpowiedniego źródła i kierunku oryginalnej treści.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności