OpenAI kündigt Aufruf an Experten an, seinem Red Teaming-Netzwerk beizutreten

OpenAI kündigt Aufruf an Experten an, seinem Red Teaming-Netzwerk beizutreten

OpenAI kündigt Aufruf an Experten an, sich seinem Red Teaming-Netzwerk PlatoBlockchain Data Intelligence anzuschließen. Vertikale Suche. Ai.

OpenAI hat einen offenen Aufruf dafür initiiert Rotes Teaming-Netzwerk, sucht Fachexperten, um die Sicherheitsmaßnahmen seiner KI-Modelle zu verbessern. Ziel der Organisation ist es, mit Fachleuten aus verschiedenen Bereichen zusammenzuarbeiten, um ihre Leistungen sorgfältig zu bewerten und ein „rotes Team“ zu bilden AI Systemen.

Das OpenAI Red Teaming Network verstehen

Der Begriff „Red Teaming“ umfasst eine breite Palette von Risikobewertungstechniken für KI-Systeme. Diese Methoden reichen von der qualitativen Fähigkeitserkennung über Stresstests bis hin zur Bereitstellung von Feedback zum Risikomaß spezifischer Schwachstellen. OpenAI hat die Verwendung des Begriffs „rotes Team“ präzisiert, um Verwirrung zu vermeiden und eine Übereinstimmung mit der Sprache sicherzustellen, die mit seinen Mitarbeitern verwendet wird.

In den letzten Jahren haben sich die Red-Teaming-Initiativen von OpenAI von internen kontradiktorischen Tests zur Zusammenarbeit mit externen Experten entwickelt. Diese Experten helfen bei der Entwicklung domänenspezifischer Risikotaxonomien und der Bewertung potenziell schädlicher Fähigkeiten in neuen Systemen. Zu den bemerkenswerten Modellen, die einer solchen Bewertung unterzogen wurden, gehören DALL·E 2 und GPT-4.

Das neu gestartete OpenAI Red Teaming Network zielt darauf ab, eine Gemeinschaft vertrauenswürdiger Experten aufzubauen. Diese Experten werden Einblicke in die Risikobewertung und -minderung auf breiterer Ebene bieten und nicht nur sporadische Engagements vor wichtigen Modellveröffentlichungen. Die Mitglieder werden auf der Grundlage ihres Fachwissens ausgewählt und werden unterschiedliche Zeitmengen beisteuern, möglicherweise nur 5–10 Stunden pro Jahr.

Vorteile des Beitritts zum Netzwerk

Durch den Beitritt zum Netzwerk haben Experten die Möglichkeit, Einfluss auf die Entwicklung sichererer KI-Technologien und -Richtlinien zu nehmen. Sie werden eine entscheidende Rolle bei der Bewertung der Modelle und Systeme von OpenAI während ihrer gesamten Bereitstellungsphase spielen.

OpenAI betont die Bedeutung vielfältiger Expertise bei der Bewertung von KI-Systemen. Die Organisation sucht aktiv nach Bewerbungen von Experten aus der ganzen Welt und legt dabei Wert auf geografische Vielfalt und Domänenvielfalt. Zu den Interessengebieten gehören Kognitionswissenschaft, Informatik, Politikwissenschaft, Gesundheitswesen, Cybersicherheit und viele mehr. Vertrautheit mit KI-Systemen ist keine Voraussetzung, ein proaktiver Ansatz und eine einzigartige Perspektive auf die KI-Folgenabschätzung werden jedoch sehr geschätzt.

Vergütung und Vertraulichkeit

Teilnehmer des OpenAI Red Teaming Network erhalten eine Vergütung für ihre Beiträge zu Red Teaming-Projekten. Sie sollten sich jedoch darüber im Klaren sein, dass die Beteiligung an solchen Projekten Geheimhaltungsvereinbarungen (NDAs) unterliegen oder auf unbestimmte Zeit vertraulich bleiben kann.

Antragsverfahren

Wer sich der Mission zur Entwicklung sicherer AGI zum Wohle der Menschheit anschließen möchte, kann sich als Teil des OpenAI Red Teaming Network bewerben. 

Haftungsausschluss und Urheberrechtshinweis: Der Inhalt dieses Artikels dient nur zu Informationszwecken und ist nicht als Finanzberatung gedacht. Konsultieren Sie immer einen Fachmann, bevor Sie finanzielle Entscheidungen treffen. Dieses Material ist das ausschließliche Eigentum von Blockchain.Neuigkeiten. Die unbefugte Verwendung, Vervielfältigung oder Verbreitung ohne ausdrückliche Genehmigung ist untersagt. Für jede zulässige Nutzung sind eine ordnungsgemäße Nennung und Angabe des Originalinhalts erforderlich.

Bildquelle: Shutterstock

Zeitstempel:

Mehr von Blockchain News