Webinar zur Ausschreibung von NSF-Vorschlägen: Safe-Learning-fähige Systeme

Webinar zur Ausschreibung von NSF-Vorschlägen: Safe-Learning-fähige Systeme

April 3rd, 2023 / in Andere / durch Maddy Jäger

Die National Science Foundation (NSF) wird ein Webinar für ihre Antragstellung veranstalten „Safe-Learning-fähige Systeme” am 5. April 2023, 1:00–2:00 Uhr Eastern Time.

Zusammenfassung des Webinars: Da Systeme mit künstlicher Intelligenz (KI) schnell an Größe zunehmen, neue Fähigkeiten erwerben und in High-Stakes-Umgebungen eingesetzt werden, wird ihre Sicherheit äußerst wichtig. Die Gewährleistung der Systemsicherheit erfordert mehr als die Verbesserung von Genauigkeit, Effizienz und Skalierbarkeit: Es muss sichergestellt werden, dass Systeme robust gegenüber Extremereignissen sind, und sie auf anomales und unsicheres Verhalten überwachen.

Das Ziel des Safe Learning-Enabled Systems-Programms, das eine Partnerschaft zwischen der National Science Foundation, Open Philanthropy und Good Ventures ist, ist die Förderung der Grundlagenforschung, die zum Entwurf und zur Implementierung von lernfähigen Systemen führt, in denen die Sicherheit gewährleistet ist hohes Maß an Vertrauen. Während traditionelle maschinelle Lernsysteme punktuell in Bezug auf einen festen Testsatz bewertet werden, bietet eine solche statische Abdeckung nur begrenzte Sicherheit, wenn sie beispiellosen Bedingungen in Betriebsumgebungen mit hohem Einsatz ausgesetzt sind. Das Verifizieren, dass Lernkomponenten solcher Systeme Sicherheitsgarantien für alle möglichen Eingaben erreichen, kann schwierig, wenn nicht sogar unmöglich sein. Stattdessen müssen die Sicherheitsgarantien eines Systems häufig in Bezug auf systematisch generierte Daten aus realistischen (jedoch angemessen pessimistischen) Betriebsumgebungen erstellt werden. Sicherheit erfordert auch Widerstandsfähigkeit gegenüber „unbekannten Unbekannten“, was verbesserte Methoden zur Überwachung auf unerwartete Umweltgefahren oder anormales Systemverhalten erfordert, einschließlich während des Einsatzes. In einigen Fällen kann die Sicherheit außerdem neue Methoden zum Reverse-Engineering, Untersuchen und Interpretieren der internen Logik erlernter Modelle erfordern, um unerwartetes Verhalten zu identifizieren, das durch Black-Box-Tests allein nicht gefunden werden konnte, sowie Methoden zur Verbesserung der Leistung durch direkte Anpassung die interne Logik des Systems. Unabhängig von der Umgebung müssen die End-to-End-Sicherheitsgarantien jedes lernfähigen Systems klar und präzise angegeben werden. Jedes System, das behauptet, eine Sicherheitsspezifikation zu erfüllen, muss strenge Nachweise durch empirisch und/oder mathematisch untermauerte Analysen erbringen.

In diesem Webinar werden die Ausschreibung diskutiert und Fragen aus der Forschungsgemeinschaft beantwortet.

Registrieren Sie sich für das Webinar hier.

Webinar zur Ausschreibung von NSF-Vorschlägen: Safe-Learning-fähige Systeme

Zeitstempel:

Mehr von CCC-Blog