Webinar over NSF-voorstelverzoek: Safe-Learning Enabled Systems

Webinar over NSF-voorstelverzoek: Safe-Learning Enabled Systems

April 3rd, 2023 / in Uncategorized / door Maddy Jager

De National Science Foundation (NSF) zal een webinar houden voor hun voorstelaanvraag "Systemen die geschikt zijn voor veilig leren” op 5 april 2023, 1:00-2:00 uur Eastern Time.

Webinaroverzicht: Naarmate kunstmatige-intelligentiesystemen (AI) snel in omvang toenemen, nieuwe mogelijkheden verwerven en worden ingezet in omgevingen waar veel op het spel staat, wordt hun veiligheid uiterst belangrijk. Het waarborgen van de systeemveiligheid vereist meer dan het verbeteren van de nauwkeurigheid, efficiëntie en schaalbaarheid: het vereist dat systemen robuust zijn voor extreme gebeurtenissen en dat ze worden gecontroleerd op abnormaal en onveilig gedrag.

Het doel van het Safe Learning-Enabled Systems-programma, een samenwerking tussen de National Science Foundation, Open Philanthropy en Good Ventures, is het bevorderen van fundamenteel onderzoek dat leidt tot het ontwerp en de implementatie van learning-enabled systemen waarin veiligheid wordt gegarandeerd met hoog niveau van vertrouwen. Terwijl traditionele machine learning-systemen puntsgewijs worden geëvalueerd met betrekking tot een vaste testset, biedt een dergelijke statische dekking slechts beperkte zekerheid wanneer ze worden blootgesteld aan ongekende omstandigheden in veeleisende werkomgevingen. Verifiëren dat leercomponenten van dergelijke systemen veiligheidsgaranties bieden voor alle mogelijke inputs kan moeilijk, zo niet onmogelijk zijn. In plaats daarvan zullen de veiligheidsgaranties van een systeem vaak moeten worden vastgesteld met betrekking tot systematisch gegenereerde gegevens uit realistische (maar passend pessimistische) bedrijfsomgevingen. Veiligheid vereist ook veerkracht tegen "onbekende onbekenden", wat verbeterde methoden vereist voor het bewaken van onverwachte omgevingsrisico's of afwijkend systeemgedrag, ook tijdens de implementatie. In sommige gevallen kan veiligheid verder nieuwe methoden vereisen voor reverse-engineering, inspectie en interpretatie van de interne logica van aangeleerde modellen om onverwacht gedrag te identificeren dat niet kon worden gevonden door alleen black-box-testen, en methoden voor het verbeteren van de prestaties door directe aanpassing de interne logica van de systemen. Wat de setting ook is, de end-to-end veiligheidsgaranties van elk leersysteem moeten duidelijk en nauwkeurig worden gespecificeerd. Elk systeem dat beweert aan een veiligheidsspecificatie te voldoen, moet rigoureus bewijs leveren, door analyse die empirisch en/of wiskundig wordt bevestigd.

Dit webinar bespreekt het verzoek en beantwoordt vragen van de onderzoeksgemeenschap.

Registreer voor het webinar hier.

Webinar over NSF-voorstelverzoek: Safe-Learning Enabled Systems

Tijdstempel:

Meer van CCC-blog