Webinaire sur la sollicitation de propositions NSF : systèmes activés par l'apprentissage sécurisé

Webinaire sur la sollicitation de propositions NSF : systèmes activés par l'apprentissage sécurisé

Avril 3rd, 2023 / in Autres / par Maddy Hunter

La National Science Foundation (NSF) organisera un webinaire pour son appel à propositions "Systèmes permettant un apprentissage sécurisé» le 5 avril 2023, de 1 h 00 à 2 h 00, heure de l'Est.

Synopsis du webinaire : À mesure que la taille des systèmes d’intelligence artificielle (IA) augmente rapidement, qu’ils acquièrent de nouvelles capacités et qu’ils sont déployés dans des environnements à enjeux élevés, leur sécurité devient extrêmement importante. Garantir la sécurité des systèmes nécessite plus que d’améliorer la précision, l’efficacité et l’évolutivité : cela nécessite de garantir que les systèmes sont robustes face aux événements extrêmes et de les surveiller pour déceler tout comportement anormal et dangereux.

L'objectif du programme Safe Learning-Enabled Systems, qui est un partenariat entre la National Science Foundation, Open Philanthropy et Good Ventures, est de favoriser la recherche fondamentale qui mène à la conception et à la mise en œuvre de systèmes d'apprentissage dans lesquels la sécurité est assurée avec niveaux élevés de confiance. Alors que les systèmes d’apprentissage automatique traditionnels sont évalués ponctuellement par rapport à un ensemble de tests fixe, une telle couverture statique n’offre qu’une assurance limitée lorsqu’ils sont exposés à des conditions sans précédent dans des environnements d’exploitation à enjeux élevés. Vérifier que les composants d’apprentissage de tels systèmes offrent des garanties de sécurité pour toutes les entrées possibles peut être difficile, voire impossible. Au lieu de cela, les garanties de sécurité d’un système devront souvent être établies par rapport à des données générées systématiquement à partir d’environnements d’exploitation réalistes (mais à juste titre pessimistes). La sécurité nécessite également une résilience face aux « inconnues inconnues », ce qui nécessite des méthodes améliorées de surveillance des risques environnementaux inattendus ou des comportements anormaux du système, y compris pendant le déploiement. Dans certains cas, la sécurité peut en outre nécessiter de nouvelles méthodes de rétro-ingénierie, d'inspection et d'interprétation de la logique interne des modèles appris afin d'identifier un comportement inattendu qui n'a pas pu être détecté par les seuls tests en boîte noire, ainsi que des méthodes permettant d'améliorer les performances en adaptant directement la logique interne des systèmes. Quel que soit le contexte, les garanties de sécurité de bout en bout de tout système d’apprentissage doivent être spécifiées de manière claire et précise. Tout système prétendant satisfaire à une spécification de sécurité doit fournir des preuves rigoureuses, par le biais d'analyses corroborées empiriquement et/ou par des preuves mathématiques.

Ce webinaire discutera de la sollicitation et répondra aux questions de la communauté des chercheurs.

Inscrivez-vous au webinaire ici.

Webinaire sur la sollicitation de propositions NSF : systèmes activés par l'apprentissage sécurisé

Horodatage:

Plus de Blogue du CCC