Webinar sulla richiesta di proposte NSF: sistemi abilitati per l'apprendimento sicuro

Webinar sulla richiesta di proposte NSF: sistemi abilitati per l'apprendimento sicuro

Aprile 3rd, 2023 / in Altro / di Maddy Cacciatore

La National Science Foundation (NSF) terrà un webinar per sollecitare la loro proposta "Sistemi abilitati per l'apprendimento sicuro” il 5 aprile 2023, 1:00-2:00 ora di New York.

Sinossi webinar: Man mano che i sistemi di intelligenza artificiale (AI) aumentano rapidamente di dimensioni, acquisiscono nuove capacità e vengono utilizzati in contesti ad alto rischio, la loro sicurezza diventa estremamente importante. Garantire la sicurezza del sistema richiede molto di più che migliorare l'accuratezza, l'efficienza e la scalabilità: richiede di garantire che i sistemi siano resistenti agli eventi estremi e di monitorarli per comportamenti anomali e non sicuri.

L'obiettivo del programma Safe Learning-Enabled Systems, che è una partnership tra National Science Foundation, Open Philanthropy e Good Ventures, è promuovere la ricerca fondamentale che porti alla progettazione e all'implementazione di sistemi abilitati all'apprendimento in cui la sicurezza è garantita con alti livelli di fiducia. Mentre i tradizionali sistemi di apprendimento automatico vengono valutati in modo puntuale rispetto a un set di test fisso, tale copertura statica fornisce solo una garanzia limitata se esposta a condizioni senza precedenti in ambienti operativi ad alto rischio. Verificare che i componenti di apprendimento di tali sistemi raggiungano garanzie di sicurezza per tutti i possibili input può essere difficile, se non impossibile. Invece, le garanzie di sicurezza di un sistema dovranno spesso essere stabilite rispetto a dati generati sistematicamente da ambienti operativi realistici (ma opportunamente pessimistici). La sicurezza richiede anche resilienza a "incognite sconosciute", il che richiede metodi migliorati per il monitoraggio di rischi ambientali imprevisti o comportamenti anomali del sistema, anche durante l'implementazione. In alcuni casi, la sicurezza può inoltre richiedere nuovi metodi per il reverse engineering, l'ispezione e l'interpretazione della logica interna dei modelli appresi per identificare comportamenti imprevisti che non potrebbero essere rilevati dai soli test black-box e metodi per migliorare le prestazioni adattando direttamente la logica interna dei sistemi. Qualunque sia l'impostazione, le garanzie di sicurezza end-to-end di qualsiasi sistema abilitato all'apprendimento devono essere specificate in modo chiaro e preciso. Qualsiasi sistema che pretenda di soddisfare una specifica di sicurezza deve fornire prove rigorose, attraverso analisi corroborate empiricamente e/o con prove matematiche.

Questo webinar discuterà la sollecitazione e risponderà alle domande della comunità di ricerca.

Registrati per il webinar qui.

Webinar sulla richiesta di proposte NSF: sistemi abilitati per l'apprendimento sicuro

Timestamp:

Di più da Blog CCC