Amerykański NIST inicjuje konsorcjum na rzecz bezpieczeństwa sztucznej inteligencji w celu promowania godnego zaufania rozwoju sztucznej inteligencji

Amerykański NIST inicjuje konsorcjum na rzecz bezpieczeństwa sztucznej inteligencji w celu promowania godnego zaufania rozwoju sztucznej inteligencji

Amerykański NIST inicjuje konsorcjum na rzecz bezpieczeństwa sztucznej inteligencji w celu promowania godnego zaufania rozwoju sztucznej inteligencji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Amerykański Narodowy Instytut Standardów i Technologii (NIST), podlegający Departamentowi Handlu, ma Zadania znaczący krok w kierunku wspierania bezpiecznego i godnego zaufania środowiska dla sztucznej inteligencji (AI) poprzez utworzenie konsorcjum Instytutu Bezpieczeństwa Sztucznej Inteligencji („Konsorcjum”). Utworzenie Konsorcjum zostało ogłoszone w zawiadomieniu opublikowanym 2 listopada 2023 r. przez NIST, zaznaczającym wspólny wysiłek na rzecz stworzenia nowej nauki o pomiarach w celu identyfikacji skalowalnych i sprawdzonych technik i wskaźników. Wskaźniki te mają na celu postęp w rozwoju i odpowiedzialnym wykorzystaniu sztucznej inteligencji, szczególnie w odniesieniu do zaawansowanych systemów sztucznej inteligencji, takich jak najbardziej wydajne modele podstawowe.

Cel konsorcjum i współpraca

Głównym celem konsorcjum jest radzenie sobie z rozległymi zagrożeniami stwarzanymi przez technologie sztucznej inteligencji oraz ochrona społeczeństwa, przy jednoczesnym wspieraniu innowacyjnych postępów technologicznych w zakresie sztucznej inteligencji. NIST stara się wykorzystać interesy i możliwości szerszej społeczności, mając na celu identyfikację sprawdzonych, skalowalnych i interoperacyjnych pomiarów i metodologii odpowiedzialnego wykorzystania i rozwoju godnej zaufania sztucznej inteligencji.

Zaangażowanie we wspólne badania i rozwój (B+R), wspólne projekty oraz ocenę systemów testowych i prototypów należą do kluczowych działań określonych dla Konsorcjum. Wspólny wysiłek jest odpowiedzią na rozporządzenie wykonawcze zatytułowane „Bezpieczny, chroniony i godny zaufania rozwój i wykorzystanie sztucznej inteligencji” z dnia 30 października 2023 r., w którym podkreślono szeroki zestaw priorytetów istotnych dla bezpieczeństwa i zaufania do sztucznej inteligencji.

Zaproszenie do udziału i współpracy

Aby osiągnąć te cele, NIST otworzył drzwi zainteresowanym organizacjom do dzielenia się swoją wiedzą techniczną, produktami, danymi i/lub modelami poprzez ramy zarządzania ryzykiem AI (AI RMF). Zaproszenie do składania listów motywacyjnych jest częścią inicjatywy NIST mającej na celu współpracę z organizacjami non-profit, uniwersytetami, agencjami rządowymi i firmami technologicznymi. Oczekuje się, że wspólne działania w ramach Konsorcjum rozpoczną się nie wcześniej niż 4 grudnia 2023 r., po otrzymaniu wystarczającej liczby wypełnionych i podpisanych listów motywacyjnych. Udział jest otwarty dla wszystkich organizacji, które mogą wnieść wkład w działania Konsorcjum, a wybrani uczestnicy muszą zawrzeć Umowę o współpracy konsorcjum w zakresie badań i rozwoju (CRADA) z NIST.

Sprostanie wyzwaniom związanym z bezpieczeństwem sztucznej inteligencji

Utworzenie Konsorcjum jest postrzegane jako pozytywny krok w kierunku dogonienia innych krajów rozwiniętych w zakresie ustanawiania przepisów regulujących rozwój sztucznej inteligencji, szczególnie w sferze prywatności użytkowników i obywateli, bezpieczeństwa i niezamierzonych konsekwencji. Posunięcie to stanowi kamień milowy pod rządami administracji prezydenta Joe Bidena w kierunku przyjęcia konkretnych polityk zarządzania sztuczną inteligencją w Stanach Zjednoczonych.

Konsorcjum odegra kluczową rolę w opracowywaniu nowych wytycznych, narzędzi, metod i najlepszych praktyk ułatwiających ewolucję standardów branżowych w zakresie opracowywania lub wdrażania sztucznej inteligencji w sposób bezpieczny i godny zaufania. Jest gotowa odegrać kluczową rolę w kluczowym momencie, nie tylko dla technologów zajmujących się sztuczną inteligencją, ale dla społeczeństwa, zapewniając zgodność sztucznej inteligencji z normami i wartościami społecznymi, przy jednoczesnym promowaniu innowacji.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności