US NIST indleder AI-sikkerhedskonsortium for at fremme troværdig AI-udvikling

US NIST indleder AI-sikkerhedskonsortium for at fremme troværdig AI-udvikling

US NIST indleder AI Safety Consortium for at fremme pålidelig AI-udvikling PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

United States National Institute of Standards and Technology (NIST), under Department of Commerce, har taget et betydeligt fremskridt i retning af at skabe et sikkert og troværdigt miljø for kunstig intelligens (AI) gennem starten af ​​Artificial Intelligence Safety Institute Consortium ("Konsortiet"). Konsortiets dannelse blev annonceret i en meddelelse offentliggjort den 2. november 2023 af NIST, der markerer et samarbejde om at etablere en ny målevidenskab til at identificere skalerbare og gennemprøvede teknikker og målinger. Disse målinger er rettet mod at fremme udviklingen og ansvarlig brug af AI, især vedrørende avancerede AI-systemer som de mest dygtige fundamentmodeller.

Konsortiets målsætning og samarbejde

Konsortiets kernemål er at navigere i de omfattende risici, som AI-teknologier udgør, og at beskytte offentligheden og samtidig tilskynde til innovative AI-teknologiske fremskridt. NIST søger at udnytte det bredere fællesskabs interesser og evner med det formål at identificere dokumenterede, skalerbare og interoperable målinger og metoder til ansvarlig brug og udvikling af pålidelig AI.

Engagement i kollaborativ forskning og udvikling (F&U), fælles projekter og evaluering af testsystemer og prototyper er blandt de nøgleaktiviteter, der er skitseret for konsortiet. Den kollektive indsats er som reaktion på bekendtgørelsen med titlen "Den sikre, sikre og troværdige udvikling og brug af kunstig intelligens", dateret 30. oktober 2023, som understregede et bredt sæt af prioriteter, der er relevante for AI-sikkerhed og tillid.

Indkaldelse til deltagelse og samarbejde

For at nå disse mål har NIST åbnet dørene for interesserede organisationer til at dele deres tekniske ekspertise, produkter, data og/eller modeller gennem AI Risk Management Framework (AI RMF). Invitationen til interessebreve er en del af NISTs initiativ til at samarbejde med non-profit organisationer, universiteter, offentlige myndigheder og teknologivirksomheder. Samarbejdsaktiviteterne inden for konsortiet forventes tidligst påbegyndt den 4. december 2023, når et tilstrækkeligt antal udfyldte og underskrevne interessebreve er modtaget. Deltagelse er åben for alle organisationer, der kan bidrage til konsortiets aktiviteter, med udvalgte deltagere forpligtet til at indgå en Consortium Cooperative Research and Development Agreement (CRADA) med NIST.

Løsning af AI-sikkerhedsudfordringer

Etableringen af ​​konsortiet betragtes som et positivt skridt i retning af at indhente andre udviklede nationer i etableringen af ​​regler for AI-udvikling, især inden for brugernes og borgernes privatliv, sikkerhed og utilsigtede konsekvenser. Bevægelsen afspejler en milepæl under præsident Joe Bidens administration i retning af at vedtage specifikke politikker til at styre AI i USA.

Konsortiet vil være medvirkende til at udvikle nye retningslinjer, værktøjer, metoder og bedste praksis for at lette udviklingen af ​​industristandarder for udvikling eller implementering af kunstig intelligens på en sikker, sikker og troværdig måde. Det er klar til at spille en afgørende rolle på et afgørende tidspunkt, ikke kun for AI-teknologer, men for samfundet, for at sikre, at AI stemmer overens med samfundets normer og værdier og samtidig fremme innovation.

Billedkilde: Shutterstock

Tidsstempel:

Mere fra Blockchain News