Ikke bekymre deg, folkens, her kommer Chuck Schumer med noen ideer om regulering av AI

Ikke bekymre deg, folkens, her kommer Chuck Schumer med noen ideer om regulering av AI

Ikke bekymre deg, folkens, her kommer Chuck Schumer med noen ideer om regulering av AI PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Den amerikanske senatoren Chuck Schumer (D-NY) er i det siste opptatt av å vedta topartilovgivning som muliggjør uavhengige offentlige revisjoner av kommersielle AI-produkter før de slippes løs på verden.

Etter måneder med konsultasjoner sier Senatets flertallsleder at han har utarbeidet et rammeverk for regulering av utvikling, distribusjon og bruk av avansert maskinlæringsteknologi. Bommen i generativ kunstig intelligens, all hypen rundt den, og Kinas skritt for å begrense teknologien har gjort det desto mer presserende å styre disse modellene og programvaren i Amerika, sa han.

Dette rammeverket vil, hvis Schumers planer får det til, resultere i "omfattende" lovgivning i USA som organisasjoner må følge når de skal rulle ut kunstig intelligens.

"Age of AI er her, og her for å bli," sa Schumer i en hermetisk uttalelse. "Nå er tiden inne for å utvikle, utnytte og fremme potensialet for å være til nytte for landet vårt i generasjoner."

"Gitt AI-industriens konsekvente og raskt bevegelige innvirkning på samfunnet, nasjonal sikkerhet og den globale økonomien," fortsatte han, "har jeg jobbet med noen av de ledende AI-utøverne og tankelederne for å lage et rammeverk som skisserer et nytt reguleringsregime. som ville forhindre potensielt katastrofale skader på landet vårt, samtidig som vi sørger for at USA går videre og leder i denne transformative teknologien.

«Men det er mye mer arbeid å gjøre, og vi må gå raskt. Jeg ser frem til å jobbe på tvers av midtgangen, på tvers av industrien og på tvers av landet og utover, for å forme dette forslaget og avgrense lovgivningen for å sikre at AI holder løftet sitt om å skape en bedre verden."

Schumers foreslåtte rammeverk, som har blitt delt rundt Capitol Hill og ennå ikke er offentlig, dreier seg om fire autovern: hvem, hvor, hvordan og beskytter.

Spesifikt, under disse forslagene, bør det være klart hvem som trente en modell og hvem som skal bruke den, hvor opplæringsdataene kom fra og hvordan programvaren skal brukes. Det er avgjørende at det gis nok informasjon slik at eksterne eksperter kan revidere, teste og gjennomgå maskinlæringsprodukter og -teknologier før de settes på markedet, og at disse funnene blir offentliggjort.

Til slutt, for beskyttelsesdelen, må utviklere demonstrere at AI-systemene deres er på linje med amerikanske verdier og at "AI-utviklere holder løftet om å skape en bedre verden." 

Schumer planlegger å dele, om ikke allerede, rammeverket sitt med ledere i akademia, industri og myndigheter, og har til hensikt å samarbeide med tenketanker og forskningsinstitusjoner for å avgrense forslagene sine før han legger frem et lovforslag. Registeret presset senatorens kontor for flere detaljer, og en representant kunne ikke tilby noe mer enn en pressemelding.

Denne utgivelsen gjør det klart at det foreslåtte rammeverket "vil kreve at selskaper lar uavhengige eksperter gjennomgå og teste AI-teknologier før en offentlig utgivelse eller oppdatering, og gi brukere tilgang til disse resultatene."

Apropos byråkrati... European Data Protection Board, som hjelper til med å holde Europas nasjonale personvernvakter på samme side, har opprettet en arbeidsgruppe for å sikre at disse regulatorene deler informasjon og detaljer om eventuelle brudd på OpenAIs ChatGPT. Dette er etter at Italia tok en hard linje mot chat-boten, over frykt for personvern og barnevern, og andre nasjoner vurderer samme type handling.

Dette indikerer i utgangspunktet at Europa konvergerer mot en enhetlig respons på neste generasjons AI-system som er blitt forkjempet av Microsoft og injisert i alle hjørner av dagens teknologi.

Alt dette kommer ettersom Kinas cyberspace-regulator utarbeidet lignende regler som vil kreve at utstyr skal sende inn sikkerhetsvurderinger som undersøker de potensielle sikkerhetsrisikoene ved deres AI-produkter. Utviklere må sørge for at treningsdataene som brukes til å forme modellene deres ikke vil føre til diskriminering, og reflekterer landets sosialistiske verdier, Reuters rapportert.

Det amerikanske handelsdepartementets nasjonale telekommunikasjons- og informasjonsadministrasjon søker offentlige kommentarer for å hjelpe med å utarbeide potensielle retningslinjer som tar sikte på å forbedre ansvarligheten til AI-produkter og -tjenester. Byrået utstedt dens formelle AI "Accountability Request for Comment" denne uken. ®

Tidstempel:

Mer fra Registeret