Utkast til EU AI Act-forskrifter kan ha en avslappende effekt på PlatoBlockchain Data Intelligence med åpen kildekode. Vertikalt søk. Ai.

Utkast til EU AI Act-forskrifter kan ha en avkjølende effekt på åpen kildekode-programvare

Kort fortalt Nye regler utarbeidet av EU med sikte på å regulere AI kan hindre utviklere i å gi ut åpen kildekode-modeller, ifølge den amerikanske tenketanken Brookings.

De foreslått EU AI Act, som ennå ikke er undertegnet i loven, sier at åpen kildekode-utviklere må sikre at AI-programvaren deres er nøyaktig, sikker og åpen om risiko og databruk i klar teknisk dokumentasjon. 

Brookings argumenterer at hvis et privat selskap skulle distribuere den offentlige modellen eller bruke den i et produkt, og det på en eller annen måte kommer i trøbbel på grunn av noen uforutsette eller ukontrollerbare effekter fra modellen, vil selskapet sannsynligvis prøve å skylde på åpen kildekode-utviklerne og saksøke dem . 

Det kan tvinge åpen kildekode-fellesskapet til å tenke to ganger på å gi ut koden deres, og vil dessverre bety at utviklingen av AI vil bli drevet av private selskaper. Proprietær kode er vanskelig å analysere og bygge på, noe som betyr at innovasjon vil bli hemmet.

Oren Etzioni, den avtroppende administrerende direktøren for Allen Institute of AI, mener åpen kildekode-utviklere ikke bør være underlagt de samme strenge reglene som programvareingeniører i private selskaper.

«Åpen kildekode-utviklere bør ikke være underlagt samme byrde som de som utvikler kommersiell programvare. Det bør alltid være slik at fri programvare kan leveres «som den er» — tenk på tilfellet med en enkelt student som utvikler en AI-evne; de har ikke råd til å overholde EUs regelverk og kan bli tvunget til å ikke distribuere programvaren deres, og dermed ha en avkjølende effekt på akademisk fremgang og reproduserbarheten av vitenskapelige resultater,» fortalte Techcrunch.

Nye MLPerf-resultater for slutninger er ute

Resultatene for den årlige MLPerf-slutningstesten, som benchmarker ytelsen til AI-brikker fra forskjellige leverandører på tvers av en rekke oppgaver i forskjellige konfigurasjoner, er blitt publisert denne uken.

Nesten hele 5,300 2,400 ytelsesresultater og XNUMX XNUMX effektmål ble rapportert i år for slutninger i datasenteret og i edge-enheter. Testene ser på hvor raskt et maskinvaresystem er i stand til å kjøre en bestemt maskinlæringsmodell. Hastigheten av dataknusing rapporteres i regneark.

Det er ingen overraskelse at Nvidia topper rangeringen også i år. "I deres debut på MLPerf industristandard AI-benchmarks, satte Nvidia H100 Tensor Core GPUer verdensrekorder i slutninger om alle arbeidsbelastninger, og leverer opptil 4.5 ganger mer ytelse enn forrige generasjons GPUer," sa Nvidia i et blogginnlegg. "Resultatene viser at Hopper er det førsteklasses valget for brukere som krever maksimal ytelse på avanserte AI-modeller."

Selv om et økende antall leverandører deltar i MLPerf-utfordringen, kan det være vanskelig å få et godt inntrykk av konkurransen. Det er for eksempel ingen rapporterte resultater for Googles TPU-brikker i datasentersporet i år. Det så imidlertid ut til at Google gjorde det ess MLPerfs treningskonkurranse tidligere i år. 

AI-artister oppdager forferdelige ansikter som lurer bak bildet

En viral Twitter-tråd postet av en digital artist avslører hvor merkelige tekst-til-bilde-modeller kan være under overflaten.

Mange nettbrukere har funnet glede og fortvilelse ved å eksperimentere med disse systemene for å generere bilder ved å skrive inn tekstmeldinger. Det er slags hacks for å justere modellens utganger; en av dem, kjent som en "negativ ledetekst, lar brukere finne det motsatte bildet til det som er beskrevet i ledeteksten. 

Da en artist, som går under navnet Supercomposite på Twitter, fant den negative ledeteksten for det som beskrev et uskyldig utseende bilde av en falsk logo, fant de noe virkelig grusomt: Ansiktet til det som ser ut som en hjemsøkt kvinne. Supercomposite har kalt denne AI-genererte kvinnen "Loab", og når de krysset bilder av henne med andre, endte de alltid opp med å se ut som en scene fra en skrekkfilm.

Superkompositt fortalt El Reg tilfeldige bilder av AI-genererte personer kan ofte dukke opp i negative meldinger. Den rare oppførselen er ennå et annet eksempel av noen av de rare egenskapene disse modellene kan ha som folk bare begynner å undersøke. 

Ingen sansende chatbots her hos Google sier administrerende direktør Sundar Pichai

Sundar Pichai motsatte seg påstander fra tidligere ingeniør, Blake Lemoine, om at Google hadde bygget en sansende chatbot under foredraget hans på Code-konferansen denne uken.

Lemoine skapte overskrifter i juli da han annonsert han trodde Googles LaMDA chatbot var bevisst og kunne ha en sjel. Han ble senere sparken for angivelig brudd på selskapets personvernregler etter at han hyret en advokat til å chatte med LaMDA og vurdere dets juridiske rettigheter, og hevdet at maskinen hadde bedt ham om å gjøre det.

De fleste – inkludert Googles administrerende direktør – er uenige med Lemoine. «Jeg tror fortsatt det er en lang vei å gå. Jeg føler at jeg ofte går inn i filosofiske eller metafysiske samtaler om hva som er følelse og hva som er bevissthet, sa Pichai. ifølge til Fortune. "Vi er langt fra det, og vi kommer kanskje aldri dit," la han til.

For å understreke poenget sitt ytterligere, innrømmet han at Googles AI-stemmeassistent noen ganger ikke klarer å forstå og svare riktig på forespørsler. "Den gode nyheten er at alle som snakker med Google Assistant - selv om jeg tror det er den beste assistenten der ute for samtale-AI - du ser fortsatt hvor ødelagt den er i visse tilfeller," sa han. ®

Tidstempel:

Mer fra Registeret