Udkast til EU AI Act-forordninger kan have en afkølende effekt på open source-software PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Udkast til EU-lov om kunstig intelligens kan have en afkølende effekt på open source-software

Kort om Nye regler udarbejdet af EU med det formål at regulere kunstig intelligens kan forhindre udviklere i at frigive open source-modeller, ifølge den amerikanske tænketank Brookings.

foreslog EU's AI-lov, som endnu ikke er underskrevet i loven, fastslår, at open source-udviklere skal sikre, at deres AI-software er nøjagtig, sikker og gennemsigtig omkring risiko og databrug i klar teknisk dokumentation. 

Brookings argumenterer at hvis en privat virksomhed skulle implementere den offentlige model eller bruge den i et produkt, og den på en eller anden måde kommer i problemer på grund af nogle uforudsete eller ukontrollerbare effekter fra modellen, ville virksomheden så sandsynligvis forsøge at give open source-udviklerne skylden og sagsøge dem . 

Det kan tvinge open source-fællesskabet til at tænke sig om to gange om at frigive deres kode, og det vil desværre betyde, at udviklingen af ​​AI vil blive drevet af private virksomheder. Proprietær kode er svær at analysere og bygge videre på, hvilket betyder, at innovation vil blive hæmmet.

Oren Etzioni, den afgående administrerende direktør for Allen Institute of AI, mener, at open source-udviklere ikke bør være underlagt de samme strenge regler som softwareingeniører hos private virksomheder.

"Open source-udviklere bør ikke være underlagt den samme byrde som dem, der udvikler kommerciel software. Det bør altid være sådan, at gratis software kan leveres 'som den er' — overvej tilfældet med en enkelt elev, der udvikler en AI-kapacitet; de har ikke råd til at overholde EU-reglerne og kan blive tvunget til ikke at distribuere deres software, hvilket har en afkølende effekt på den akademiske fremgang og på reproducerbarheden af ​​videnskabelige resultater,” han fortalt TechCrunch.

Nye MLPerf-resultater for inferens er ude

Resultaterne af den årlige MLPerf-inferenstest, som benchmarker ydeevnen af ​​AI-chips fra forskellige leverandører på tværs af adskillige opgaver i forskellige konfigurationer, er blevet offentliggjort i denne uge.

Næsten hele 5,300 ydelsesresultater og 2,400 effektmål blev rapporteret i år for slutninger i datacentret og i edge-enheder. Testene ser på, hvor hurtigt et hardwaresystem er i stand til at køre en bestemt maskinlæringsmodel. Hastigheden af ​​dataknas rapporteres i regneark.

Det er ingen overraskelse, at Nvidia topper ranglisten igen i år. "I deres debut på MLPerf industristandard AI-benchmarks, satte Nvidia H100 Tensor Core GPU'er verdensrekorder i slutninger om alle arbejdsbelastninger, og leverer op til 4.5 gange mere ydeevne end tidligere generations GPU'er," sagde Nvidia i et blogindlæg. "Resultaterne viser, at Hopper er det førsteklasses valg for brugere, der kræver den højeste ydeevne på avancerede AI-modeller."

Selvom et stigende antal leverandører deltager i MLPerf-udfordringen, kan det være svært at få en god idé om konkurrencen. Der er for eksempel ingen rapporterede resultater for Googles TPU-chips i datacentersporet i år. Det så Google dog ud til Ace MLPerfs træningskonkurrence tidligere i år. 

AI-kunstnere opdager et forfærdeligt ansigt, der lurer bag billedet

En viral Twitter-tråd postet af en digital kunstner afslører, hvor mærkelige tekst-til-billede-modeller kan være under overfladen.

Mange netbrugere har fundet glæde og fortvivlelse ved at eksperimentere med disse systemer for at generere billeder ved at indtaste tekstprompter. Der er slags hacks til at justere modellens output; en af ​​dem, kendt som en "negativ prompt, giver brugerne mulighed for at finde det modsatte billede af det, der er beskrevet i prompten. 

Da en kunstner, der går under navnet Supercomposite på Twitter, fandt den negative opfordring til det, der beskrev et uskyldigt udseende billede af et falsk logo, fandt de noget virkelig forfærdeligt: ​​Ansigtet på, hvad der ligner en hjemsøgt kvinde. Supercomposite har kaldt denne AI-genererede kvinde "Loab", og når de krydsede billeder af hende med andre, endte de altid med at ligne en scene fra en gyserfilm.

Supercomposite fortalt El Reg tilfældige billeder af AI-genererede mennesker kan ofte dukke op i negative prompter. Den mærkelige adfærd er endnu et andet eksempel af nogle af de mærkelige egenskaber, disse modeller kan have, som folk først er begyndt at undersøge. 

Ingen sansende chatbots her hos Google siger administrerende direktør Sundar Pichai

Sundar Pichai modsagde påstande fra tidligere ingeniør, Blake Lemoine, om, at Google havde bygget en sansende chatbot under hans foredrag på Code-konferencen i denne uge.

Lemoine trak overskrifter i juli, da han annoncerede han troede, at Googles LaMDA-chatbot var ved bevidsthed og kunne have en sjæl. Det blev han senere fyret for angiveligt at have overtrådt virksomhedens privatlivspolitikker, efter at han hyrede en advokat til at chatte med LaMDA og vurdere dets juridiske rettigheder, idet han hævdede, at maskinen havde bedt ham om at gøre det.

De fleste mennesker – inklusive Googles administrerende direktør – er uenige med Lemoine. "Jeg tror stadig, der er lang vej igen. Jeg føler, at jeg ofte kommer ind i filosofiske eller metafysiske samtaler om, hvad der er sansning, og hvad der er bevidsthed,” sagde Pichai. ifølge til Fortune. "Vi er langt fra det, og vi kommer måske aldrig dertil," tilføjede han.

For at understrege sin pointe yderligere indrømmede han, at Googles AI-stemmeassistent nogle gange ikke forstår og reagerer korrekt på anmodninger. "Den gode nyhed er, at enhver, der taler med Google Assistant - mens jeg tror, ​​det er den bedste assistent derude til samtale-AI - du kan stadig se, hvor ødelagt den er i visse tilfælde," sagde han. ®

Tidsstempel:

Mere fra Registret