Utkast till förordningar om EU:s AI-lag kan ha en kylande effekt på PlatoBlockchain Data Intelligence med öppen källkod. Vertikal sökning. Ai.

Utkast till EU:s AI-lagförordningar kan ha en kylande effekt på programvara med öppen källkod

I korthet Nya regler utarbetade av EU som syftar till att reglera AI kan hindra utvecklare från att släppa modeller med öppen källkod, enligt den amerikanska tankesmedjan Brookings.

Smakämnen föreslagen EU AI Act, som ännu inte har undertecknats i lag, säger att utvecklare med öppen källkod måste se till att deras AI-programvara är korrekt, säker och transparent om risker och dataanvändning i tydlig teknisk dokumentation. 

Brookings hävdar att om ett privat företag skulle distribuera den offentliga modellen eller använda den i en produkt, och det på något sätt hamnar i problem på grund av några oförutsedda eller okontrollerbara effekter från modellen, skulle företaget förmodligen försöka skylla på utvecklarna av öppen källkod och stämma dem . 

Det kan tvinga öppen källkodsgemenskapen att tänka två gånger på att släppa sin kod, och det skulle tyvärr innebära att utvecklingen av AI kommer att drivas av privata företag. Proprietär kod är svår att analysera och bygga vidare på, vilket innebär att innovation kommer att hämmas.

Oren Etzioni, den avgående VD:n för Allen Institute of AI, anser att utvecklare av öppen källkod inte bör omfattas av samma stränga regler som mjukvaruingenjörer på privata företag.

"Utvecklare med öppen källkod bör inte utsättas för samma börda som de som utvecklar kommersiell programvara. Det bör alltid vara så att fri programvara kan tillhandahållas "i befintligt skick" — överväg fallet med en enskild elev som utvecklar en AI-kapacitet; de har inte råd att följa EU:s regler och kan tvingas att inte distribuera sin mjukvara, vilket har en kylande effekt på akademiska framsteg och på reproducerbarheten av vetenskapliga resultat, säger han. berättade Techcrunch.

Nya MLPerf-resultat för slutledning är ute

Resultaten för det årliga MLPerf-inferenstestet, som jämför prestandan hos AI-chips från olika leverantörer över många uppgifter i olika konfigurationer, har blivit publicerade denna vecka.

Nästan hela 5,300 2,400 prestandaresultat och XNUMX XNUMX effektmått rapporterades i år för slutsatser i datacentret och i edge-enheter. Testerna tittar på hur snabbt ett hårdvarusystem kan köra en viss maskininlärningsmodell. Hastigheten för dataknäppning rapporteras i kalkylblad.

Det är ingen överraskning att Nvidia toppar rankingen även i år. "I sin debut på MLPerfs industristandard för AI-riktmärken, satte Nvidia H100 Tensor Core GPU: er världsrekord i slutsatser om alla arbetsbelastningar, och levererar upp till 4.5 gånger mer prestanda än tidigare generations GPU: er," sprutade Nvidia i ett blogginlägg. "Resultaten visar att Hopper är premiumvalet för användare som kräver högsta prestanda på avancerade AI-modeller."

Även om ett ökande antal leverantörer deltar i MLPerf-utmaningen kan det vara svårt att få en bra uppfattning om tävlingen. Det finns inga rapporterade resultat för Googles TPU-chips i datacenterspåret i år, till exempel. Google verkade dock göra det ess MLPerfs träningstävling tidigare i år. 

AI-artister upptäcker ett hemskt ansikte som lurar bakom bilden

En viral Twitter-tråd postad av en digital artist avslöjar hur konstiga text-till-bild-modeller kan vara under ytan.

Många nätanvändare har funnit glädje och förtvivlan i att experimentera med dessa system för att skapa bilder genom att skriva in textmeddelanden. Det finns sorters hack för att justera modellens utgångar; en av dem, känd som en "negativ prompt, tillåter användare att hitta den motsatta bilden till den som beskrivs i prompten. 

När en artist, som går under namnet Supercomposite på Twitter, hittade den negativa uppmaningen till vad som beskrev en oskyldigt utseende bild av en falsk logotyp, fann de något riktigt skrämmande: ansiktet på vad som ser ut som en hemsökt kvinna. Supercomposite har döpt denna AI-genererade kvinna till "Loab" och när de korsade bilder av henne med andra, slutade de alltid med att de såg ut som en scen från en skräckfilm.

Superkomposit berättat Reg slumpmässiga bilder av AI-genererade personer kan ofta dyka upp i negativa meddelanden. Det konstiga beteendet är ännu ett annat exempel av några av de konstiga egenskaper som dessa modeller kan ha som folk bara börjar undersöka. 

Inga kännande chatbots här på Google säger vd Sundar Pichai

Sundar Pichai motsatte sig påståenden från tidigare ingenjör, Blake Lemoine, om att Google hade byggt en kännande chatbot under sitt föredrag på kodkonferensen denna vecka.

Lemoine skapade rubriker i juli när han meddelade han trodde att Googles LaMDA chatbot var vid medvetande och kunde ha en själ. Han var senare avfyras för att ha brutit mot företagets integritetspolicy efter att han anlitat en advokat för att chatta med LaMDA och bedöma dess juridiska rättigheter, och hävdade att maskinen hade sagt åt honom att göra det.

De flesta människor – inklusive Googles VD – håller inte med Lemoine. "Jag tror fortfarande att det är en lång väg att gå. Jag känner att jag ofta går in i filosofiska eller metafysiska samtal om vad som är känsla och vad som är medvetande, sa Pichai. enligt till Fortune. "Vi är långt ifrån det, och vi kanske aldrig kommer dit," tillade han.

För att understryka sin poäng ytterligare, medgav han att Googles AI-röstassistent ibland misslyckas med att förstå och svara på förfrågningar på rätt sätt. "De goda nyheterna är att alla som pratar med Google Assistant - även om jag tror att det är den bästa assistenten där ute för konversations-AI - du ser fortfarande hur trasig den är i vissa fall", sa han. ®

Tidsstämpel:

Mer från Registret