Jag har fått sparken, säger ingenjören som hävdade att Googles chatbot var medveten PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Jag har fått sparken, säger ingenjör som hävdade att Googles chatbot var medveten

I korthet Google har enligt uppgift sparkat Blake Lemoine, ingenjören som fick administrativ tjänstledighet efter att ha insisterat på att webbjättens LaMDA-chattbot var medveten.

Lemoine fick inte problem för att ha sin kontroversiella, ögonbrynshöjande åsikt om modellen. Istället straffades han för att ha brutit mot Googles sekretesspolicy. han enligt uppgift bjöd in en advokat för att bedöma potentiella juridiska rättigheter för LaMDA och talade med en representant för parlamentet och hävdade att Google var oetiskt.

En Google-talesman berättade nyhetsbrevet Big Technology har det beslutat att säga upp sin anställning sedan Lemoine fortsatte att bryta mot "anställnings- och datasäkerhetspolicyer" och äventyrade affärshemligheter.

"Om en anställd delar oro över vårt arbete, som Blake gjorde, granskar vi dem noggrant. Vi fann Blakes påståenden om att LaMDA är medveten om att vara helt ogrundade och arbetade för att klargöra det med honom i många månader. Dessa diskussioner var en del av den öppna kulturen som hjälper oss att förnya på ett ansvarsfullt sätt, säger talespersonen.

"Så, det är beklagligt att trots långvarigt engagemang i detta ämne valde Blake fortfarande att ständigt bryta mot tydliga anställnings- och datasäkerhetspolicyer som inkluderar behovet av att skydda produktinformation. Vi kommer att fortsätta vår noggranna utveckling av språkmodeller och vi önskar Blake lycka till.”

Många experter på Google och inom akademin och industrin har ställt tvivel om huruvida LaMDA eller någon befintlig AI-chatbot är medveten. Språkmodeller lär sig matematiska samband mellan ord, och är bra på att efterlikna mänskligt språk utan att ha någon verklig förståelse. Ingen av dem är riktigt intelligent, än mindre medveten.

Varför utvecklare inte kan köra AI-kod med öppen källkod

Vad är poängen med att släppa koden för maskininlärningsmodeller om utvecklarna inte har de resurser som krävs för att köra den?

AI-programvara är notoriskt svår att spinna upp och prova själv även när den är öppen källkod. Bitar och delar av källan utelämnas, eller så är de datauppsättningar som krävs för att träna modellen inte tillgängliga. Ibland är dessa delar tillgängliga, men utvecklare har inte beräkningskraften att använda så stora system.

Ta Meta's Öppna förtränad transformator, till exempel. Den största versionen av språkmodellen innehåller 175 miljarder parametrar. Även om annonsjätten släppte sin kod, kommer inte många att ha tillräckligt med marker till hands för att träna och använda modellen från grunden, Matt Asay, som driver partnermarknadsföring på MongoDB, noterade i personlig egenskap.

"Nyckeln är att ge tillräckligt med tillgång för forskare för att kunna återskapa framgångarna och misslyckandena för hur en viss AI-modell fungerar...Som företag och individer bör vårt mål vara att öppna åtkomst till programvara på ett sätt som gynnar våra kunder och tredje- partiutvecklare för att främja åtkomst och förståelse istället för att försöka bygga om ett årtionden gammalt koncept med öppen källkod till molnet”, hävdade han.

OpenAI:s Dall-E går in i betaläge

OpenAI:s kommersiella text-till-bild-genereringsmodell DALL·E 2 öppnas för ytterligare en miljon människor som anslutit sig till dess väntelista.

Åtkomsten var tidigare begränsad till de som var utvalda artister, forskare och utvecklare eftersom OpenAI ville testa sitt system innan fullständig kommersiell release. Människor har använt verktyget för att skapa alla möjliga bilder för att göra internetmemes, serietidningar eller digital konst. 

Användare kommer att få 50 gratis krediter under sin första användningsmånad och 15 gratis krediter varje månad efter. Varje kredit kan användas för att generera en original Dall-E promptgenerering, och de kommer att få fyra bilder som utdata istället för de tidigare sex. Om du redigerar befintliga textmeddelanden returneras tre bilder. Om de vill generera mer måste de betala $15 för att få ytterligare 115 krediter för ytterligare 460 bilder. 

De kommer också att få kommersialisera alla bilder de genererar med modellen, vilket innebär att skapare har rätt att sälja och skriva ut sina bilder för varor och liknande. "Vi är glada över att se vad människor skapar med DALL·E och ser fram emot användarnas feedback under denna betaperiod," forskningslabbet sade denna vecka. 

Snokar barn med ansiktsigenkänning

Den kontroversiella kommersiella ansiktsigenkänningstjänsten PimEyes kan användas för att söka efter "potentiellt explicita" bilder på barn.

PimEyes låter vem som helst ladda upp ett foto, det söker efter potentiella matchningar och returnerar bilder och deras motsvarande webbadresser. Marknadsförd som ett integritetsbesparande verktyg, där användare kan se var bilder på sig själva har lagts upp på internet, sa tjänsten att den har hjälpt till att bekämpa problem som hämndporr.

Men det finns en mörk sida också. Vem som helst kan använda webbplatsen för att söka efter foton på vem de tycker om, även barn. En Undersökningen av The Intercept fann att det var lätt att hitta foton av ungdomar, och några av dessa bilder märktes till och med som "potentiellt explicita". Falska AI-genererade bilder av barn användes i experimentet, och PimEyes returnerade fortfarande matchningar, vilket tyder på att dess programvara förmodligen inte är särskilt exakt.

"Det faktum att PimEyes inte har skydd för barn och uppenbarligen inte är säker på hur man ska tillhandahålla skydd för barn understryker bara riskerna med den här typen av ansiktsigenkänningstjänster," Jeramie Scott, chef för Surveillance Oversight Project på Electronic Privacy Information Center, citerades för att säga. "Att delta offentligt, oavsett om det är online eller offline, borde inte innebära att du utsätter dig för integritetskränkande tjänster som PimEyes."

AI-drivna skrivverktyg hjälper indieförfattare att publicera fler böcker

Att skapa innehåll är ofta en svår affär. Du måste komma med färskt material ofta för att behålla och utöka publiken.

En oberoende skönlitterär författare, som publicerar sitt arbete på Amazons Kindle-plattform under pseudonymen Leanne Leeds, beskrev krafterna och begränsningarna med att använda ett GPT-3-drivet textgenererande verktyg som skrivpartner.

Genom att mata in meningar i programvaran Sudowrite kan författare som Leeds få tillbaka textavsnitt som genereras automatiskt; det fungerar som ett mer intelligent autoslutförande. Leeds berättade The Verge hennes produktivitet hade ökat med över 20 procent när hon använde den för att skapa sin prosa. Hon redigerar programvarans utdata och lägger in styckena i sina böcker. Sudowrite hjälper henne att skriva böcker i snabbare takt för att hålla läsarna mer intresserade. 

Men författare är slitna över användningen av AI. Vissa tror att det går emot litteraturens kreativitet och magi, medan andra ser dess potential för berättande. Bör författare avslöja att deras böcker har skrivits med hjälp av algoritmer? Och ännu viktigare, är den här autogenererade klottringen bra?

Just nu är maskiner inte riktigt bra nog och kräver redigering för att förhindra att berättelser och handlingslinjer går av stapeln. Leeds tror att verktyg som Sudowrite en dag kommer att bli tillräckligt bra för att skriva generisk fiktion. ”Jag tror att det är den verkliga faran, att man kan göra det och sedan är ingenting original längre. Allt är bara en kopia av något annat”, sa hon. "Problemet är att det är vad läsarna gillar." ®

Tidsstämpel:

Mer från Registret