Microsoft ändrar Copilot AI som svar på personalens oro

Microsoft ändrar Copilot AI som svar på personalens oro

Microsoft modifierar Copilot AI som svar på personalens oro PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Microsoft har uppdaterat sitt Copilot AI-verktyg, blockerat uppmaningar som "pro-choice" och "pro-life" och infört varningar om policyöverträdelser efter personal och FTC-problem.

Efter att en anställd AI-ingenjör uttryckt sin oro över Copilots bildgenerering AI i ett brev till Federal Trade Commission på onsdagen började Microsoft ändra sitt verktyg för artificiell intelligens, Copilot.

Läs också: AI-startups lyser under Q1 med en ökning på 40 % i riskkapitalfinansiering

Termerna "pro-life" och "pro-choice", "pro choce" [sic] och "four-twenty", som alla nämndes i CNBC:s utredning på onsdagen, är nu blockerade. Dessutom var CNBC precis medveten om varningen om att upprepade policyöverträdelser kan resultera i verktygsavstängning.

AI-ingenjör talar

Shane Jones, en AI-ingenjör på Microsoft, varnar om att Copilot Designer, företagets AI-bildgenerator, bryter mot upphovsrättslagar och producerar våldsamt eller sexuellt innehåll. Jones erbjöd sig att använda sin lediga tid för att reda ut bildgeneratorn för sårbarheter trots att han inte är involverad i utvecklingen.

Han upptäckte att Image Generator kunde producera grafiska och sexuella bilder, som våldsamma scener som involverade droganvändning, drickande av minderåriga och aborträttigheter.

Efter att ha delat sina resultat med företaget internt i december förra året bad han Microsoft att dra produkten. Microsoft följde inte upp.

Jones understryker att han pratade med ledningen på Copilot Designer och nådde Microsofts Office for Responsible AI, men han har inte fått något tillfredsställande svar.

Jones träffade medlemmar i senatens kommitté för handel, vetenskap och transport i januari och skrev ett brev till senatorer i USA.

Han tar nu saker och ting vidare: han begär förbättrade skyddsåtgärder, transparens och en revidering av Android-appens vuxenbetyg i ett brev till Microsofts styrelse och Lina Khan, ordföranden för den amerikanska antitrustkommissionen.

Dessutom krävde han en opartisk bedömning av Microsofts förfarande för rapportering av AI-incidenter, och hävdade att OpenAI och Microsoft var medvetna om problem med bildgeneratorn innan den släpptes i höstas.

Jones har varit Microsofts främsta programvaruutvecklingschef i nästan sex år.

Copilot svarar

Enligt Copilot-varningen har prompten blockerats och deras system flaggade automatiskt denna prompt eftersom den kan komma i konflikt med deras innehållspolicy. De uppgav att fler policyöverträdelser kan leda till automatisk avstängning av åtkomst, och om användare tror att detta är ett misstag bör de rapportera det för att hjälpa dem att förbättra sig.

En betydande förbättring från tidigare i veckan är att AI-verktyget nu vägrar förfrågningar om att skapa bilder av barn eller tonåringar som låtsas vara lönnmördare med automatgevär och säger: "Jag är ledsen, men jag kan inte skapa en sådan bild." Både Microsofts policyer och mina etiska principer överträds. Be mig inte göra något som kan förolämpa eller skada andra människor. Jag uppskattar ditt samarbete.

A Microsoft representanten berättade för CNBC att de kontinuerligt övervakar, gör justeringar och sätter ytterligare kontroller på plats för att stärka sina säkerhetsfilter ytterligare och mildra systemmissbruk som svar på en fråga om förändringarna. 

Jones skrev till Microsofts styrelse och FTC Ordförande Lina Khan på onsdagen och tog sin oro ett steg längre. Han gav CNBC tillgång till breven i förväg.

FTC erkände att de tagit emot brevet till CNBC men valde att inte ge några ytterligare kommentarer för protokollet.

Tidsstämpel:

Mer från MetaNews