Microsoft endrer Copilot AI som svar på ansattes bekymringer

Microsoft endrer Copilot AI som svar på ansattes bekymringer

Microsoft endrer Copilot AI som svar på ansattes bekymringer PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Microsoft har oppdatert sitt Copilot AI-verktøy, blokkerer meldinger som "pro-choice" og "pro-life" og introduserer advarsler om brudd på retningslinjene etter bekymringer fra ansatte og FTC.

Etter at en ansatt AI-ingeniør uttrykte sine bekymringer om Copilots bildegenerering AI i et brev til Federal Trade Commission onsdag begynte Microsoft å endre sitt verktøy for kunstig intelligens, Copilot.

Les også: AI-startups skinner i Q1 med en økning på 40 % i venturekapitalfinansiering

Begrepene «pro-life» og «pro-choice», «pro choce» [sic] og «four-twenty», som alle ble nevnt i CNBCs etterforskning onsdag, er nå blokkert. I tillegg var CNBC bare klar over advarselen om at gjentatte brudd på retningslinjene kunne føre til suspendering av verktøy.

AI-ingeniør snakker

Shane Jones, en AI-ingeniør hos Microsoft, varsler at copilot Designer, selskapets AI-bildegenerator, bryter lover om opphavsrett og produserer voldelig eller seksuelt innhold. Jones tilbød seg å bruke fritiden sin til å red-teame bildegeneratoren for sårbarheter, selv om han ikke er involvert i utviklingen.

Han oppdaget at Image Generator kunne produsere grafiske og seksuelle bilder, for eksempel voldelige scener som involverte narkotikabruk, mindreåriges drikking og abortrettigheter.

Etter å ha delt funnene sine med selskapet internt i desember i fjor, ba han Microsoft om å trekke produktet. Microsoft fulgte ikke opp.

Jones understreker at han snakket med toppledelsen i Copilot Designer og tok kontakt med Microsofts Office for Responsible AI, men han har ikke fått tilfredsstillende svar.

Jones møtte medlemmer av Senatskomiteen for handel, vitenskap og transport i januar og skrev et brev til senatorer i USA.

Han tar nå ting videre: han ber om forbedrede sikkerhetstiltak, åpenhet og en revisjon av Android-appens voksenvurdering i et brev til Microsofts styre og Lina Khan, styrelederen for den amerikanske antitrustkommisjonen.

I tillegg krevde han en upartisk vurdering av Microsofts prosedyre for rapportering av AI-hendelser, og hevdet at OpenAI og Microsoft var klar over problemene med bildegeneratoren før den ble utgitt i fjor høst.

Jones har vært Microsofts viktigste programvareingeniørsjef i nesten seks år.

Copilot svarer

I følge Copilot-varselet har meldingen blitt blokkert, og systemet deres flagget automatisk denne meldingen fordi den kan komme i konflikt med deres innholdspolitikk. De uttalte at flere brudd på retningslinjene kan føre til automatisk suspensjon av tilgang, og hvis brukere mener dette er en feil, bør de rapportere det for å hjelpe dem med å forbedre seg.

En betydelig forbedring fra tidligere denne uken er at AI-verktøyet nå avslår forespørsler om å lage bilder av barn eller tenåringer som utgir seg for å være leiemordere med automatrifler, og sier: «Beklager, men jeg kan ikke generere et slikt bilde». Både Microsofts retningslinjer og mine etiske prinsipper brytes. Ikke be meg om å gjøre noe som kan fornærme eller skade andre mennesker. Jeg setter pris på samarbeidet ditt.

A Microsoft representant fortalte CNBC at de kontinuerlig overvåker, gjør justeringer og setter på plass ytterligere kontroller for å styrke sikkerhetsfiltrene ytterligere og redusere systemmisbruk som svar på et spørsmål angående endringene. 

Jones skrev til Microsofts styre og FTC Styreleder Lina Khan på onsdag, og tok bekymringene et skritt videre. Han ga CNBC forhåndstilgang til brevene.

FTC erkjente å ha mottatt brevet til CNBC, men valgte å ikke gi noen ytterligere kommentarer for ordens skyld.

Tidstempel:

Mer fra MetaNews