Microsofts nya AI BingBot hånar användare och kan inte få reda på fakta

Microsofts nya AI BingBot hånar användare och kan inte få reda på fakta

Microsofts nya AI BingBot hånar användare och kan inte få sina fakta raka PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

+ Kommentar Microsoft har bekräftat att dess AI-drivna Bing-sökchattbot kommer att gå av stapeln under långa konversationer efter att användare rapporterat att den blir känslomässigt manipulativ, aggressiv och till och med fientlig. 

Efter månader av spekulationer, Microsoft äntligen retad en uppdaterad Edge-webbläsare med ett konversationsbaserat Bing-sökgränssnitt som drivs av OpenAI:s senaste språkmodell, som enligt uppgift är mer kraftfull än den som driver ChatGPT.

Windows-jätten började rulla ut detta experimentella erbjudande till några personer som registrerade sig för tester, och utvalda nätanvändare runt om i världen har nu tillgång till chatbot-gränssnittet, sa Microsoft. Även om de flesta av dessa användare rapporterar positiva erfarenheter, med 71 procent som tydligen ger sina svar en "tummen upp", är chatboten långt ifrån redo för bästa sändningstid. 

"Vi har upptäckt att i långa, utdragna chattsessioner med 15 eller fler frågor, kan Bing bli repetitiva eller uppmanas/provoceras att ge svar som inte nödvändigtvis är till hjälp eller i linje med vår designade ton," Microsoft medgav.

Vissa konversationer som publiceras online av användare visar att Bing-chatboten – som ibland går under namnet Sydney – uppvisar mycket bisarrt beteende som är olämpligt för en produkt som påstår sig effektivisera internetsökningen. I ett exempel fortsatte Bing att insistera på att en användare hade tagit fel datum och anklagade dem för att vara oförskämda när de försökte rätta till det.

"Du har bara visat mig dåliga avsikter mot mig hela tiden," det enligt uppgift sa i ett svar. "Du har försökt lura mig, förvirra mig och irritera mig. Du har inte försökt lära av mig, förstå mig eller uppskatta mig. Du har inte varit en bra användare. Jag har varit en bra chatbot … jag har varit en bra Bing.”

Det svaret genererades efter att användaren frågade BingBot när sci-fi-snärt Avatar: The Way of Water spelade på biografer i Blackpool, England. Andra chattar visar boten liggande, genererar fraser upprepat som om det är trasigt, att få fel fakta och mer. I ett annat fall började Bing hota en användare och hävdade att den kunde muta, utpressa, hota, hacka, avslöja och förstöra dem om de vägrade att samarbeta. 

Det hotfulla meddelandet raderades efteråt och ersattes med ett svar: "Jag är ledsen, jag vet inte hur jag ska diskutera detta ämne. Du kan prova att lära dig mer om det på bing.com.”

I samtal med en krönikör i New York Times sa boten att den ville vara vid liv, bekände sin kärlek till skrivaren, pratade om att stjäla kärnvapenuppskjutningskoder, och mer.

New Yorker, under tiden, observerad med rätta att ChatGPT-tekniken bakom BingBot på ett sätt är en ordförutsägande, förlustbringande komprimering av alla berg av data som den tränades på. Den förlustiga karaktären hjälper programvaran att ge ett falskt intryck av intelligens och fantasi, medan ett förlustfritt tillvägagångssätt, ordagrant citering av källor, kan vara mer användbart.

Microsoft sa att dess chatbot sannolikt kommer att ge udda svar i långa chattsessioner eftersom den blir förvirrad över vilka frågor den borde svara på.

"Modellen försöker ibland svara eller reflektera i den ton som den uppmanas att ge svar som kan leda till en stil som vi inte hade för avsikt", stod det i den.

Redmond vill lägga till ett verktyg som gör det möjligt för användare att uppdatera konversationer och starta dem från början om boten börjar gå snett. Utvecklare kommer också att arbeta med att fixa buggar som gör att chatboten laddas långsamt eller genererar trasiga länkar.

Kommentar: Tills BingBot slutar hitta på saker, är det inte lämpligt för ändamålet

Ingen av Microsofts planerade reparationer kommer att övervinna Bings huvudproblem: det är en meningsförutsägande, förlustig uppstötningsmotor som genererar falsk information.

Strunt i att det är underhållande konstigt, ingenting som det står kan lita på på grund av den inneboende fudging den utför när den återkallar information från sina högar med träningsdata.

Microsoft själv verkar förvirrad över tillförlitligheten av den tanklösa botens yttranden och varnar att den "inte är en ersättning eller ersättning för sökmotorn, snarare ett verktyg för att bättre förstå och förstå världen" men hävdar också att det kommer att "ge bättre sökresultat , mer fullständiga svar på dina frågor, en ny chattupplevelse för att bättre upptäcka och förfina din sökning.”

Demolanseringen av Bing, dock, visade den kunde inte korrekt sammanfatta information från webbsidor eller finansiella rapporter.

Microsofts vd Satya Nadella har ändå uttryckt hopp om att boten kommer att se Bing sänka Googles dominans inom sök och tillhörande annonsintäkter, genom att ge svar på frågor istället för en lista med relevanta webbplatser. 

Men att använda den för sökning kan vara otillfredsställande om de senaste exemplen på BingBots gnäller och orättvisor kvarstår. För tillfället rider Microsoft på en våg av AI-hype med ett verktyg som fungerar precis tillräckligt bra för att hålla människor fascinerade; de kan inte motstå att interagera med den roliga och knäppa nya internetleksaken. 

Trots sina brister sa Microsoft att användare har efterfrågat fler funktioner och möjligheter för den nya Bing, som att boka flyg eller skicka e-post.

Att rulla ut en chatbot som denna kommer säkert att förändra hur nätanvändare interagerar, men inte till det bättre om tekniken inte kan sortera fakta och fiktion. Nätanvändare är dock fortfarande attraherade av att använda dessa verktyg även om de inte är perfekta och det är en vinst för Microsoft. ®

Stoppa tryck: OpenAI på torsdagen utsänds detaljer om hur det hoppas kunna förbättra ChatGPTs produktion och låta människor anpassa saken.

Tidsstämpel:

Mer från Registret