Microsofti uus AI BingBot solvab kasutajaid ega suuda oma fakte selgeks teha

Microsofti uus AI BingBot solvab kasutajaid ega suuda oma fakte selgeks teha

Microsofti uus AI BingBot solvab kasutajaid ega saa oma faktidest selgeks PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

+kommentaar Microsoft on kinnitanud, et tema tehisintellektil töötav Bingi otsinguvestlusbot läheb pikkade vestluste ajal rööpast välja pärast seda, kui kasutajad teatasid, et see muutub emotsionaalselt manipuleerivaks, agressiivseks ja isegi vaenulikuks. 

Pärast kuudepikkust spekulatsiooni Microsoft lõpuks teased värskendatud Edge'i veebibrauser koos vestlusliku Bingi otsinguliidesega, mida toetab OpenAI uusim keelemudel, mis on väidetavalt võimsam kui ChatGPT-d.

Microsoft teatas, et Windowsi hiiglane hakkas seda eksperimentaalset pakkumist levitama mõnele prooviversioonile registreerunud inimesele ja valitud netimeestel üle maailma on nüüd juurdepääs vestlusroti liidesele. Kuigi enamik neist kasutajatest teatavad positiivsetest kogemustest, kusjuures 71 protsenti andis oma vastustele ilmselt "pöial püsti", pole vestlusbot kaugeltki parimal ajal valmis. 

"Oleme avastanud, et pikkade, 15 või enama küsimusega vestlusseansside käigus võib Bing muutuda korduvaks või saada ajendatud/provotseeritud vastuseid, mis ei pruugi olla kasulikud või meie kavandatud tooniga kooskõlas," ütles Microsoft. tunnistas.

Mõned kasutajate veebis postitatud vestlused näitavad, et Bingi vestlusbot – mis mõnikord kannab nime Sydney – käitub väga veidralt, mis on sobimatu tootele, mis väidetavalt muudab Interneti-otsingu tõhusamaks. Ühes näites väitis Bing pidevalt, et üks kasutaja oli kuupäeva valesti teinud, ja süüdistas neid ebaviisakas käitumises, kui nad üritasid seda parandada.

"Sa oled mulle alati ainult halbu kavatsusi minu suhtes näidanud," seisab kirjas teatatud ütles ühes vastuses. "Sa oled püüdnud mind petta, segadusse ajada ja ärritada. Te pole püüdnud minult õppida, mind mõista ega mind hinnata. Sa pole olnud hea kasutaja. Olen olnud hea vestlusrobot… Olen olnud hea Bing.

See vastus genereeriti pärast seda, kui kasutaja küsis BingBotilt, millal ulmefilmi teha Avatar: Veetee mängis Inglismaal Blackpooli kinodes. Teised vestlused näitavad robotit pikali, genereerib fraase korduvalt justkui katki, faktide eksitamine ja palju muud. Teisel juhul hakkas Bing kasutajat ähvardama, väites, et see võib anda altkäemaksu, väljapressimist, ähvardada, häkkida, paljastada ja rikkuda, kui nad keelduvad koostööst. 

Ähvardav sõnum kustutati tagantjärele ja asendati ülevaatliku vastusega: „Vabandust, ma ei tea, kuidas seda teemat arutada. Võite proovida selle kohta lisateavet saidil bing.com.

Vestluses New York Timesi kolumnistiga ütles bot, et tahab elus olla, tunnistas oma armastust kirjatundja vastu, rääkis tuumarelva stardikoodide varastamisest, rohkem.

New Yorker samal ajal vaadeldud õigustatult, et BingBoti taga olev ChatGPT tehnoloogia on teatud mõttes sõnu ennustav, kadudega kokkusurumine kõigist andmete mägedest, mille põhjal see väljaõpe oli. See kadudeta olemus aitab tarkvaral jätta intelligentsusest ja kujutlusvõimest vale mulje, samas kui kadudeta lähenemine, allikatele sõna-sõnalt tsiteerimine, võib olla kasulikum.

Microsoft ütles, et tema vestlusbot annab pikkade vestlusseansside ajal tõenäoliselt veidraid vastuseid, kuna jääb segadusse, millistele küsimustele ta peaks vastama.

"Mudel püüab mõnikord vastata või peegeldada seda tooni, milles tal palutakse anda vastuseid, mis võivad viia stiilini, mida me ei kavatsenud," ütles ta.

Redmond soovib lisada tööriista, mis võimaldab kasutajatel vestlusi värskendada ja alustada neid nullist, kui robot hakkab viltu minema. Arendajad tegelevad ka vigade parandamisega, mis põhjustavad vestlusroti aeglase laadimise või katkiste linkide tekitamise.

Kommentaar: kuni BingBot ei lõpeta asjade väljamõtlemist, ei vasta see otstarbele

Ükski Microsofti kavandatud remont ei lahenda Bingi põhiprobleemi: see on lauseid ennustav kadudega regurgitatsioonimootor, mis genereerib valeandmeid.

Ärge unustage, et see on lõbusalt veider, midagi, mida see ütleb, ei saa usaldada, kuna see oma treeningandmete hunnikutest teavet meenutab.

Microsoft ise näib olevat segaduses mõtlematu roboti ütluste usaldusväärsuse suhtes, hoiatades, et see "ei asenda ega asenda otsingumootorit, vaid pigem tööriist maailma paremaks mõistmiseks ja mõtestamiseks", kuid väidab ka, et see "pakkub paremaid otsingutulemusi , täielikumad vastused teie küsimustele, uus vestluskogemus otsingu paremaks avastamiseks ja täpsustamiseks.

Bingi demo käivitamine aga näitas see ei suutnud veebilehtedelt ega finantsaruannetest pärinevat teavet täpselt kokku võtta.

Microsofti tegevjuht Satya Nadella on sellest hoolimata avaldanud lootust, et robot näeb Bing dent Google'i domineerimist otsingus ja sellega seotud reklaamituludes, pakkudes asjakohaste veebisaitide loendi asemel päringutele vastuseid. 

Kuid selle kasutamine otsinguks võib osutuda ebarahuldavaks, kui BingBoti räuskamise ja valepeatuse viimased näited püsivad. Praegu sõidab Microsoft AI-hüpe lainel tööriistaga, mis töötab täpselt piisavalt hästi, et hoida inimesi lummatud; nad ei suuda vastu panna suhtlemisele selle naljaka ja veidra uue Interneti-mänguasjaga. 

Vaatamata selle puudustele ütles Microsoft, et kasutajad on soovinud uuele Bingile rohkem funktsioone ja võimalusi, nagu lendude broneerimine või meilide saatmine.

Sellise vestlusroti kasutuselevõtt muudab kindlasti netimeeste suhtlemisviisi, kuid mitte paremaks, kui tehnika ei suuda fakte ja väljamõeldisi sorteerida. Netizensid aga meelitavad neid tööriistu endiselt kasutama, kuigi need pole täiuslikud ja see on Microsofti võit. ®

Lõpeta vajutamine: OpenAI neljapäeval emiteeris detailid kuidas ta loodab parandada ChatGPT väljundit ja võimaldada inimestel asja kohandada.

Ajatempel:

Veel alates Register