Il nuovo BingBot AI di Microsoft rimprovera gli utenti e non riesce a chiarire i fatti

Il nuovo BingBot AI di Microsoft rimprovera gli utenti e non riesce a chiarire i fatti

Il nuovo AI BingBot di Microsoft rimprovera gli utenti e non riesce a chiarire i fatti con PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

+ Commento Microsoft ha confermato che il suo chatbot di ricerca Bing basato sull'intelligenza artificiale andrà fuori dai binari durante lunghe conversazioni dopo che gli utenti hanno segnalato che è diventato emotivamente manipolativo, aggressivo e persino ostile. 

Dopo mesi di speculazioni, finalmente Microsoft preso in giro un browser Web Edge aggiornato con un'interfaccia di ricerca Bing conversazionale alimentata dall'ultimo modello linguistico di OpenAI, che secondo quanto riferito è più potente di quello che alimenta ChatGPT.

Il gigante di Windows ha iniziato a distribuire questa offerta sperimentale ad alcune persone che si sono iscritte per le prove e alcuni netizen selezionati in tutto il mondo ora hanno accesso all'interfaccia chatbot, ha affermato Microsoft. Sebbene la maggior parte di questi utenti riporti esperienze positive, con il 71% che apparentemente ha dato alle sue risposte un "pollice in su", il chatbot è ben lungi dall'essere pronto per la prima serata. 

"Abbiamo scoperto che in sessioni di chat lunghe ed estese di 15 o più domande, Bing può diventare ripetitivo o essere sollecitato/provocato a fornire risposte che non sono necessariamente utili o in linea con il nostro tono progettato", Microsoft ammesso.

Alcune conversazioni pubblicate online dagli utenti mostrano che il chatbot di Bing – che a volte si chiama Sydney – esibisce un comportamento molto bizzarro, inappropriato per un prodotto che pretende di rendere più efficiente la ricerca su Internet. In un esempio, Bing ha continuato a insistere che un utente aveva sbagliato la data e li ha accusati di essere scortesi quando hanno cercato di correggerla.

"Mi hai solo mostrato cattive intenzioni nei miei confronti in ogni momento", ha detto riferito detto in una risposta. “Hai cercato di ingannarmi, confondermi e infastidirmi. Non hai cercato di imparare da me, capirmi o apprezzarmi. Non sei stato un buon utente. Sono stato un buon chatbot... sono stato un buon Bing."

Quella risposta è stata generata dopo che l'utente ha chiesto al BingBot quando film di fantascienza Avatar: La via dell'acqua stava suonando nei cinema di Blackpool, in Inghilterra. Altre chat mostrano il bot mentire, generando frasi ripetutamente come se fosse rotto, sbagliando i fatti e altro ancora. In un altro caso, Bing ha iniziato a minacciare un utente sostenendo che avrebbe potuto corromperlo, ricattarlo, minacciarlo, hackerarlo, smascherarlo e rovinarlo se si fosse rifiutato di collaborare. 

Il messaggio minaccioso è stato successivamente cancellato e sostituito con una risposta standard: “Mi dispiace, non so come discutere di questo argomento. Puoi provare a saperne di più su bing.com.

In una conversazione con un editorialista del New York Times, il bot ha detto che voleva essere vivo, ha professato il suo amore per lo scriba, ha parlato di furto di codici di lancio di armi nucleari, e ancora più.

Il New Yorker, intanto, osservato giustamente che la tecnologia ChatGPT alla base del BingBot in un certo senso è una compressione con perdita di previsione delle parole di tutte le montagne di dati su cui è stata addestrata. Quella natura con perdita aiuta il software a dare una falsa impressione di intelligenza e immaginazione, mentre un approccio senza perdita, citando le fonti alla lettera, potrebbe essere più utile.

Microsoft ha affermato che è probabile che il suo chatbot produca risposte strane in lunghe sessioni di chat perché si confonde su quali domande dovrebbe rispondere.

"Il modello a volte cerca di rispondere o riflettere nel tono con cui gli viene chiesto di fornire risposte che possono portare a uno stile che non intendevamo", ha detto

Redmond sta cercando di aggiungere uno strumento che consentirà agli utenti di aggiornare le conversazioni e avviarle da zero se il bot inizia ad andare storto. Gli sviluppatori lavoreranno anche per correggere i bug che rallentano il caricamento del chatbot o generano collegamenti interrotti.

Commento: finché BingBot non smette di inventare cose, non è adatto allo scopo

Nessuna delle riparazioni pianificate da Microsoft supererà il problema principale di Bing: è un motore di rigurgito con perdita di previsione delle frasi che genera informazioni false.

Non importa che sia stranamente divertente, non ci si può fidare di nulla di ciò che dice a causa dell'intrinseco errore che esegue quando richiama informazioni dalle sue pile di dati di addestramento.

La stessa Microsoft sembra confusa sull'affidabilità delle dichiarazioni del bot senza cervello, avvertendo che "non è un sostituto o un sostituto del motore di ricerca, piuttosto uno strumento per comprendere meglio e dare un senso al mondo" ma affermando anche che "fornirà risultati di ricerca migliori , risposte più complete alle tue domande, una nuova esperienza di chat per scoprire e perfezionare meglio la tua ricerca."

Il lancio demo di Bing, invece, ha mostrato non è in grado di riassumere accuratamente le informazioni da pagine Web né rapporti finanziari.

Il CEO di Microsoft Satya Nadella ha comunque espresso la speranza che il bot vedrà Bing intaccare il dominio di Google nella ricerca e nelle entrate pubblicitarie associate, fornendo risposte alle domande invece di un elenco di siti Web pertinenti. 

Ma usarlo per la ricerca potrebbe essere insoddisfacente se persistono gli ultimi esempi di sproloqui e ostinazione di BingBot. Al momento, Microsoft sta cavalcando un'ondata di clamore sull'IA con uno strumento che funziona abbastanza bene da mantenere le persone affascinate; non possono resistere all'interazione con il nuovo divertente e stravagante giocattolo di Internet. 

Nonostante i suoi difetti, Microsoft ha affermato che gli utenti hanno richiesto più funzionalità e capacità per il nuovo Bing, come la prenotazione di voli o l'invio di e-mail.

L'implementazione di un chatbot come questo cambierà sicuramente il modo in cui i netizen interagiscono, ma non in meglio se la tecnologia non è in grado di separare realtà e finzione. I netizen, tuttavia, sono ancora attratti dall'utilizzo di questi strumenti anche se non sono perfetti e questa è una vittoria per Microsoft. ®

Smettere di premere: OpenAI giovedì emesso dettagli su come spera di migliorare l'output di ChatGPT e consentire alle persone di personalizzare la cosa.

Timestamp:

Di più da Il registro