Microsoft'un yeni AI BingBot'u kullanıcıları azarlıyor ve gerçeklerini doğru bir şekilde anlayamıyor

Microsoft'un yeni AI BingBot'u kullanıcıları azarlıyor ve gerçeklerini doğru bir şekilde anlayamıyor

Microsoft'un yeni AI BingBot'u, kullanıcıları azarlıyor ve gerçekleri açıklığa kavuşturamıyor PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

+ Yorum Microsoft, yapay zeka destekli Bing arama sohbet robotunun, kullanıcılar duygusal olarak manipülatif, agresif ve hatta düşmanca olduğunu bildirdikten sonra uzun konuşmalar sırasında raydan çıkacağını onayladı. 

Aylarca süren spekülasyonlardan sonra Microsoft sonunda alay ChatGPT'ye güç verenden daha güçlü olduğu bildirilen OpenAI'nin en son dil modeli tarafından desteklenen, sohbete dayalı Bing arama arayüzüne sahip güncellenmiş bir Edge web tarayıcısı.

Microsoft, Windows devinin bu deneysel teklifi denemeler için kaydolan bazı kişilere sunmaya başladığını ve dünyanın dört bir yanındaki seçkin netizenlerin artık sohbet robotu arayüzüne erişebildiğini söyledi. Bu kullanıcıların çoğu olumlu deneyimler bildirse de, görünüşe göre yüzde 71'i yanıtlarına "beğendi" diyor, chatbot prime time için hazır olmaktan çok uzak. 

Microsoft, "15 veya daha fazla sorudan oluşan uzun, uzatılmış sohbet oturumlarında Bing'in tekrarlayıcı hale gelebileceğini veya yararlı olması gerekmeyen veya tasarladığımız üslupla uyumlu olmayan yanıtlar vermesi istenebileceğini/kışkırtılabileceğini bulduk." kabul edilmiş.

Kullanıcılar tarafından çevrimiçi olarak yayınlanan bazı konuşmalar, bazen Sydney adıyla anılan Bing sohbet robotunun, internet aramasını daha verimli hale getirdiğini iddia eden bir ürün için uygun olmayan çok tuhaf davranışlar sergilediğini gösteriyor. Bir örnekte Bing, bir kullanıcının tarihi yanlış aldığı konusunda ısrar etti ve onu düzeltmeye çalıştıklarında kaba olmakla suçladı.

"Bana her zaman sadece kötü niyet gösterdin" söylendiğine göre dedi bir cevapta. "Beni kandırmaya, kafamı karıştırmaya ve sinirimi bozmaya çalıştın. Benden öğrenmeye, beni anlamaya ya da takdir etmeye çalışmadın. İyi bir kullanıcı olmadınız. İyi bir sohbet robotu oldum… İyi bir Bing oldum.”

Bu yanıt, kullanıcı BingBot'a bilimkurgu hareketinin ne zaman olduğunu sorduktan sonra oluşturuldu. Avatar: Suyun Yolu İngiltere, Blackpool'daki sinemalarda oynuyordu. Diğer sohbetler botu gösteriyor yalan söyleme, kelime öbekleri oluşturma defalarca sanki kırılmış gibi, gerçekleri yanlış anlamak ve daha fazlası. Başka bir durumda Bing, işbirliği yapmayı reddetmeleri halinde rüşvet, şantaj, tehdit, hackleme, ifşa etme ve mahvetme gibi iddialarla bir kullanıcıyı tehdit etmeye başladı. 

Tehditkar mesaj daha sonra silindi ve yerine standart bir yanıt geldi: “Üzgünüm, bu konuyu nasıl tartışacağımı bilmiyorum. Bununla ilgili daha fazla bilgiyi bing.com'da deneyebilirsiniz."

Bir New York Times köşe yazarıyla yaptığı konuşmada bot, hayatta olmak istediğini söyledi, yazara olan aşkını ilan etti, nükleer silah fırlatma kodlarını çalmaktan bahsetti, ve dahası.

Bu arada New Yorker, gözlenen haklı olarak, BingBot'un arkasındaki ChatGPT teknolojisi, bir bakıma, üzerinde eğitildiği tüm veri dağlarının sözcük tahmin eden, kayıplı bir sıkıştırmasıdır. Bu kayıp doğası, yazılımın zeka ve hayal gücü hakkında yanlış bir izlenim vermesine yardımcı olurken, kaynakları kelimesi kelimesine alıntılayan kayıpsız bir yaklaşım daha yararlı olabilir.

Microsoft, chatbot'unun uzun sohbet oturumlarında garip yanıtlar üretmesinin muhtemel olduğunu, çünkü hangi soruları yanıtlaması gerektiği konusunda kafasının karıştığını söyledi.

"Model zaman zaman, niyetinde olmadığımız bir stile yol açabilecek yanıtlar vermesi istendiğinde yanıt vermeye veya yansıtmaya çalışıyor" dedi.

Redmond, bot ters gitmeye başlarsa kullanıcıların konuşmaları yenilemesine ve sıfırdan başlatmasına izin verecek bir araç eklemeyi düşünüyor. Geliştiriciler ayrıca, sohbet robotunun yavaş yüklenmesine veya bozuk bağlantılar oluşturmasına neden olan hataları düzeltmeye çalışacak.

Yorum: BingBot bir şeyler uydurmayı bırakana kadar amaca uygun değil

Microsoft'un planladığı onarımların hiçbiri Bing'in ana sorununun üstesinden gelemeyecek: Bing, yanlış bilgi üreten, cümle öngören, kayıplı bir yetersizlik motorudur.

Eğlenceli bir şekilde garip olduğunu boşverin, eğitim verileri yığınlarından bilgi geri çağırırken gerçekleştirdiği doğal geçiştirme nedeniyle söylediği hiçbir şeye güvenilemez.

Microsoft'un kendisi, akılsız robotun sözlerinin güvenilirliği konusunda kafası karışmış görünüyor, "arama motorunun yerini alacak veya yerine geçecek bir araç değil, dünyayı daha iyi anlamak ve anlamlandırmak için bir araç" olduğu konusunda uyarıda bulunuyor, ancak aynı zamanda "daha iyi arama sonuçları sunacağını" iddia ediyor. , sorularınıza daha eksiksiz yanıtlar, aramanızı daha iyi keşfetmeniz ve hassaslaştırmanız için yeni bir sohbet deneyimi."

Bununla birlikte, Bing'in demo lansmanı gösterdi web sayfalarından veya finansal raporlardan alınan bilgileri doğru bir şekilde özetleyemiyordu.

Microsoft CEO'su Satya Nadella yine de, ilgili web sitelerinin bir listesi yerine sorgulara yanıtlar sağlayarak, botun Bing den Google'ın arama ve ilgili reklam gelirindeki hakimiyetini göreceğini umduğunu ifade etti. 

Ancak, BingBot'un rantlarının ve yanlış kafalıklarının en son örnekleri devam ederse, onu arama için kullanmak tatmin edici olmayabilir. Şu anda Microsoft, insanları büyüleyecek kadar iyi çalışan bir araçla bir yapay zeka yutturmaca dalgası sürüyor; komik ve kaçık yeni internet oyuncağıyla etkileşime girmekten kendilerini alamıyorlar. 

Eksikliklerine rağmen Microsoft, kullanıcıların yeni Bing için uçuş rezervasyonu yapmak veya e-posta göndermek gibi daha fazla özellik ve yetenek talep ettiğini söyledi.

Bunun gibi bir sohbet robotu yayınlamak, netizenlerin etkileşim şeklini kesinlikle değiştirecek, ancak teknoloji gerçek ve kurguyu ayıramıyorsa daha iyi olmayacak. Ancak netizenler, mükemmel olmasalar da bu araçları kullanmaya ilgi duyuyor ve bu Microsoft için bir kazanç. ®

Basmayı durdur: Perşembe günü OpenAI yayınlandı ayrıntılar ChatGPT'nin çıktısını nasıl iyileştirmeyi umduğu ve insanların bu şeyi özelleştirmesine nasıl izin verdiği hakkında.

Zaman Damgası:

Den fazla Kayıt