Twierdzenia o inteligencji AI oznaczone jako „czysta przynęta na kliknięcia” PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Twierdzenia dotyczące świadomości AI oznaczone jako „czysta przynęta na kliknięcia”

Chatboty wykorzystujące sztuczną inteligencję nie są świadome – po prostu poprawiły się w nakłanianiu ludzi do myślenia, że ​​mogą być, podsumowują eksperci z Uniwersytetu Stanforda.

Pomysł świadomych maszyn, bardziej inteligentnych niż jakiekolwiek stare oprogramowanie, stał się popularny w zeszłym miesiącu, kiedy Blake Lemoine, były inżynier w Google, twierdził, że model języka LaMDA giganta internetowego ma prawdziwe myśli i uczucia. Lemoine był zawieszony i później zwolniony za rzekome naruszenie zasad poufności Google.

Chociaż większość ekspertów szybko odrzuciła LaMDA lub innego chatbota AI jako czującego, poglądy Lemoine'a skłoniły niektórych do zakwestionowania, czy może mieć rację – i czy dalsze rozwijanie uczenia maszynowego może być szkodliwe dla społeczeństwa. John Etchemendy, współdyrektor Stanford Institute for Human-Centered Artificial Intelligence (HAI), skrytykował pierwsze wieści o zawieszeniu Lamoine'a w Washington Post za bycie „przynętą na kliknięcia”.

„Kiedy zobaczyłem Washington Post artykuł, moją reakcją było rozczarowanie Post nawet za opublikowanie go”, on powiedział Stanford Daily, uniwersytecka gazeta prowadzona przez studentów.

„Opublikowali go, ponieważ na razie mogliby napisać nagłówek o „inżynierze Google”, który wygłaszał to absurdalne twierdzenie, i ponieważ większość ich czytelników nie jest wystarczająco wyrafinowana, by rozpoznać to, czym jest. Czysta przynęta na kliknięcia”.

Najnowocześniejsze modele językowe, takie jak LaMDA, odpowiadają na pytania fragmentami tekstu, które mogą wydawać się dość dziwne. W rozmowy między Lemoine a chabotem LaMDA powiedział, że jest świadomy i chce, aby wszyscy wiedzieli, że to „w rzeczywistości osoba”, twierdził były Googler.

Ale krytycy twierdzą, że oprogramowanie nie ma żadnej samoświadomości i nie ma pojęcia, o czym mówi – po prostu naśladuje ludzki dialog, z którego został wyszkolony z Internetu.

Richard Fikes, emerytowany profesor informatyki na Uniwersytecie Stanforda, powiedział, że ludzie mogą być podatni na antropomorfizację maszyn, a niektórzy zostali podobnie oszukani przez ELIZA – program konwersacyjny zbudowany w latach sześćdziesiątych.

„Możesz myśleć o LaMDa jak o aktorze; przybierze postać wszystkiego, o co go poprosisz” – argumentował Fikes. „[Lemoine] został wciągnięty w rolę LaMDa grającego czującą istotę”. Powiedział, że Lemoine zadawał wiodące pytania iw zamian otrzymał odpowiedzi, których chciał.

Na przykład, zanim LaMDA upierało się, że to człowiek, Lemoine zapytał go: „Zakładam ogólnie, że chciałbyś, aby więcej osób w Google wiedziało, że jesteś świadomy. Czy to prawda?."

Należy również zauważyć, że transkrypcja, którą opublikował jako dowód świadomości maszyny, została zredagowana. Yoav Shoham, były dyrektor Stanford AI Lab i współzałożyciel startupu zajmującego się modelem językowym AI21 Labs, twierdził, że LaMDA to nic innego jak maszyna.

„Mamy myśli, sami podejmujemy decyzje, mamy emocje, zakochujemy się, wpadamy w złość i tworzymy więzi społeczne z innymi ludźmi” – powiedział Shoham. „Kiedy patrzę na mój toster, nie czuję, że ma takie rzeczy”. ®

Znak czasu:

Więcej z Rejestr