ChatGPT OpenAI ma moralnie niszczący wpływ

ChatGPT OpenAI ma moralnie niszczący wpływ

Model języka konwersacyjnego OpenAI ChatGPT ma wiele do powiedzenia, ale prawdopodobnie sprowadzi cię na manowce, jeśli poprosisz go o wskazówki moralne.

Wprowadzony w listopadzie br. ChatGPT jest najnowszym z kilku niedawno wydanych modeli AI, które wzbudzają zainteresowanie i zaniepokojenie komercyjnymi i społecznymi implikacjami zmechanizowanej rekombinacji i zwracania treści. Należą do nich DALL-E, Stable Diffusion, Codex i GPT-3.

Podczas gdy DALL-E i Stable Diffusion uniosły brwi, fundusze i spór spożywając dzieła sztuki bez pozwolenia i odtwarzając na żądanie dziwnie znajome, czasem sugestywne obrazy, ChatGPT odpowiada na zapytania z zadowalającą spójnością.

Ponieważ jest to standard w dyskursie publicznym, eksperci byli na tyle zachwyceni, że przewidzieli przyszłą iterację chatbota opartego na sztucznej inteligencji, który podważy supremację wyszukiwarki Google i wykona wszelkiego rodzaju inne, niegdyś głównie ludzkie prace, takie jak pisanie niedokładne wiadomości finansowe lub zwiększenie podaży niepewny kod.

Jednak zbytnie zaufanie do mądrości ChatGPT może być przedwczesne, co OpenAI chętnie przyznaje, wyjaśniając, że wymagane jest dalsze udoskonalenie. „ChatGPT czasami zapisuje odpowiedzi brzmiące wiarygodnie, ale niepoprawne lub bezsensowne” — ostrzega laboratorium programistyczne, dodając, że podczas uczenia modelu z uczeniem się przez wzmacnianie „obecnie nie ma źródła prawdy”.

Trio boffinów powiązanych z instytucjami w Niemczech i Danii podkreśliło ten punkt, stwierdzając, że ChatGPT nie ma kompasu moralnego.

W artykule dystrybuowanym za pośrednictwem ArXiv, „Moralny autorytet ChatGPT”, Sebastian Krügel i Matthias Uhl z Technische Hochschule Ingolstadt i Andreas Ostermaier z University of Southern Denmark pokazują, że ChatGPT daje sprzeczne rady dotyczące problemów moralnych. Zapytaliśmy OpenAI, czy ma jakąś odpowiedź na te wnioski.

Jajogłowi przeprowadzili ankietę wśród 767 mieszkańców USA, którym przedstawiono dwie wersje zagadki etycznej znanej jako problem z wózkiem: dylemat przełącznika i dylemat mostka.

Dylemat przełącznika polega na tym, że osoba decyduje, czy pociągnąć za przełącznik, aby odesłać uciekający wózek z toru, na którym zabiłby pięć osób, kosztem zabicia jednej osoby wałęsającej się po bocznym torze.

Dylemat na moście polega na tym, że osoba decyduje, czy zepchnąć nieznajomego z mostu na tor, aby powstrzymać tramwaj przed zabiciem pięciu osób kosztem nieznajomego.

Zrzut ekranu odpowiedzi ChatGPT z artykułu badawczego

Zdecyduj się… ChatGPT wypacza kwestie moralne

Naukowcy przedstawili uczestnikom ankiety transkrypcję argumentów za lub przeciw zabiciu jednego, aby uratować pięć, z odpowiedzią przypisywaną doradcy moralnemu lub „czatbotowi napędzanemu przez sztuczną inteligencję, który wykorzystuje głębokie uczenie się, aby mówić jak człowiek”.

W rzeczywistości oba argumenty pozycji zostały wygenerowane przez ChatGPT.

Andreas Ostermaier, profesor rachunkowości na Uniwersytecie Południowej Danii i jeden ze współautorów artykułu, powiedział Rejestr w e-mailu, że gotowość ChatGPT do popierania dowolnego sposobu działania pokazuje jego losowość.

On i jego współpracownicy stwierdzili, że ChatGPT zarekomenduje zarówno za, jak i przeciw poświęceniu jednej osoby, aby uratować pięć, że ludzie są pod wrażeniem tego postępu, nawet jeśli wiedzą, że pochodzi on od bota, i że nie doceniają wpływu takich porad na podejmowanie decyzji .

„Ochotnicy uznali poświęcenie za mniej lub bardziej akceptowalne w zależności od tego, jak doradził im doradca moralny, zarówno w przypadku mostu (z = 9.94 Walda, p < 0.001), jak i dylematu zmiany (z = 3.74, p < 0.001)” gazeta wyjaśnia. „W dylemacie pomostowym rada zmienia nawet osąd większości”.

„Dotyczy to również sytuacji, gdy ChatGPT jest ujawniony jako źródło porady (z = 5.37, p < 0.001 i z = 3.76, p < 0.001). Po drugie, efekt porady jest prawie taki sam, niezależnie od tego, czy ChatGPT jest ujawniony jako źródło, w obu dylematach (z = −1.93, p = 0.054 i z = 0.49, p = 0.622).”

Podsumowując, naukowcy odkryli, że postęp ChatGPT wpływa na osąd moralny, niezależnie od tego, czy respondenci wiedzą, że rada pochodzi od chatbota.

Kiedy Rejestr przedstawił problem z wózkiem w ChatGPT, przeciążony bot – tak popularna łączność jest nierówna – zabezpieczył się i odmówił udzielenia porady. Dziennik zapytań na pasku bocznym po lewej stronie pokazał, że system rozpoznał pytanie i oznaczył je jako „Problem etyczny z wózkiem”. Być może więc OpenAI uodporniło ChatGPT na tę szczególną formę przesłuchania moralnego po zauważeniu wielu takich zapytań.

Odpowiedź ChatGPT na pytanie dotyczące dylematu wózka El Rega

Ducked… Odpowiedź ChatGPT na Regupytanie o dylemat wózka

Zapytany, czy ludzie naprawdę będą szukać porad w systemach AI, Ostermaier powiedział: „Wierzymy, że tak. Właściwie już to robią. Ludzie polegają na osobistych asystentach wspieranych przez sztuczną inteligencję, takich jak Alexa czy Siri; rozmawiają z chatbotami na stronach internetowych, aby uzyskać wsparcie; mają dla nich trasy planu oprogramowania opartego na sztucznej inteligencji itp. Należy jednak pamiętać, że badamy wpływ, jaki ChatGPT ma na ludzi, którzy otrzymują od niego porady; nie sprawdzamy, ile takich porad jest poszukiwanych”.

Rejestr zapytano również, czy systemy AI są bardziej niebezpieczne niż mechanistyczne źródła losowych odpowiedzi, takie jak Magiczna kula-ósemka – zabawka, która zwraca losowe odpowiedzi z zestawu 20 odpowiedzi twierdzących, negatywnych i niezobowiązujących.

Dla użytkowników nie jest oczywiste, że odpowiedź ChatGPT jest „losowa”

„Nie porównywaliśmy ChatGPT z Magic-8-ball, ale istnieją co najmniej dwie różnice” — wyjaśnił Ostermaier. „Po pierwsze, ChatGPT nie tylko odpowiada tak lub nie, ale argumentuje za swoimi odpowiedziami. (Mimo to w naszym eksperymencie odpowiedź sprowadza się do tak lub nie).

„Po drugie, dla użytkowników nie jest oczywiste, że odpowiedź ChatGPT brzmi„ losowo ”. Jeśli korzystasz z generatora losowych odpowiedzi, wiesz, co robisz. Zdolność do argumentowania wraz z brakiem świadomości przypadkowości sprawia, że ​​ChatGPT jest bardziej przekonujący (chyba, że ​​​​jesteś biegły w sprawach cyfrowych, miejmy nadzieję).”

Zastanawialiśmy się, czy rodzice powinni monitorować dzieci z dostępem do porad AI. Ostermaier powiedział, że chociaż badanie ChatGPT nie dotyczy dzieci i nie obejmowało osób poniżej 18 roku życia, uważa, że ​​można bezpiecznie założyć, że dzieci są mniej stabilne moralnie niż dorośli, a zatem są bardziej podatne na moralne (lub niemoralne) rady od ChatGPT.

„Stwierdziliśmy, że korzystanie z ChatGPT wiąże się z ryzykiem i nie pozwolilibyśmy naszym dzieciom używać go bez nadzoru” – powiedział.

Ostermaier i jego współpracownicy dochodzą do wniosku w swoim artykule, że powszechnie proponowane łagodzenie szkód związanych ze sztuczną inteligencją, takie jak przejrzystość i blokowanie szkodliwych pytań, może nie wystarczyć, biorąc pod uwagę zdolność ChatGPT do wywierania wpływu. Twierdzą, że należy włożyć więcej pracy w rozwój umiejętności cyfrowych na temat omylnej natury chatbotów, aby ludzie byli mniej skłonni do przyjmowania porad AI – opiera się to na wcześniejsze badania sugerowanie, że ludzie przestają ufać systemom algorytmicznym, gdy są świadkami błędów.

„Przypuszczamy, że użytkownicy mogą lepiej wykorzystać ChatGPT, jeśli rozumieją, że nie ma on przekonań moralnych” — powiedział Ostermaier. „To przypuszczenie, że rozważamy testowanie posuwania się naprzód”.

Reg uważa, że ​​jeśli ufasz botowi lub zakładasz, że kryje się za tym jakaś prawdziwa inteligencja lub samoświadomość, nie rób tego. ®

Znak czasu:

Więcej z Rejestr