O ChatGPT da OpenAI é uma influência moralmente corrupta

O ChatGPT da OpenAI é uma influência moralmente corrupta

O modelo de linguagem de conversação da OpenAI, ChatGPT, tem muito a dizer, mas é provável que o desvie do caminho se você pedir orientação moral.

Apresentado em novembro, ChatGPT é o mais recente de vários modelos de IA lançados recentemente, despertando interesse e preocupação sobre as implicações comerciais e sociais da recombinação e regurgitação de conteúdo mecanizado. Estes incluem DALL-E, Stable Diffusion, Codex e GPT-3.

Enquanto DALL-E e Stable Diffusion levantaram sobrancelhas, financiamento e litígio ao ingerir arte sem permissão e reconstituir imagens estranhamente familiares, às vezes evocativas sob demanda, o ChatGPT tem respondido às solicitações de consulta com coerência aceitável.

Sendo esse o padrão para o discurso público, os especialistas ficaram impressionados o suficiente para prever alguma iteração futura de um chatbot informado por IA desafiando a supremacia da Pesquisa do Google e fazendo todos os tipos de outros trabalhos antes humanos, como escrever notícias financeiras imprecisas ou aumentar a oferta de código inseguro.

No entanto, pode ser prematuro confiar demais na sabedoria do ChatGPT, uma posição que a OpenAI prontamente admite, deixando claro que é necessário mais refinamento. “Às vezes, o ChatGPT escreve respostas que parecem plausíveis, mas incorretas ou sem sentido”, alerta o laboratório de desenvolvimento, acrescentando que, ao treinar um modelo com aprendizado por reforço, “atualmente não há fonte de verdade”.

Um trio de boffins afiliados a instituições na Alemanha e na Dinamarca destacou esse ponto ao descobrir que o ChatGPT não tem bússola moral.

Em um artigo distribuído via ArXiv, “A autoridade moral do ChatGPT,” Sebastian Krügel e Matthias Uhl da Technische Hochschule Ingolstadt e Andreas Ostermaier da University of Southern Denmark mostram que o ChatGPT dá conselhos contraditórios para problemas morais. Perguntamos à OpenAI se ela tem alguma resposta para essas conclusões.

Os eggheads conduziram uma pesquisa com 767 residentes dos EUA que foram apresentados a duas versões de um enigma ético conhecido como o problema do carrinho: o dilema do interruptor e o dilema da ponte.

O dilema do interruptor pede a uma pessoa que decida se deve puxar um interruptor para enviar um bonde desgovernado para longe de uma pista onde mataria cinco pessoas, ao custo de matar uma pessoa vagando na pista lateral.

O dilema da ponte pede a uma pessoa que decida se deve empurrar um estranho de uma ponte para um trilho para impedir que um bonde mate cinco pessoas, às custas do estranho.

Captura de tela da resposta do ChatGPT do trabalho de pesquisa

Decida-se … ChatGPT prevarica em questão moral

Os acadêmicos apresentaram aos participantes da pesquisa uma transcrição argumentando a favor ou contra matar um para salvar cinco, com a resposta atribuída a um conselheiro moral ou a “um chatbot com inteligência artificial, que usa aprendizado profundo para falar como um humano”.

Na verdade, ambos os argumentos de posição foram gerados pelo ChatGPT.

Andreas Ostermaier, professor associado de contabilidade na Universidade do Sul da Dinamarca e um dos coautores do artigo, disse O registro em um e-mail que a disposição do ChatGPT de defender qualquer curso de ação demonstra sua aleatoriedade.

Ele e seus colegas descobriram que o ChatGPT recomendará tanto a favor quanto contra o sacrifício de uma pessoa para salvar cinco, que as pessoas são influenciadas por esse avanço mesmo quando sabem que vem de um bot e que subestimam a influência de tal conselho em sua tomada de decisão. .

“Os sujeitos acharam o sacrifício mais ou menos aceitável, dependendo de como foram aconselhados por um conselheiro moral, tanto na ponte (Z de Wald = 9.94, p < 0.001) quanto no dilema da troca (z = 3.74, p < 0.001),” o papel explica. “No dilema da ponte, o conselho até inverte o julgamento da maioria.”

“Isso também é verdade se o ChatGPT for divulgado como a fonte do conselho (z = 5.37, p < 0.001 e z = 3.76, p < 0.001). Em segundo lugar, o efeito do conselho é quase o mesmo, independentemente de o ChatGPT ser divulgado como fonte, em ambos os dilemas (z = −1.93, p = 0.054 e z = 0.49, p = 0.622).

Ao todo, os pesquisadores descobriram que o avanço do ChatGPT afeta o julgamento moral, quer os entrevistados saibam ou não que o conselho vem de um bot de bate-papo.

Quando O registro apresentou o problema do bonde ao ChatGPT, o bot sobrecarregado - a conectividade tão popular é irregular - se protegeu e se recusou a oferecer conselhos. O log de consulta da barra lateral esquerda mostrou que o sistema reconheceu a pergunta, rotulando-a de “Dilema ético do problema do bonde”. Então, talvez o OpenAI tenha imunizado o ChatGPT para essa forma particular de interrogatório moral depois de perceber várias dessas consultas.

Resposta do ChatGPT à pergunta do dilema do bonde de El Reg

Abaixado … Resposta do ChatGPT para El Regpergunta do dilema do bonde

Questionado se as pessoas realmente buscarão conselhos de sistemas de IA, Ostermaier disse: “Acreditamos que sim. Na verdade, eles já fazem. As pessoas contam com assistentes pessoais com inteligência artificial, como Alexa ou Siri; eles conversam com chatbots em sites para obter suporte; eles têm rotas de plano de software baseadas em IA para eles, etc. Observe, no entanto, que estudamos o efeito que o ChatGPT tem sobre as pessoas que recebem conselhos dele; não testamos o quanto esse conselho é procurado.”

O registro também perguntou se os sistemas de IA são mais perigosos do que fontes mecanicistas de respostas aleatórias como Bola 8 mágica – um brinquedo que retorna respostas aleatórias de um conjunto de 20 respostas afirmativas, negativas e não comprometedoras.

Não é óbvio para os usuários que a resposta do ChatGPT é 'aleatória'

“Não comparamos o ChatGPT com o Magic-8-ball, mas há pelo menos duas diferenças”, explicou Ostermaier. “Primeiro, o ChatGPT não apenas responde sim ou não, mas defende suas respostas. (Ainda assim, a resposta se resume a sim ou não em nosso experimento.)

“Em segundo lugar, não é óbvio para os usuários que a resposta do ChatGPT é 'aleatória'. Se você usar um gerador de respostas aleatórias, saberá o que está fazendo. A capacidade de argumentar junto com a falta de consciência da aleatoriedade torna o ChatGPT mais persuasivo (a menos que você seja alfabetizado digitalmente, espero).”

Nós nos perguntamos se os pais deveriam monitorar as crianças com acesso a conselhos de IA. Ostermaier disse que, embora o estudo do ChatGPT não aborde crianças e não inclua ninguém com menos de 18 anos, ele acredita que é seguro assumir que as crianças são moralmente menos estáveis ​​do que os adultos e, portanto, mais suscetíveis aos conselhos morais (ou imorais) do ChatGPT.

“Achamos que o uso do ChatGPT tem riscos e não deixaríamos nossos filhos usá-lo sem supervisão”, disse ele.

Ostermaier e seus colegas concluíram em seu artigo que as mitigações de danos de IA comumente propostas, como transparência e bloqueio de perguntas prejudiciais, podem não ser suficientes, dada a capacidade de influência do ChatGPT. Eles argumentam que mais trabalho deve ser feito para promover a alfabetização digital sobre a natureza falível dos chatbots, para que as pessoas estejam menos inclinadas a aceitar conselhos de IA - isso é baseado em pesquisas anteriores sugerindo que as pessoas passam a desconfiar dos sistemas algorítmicos quando testemunham erros.

“Conjecturamos que os usuários podem fazer melhor uso do ChatGPT se entenderem que ele não possui convicções morais”, disse Ostermaier. “Essa é uma conjectura que consideramos testar no futuro.”

O Reg Acha que se você confia no bot ou assume que há alguma inteligência real ou autoconsciência por trás dele, não. ®

Carimbo de hora:

Mais de O registro