Como estudar a senciência animal pode ajudar a resolver o quebra-cabeça ético da IA ​​senciente

Como estudar a senciência animal pode ajudar a resolver o quebra-cabeça ético da IA ​​senciente

Como o estudo da senciência animal pode ajudar a resolver o quebra-cabeça ético da IA ​​senciente PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

inteligência artificial progrediu tão rapidamente que até mesmo alguns dos cientistas responsáveis ​​por muitos desenvolvimentos importantes estão preocupados com o ritmo da mudança. No início deste ano, mais de 300 profissionais que trabalham em IA e outras figuras públicas preocupadas emitiram um aviso contundente sobre o perigo que a tecnologia representa, comparando o risco ao de pandemias ou guerra nuclear.

À espreita logo abaixo da superfície dessas preocupações está a questão da consciência da máquina. Mesmo que não haja “ninguém em casa” dentro das IAs de hoje, alguns pesquisadores se perguntam se um dia elas podem exibir um vislumbre de consciência – ou mais. Se isso acontecer, levantará uma série de preocupações morais e éticas, diz Jonathan Birch, professor de filosofia na London School of Economics and Political Science.

À medida que a tecnologia de IA avança, as questões éticas suscitadas pelas interações homem-IA assumem uma nova urgência. “Não sabemos se devemos trazê-los para nosso círculo moral ou excluí-los”, disse Birch. “Não sabemos quais serão as consequências. E eu levo isso a sério como um risco genuíno sobre o qual devemos começar a falar. Na verdade não porque eu acho ChatGPT está nessa categoria, mas porque não sei o que vai acontecer nos próximos 10 ou 20 anos.”

Enquanto isso, diz ele, seria bom estudarmos outras mentes não humanas — como a dos animais. Birch lidera a universidade Fundamentos do projeto Animal Sentience, um esforço financiado pela União Europeia que “visa tentar fazer algum progresso nas grandes questões da senciência animal”, como disse Birch. “Como desenvolvemos melhores métodos para estudar cientificamente as experiências conscientes dos animais? E como podemos colocar a ciência emergente da senciência animal para funcionar, para projetar melhores políticas, leis e formas de cuidar dos animais?”

Nossa entrevista foi realizada pelo Zoom e por e-mail, e foi editada para maior duração e clareza.

(Este artigo foi originalmente publicado em Undark. Leia o artigo original.)

Escuro: Há um debate contínuo sobre se a IA pode ser consciente ou senciente. E parece haver uma questão paralela de saber se a IA pode parecem ser senciente. Por que essa distinção é tão importante?

Jonathan Birch: Eu acho que é um grande problema, e algo que deveria nos deixar com muito medo, na verdade. Mesmo agora, os sistemas de IA são capazes de convencer seus usuários de sua senciência. Vimos isso no ano passado com o caso de Blake Lemoine, o engenheiro do Google que ficou convencido que o sistema em que ele estava trabalhando era senciente - e isso apenas quando a saída é puramente texto e quando o usuário é um especialista em IA altamente qualificado.

Imagine uma situação em que a IA é capaz de controlar um rosto humano e uma voz humana e o usuário é inexperiente. Acho que a IA já está em posição de convencer um grande número de pessoas de que é um ser senciente com bastante facilidade. E é um grande problema, porque acho que começaremos a ver pessoas fazendo campanha pelo bem-estar da IA, direitos de IA, e coisas assim.

E não saberemos o que fazer sobre isso. Porque o que gostaríamos é de um argumento decisivo realmente forte que prove que os sistemas de IA de que eles estão falando são não consciente. E nós não temos isso. Nossa compreensão teórica da consciência não está madura o suficiente para nos permitir declarar com confiança sua ausência.

UD: Um robô ou um sistema de IA pode ser programado para dizer algo como: “Pare com isso, você está me machucando”. Mas uma simples declaração desse tipo não é suficiente para servir como um teste decisivo para a senciência, certo?

JB: Você pode ter sistemas muito simples [como aqueles] desenvolvidos no Imperial College London para ajudar os médicos em seu treinamento que imitar expressões de dor humana. E não há absolutamente nenhuma razão para pensar que esses sistemas são sencientes. Eles não estão realmente sentindo dor; tudo o que eles estão fazendo é mapear entradas para saídas de uma maneira muito simples. Mas as expressões de dor que eles produzem são bastante realistas.

Acho que estamos em uma posição um tanto semelhante com chatbots como o ChatGPT – que são treinados em mais de um trilhão de palavras de dados de treinamento para imitar os padrões de resposta de um humano para responder de maneiras que um humano responderia.

Então, é claro, se você der um prompt para que um humano responda fazendo uma expressão de dor, ele será capaz de imitar habilmente essa resposta.

Mas acho que quando sabemos que essa é a situação - quando sabemos que estamos lidando com uma imitação hábil - não há nenhuma razão forte para pensar que há alguma experiência real de dor por trás disso.

UD: Esta entidade na qual os estudantes de medicina estão treinando, imagino que seja algo como um robô?

JB: Isso mesmo, sim. Então eles têm uma coisa semelhante a um manequim, com rosto humano, e o médico é capaz de pressionar o braço e obter uma expressão que imita as expressões que os humanos dariam para vários graus de pressão. É para ajudar os médicos a aprender como realizar as técnicas nos pacientes de forma adequada, sem causar muita dor.

E somos facilmente enganados assim que algo tem um rosto humano e faz expressões como um humano faria, mesmo que não haja nenhuma inteligência real por trás disso.

Então, se você imaginar que estar emparelhado com o tipo de IA que vemos no ChatGPT, você tem um tipo de imitação que é genuinamente muito convincente e que convencerá muitas pessoas.

UD: A senciência parece algo que conhecemos por dentro, por assim dizer. Nós entendemos nossa própria senciência – mas como você testaria a senciência nos outros, seja uma IA ou qualquer outra entidade além de si mesmo?

JB: Acho que estamos em uma posição muito forte com outros humanos, que podem falar conosco, porque ali temos um corpo de evidências incrivelmente rico. E a melhor explicação para isso é que outros humanos têm experiências conscientes, assim como nós. E assim podemos usar esse tipo de inferência que os filósofos às vezes chamam de “inferência para a melhor explicação”.

Acho que podemos abordar o tema de outros animais exatamente da mesma maneira - que outros animais não falam conosco, mas exibem comportamentos que são explicados muito naturalmente pela atribuição de estados como dor. Por exemplo, se você vir um cachorro lambendo as feridas após uma lesão, cuidando dessa área, aprendendo a evitar os locais onde corre o risco de se machucar, você naturalmente explicaria esse padrão de comportamento postulando um estado de dor.

E acho que quando estamos lidando com outros animais que têm sistemas nervosos bastante semelhantes ao nosso, e que evoluíram como nós, acho que esse tipo de inferência é totalmente razoável.

UD: E quanto a um sistema de IA?

JB: No caso da IA, temos um grande problema. Em primeiro lugar, temos o problema de que o substrato é diferente. Não sabemos realmente se a experiência consciente é sensível ao substrato — ela precisa ter um substrato biológico, ou seja, um sistema nervoso, um cérebro? Ou é algo que pode ser obtido em um material totalmente diferente – um substrato à base de silício?

Mas há também o problema que chamei de “problema do jogo” – quando o sistema tem acesso a trilhões de palavras de dados de treinamento e foi treinado com o objetivo de imitar o comportamento humano, os tipos de padrões de comportamento que ele produz podem ser explicada por ter genuinamente a experiência consciente. Ou, alternativamente, eles poderiam apenas ser explicados por ter sido definido o objetivo de se comportar como um humano responderia nessa situação.

Então, eu realmente acho que estamos com problemas no caso da IA, porque é improvável que nos encontremos em uma posição em que seja claramente a melhor explicação para o que estamos vendo – que a IA é consciente. Sempre haverá explicações alternativas plausíveis. E essa é uma ligação muito difícil de sair.

UD: O que você acha que pode ser nossa melhor aposta para distinguir entre algo que é realmente consciente e uma entidade que apenas tem o aparência de senciência?

JB: Acho que o primeiro estágio é reconhecê-lo como um problema muito profundo e difícil. A segunda etapa é tentar aprender o máximo que pudermos com o caso de outros animais. Acho que quando estudamos animais muito próximos de nós, em termos evolutivos, como cães e outros mamíferos, sempre ficamos inseguros se a experiência consciente pode depender de mecanismos cerebrais muito específicos que são distintos do cérebro dos mamíferos.

Para superar isso, precisamos examinar a maior variedade possível de animais. E precisamos pensar em particular sobre invertebrados, como polvos e insetos, onde esta é potencialmente outra instância de experiência consciente evoluída de forma independente. Assim como o olho de um polvo evoluiu completamente separado de nossos próprios olhos – ele tem essa mistura fascinante de semelhanças e diferenças – acho que suas experiências conscientes também serão assim: evoluíram independentemente, semelhantes em alguns aspectos, muito, muito diferentes em outras maneiras.

E através do estudo das experiências de invertebrados como polvos, podemos começar a entender quais são as características realmente profundas que um cérebro precisa ter para suportar experiências conscientes, coisas que vão mais fundo do que apenas ter essas estruturas cerebrais específicas que são lá nos mamíferos. Que tipos de computação são necessários? Que tipos de processamento?

Então - e vejo isso como uma estratégia de longo prazo - podemos voltar ao caso da IA ​​e dizer, bem, ela tem esses tipos especiais de computação que encontramos em animais conscientes como mamíferos e polvos?

UD: Você acredita que um dia criaremos uma IA senciente?

JB: Estou em cerca de 50:50 nisso. Há uma chance de que a senciência dependa de características especiais de um cérebro biológico, e não está claro como testar se isso acontece. Portanto, acho que sempre haverá uma incerteza substancial na IA. Estou mais confiante sobre isso: se a consciência pode em princípio ser alcançado em software de computador, então os pesquisadores de IA encontrarão uma maneira de fazê-lo.

Crédito de imagem: Dinheiro Macanaya / Unsplash 

Carimbo de hora:

Mais de Singularity Hub