As pessoas que conversam regularmente com chatbots de IA muitas vezes começam a acreditar que são sencientes, diz o CEO PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Pessoas que conversam regularmente com chatbots de IA geralmente começam a acreditar que são conscientes, diz CEO

em breve Muitas pessoas começam a acreditar que estão interagindo com algo senciente quando conversam com chatbots de IA, de acordo com o CEO da Replika, um aplicativo que permite aos usuários projetar seus próprios companheiros virtuais.

As pessoas podem personalizar a aparência de seus chatbots e pagar por recursos extras, como certos traços de personalidade no Replika. Milhões baixaram o aplicativo e muitos conversam regularmente com seus bots inventados. Alguns até começam a pensar que seus amigos digitais são entidades reais que são sencientes.

“Não estamos falando de loucos ou pessoas que estão tendo alucinações ou delírios”, disse a fundadora e CEO da empresa, Eugenia Kuyda. disse Reuters. “Eles conversam com a IA e essa é a experiência que eles têm.”

Um engenheiro do Google fez manchetes no mês passado, quando disse acreditar que um dos modelos de linguagem da empresa era consciente. Blake Lemoine foi amplamente ridicularizado, mas ele não parece estar sozinho na antropomorfização da IA.

No entanto, esses sistemas não são sencientes e, em vez disso, enganam os humanos a pensar que têm alguma inteligência. Eles imitam a linguagem e a regurgitam de forma um tanto aleatória sem ter qualquer compreensão da linguagem ou do mundo que descrevem.

Ainda assim, Kuyda disse que os humanos podem ser influenciados pela tecnologia.

“Precisamos entender que [isso] existe, do jeito que as pessoas acreditam em fantasmas”, disse Kuyda. “As pessoas estão construindo relacionamentos e acreditando em algo.”

UE deve proibir detectores de mentiras de IA, dizem ativistas

A Lei de IA da União Europeia, uma proposta para regular a tecnologia, ainda está sendo debatida e alguns especialistas estão pedindo a proibição de detectores de mentira automatizados.

As empresas privadas fornecem a tecnologia aos funcionários do governo para uso nas fronteiras. Os algoritmos de IA detectam e analisam coisas como o movimento dos olhos, a expressão facial e o tom de uma pessoa para tentar discernir se alguém pode não estar dizendo a verdade. Mas ativistas e especialistas jurídicos acreditam que deveria ser proibido na UE sob a próxima Lei de IA.

“Você tem que provar que é um refugiado e é considerado um mentiroso, a menos que se prove o contrário”, Petra Molnar, diretora associada do Refugee Law Lab, uma organização sem fins lucrativos, disse Com fio. “Essa lógica sustenta tudo. Ele sustenta detectores de mentiras de IA e sustenta mais vigilância e resistência nas fronteiras.”

Tentar detectar se alguém pode estar mentindo usando pistas visuais e físicas não é exatamente uma ciência. Testes de polígrafo padrão são instáveis, e não está claro que usar métodos mais automatizados significa necessariamente que é mais preciso. Usar uma tecnologia tão arriscada em pessoas vulneráveis ​​como refugiados não é o ideal.

A IA pode realmente dizer quantos anos você parece?

Surpresa, surpresa – algoritmos de IA projetados para prever a idade de alguém a partir de imagens nem sempre são precisos.

Em uma tentativa de reprimir os jovens usuários que mentem sobre sua idade nas plataformas de mídia social, a Meta anunciou que estava trabalhando com a Yoti, uma startup de visão computacional, para verificar a idade das pessoas. Aqueles que alteram manualmente sua data de nascimento para se registrar como maiores de 18 anos têm a opção de enviar uma selfie em vídeo, e a tecnologia da Yoti é usada para prever se eles parecem maduros o suficiente.

Mas seus algoritmos nem sempre são precisos. Repórteres da CNN, que testado uma demonstração online de uma versão diferente do software em seus próprios rostos, descobriram que os resultados eram imprevisíveis. Os algoritmos de Yoti previram uma faixa etária correta para alguns, mas em um caso estavam errados por vários anos – prevendo que alguém parecia ter 17-21 anos quando na verdade estava na casa dos 30 anos.

O sistema que analisa vídeos de usuários do Meta luta mais para estimar as idades de adolescentes de 13 a 17 anos que têm tons de pele mais escuros. É complicado para os humanos adivinhar a idade de alguém apenas olhando para eles, e as máquinas provavelmente não se saem muito melhor. ®

Carimbo de hora:

Mais de O registro