Se os chatbots de IA são sencientes, eles também podem ser esquilos, PlatoBlockchain Data Intelligence. Pesquisa Vertical. Ai.

Se os chatbots de IA são sencientes, eles também podem ser esquilos

Em Breve Não, os chatbots de IA não são sencientes.

Assim que o história em um engenheiro do Google, que denunciou o que ele alegou ser um modelo de linguagem senciente, se tornou viral, várias publicações intervieram para dizer que ele está errado.

A debate sobre se a empresa Chatbot LaMDA está consciente, tem alma ou não, não é muito bom, só porque é muito fácil desligar o lado que acredita que tem. Como a maioria dos grandes modelos de linguagem, o LaMDA possui bilhões de parâmetros e foi treinado em texto extraído da Internet. O modelo aprende as relações entre as palavras e quais delas têm maior probabilidade de aparecer uma ao lado da outra.

Parece inteligente o suficiente e é capaz de responder às perguntas corretamente às vezes. Mas ele não sabe nada sobre o que está dizendo, e não tem nenhuma compreensão real da linguagem ou qualquer coisa que seja. Os modelos de linguagem se comportam aleatoriamente. Pergunte se ele tem sentimentos e ele pode dizer sim ou não. Pergunte se é um esquilo, e pode dizer sim ou não também. É possível que os chatbots de IA sejam realmente esquilos?

FTC alerta sobre o uso de IA para moderação de conteúdo

A IA está mudando a internet. Fotos de aparência realista são usadas em perfis de contas falsas nas redes sociais, vídeos pornográficos deepfake de mulheres estão circulando, imagens e textos gerados por algoritmos são postados online.

Especialistas alertaram que esses recursos podem aumentar os riscos de fraude, bots, desinformação, assédio e manipulação. As plataformas estão cada vez mais recorrendo a algoritmos de IA para detectar e remover automaticamente conteúdo ruim.

Agora, a FTC está alertando que esses métodos podem piorar os problemas. “Nosso relatório enfatiza que ninguém deve tratar a IA como a solução para a disseminação de conteúdo online prejudicial”, disse Samuel Levine, diretor do Bureau of Consumer Protection da FTC, dito em um comunicado.

Infelizmente, a tecnologia pode ser “imprecisa, tendenciosa e discriminatória por design”. “Combater os danos online requer um amplo esforço social, não uma crença excessivamente otimista de que a nova tecnologia – que pode ser útil e perigosa – tirará esses problemas de nossas mãos”, disse Levine.

Spotify lança startup de voz deepfake

A gigante de streaming de áudio Spotify adquiriu a Sonantic, uma novata sediada em Londres focada na construção de software de IA capaz de gerar vozes completamente inventadas.

A tecnologia da Sonantic tem sido usada para jogos e em filmes de Hollywood, ajudando a dar voz ao ator Val Kilmer em Top Gun: Maverick. Kilmer interpretou Iceman no filme de ação; suas falas foram proferidas por uma máquina devido a dificuldades de fala após lutar contra o câncer de garganta.

Agora, a mesma tecnologia parece estar chegando ao Spotify também. A aplicação óbvia seria usar as vozes da IA ​​para ler audiolivros. Afinal, o Spotify adquirido Findaway, uma plataforma de audiolivros, no ano passado, em novembro. Será interessante ver se os ouvintes poderão personalizar como desejam que seus narradores de máquina soem. Talvez haja vozes diferentes para ler em voz alta livros infantis em comparação com histórias de terror.

“Estamos muito empolgados com o potencial de trazer a tecnologia de voz AI da Sonantic para a plataforma Spotify e criar novas experiências para nossos usuários”, Ziad Sultan, vice-presidente de personalização do Spotify, dito em um comunicado. “Essa integração nos permitirá engajar os usuários de uma forma nova e ainda mais personalizada”, sugeriu.

TSA testando software de IA para escanear bagagem automaticamente

A Administração de Segurança de Transportes dos EUA testará se o software de visão computacional pode rastrear automaticamente a bagagem para procurar itens que parecem estranhos ou não são permitidos em voos.

O teste acontecerá em um laboratório e ainda não está pronto para aeroportos reais. O software funciona com a já existente imagem de tomografia computadorizada (TC) 3D que os oficiais da TSA usam para espiar as malas das pessoas nos pontos de verificação de segurança. Se os agentes virem algo de aparência suspeita, eles levarão a bagagem para um lado e a revistarão.

Algoritmos de IA podem automatizar parte desse processo; eles podem identificar objetos e sinalizar instâncias em que detectam itens específicos.

“À medida que a TSA e outras agências de segurança adotam a CT, essa aplicação de IA representa um salto potencialmente transformador na segurança da aviação, tornando as viagens aéreas mais seguras e consistentes, ao mesmo tempo em que permite que os oficiais altamente treinados da TSA se concentrem nas malas que representam o maior risco.” dito Alexis Long, diretor de produtos da Pangiam, empresa de tecnologia que trabalha com a administração.

“Nosso objetivo é utilizar tecnologias de IA e visão computacional para melhorar a segurança, fornecendo à TSA e aos oficiais de segurança ferramentas poderosas para detectar itens proibitivos que possam representar uma ameaça à segurança da aviação, é um passo significativo para estabelecer um novo padrão de segurança com implicações mundiais”. ®

Carimbo de hora:

Mais de O registro