Em seguida, proteínas projetadas por IA para medicina

Em seguida, proteínas projetadas por IA para medicina

A seguir, proteínas projetadas por IA para medicina PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A organização de saúde mental Koko aproveitou com sucesso o ChatGPT para ajudá-los a melhorar seu suporte online, mas quando os usuários souberam que um chatbot era coautor das respostas, os benefícios percebidos desapareceram.

A recepção do experimento nas mídias sociais foi mista, com algumas pessoas fascinadas pelo potencial da IA ​​no campo e outras fortemente opostas à intrusão da inteligência artificial.

Sem atalhos para o bem-estar mental

Um experimento recente de Koko que complementou as respostas humanas com ChatGPT inicialmente parecia oferecer benefícios significativos para seus usuários.

Koko é uma organização de saúde mental sem fins lucrativos que oferece apoio e intervenção a qualquer pessoa que esteja lutando contra o bem-estar mental, mas principalmente adolescentes. Como parte de sua missão de tornar a saúde mental acessível a qualquer pessoa, a empresa aumentou seus recursos voluntários com inteligência artificial.

De acordo com o fundador da Koko, Rob Morris, o julgamento inicialmente foi bem-sucedido. Morris afirma que as respostas assistidas por IA foram inicialmente melhor recebidas e ajudaram a reduzir o tempo de espera. Infelizmente, os benefícios não duraram.

“Depois que as pessoas descobriram que as mensagens eram cocriadas por uma máquina, não funcionou. A empatia simulada parece estranha, vazia”, disse Morris no Twitter. semana passada. “As máquinas não têm experiência humana vivida, então quando dizem “isso soa difícil” ou “eu entendo”, soa inautêntico.”

Morris acabou concluindo que os chatbots “não estão tirando um tempo do dia para pensar em você. Uma resposta de chatbot gerada em 3 segundos, por mais elegante que seja, parece barata de alguma forma.”

A integração de ChatGPT into Koko faz parte de uma parceria de longa data que remonta a junho de 2020, com o ChatGPT ajudando assistentes humanos a responder a mais de 30,000 mensagens.

Uma resposta mista

A ideia de intervenção de saúde mental assistida por IA foi recebida com fascínio generalizado e um pequeno, mas palpável grau de horror nas mídias sociais.

Várias pessoas se ofenderam com a declaração de Morris de que uma IA “soa inautêntica” quando simpatiza com humanos.

Como usuário do Twitter ActuallyStryder apontou, “Não 'soa' inautêntico, é inautêntico. A totalidade da conversa é uma imitação otimizada.”

Sentimentos iguais ou semelhantes foram amplamente compartilhados por muitos. Outros expressaram choque ou repulsa e questionaram a ética de tal experimento em primeiro lugar.

No entanto, nem todos ficaram tão chocados. HienaMãe comparou a autenticidade favoravelmente com a provisão de saúde mental sob o Serviço Nacional de Saúde do Reino Unido (NHS), “Parecia inautêntico quando vindo de meus profissionais de saúde mental do NHS também... Vou assumir o GPT a qualquer momento.”

Quanto ao fato de os chatbots não terem experiência vivida, ela acrescentou, “terapeutas e especialmente psiquiatras e psicólogos também podem não ter experiência vivida”.

Desejando qualquer companhia em tudo

A resposta imediata ao experimento de Koko parece sugerir que a humanidade está pronta para a empatia artificial, mas isso pode mudar com o tempo?

Como o próprio Morris pergunta: “As máquinas podem superar esse [problema]? Provavelmente."

Morris continua: “Talvez estejamos tão desesperados para ser ouvidos, para que algo realmente preste atenção em nós sem nos distrairmos, sem olhar para o telefone ou verificar o slack, o e-mail ou o twitter - talvez ansiamos por isso tão profundamente que convencer a nós mesmos de que as máquinas realmente se importam conosco.”

Esclarecimentos causam mais confusão

Morris respondeu à reação do recente experimento de Koku, buscando reprimir as fortes críticas que a organização enfrentou de alguns setores.

Infelizmente, o esclarecimento só parece causar mais confusão.

Morris agora afirma que todos os usuários estavam cientes de que as respostas foram elaboradas com a ajuda de uma inteligência artificial e que ninguém que procurava ajuda conversou diretamente com uma IA.

“Este recurso foi opcional,” dito Morris antes de turvar as águas mais uma vez, acrescentando. “Todo mundo sabia sobre o recurso quando estava no ar por alguns dias.”

Independentemente de os usuários saberem sobre o recurso desde o início ou não, as consequências do experimento provam que existem armadilhas tangíveis a serem evitadas ao empregar a tecnologia de IA em serviços existentes.

Carimbo de hora:

Mais de MetaNotícias