Därefter AI-designade proteiner för medicin

Därefter AI-designade proteiner för medicin

Därefter AI-designade proteiner för medicin PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Mentalvårdsorganisationen Koko utnyttjade framgångsrikt ChatGPT för att hjälpa dem att förbättra sin onlinesupport, men när användare fick reda på att en chatbot var medförfattare till svar försvann de upplevda fördelarna.

Mottagandet av experimentet på sociala medier har varit blandat, med vissa människor fascinerade av potentialen hos AI inom området, och andra starkt emot intrång av artificiell intelligens.

Inga genvägar till mentalt välbefinnande

Ett färskt experiment av Koko som kompletterade mänskliga svar med ChatGPT verkade först erbjuda betydande fördelar för sina användare.

Koko är en ideell organisation för mental hälsa som erbjuder stöd och intervention till alla som kämpar med psykiskt välbefinnande, men särskilt ungdomar. Som en del av deras uppdrag att göra mental hälsa tillgänglig för alla utökade företaget sina volontärresurser med artificiell intelligens.

Enligt Koko grundare Rob Morris visade rättegången till en början framgångsrik. Morris säger att AI-assisterade svar initialt togs emot bättre och bidrog till att minska väntetiderna. Tyvärr höll inte fördelarna.

"När folk fick veta att meddelanden skapades tillsammans av en maskin fungerade det inte. Simulerad empati känns konstigt, tomt”, sa Morris på Twitter förra veckan. "Maskiner har ingen levande, mänsklig erfarenhet, så när de säger "det låter svårt" eller "jag förstår", låter det oäkta.

Morris fortsatte så småningom med att dra slutsatsen att chatbots "inte tar tid från sin dag att tänka på dig. Ett chatbotsvar som genereras på 3 sekunder, oavsett hur elegant det är, känns billigt på något sätt.”

Integrationen av ChatGPT into Koko är en del av ett långvarigt partnerskap som går tillbaka till juni 2020, där ChatGPT hjälper mänskliga assistenter att svara på över 30,000 XNUMX meddelanden.

En blandad respons

Idén om AI-assisterad mentalvårdsintervention har mötts av utbredd fascination och en liten, men påtaglig grad av skräck på sociala medier.

Ett antal personer blev förbannade med Morris uttalande att en AI "låter oäkta" när de sympatiserar med människor.

Som Twitter-användare ActuallyStryder påpekade, "Det låter inte oäkta, det ÄR oäkta. Hela konversationen är en av optimerad mimik.”

Samma eller liknande känslor delades brett av många. Andra uttryckte chock eller avsky och ifrågasatte etiken i ett sådant experiment i första hand.

Alla var dock inte så förskräckta. HyaenaMamma jämförde äktheten positivt med tillhandahållande av mental hälsa under Storbritanniens National Health Service (NHS), "Det kändes oäkta när jag kom från mina NHS-läkare för mental hälsa också... Jag kommer att ta över GPT när som helst."

När det gäller det faktum att chatbotar inte har levnadserfarenhet tillade hon, "terapeuter och särskilt psykiatriker och psykologer kanske inte heller har levd erfarenhet."

Sugen på vilket företag som helst

Det omedelbara svaret på Kokos experiment verkar tyda på att mänskligheten är ganska redo för artificiell empati, men kan det förändras med tiden?

Som Morris själv frågar, "Kan maskiner övervinna detta [problem]? Förmodligen."

Morris fortsätter, "Kanske är vi så desperata efter att bli hörda, att ha något som faktiskt uppmärksammar oss utan att bli distraherade, utan att titta på en telefon eller kolla slack eller e-post eller twitter - kanske längtar vi så djupt efter det att vi kommer att övertyga oss själva om att maskinerna faktiskt bryr sig om oss.”

Förtydliganden skapar ytterligare förvirring

Morris har svarat på motreaktionen från Kokus senaste experiment och försökt dämpa den starka kritik som organisationen har mött från vissa håll.

Tyvärr verkar förtydligandet bara orsaka ytterligare förvirring.

Morris uppger nu att alla användare var medvetna om att svaren skapades med hjälp av en artificiell intelligens, och att ingen som sökte hjälp någonsin chattade direkt med en AI.

"Denna funktion var opt-in" sade Morris innan du lerar vattnet en gång till genom att lägga till. "Alla visste om funktionen när den var live i några dagar."

Oavsett om användarna kände till funktionen från början eller inte, bevisar resultatet från experimentet att det finns påtagliga fallgropar att undvika när man använder AI-teknik i befintliga tjänster.

Tidsstämpel:

Mer från MetaNews