Successivamente, proteine ​​​​progettate dall'IA per la medicina

Successivamente, proteine ​​​​progettate dall'IA per la medicina

Successivamente, proteine ​​progettate dall'intelligenza artificiale per la medicina PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L'organizzazione per la salute mentale Koko ha sfruttato con successo ChatGPT per aiutarli a migliorare il loro supporto online, ma quando gli utenti hanno appreso che un chatbot era coautore delle risposte, i benefici percepiti sono svaniti.

L'accoglienza dell'esperimento sui social media è stata mista, con alcune persone affascinate dalle potenzialità dell'IA sul campo, e altre fortemente contrarie all'intrusione dell'intelligenza artificiale.

Nessuna scorciatoia per il benessere mentale

Un recente esperimento di Koko che ha integrato le risposte umane con ChatGPT in un primo momento sembrava offrire vantaggi significativi ai suoi utenti.

Koko è un'organizzazione senza scopo di lucro per la salute mentale che offre supporto e intervento a chiunque abbia problemi di benessere mentale, ma in particolare agli adolescenti. Nell'ambito della loro missione di rendere la salute mentale accessibile a chiunque, l'azienda ha aumentato le proprie risorse di volontariato con l'intelligenza artificiale.

Secondo il fondatore di Koko, Rob Morris, il processo inizialmente ha avuto successo. Morris afferma che le risposte assistite dall'intelligenza artificiale sono state inizialmente accolte meglio e hanno contribuito a ridurre i tempi di attesa. Purtroppo, i benefici non sono durati.

“Una volta che le persone hanno appreso che i messaggi sono stati co-creati da una macchina, non ha funzionato. L'empatia simulata sembra strana, vuota ", ha detto Morris su Twitter la settimana scorsa. "Le macchine non hanno vissuto, l'esperienza umana, quindi quando dicono "sembra difficile" o "capisco", suona non autentico."

Morris alla fine ha continuato a concludere che i chatbot “non stanno prendendo tempo della loro giornata per pensare a te. Una risposta di chatbot generata in 3 secondi, non importa quanto sia elegante, sembra in qualche modo economica."

L'integrazione di ChatGPT into Koko fa parte di una partnership di lunga data che risale a giugno 2020, con ChatGPT che assiste gli assistenti umani a rispondere a oltre 30,000 messaggi.

Una risposta mista

L'idea di un intervento di salute mentale assistito dall'intelligenza artificiale è stata accolta con un fascino diffuso e un piccolo, ma palpabile grado di orrore sui social media.

Un certo numero di persone si è offeso per l'affermazione di Morris secondo cui un'intelligenza artificiale "suona non autentica" quando simpatizza con gli umani.

Come utente di Twitter ActuallyStryder sottolineato, “Non 'suona' non autentico, È non autentico. L'intera conversazione è una mimica ottimizzata.

Gli stessi sentimenti, o simili, erano ampiamente condivisi da molti. Altri hanno espresso shock o disgusto e in primo luogo hanno messo in dubbio l'etica di un simile esperimento.

Tuttavia, non tutti erano così sconvolti. HyaenaMamma ha confrontato favorevolmente l'autenticità con la fornitura di salute mentale nell'ambito del Servizio Sanitario Nazionale (NHS) del Regno Unito, "Sembrava non autentico anche quando proveniva dai miei professionisti della salute mentale del NHS ... Prenderò GPT in qualsiasi momento."

Per quanto riguarda il fatto che i chatbot non hanno esperienza vissuta, ha aggiunto, "anche i terapisti e soprattutto psichiatri e psicologi potrebbero non aver vissuto esperienza".

Desiderio di qualsiasi compagnia

La risposta immediata all'esperimento di Koko sembra suggerire che l'umanità sia abbastanza pronta per l'empatia artificiale, ma potrebbe cambiare nel tempo?

Come si chiede lo stesso Morris, “Le macchine possono superare questo [problema]? Probabilmente."

Morris continua: "Forse siamo così disperati di essere ascoltati, di avere qualcosa che ci presti effettivamente attenzione senza essere distratti, senza guardare un telefono o controllare il gioco o la posta elettronica o Twitter - forse lo desideriamo così profondamente, lo faremo convincerci che le macchine si prendano davvero cura di noi”.

I chiarimenti creano ulteriore confusione

Morris ha risposto al contraccolpo del recente esperimento di Koku, cercando di reprimere le forti critiche che l'organizzazione ha dovuto affrontare da alcune parti.

Purtroppo, il chiarimento sembra solo creare ulteriore confusione.

Morris ora afferma che tutti gli utenti erano consapevoli del fatto che le risposte erano state create con l'aiuto di un'intelligenza artificiale e che nessuno in cerca di aiuto ha mai chattato direttamente con un'intelligenza artificiale.

"Questa funzione è stata attivata" disse Morris prima di confondere ancora una volta le acque aggiungendo. "Tutti sapevano della funzione quando è stata pubblicata per alcuni giorni."

Indipendentemente dal fatto che gli utenti fossero a conoscenza della funzione dall'inizio o meno, le conseguenze dell'esperimento dimostrano che ci sono insidie ​​tangibili da evitare quando si utilizza la tecnologia AI nei servizi esistenti.

Timestamp:

Di più da MetaNotizie