Alla gente non piace quando sospettano che una macchina stia parlando con loro

Alla gente non piace quando sospettano che una macchina stia parlando con loro

Turns out people don't like it when they suspect a machine's talking to them PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Potresti trovare utile l'utilizzo della tecnologia AI quando chatti con gli altri, ma quest'ultima ricerca mostra che le persone penseranno meno a qualcuno che utilizza tali strumenti.

Ecco come è andato lo studio, condotto da persone della Cornell University americana. Il team ha reclutato i partecipanti e li ha divisi in 219 coppie. A questi soggetti del test è stato quindi chiesto di discutere questioni politiche tramite messaggi di testo. Per alcune delle coppie, a entrambi i partecipanti di ciascuna coppia è stato detto di utilizzare solo i suggerimenti di Google Risposta intelligente, che segue un argomento di conversazione e suggerisce cose da dire. Ad alcune coppie è stato detto di non utilizzare affatto lo strumento e ad altre coppie è stato detto a un partecipante per ciascuna coppia di utilizzare Smart Reply.

Un messaggio su sette è stato quindi inviato utilizzando testo generato automaticamente nell'esperimento, e questo ha reso le conversazioni apparentemente più efficienti e con un tono positivo. Ma se un partecipante credeva che la persona con cui stava parlando stesse rispondendo con risposte standard, pensava di essere meno collaborativo e si sentiva meno caloroso nei suoi confronti. 

Le persone potrebbero proiettare le loro opinioni negative sull'IA sulla persona che sospettano la stia utilizzando

Malte Jung, coautore della ricerca pubblicato in Scientific Reports, e professore associato di scienze dell'informazione alla Cornell, ha detto che potrebbe essere perché le persone tendono a fidarsi della tecnologia meno di altri esseri umani, o percepiscono il suo utilizzo nelle conversazioni come non autentico. 

"Una spiegazione è che le persone potrebbero proiettare le loro opinioni negative sull'IA sulla persona che sospettano la stia usando", ha detto Il registro.

“Un'altra spiegazione potrebbe essere che sospettare che qualcuno utilizzi l'intelligenza artificiale per generare le proprie risposte potrebbe portare a una percezione di quella persona come meno premurosa, genuina o autentica. Ad esempio, è probabile che una poesia di un amante venga accolta meno calorosamente se quella poesia è stata generata da ChatGPT.

In un secondo esperimento, a 291 coppie di persone è stato chiesto di discutere nuovamente un problema politico. Questa volta, tuttavia, sono stati divisi in gruppi che dovevano digitare manualmente le proprie risposte, oppure potevano utilizzare la risposta intelligente predefinita di Google o avevano accesso a uno strumento che generava testo con un tono positivo o negativo. 

Le conversazioni condotte con la risposta intelligente di Google o lo strumento che ha generato un testo positivo sono state percepite come più ottimistiche rispetto a quelle che prevedevano l'assenza di strumenti di intelligenza artificiale o la risposta con risposte negative generate automaticamente. I ricercatori ritengono che ciò dimostri che ci sono alcuni vantaggi nel comunicare utilizzando l'intelligenza artificiale in determinate situazioni, come scenari più transazionali o professionali.

“Abbiamo chiesto ai crowdworker di discutere le politiche sul rifiuto ingiusto del lavoro. In un tale contesto lavorativo, un tono positivo più amichevole ha principalmente conseguenze positive poiché un linguaggio positivo avvicina le persone l'una all'altra", ci ha detto Jung.

“Tuttavia, in un altro contesto la stessa lingua potrebbe avere un impatto diverso e persino negativo. Ad esempio, una persona che condivide notizie tristi su una morte in famiglia potrebbe non apprezzare una risposta allegra e felice e probabilmente ne sarà scoraggiata. In altre parole, il significato di "positivo" e "negativo" varia notevolmente a seconda del contesto".

La comunicazione umana sarà modellata dall'intelligenza artificiale man mano che la tecnologia diventerà sempre più accessibile. Microsoft e Google, ad esempio, hanno entrambi annunciato strumenti volti ad aiutare gli utenti a scrivere automaticamente e-mail o documenti.

“Anche se l'intelligenza artificiale potrebbe essere in grado di aiutarti a scrivere, sta alterando il tuo linguaggio in modi che potresti non aspettarti, soprattutto facendoti sembrare più positivo. Ciò suggerisce che utilizzando l'intelligenza artificiale che genera testo, stai sacrificando parte della tua voce personale", Jess Hohenstein, autrice principale dello studio e ricercatrice presso la Cornell University, avvertito questo mese.  

Hohenstein ci ha detto che le piacerebbe "vedere più trasparenza su questi strumenti" che includa un modo per rivelare quando le persone li stanno usando. "Fare passi verso una maggiore apertura e trasparenza intorno agli LLM potrebbe potenzialmente aiutare ad alleviare parte di quel sospetto generale che abbiamo visto nei confronti dell'IA". ®

Timestamp:

Di più da Il registro