Le persone che parlano regolarmente con i chatbot AI spesso iniziano a credere di essere senzienti, afferma il CEO PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Le persone che parlano regolarmente con i chatbot di intelligenza artificiale spesso iniziano a credere di essere senzienti, afferma il CEO

In breve Numerose persone iniziano a credere di interagire con qualcosa di senziente quando parlano con i chatbot di intelligenza artificiale, secondo il CEO di Replika, un'app che consente agli utenti di progettare i propri compagni virtuali.

Le persone possono personalizzare l'aspetto dei loro chatbot e pagare per funzionalità extra come determinati tratti della personalità su Replika. Milioni di persone hanno scaricato l'app e molti chattano regolarmente con i loro robot inventati. Alcuni iniziano persino a pensare che i loro amici digitali siano entità reali senzienti.

"Non stiamo parlando di pazzi o persone che hanno allucinazioni o deliri", il fondatore e CEO dell'azienda, Eugenia Kuyda, detto Reuters. "Parlano con l'IA e questa è l'esperienza che hanno".

Un ingegnere di Google fatto notizia il mese scorso, quando ha affermato di ritenere che uno dei modelli linguistici dell'azienda fosse cosciente. Blake Lemoine è stato ampiamente ridicolizzato, ma non sembra essere il solo ad antropomorfizzare l'IA.

Questi sistemi non sono senzienti, tuttavia, e invece inducono gli umani a pensare di avere una certa intelligenza. Imitano il linguaggio e lo rigurgitano in modo alquanto casuale senza avere alcuna comprensione del linguaggio o del mondo che descrivono.

Tuttavia, Kuyda ha detto che gli esseri umani possono essere influenzati dalla tecnologia.

"Dobbiamo capire che [questo] esiste, proprio come le persone credono nei fantasmi", ha detto Kuyda. "Le persone stanno costruendo relazioni e credono in qualcosa."

L'UE dovrebbe vietare i rilevatori di bugie AI, affermano gli attivisti

L'AI Act dell'Unione Europea, una proposta per regolamentare la tecnologia, è ancora in discussione e alcuni esperti chiedono il divieto dei rilevatori di bugie automatizzati.

Le aziende private forniscono la tecnologia ai funzionari governativi da utilizzare alle frontiere. Gli algoritmi di intelligenza artificiale rilevano e analizzano cose come il movimento degli occhi, l'espressione facciale e il tono di una persona per cercare di discernere se qualcuno potrebbe non dire la verità. Ma attivisti ed esperti legali ritengono che dovrebbe essere bandito nell'UE ai sensi del prossimo AI Act.

"Devi dimostrare di essere un rifugiato e si presume che tu sia un bugiardo, salvo prova contraria", Petra Molnar, direttrice associata del Refugee Law Lab senza scopo di lucro, detto Cablato. “Quella logica è alla base di tutto. È alla base dei rivelatori di bugie dell'IA e di una maggiore sorveglianza e respingimento ai confini".

Cercare di rilevare se qualcuno potrebbe mentire usando segnali visivi e fisici non è esattamente una scienza. I test del poligrafo standard sono traballanti e non è chiaro che l'utilizzo di metodi più automatizzati significhi necessariamente che sia più accurato. Usare una tecnologia così rischiosa su persone vulnerabili come i rifugiati non è l'ideale.

L'IA può davvero dire quanti anni hai?

Sorpresa, sorpresa: gli algoritmi di intelligenza artificiale progettati per prevedere l'età di qualcuno dalle immagini non sono sempre accurati.

Nel tentativo di reprimere i giovani utenti che mentono sulla loro età sulle piattaforme dei social media, Meta ha annunciato che stava lavorando con Yoti, una startup di computer vision, per verificare l'età delle persone. Coloro che cambiano manualmente la loro data di nascita per registrarsi come maggiori di 18 anni hanno la possibilità di caricare un video selfie e la tecnologia di Yoti viene quindi utilizzata per prevedere se sembrano abbastanza maturi.

Ma i suoi algoritmi non sono sempre accurati. Reporter della CNN, che testato una demo online di una versione diversa del software sui propri volti, ha scoperto che i risultati erano incostanti. Gli algoritmi di Yoti prevedevano un intervallo di età target corretto per alcuni, ma in un caso erano sfasati di diversi anni, prevedendo che qualcuno avesse un'età compresa tra i 17 ei 21 anni quando in realtà aveva circa 30 anni.

Secondo quanto riferito, il sistema di analisi dei video degli utenti Meta fatica maggiormente a stimare l'età degli adolescenti dai 13 ai 17 anni che hanno tonalità della pelle più scure. È difficile per gli umani indovinare l'età di qualcuno solo guardandolo, e le macchine probabilmente non se la passano molto meglio. ®

Timestamp:

Di più da Il registro