Se i chatbot IA sono senzienti, possono essere anche scoiattoli PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Se i chatbot AI sono senzienti, possono essere anche scoiattoli

In Breve No, i chatbot AI non sono senzienti.

Non appena il storia su un ingegnere di Google, che ha denunciato quello che ha affermato essere un modello linguistico senziente, è diventato virale, più pubblicazioni sono intervenute per dire che si sbagliava.

I dibattito se la società è Chatbot LaMDA è cosciente o ha un'anima o no non è molto buona, solo perché è troppo facile chiudere la parte che crede che ce l'abbia. Come la maggior parte dei modelli linguistici di grandi dimensioni, LaMDA ha miliardi di parametri ed è stato addestrato su testo prelevato da Internet. Il modello apprende le relazioni tra le parole e quali hanno maggiori probabilità di apparire l'una accanto all'altra.

Sembra abbastanza intelligente ed è in grado di rispondere correttamente alle domande a volte. Ma non sa nulla di ciò che sta dicendo e non ha una vera comprensione del linguaggio o di qualsiasi cosa in realtà. I modelli linguistici si comportano in modo casuale. Chiedigli se ha dei sentimenti e potrebbe dire di sì o no. Chiedi se è un scoiattolo, e potrebbe anche dire sì o no. È possibile che i chatbot AI possano effettivamente essere scoiattoli?

FTC lancia l'allarme sull'utilizzo dell'IA per la moderazione dei contenuti

L'IA sta cambiando Internet. Foto dall'aspetto realistico vengono utilizzate nei profili di account falsi sui social media, circolano video pornografici deepfake di donne, immagini e testi generati da algoritmi vengono pubblicati online.

Gli esperti hanno avvertito che queste capacità possono aumentare i rischi di frode, bot, disinformazione, molestie e manipolazione. Le piattaforme si stanno rivolgendo sempre più agli algoritmi di intelligenza artificiale per rilevare e rimuovere automaticamente i contenuti dannosi.

Ora, la FTC avverte che questi metodi potrebbero peggiorare i problemi. "Il nostro rapporto sottolinea che nessuno dovrebbe considerare l'IA come la soluzione alla diffusione di contenuti online dannosi", Samuel Levine, direttore del Bureau of Consumer Protection dell'FTC, disse in un comunicato.

Sfortunatamente, la tecnologia può essere "imprecisa, parziale e discriminatoria in base alla progettazione". "Combattere i danni online richiede un ampio sforzo sociale, non una convinzione eccessivamente ottimistica che la nuova tecnologia, che può essere sia utile che pericolosa, ci libererà da questi problemi", ha affermato Levine.

Spotify avvia l'avvio vocale deepfake

Il gigante dello streaming audio Spotify ha acquisito Sonantic, un nuovo arrivato con sede a Londra focalizzato sulla creazione di software di intelligenza artificiale in grado di generare voci completamente inventate.

La tecnologia di Sonantic è stata utilizzata per i giochi e nei film di Hollywood, aiutando a dare voce all'attore Val Kilmer Top Gun: Maverick. Kilmer ha interpretato Iceman nel film d'azione; le sue battute sono state pronunciate da una macchina a causa di difficoltà nel parlare dopo aver combattuto contro il cancro alla gola.

Ora, la stessa tecnologia sembra farsi strada anche su Spotify. L'applicazione ovvia sarebbe usare le voci dell'IA per leggere gli audiolibri. Spotify, dopotutto, acquisito Findaway, una piattaforma di audiolibri, l'anno scorso a novembre. Sarà interessante vedere se gli ascoltatori saranno in grado di personalizzare il modo in cui vogliono che suonino i loro narratori automatici. Forse ci saranno voci diverse per leggere ad alta voce libri per bambini rispetto alle storie dell'orrore.

"Siamo davvero entusiasti del potenziale per portare la tecnologia vocale AI di Sonantic sulla piattaforma Spotify e creare nuove esperienze per i nostri utenti", Ziad Sultan, vicepresidente della personalizzazione di Spotify, disse in una dichiarazione. "Questa integrazione ci consentirà di coinvolgere gli utenti in un modo nuovo e ancora più personalizzato", ha suggerito.

Software di intelligenza artificiale per test TSA per scansionare automaticamente i bagagli

La US Transportation Security Administration verificherà se il software di visione artificiale può controllare automaticamente i bagagli per cercare oggetti che sembrano strani o non ammessi sui voli.

La sperimentazione si svolgerà in laboratorio e non è ancora pronta per gli aeroporti reali. Il software funziona con l'imaging 3D Computed Tomography (CT) già esistente che gli agenti della TSA utilizzano attualmente per sbirciare tra i bagagli delle persone ai controlli di sicurezza. Se gli agenti vedono qualcosa di sospetto, mettono il bagaglio da parte e lo frugano.

Gli algoritmi di intelligenza artificiale possono automatizzare parte di questo processo; possono identificare oggetti e contrassegnare istanze in cui rilevano elementi particolari.

"Poiché la TSA e altre agenzie di sicurezza adottano la CT, questa applicazione dell'IA rappresenta un salto potenzialmente trasformativo nella sicurezza aerea, rendendo i viaggi aerei più sicuri e coerenti, consentendo al contempo agli ufficiali altamente qualificati della TSA di concentrarsi sui bagagli che rappresentano il rischio maggiore", disse Alexis Long, product director di Pangiam, l'azienda tecnologica che collabora con l'amministrazione.

"Il nostro obiettivo è utilizzare l'intelligenza artificiale e le tecnologie di visione artificiale per migliorare la sicurezza fornendo alla TSA e agli agenti di sicurezza potenti strumenti per rilevare oggetti proibitivi che potrebbero rappresentare una minaccia per la sicurezza aerea è un passo significativo verso la definizione di un nuovo standard di sicurezza con implicazioni a livello mondiale". ®

Timestamp:

Di più da Il registro