If AI chatbots are sentient, they can be squirrels, too PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Dacă chatboții AI sunt sensibili, pot fi și veverițe

Pe scurt Nu, chatboții AI nu sunt sensibili.

De îndată ce poveste pe un inginer Google, care a suflat cu privire la ceea ce a susținut că este un model de limbaj sensibil, a devenit viral, mai multe publicații au intervenit pentru a spune că greșește.

dezbatere privind dacă companiei Chatbot LaMDA este conștient sau are suflet sau nu nu este unul foarte bun, doar pentru că este prea ușor să închizi partea care crede că o are. La fel ca majoritatea modelelor de limbă mari, LaMDA are miliarde de parametri și a fost instruit pe text răzuit de pe internet. Modelul învață relațiile dintre cuvinte și care dintre ele sunt mai probabil să apară unul lângă celălalt.

Pare suficient de inteligent și uneori este capabil să răspundă corect la întrebări. Dar nu știe nimic despre ceea ce spune și nu înțelege cu adevărat limbajul sau nimic cu adevărat. Modelele de limbaj se comportă aleatoriu. Întrebați-l dacă are sentimente și ar putea spune da sau Nu.. Întrebați dacă este o veveriţăși s-ar putea să spună și da sau nu. Este posibil ca chatboții AI să fie de fapt veverițe?

FTC trage alarma cu privire la utilizarea AI pentru moderarea conținutului

AI schimbă internetul. Fotografiile cu aspect realist sunt folosite în profilurile de conturi false de pe rețelele de socializare, videoclipuri deepfake pornografice ale femeilor circulă, imaginile și textele generate de algoritmi sunt postate online.

Experții au avertizat că aceste capacități pot crește riscurile de fraudă, roboți, dezinformare, hărțuire și manipulare. Platformele apelează din ce în ce mai mult la algoritmi AI pentru a detecta și elimina automat conținutul prost.

Acum, FTC avertizează că aceste metode ar putea agrava problemele. „Raportul nostru subliniază că nimeni nu ar trebui să trateze inteligența artificială ca soluție pentru răspândirea conținutului online dăunător”, Samuel Levine, director al Biroului pentru Protecția Consumatorului din cadrul FTC, a spus într-o declarație.

Din păcate, tehnologia poate fi „inexactă, părtinitoare și discriminatorie prin proiectare”. „Combaterea vătămării online necesită un efort larg al societății, nu o convingere prea optimistă că noua tehnologie – care poate fi atât utilă, cât și periculoasă – va elimina aceste probleme de pe mâinile noastre”, a spus Levine.

Spotify pornește vocea deepfake

Gigantul de streaming audio Spotify a achiziționat Sonantic, un parvenit din Londra care se concentrează pe construirea de software AI capabil să genereze voci complet inventate.

Tehnologia Sonantic a fost folosită pentru jocuri și în filmele de la Hollywood, ajutând să-i ofere actorului Val Kilmer o voce în Top Gun: Maverick. Kilmer l-a jucat pe Iceman în filmul de acțiune; replicile sale au fost rostite de o mașină din cauza dificultăților de vorbire după ce s-a luptat cu cancerul de gât.

Acum, aceeași tehnologie pare să se îndrepte și spre Spotify. Aplicația evidentă ar fi folosirea vocilor AI pentru a citi cărți audio. Spotify, la urma urmei, dobândite Findaway, o platformă de cărți audio, anul trecut, în noiembrie. Va fi interesant de văzut dacă ascultătorii vor putea să personalizeze modul în care doresc să sune naratorii mașinii lor. Poate că vor exista voci diferite pentru a citi cu voce tare cărți pentru copii în comparație cu poveștile de groază.

„Suntem foarte încântați de potențialul de a aduce tehnologia vocală AI Sonantic pe platforma Spotify și de a crea experiențe noi pentru utilizatorii noștri”, Ziad Sultan, vicepreședintele Spotify pentru personalizare, a spus într-o declarație. „Această integrare ne va permite să angajăm utilizatorii într-un mod nou și chiar mai personalizat”, a sugerat el.

TSA testează software AI pentru a scana automat bagajele

Administrația de Securitate a Transporturilor din SUA va testa dacă software-ul de viziune computerizată poate verifica automat bagajele pentru a căuta articole care arată ciudat sau nu sunt permise pe zboruri.

Testul va avea loc într-un laborator și nu este încă pregătit pentru aeroporturile reale. Software-ul funcționează cu imagistica 3D Computed Tomography (CT) deja existentă, pe care ofițerii TSA o folosesc pentru a arunca o privire prin bagajele oamenilor la punctele de control de securitate. Dacă agenții văd ceva suspect, vor lua bagajele într-o parte și vor trece prin el.

Algoritmii AI pot automatiza o parte din acest proces; pot identifica obiecte și pot semnala cazurile în care detectează anumite elemente.

„Pe măsură ce TSA și alte agenții de securitate adoptă CT, această aplicație a AI reprezintă un salt potențial transformator în securitatea aviației, făcând călătoriile aeriene mai sigure și mai consecvente, permițând în același timp ofițerilor foarte instruiți ai TSA să se concentreze asupra bagajelor care prezintă cel mai mare risc.” a spus Alexis Long, director de produs la Pangiam, compania de tehnologie care lucrează cu administrația.

„Scopul nostru este să folosim tehnologii AI și de viziune computerizată pentru a îmbunătăți securitatea, oferind TSA și ofițerilor de securitate instrumente puternice pentru a detecta articole prohibitive care pot reprezenta o amenințare pentru securitatea aviației, este un pas semnificativ către stabilirea unui nou standard de securitate cu implicații la nivel mondial.” ®

Timestamp-ul:

Mai mult de la Registrul