Asistenti de ajutor, parteneri romantici sau escroci? Partea a doua » Blogul CCC

Asistenti de ajutor, parteneri romantici sau escroci? Partea a doua » Blogul CCC

CCC a susținut trei sesiuni științifice la Conferința anuală AAAS din acest an și, în cazul în care nu ați putut participa în persoană, vom recapitula fiecare sesiune. Astăzi, vom rezuma punctele importante ale porțiunii de întrebări și răspunsuri a sesiunii, „Modele lingvistice mari: asistenți de ajutor, parteneri romantici sau escroci?” Acest panou, moderat de Dr. Maria Gini, membru al Consiliului CCC și profesor de informatică și inginerie la Universitatea din Minnesota, prezentate Dr. Ece Kamar, director general al AI Frontiers la Microsoft Research, Dr. Hal Daumé III, profesor de informatică la Universitatea din Maryland și Dr. Jonathan May, profesor de informatică la Institutul de Științe Informaționale de la Universitatea din California de Sud.

Mai jos este rezumatul fascinant al porțiunii de întrebări și răspunsuri din Modele lingvistice mari: asistenți de ajutor, parteneri romantici sau escroci?Matei 22:21panou. Este AI capabil să iubească? Ce fel de impact ar putea avea aceste modele asupra copiilor? Cum se situează capacitățile AI ale Statelor Unite? Aflați mai jos:

Î: Când implementăm modele de limbaj AI în contexte multilingve și multiculturale, ce practici ar trebui să facem?

Dr. May: În dezvoltarea tehnologiei și în coborârea pereților, oamenii ar trebui să facă mai ușor ceea ce doresc să facă. Ceea ce toată lumea vrea să facă, nu doar eu. Mulțumesc AI, minunat să mă concentrez asupra mea, dar ar trebui să fim atenți la restul lumii în general.

Î: Unele dintre aceste probleme generale – nu este prima dată când sunt aduse în discuție. Se pare că comunitatea nu va ajunge singură la acestea. Mă întreb dacă toți aveți idei despre cum să treceți aceste conversații în acțiune?

Dr. Kamar: Există roluri pentru o mulțime de partide diferite de jucat. Evaluarea contează foarte mult în reprezentarea diferitelor culturi și populații. Când seturile de date nu au diversitate în reprezentarea lumii, sistemele rezultate nu sunt reprezentative. Trebuie depusă multă muncă în formarea celor mai bune practici de evaluare, a reglementărilor și a măsurilor de conformitate. Casa Albă și-a luat angajamente, iar Planul pentru o Declarație a drepturilor AI începe. Au fost implementate procese în întreaga industrie, cu multe minți grozave care lucrează împreună (nu perfect, dar generalizarea în industrie există potențial). Au loc întâlniri pentru a ajunge la convergență în ceea ce privește începerea în prezent ca standarde; eventual în reglementările viitoare. Cum facem evaluări, analize de siguranță etc.? Niciuna dintre aceste conversații nu are diversitatea care trebuie să fie în cameră. Gândiți-vă la cine trebuie să fie în cameră când se iau decizii.

Dr. Daumé: Cred că atunci când oamenii vorbesc despre reglementări, în special în IA, toată lumea se gândește la reglementări punitive. Dar acest lucru poate stimula și reglementarea. Finanțarea factorilor de decizie politică și FSN ar putea promova dezvoltarea de instrumente care ne ajută ca națiune și lume.

Î: Finanțarea pentru IA este cu mult în urmă în SUA în comparație cu alte locuri din lume. Noua investiție a NSF este de 20 de milioane, ceea ce reprezintă arahide în comparație cu investițiile din industrie. Guvernul federal a publicat rapoarte din studii de ani de zile, iar concluzia este că SUA trebuie să pornească. Îmi place analogia cu schimbarea de fază a lui Ece. Limita termodinamică cu numere este în creștere. Vrem AI deschis, cine va plăti pentru asta? Nu sunt destui bani. Care sunt sugestiile tale? Deschis AI? Dar nu avem nici măcar publicarea cu acces deschis. I-ati recomanda presedintelui sa nu aiba legislatie?

Dr. May: Cred că există bani; cineva mi-a observat că ați reușit să convingeți guvernul să învârtă particule, dar nu ați reușit să ni le deturnați.

Dr. Kamar: Motivul pentru care companiile care construiesc aceste modele obțin aceste rezultate este prin centralizarea resurselor. Sunt multe pe care le obții de la scară. Ar trebui să ne gândim la modul în care centralizăm investițiile în mediul academic, astfel încât să obținem o resursă comună în loc să avem o mulțime de modele diferite. Vedem că nu este vorba doar de amploare. Nu este ceva ce trebuie să facem acum, dar arhitectura actuală nu este grozavă. A avea capabilități bune de AI nu ar trebui să fie doar despre mai mulți bani și mai multă putere.

Î: Prejudecăți de suprareprezentare în răspunsuri. Știm de unde vine? Sunt un tip de matematică, iar gândurile mele se îndreaptă spre asta este o combinație de erori de rotunjire care adaugă părtinire? Dacă o reprezentare egală, mi-aș imagina că ar produce o reprezentare egală sau ar mai fi acolo?

Dr. May: Multe se rezumă la funcțiile de creștere. Soft Maxim este o parte importantă a antrenamentului. Cel mai înalt vrea să fie numărul 1. Nu este ca și cum ar fi o ieșire perfectă în limbaj, dar vrem să avem o părtinire”. Vrem doar să minimizăm răul față de oameni și de multe ori nu le recunoaștem. Implementarea fără înțelegere este o problemă. 

Dr. Daumé: Una dintre provocările acestor modele este că nu mai există modele AI înguste. Ei spun că pot face orice, așa că este greu să testezi totul.

Î: Ați menționat că AI este un instrument sau un înlocuitor, în ce direcție vedeți că merge?

Dr. Daumé: Sunt mai mulți bani pentru înlocuire.

Î: Titlul a menționat AI romantic. Vreau să aflu mai multe despre asta.

Dr. May: Nu există suficientă intenție în modele pentru ca acestea să fie înlocuitori romantici viabile, dar sunt la fel de buni ca oamenii în a recunoaște tiparele chiar și atunci când acestea nu există.

Dr. Kamar: Vă sfătuiesc să nu vă gândiți la AI ca ceea ce este acum. Încercați să proiectați în viitor – imaginați-vă că în câțiva ani, aceste sisteme vor fi personalizate pentru dvs. Care este relația pe care o vei avea cu acel sistem?

Dr. May: Dar te va iubi?

Dr. Kamar: Îți va spune că te iubește.

Dr. May: Dar este suficient?

Î: Vreau să aud sfaturi pentru oameni care nu fac parte din domeniul AI. Cum ne putem implica cu aceste instrumente? Ce ar trebui să știm?

Dr. Daumé: La Universitatea din Maryland, avem multe conversații. Îmi este ușor să spun că jurnalismul va fi diferit în 5 ani și în alte domenii. Este incomod să spui că rolul profesorului va fi diferit în 5 ani, dar va fi. Am colegi care folosesc diferite plug-in-uri LLM pentru propuneri și lucrări; deja se întâmplă. Am în mod regulat întrebări de examen scrise de instrumente, dar trebuie să verific exactitatea. Scrierea întrebărilor de la examen nu îmi aduce bucurie, așa că AI-ul poate să-mi ia din farfurie. În învățământul superior, trebuie să ne gândim mai mult la asta. Cum ne transformă locurile de muncă? Există o mulțime de discuții în cadrul universităților, dar nu o mulțime de resurse comune.

Î: Cât de binevenită este AI să fie judecată în viitor atunci când se analizează aplicațiile militare? Nu s-a menționat niciun fel de aplicații militare în această sesiune – știu că dacă citesc oamenii pe jumătate corect, există o divergență de opinii pe acest subiect.

Dr. May: Armata este largă, o mare parte din munca mea este sponsorizată de departamentul de apărare. Greu de răspuns în mod specific, în general, departamentul de apărare (nu vorbesc în numele lor) pare să acorde prioritate siguranței și securității SUA și va continua să facă asta și să folosească LLM-urile și AI pentru a ajuta SUA să fie în siguranță.

Dr. Kamar: Trebuie să vorbim și despre utilizarea dublă. Dacă luați activități militare în biologie sau securitate cibernetică, putem lua instrumentele foarte promițătoare pe care le avem acum și le putem folosi pentru că dorim sisteme sigure și medicamente noi. Dar cu fiecare utilizare bună vei avea o utilizare proastă. Care sunt cazurile de utilizare în care nu dorim să fie folosită AI? În aplicațiile open source, oamenii pot replica aceste modele. Cum îi împiedicăm pe oameni să facă rău în aceste cazuri?

Î: Când interacționează cu modele de limbaj, adulții înțeleg că nu este în viață/conștient de sine, dar cum rămâne cu câteva generații mai târziu? copii care au avut-o de când își amintesc că au socializat? Au un tutor sau un profesor care este complet AI; sistemul este încorporat cu un instructor. Ei ar putea crea o legătură cu instrucțiunea, să creadă că au o relație grozavă și apoi programul este șters. Care este psihologia copilului a legăturilor socio-emoționale cu entitățile non-persoane?

Dr. Kamar: Avem nevoie de cercetare, de cercetare interdisciplinară și avem nevoie de ea rapid. În 5 ani, s-ar putea să primim aceste răspunsuri, dar în acel timp AI poate deveni o parte importantă din viața copilului meu de 10 ani. Întrebarea ta este extrem de importantă. Există cercetări care arată că chiar și sistemele inocente pot avea uși în spate. Trebuie să avem experți în securitate și specialiști în dezvoltarea copiilor care să aibă acele conversații astăzi.

Dr. Daumé: Nu știu dacă cineva își amintește de supravegherea Barbie – există o mare problemă de confidențialitate aici. Este o problemă socială mai interesantă. Răspunsurile au fost reglate pentru a fi prea pozitive. Copiii ar spune lucruri ca și cum aș fi supărat pentru că Sally nu s-a jucat cu mine și nu oferă sugestii adecvate din punct de vedere social. Sunt îngrijorat de agenții foarte pozitivi, pentru că pozitivitatea nu este întotdeauna răspunsul corect.

Vă mulțumim foarte mult pentru citire și rămâneți pe fază pentru recapitularea celui de-al treilea și ultimul panel de la AAAS 2024.

Timestamp-ul:

Mai mult de la Blog CCC