Cum ar putea studia sentimentele animalelor să rezolve puzzle-ul etic al inteligenței artificiale sensibile

Cum ar putea studia sentimentele animalelor să rezolve puzzle-ul etic al inteligenței artificiale sensibile

How Studying Animal Sentience Could Help Solve the Ethical Puzzle of Sentient AI PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Inteligență artificială a progresat atât de rapid încât chiar și unii dintre oamenii de știință responsabili pentru multe evoluții cheie sunt tulburați de ritmul schimbării. La începutul acestui an, peste 300 de profesioniști care lucrează în AI și alte persoane publice interesate au emis a avertisment contondent despre pericolul pe care îl prezintă tehnologia, comparând riscul cu cel al pandemiilor sau al războiului nuclear.

Chiar sub suprafața acestor preocupări se află problema conștiinței mașinii. Chiar dacă nu există „nimeni acasă” în interiorul IA de astăzi, unii cercetători se întreabă dacă ar putea într-o zi să arate o licărire de conștiință – sau mai mult. Dacă se întâmplă acest lucru, va ridica o serie de preocupări morale și etice, spune Jonathan Birch, profesor de filozofie la London School of Economics and Political Science.

Pe măsură ce tehnologia AI face un salt înainte, întrebările etice generate de interacțiunile om-AI au căpătat o nouă urgență. „Nu știm dacă să-i aducem în cercul nostru moral sau să-i excludem”, a spus Birch. „Nu știm care vor fi consecințele. Și iau asta în serios ca pe un risc real despre care ar trebui să începem să vorbim. Nu chiar pentru că cred Chat GPT este în acea categorie, dar pentru că nu știu ce se va întâmpla în următorii 10 sau 20 de ani.”

Între timp, spune el, am putea face bine să studiem alte minți non-umane, cum ar fi cele ale animalelor. Birch conduce universitatea Proiectul Fundamentele Animal Sentience, un efort finanțat de Uniunea Europeană care „își propune să încerce să facă unele progrese în privința marilor chestiuni ale sensibilității animalelor”, așa cum a spus Birch. „Cum dezvoltăm metode mai bune pentru a studia experiențele conștiente ale animalelor în mod științific? Și cum putem pune în funcțiune știința în curs de dezvoltare a sensibilității animalelor, pentru a proiecta politici, legi și modalități mai bune de îngrijire a animalelor?”

Interviul nostru a fost realizat prin Zoom și prin e-mail și a fost editat pentru lungime și claritate.

(Acest articol a fost publicat inițial Întuneric. Citeste Articol original.)

Întuneric: Există o dezbatere continuă asupra faptului dacă AI poate fi conștientă sau sensibilă. Și pare să existe o întrebare paralelă dacă AI poate părea a fi conștient. De ce este această distincție atât de importantă?

Jonathan Birch: Cred că este o problemă uriașă și ceva care ar trebui să ne facă destul de frică, de fapt. Chiar și acum, sistemele AI sunt destul de capabile să-și convingă utilizatorii de sensibilitatea lor. Am văzut asta anul trecut cu cazul lui Blake Lemoine, inginerul Google care s-a convins că sistemul la care lucra era sensibil – și tocmai atunci când rezultatul este pur text și când utilizatorul este un expert în inteligență artificială cu înaltă calificare.

Așa că imaginați-vă o situație în care AI este capabilă să controleze o față umană și o voce umană, iar utilizatorul nu are experiență. Cred că AI este deja în situația în care poate convinge un număr mare de oameni că este o ființă sensibilă destul de ușor. Și este o mare problemă, pentru că cred că vom începe să vedem oameni făcând campanie pentru bunăstarea AI, Drepturi AI, și lucruri de genul ăsta.

Și nu vom ști ce să facem în privința asta. Pentru că ceea ce ne-am dori este un argument de declanșare foarte puternic care să demonstreze că sistemele AI despre care vorbesc sunt nu conştient. Și nu avem asta. Înțelegerea noastră teoretică a conștiinței nu este suficient de matură pentru a ne permite să declarăm cu încredere absența ei.

UD: Un robot sau un sistem AI ar putea fi programat să spună ceva de genul: „Încetează, mă rănești”. Dar o simplă declarație de acest fel nu este suficientă pentru a servi drept test de turnesol pentru simțire, nu?

JB: Puteți avea sisteme foarte simple [cum ar fi acelea] dezvoltate la Imperial College London pentru a ajuta medicii cu pregătirea lor imita expresiile durerii umane. Și nu există absolut niciun motiv să credem că aceste sisteme sunt sensibile. Ei nu simt cu adevărat durere; tot ceea ce fac este să mapeze intrările la ieșiri într-un mod foarte simplu. Dar expresiile durerii pe care le produc sunt destul de reale.

Cred că suntem într-o poziție oarecum similară cu chatboții precum ChatGPT - că aceștia sunt antrenați pe peste un trilion de cuvinte de date de antrenament pentru a imita modelele de răspuns ale unui om pentru a răspunde în moduri în care un om ar răspunde.

Deci, bineînțeles, dacă îi oferiți un prompt la care un om i-ar răspunde făcând o expresie a durerii, va fi capabil să imite cu pricepere acel răspuns.

Dar cred că atunci când știm că aceasta este situația – când știm că avem de-a face cu mimetism abil – nu există niciun motiv serios pentru a crede că există vreo experiență reală de durere în spatele asta.

UD: Această entitate pe care studenții la medicină se antrenează, bănuiesc că este ceva ca un robot?

JB: Așa e, da. Deci au o chestie asemănătoare manechinului, cu o față umană, iar doctorul este capabil să apese brațul și să obțină o expresie care imită expresiile pe care le-ar da oamenii pentru diferite grade de presiune. Este pentru a ajuta medicii să învețe cum să pună în aplicare tehnicile pacienților în mod corespunzător, fără a provoca prea multă durere.

Și suntem foarte ușor absorbiți de îndată ce ceva are o față umană și face expresii ca un om, chiar dacă nu există deloc inteligență reală în spate.

Deci, dacă vă imaginați că fiind asociat cu tipul de IA pe care îl vedem în ChatGPT, aveți un fel de mimă care este cu adevărat foarte convingătoare și care va convinge mulți oameni.

UD: Sentința pare ceva ce știm din interior, ca să spunem așa. Ne înțelegem propria sensibilitate, dar cum ați testa sensibilitatea la alții, fie că este o IA sau orice altă entitate dincolo de voi înșivă?

JB: Cred că suntem într-o poziție foarte puternică cu alți oameni, care pot vorbi cu noi, pentru că acolo avem un corp de dovezi incredibil de bogat. Și cea mai bună explicație pentru asta este că alți oameni au experiențe conștiente, la fel ca noi. Și astfel putem folosi acest tip de inferență pe care filozofii o numesc uneori „inferență la cea mai bună explicație”.

Cred că putem aborda subiectul altor animale exact în același mod - că alte animale nu vorbesc cu noi, dar manifestă comportamente care sunt explicate în mod foarte natural prin atribuirea unor stări precum durerea. De exemplu, dacă vezi un câine lingându-și rănile după o rănire, alăptând zona respectivă, învățând să evite locurile în care riscă să se rănească, ai explica în mod natural acest tipar de comportament punând o stare de durere.

Și cred că atunci când avem de-a face cu alte animale care au un sistem nervos destul de asemănător cu al nostru și care au evoluat la fel ca noi, cred că acest tip de inferență este complet rezonabil.

UD: Dar un sistem AI?

JB: În cazul AI, avem o problemă uriașă. Avem în primul rând problema că substrat e diferit. Nu știm cu adevărat dacă experiența conștientă este sensibilă la substrat – trebuie să aibă un substrat biologic, adică un sistem nervos, un creier? Sau este ceva ce poate fi realizat într-un material total diferit - un substrat pe bază de siliciu?

Dar mai există și problema pe care am numit-o „problema jocurilor” – că atunci când sistemul are acces la trilioane de cuvinte de date de antrenament și a fost antrenat cu scopul de a imita comportamentul uman, tipurile de modele de comportament pe care le produce ar putea fi explicat prin faptul că are cu adevărat experiența conștientă. Sau, alternativ, ar putea fi explicate doar prin stabilirea obiectivului de a se comporta așa cum ar răspunde un om în acea situație.

Deci chiar cred că avem probleme în cazul AI, pentru că este puțin probabil să ne găsim într-o poziție în care este în mod clar cea mai bună explicație pentru ceea ce vedem - că AI este conștient. Vor exista întotdeauna explicații alternative plauzibile. Și este o legătură foarte dificilă din care să ieși.

UD: Care credeți că ar putea fi cel mai bun pariu al nostru pentru a face distincția între ceva care este de fapt conștient și o entitate care doar are aspect de simțire?

JB: Cred că prima etapă este să recunoaștem că este o problemă foarte profundă și dificilă. A doua etapă este să încercăm și să învățăm cât de mult putem din cazul altor animale. Cred că atunci când studiem animalele care sunt destul de apropiate de noi, în termeni evolutivi, cum ar fi câinii și alte mamifere, suntem întotdeauna lăsați nesiguri dacă experiența conștientă ar putea depinde de mecanisme cerebrale foarte specifice care sunt distinctive pentru creierul mamiferelor.

Pentru a trece peste asta, trebuie să ne uităm la o gamă cât mai largă de animale. Și trebuie să ne gândim în special la nevertebrate, cum ar fi caracatițele și insectele, unde acesta este potențial un alt exemplu de experiență conștientă evoluat independent. Așa cum ochiul unei caracatițe a evoluat complet separat de proprii noștri ochi – are acest amestec fascinant de asemănări și diferențe – cred că și experiențele sale conștiente vor fi așa: evoluat independent, similar în anumite privințe, foarte, foarte diferit în alte moduri.

Și prin studierea experiențelor nevertebratelor, cum ar fi caracatițele, putem începe să înțelegem care sunt caracteristicile cu adevărat profunde pe care trebuie să le aibă un creier pentru a susține experiențe conștiente, lucruri care merg mai adânc decât doar a avea aceste structuri specifice creierului care sunt acolo la mamifere. Ce fel de calcule sunt necesare? Ce fel de prelucrare?

Apoi – și văd asta ca o strategie pe termen lung – am putea să ne întoarcem la cazul AI și să spunem, ei bine, are acele tipuri speciale de calcule pe care le găsim la animalele conștiente precum mamiferele și caracatițele?

UD: Crezi că într-o zi vom crea IA sensibilă?

JB: Sunt pe la 50:50 la asta. Există o șansă ca simțirea să depindă de trăsăturile speciale ale creierului biologic și nu este clar cum să testăm dacă o face. Deci, cred că va exista întotdeauna o incertitudine substanțială în AI. Sunt mai încrezător în acest lucru: dacă conștiința poate in principiu poate fi realizat în software-ul de calculator, atunci cercetătorii AI vor găsi o modalitate de a face acest lucru.

Credit imagine: Cash Macanaya / Unsplash 

Timestamp-ul:

Mai mult de la Singularity Hub