Kuidas loomade mõistuse uurimine võib aidata lahendada tundliku tehisintellekti eetilist mõistatust

Kuidas loomade mõistuse uurimine võib aidata lahendada tundliku tehisintellekti eetilist mõistatust

Kuidas loomade mõistuse uurimine võib aidata lahendada tundliku tehisintellekti PlatoBlockchaini andmete intelligentsuse eetilist mõistatust. Vertikaalne otsing. Ai.

tehisintellekti on arenenud nii kiiresti, et isegi mõned paljude oluliste arengute eest vastutavad teadlased on muutuste tempo pärast mures. Selle aasta alguses andsid enam kui 300 tehisintellektiga töötavat spetsialisti ja muud asjaga seotud avaliku elu tegelast välja a nüri hoiatus tehnoloogiaga kaasnevate ohtude kohta, võrreldes ohtu pandeemiate või tuumasõjaga.

Nende murede pinna all varitseb masinteadvuse küsimus. Isegi kui tänapäeva tehisintellekti sees pole kedagi kodus, mõtlevad mõned teadlased, kas neil võib ühel päeval ilmneda teadvuse sära või rohkemgi. Kui see juhtub, tekitab see hulga moraalseid ja eetilisi probleeme, ütleb Jonathan Kask, Londoni Majandus- ja Poliitikakooli filosoofiaprofessor.

Kuna tehisintellekti tehnoloogia hüppab edasi, on inimese ja tehisintellekti vastastikusest mõjust esile kerkinud eetilised küsimused muutunud kiireloomuliseks. "Me ei tea, kas tuua nad oma moraaliringi või välistada," ütles Birch. "Me ei tea, millised on selle tagajärjed. Ja ma võtan seda tõsiselt kui tõelist riski, millest peaksime rääkima. Mitte tegelikult sellepärast, et ma arvan ChatGPT on selles kategoorias, aga kuna ma ei tea, mis järgmise 10 või 20 aasta jooksul juhtuma hakkab.

Vahepeal võiks tema sõnul teha head, kui uuriksime teisi mitteinimlikke meeli – näiteks loomade oma. Kask juhib ülikooli oma Loomade tajumise alused, Euroopa Liidu rahastatud jõupingutus, mille eesmärk on saavutada edu loomade tundlikkuse suurtes küsimustes, nagu Birch ütles. „Kuidas arendada paremaid meetodeid loomade teadlike kogemuste teaduslikuks uurimiseks? Ja kuidas saaksime looma tundlikkuse areneva teaduse tööle panna, et kujundada paremaid poliitikaid, seadusi ja viise loomade eest hoolitsemiseks?

Meie intervjuu viidi läbi Zoomi ja e-posti teel ning seda on pikkuse ja selguse huvides muudetud.

(See artikkel oli algselt avaldatud Tühjendage. Loe algse artikli.)

Ebapime: Käimas on arutelu selle üle, kas tehisintellekt võib olla teadlik või tundlik. Ja näib olevat paralleelne küsimus, kas AI suudab tundub olla tundlik. Miks see eristamine nii oluline on?

Jonathan Birch: Ma arvan, et see on suur probleem ja miski, mis peaks meid päriselt kartma. Isegi praegu on AI-süsteemid üsna võimelised oma kasutajaid nende mõistuses veenma. Nägime seda eelmisel aastal Blake Lemoine'i, Google'i inseneri juhtumiga, kes veendus et süsteem, mille kallal ta töötas, oli tundlik – ja seda just siis, kui väljund on puhtalt tekst ja kui kasutaja on kõrgelt kvalifitseeritud tehisintellekti ekspert.

Nii et kujutage ette olukorda, kus tehisintellekt suudab juhtida inimese nägu ja inimhäält ning kasutaja on kogenematu. Ma arvan, et tehisintellekt on juba olukorras, kus see suudab veenda paljusid inimesi, et see on tundlik olend. Ja see on suur probleem, sest ma arvan, et hakkame nägema inimesi tehisintellekti heaolu nimel kampaaniat tegemas, AI õigused, ja selliseid asju.

Ja me ei tea, mida sellega teha. Sest see, mida me sooviksime, on tõesti tugev knockdown argument, mis tõestab, et AI-süsteemid, millest nad räägivad, on mitte teadlik. Ja meil pole seda. Meie teoreetiline arusaam teadvusest ei ole piisavalt küps, et võimaldada meil selle puudumist enesekindlalt deklareerida.

UD: Roboti või AI-süsteemi saab programmeerida ütlema midagi sellist: "Lõpeta see, sa teed mulle haiget." Kuid sellisest lihtsast deklaratsioonist ei piisa, et olla tundlikkuse lakmuspaber, eks?

JB: Teil võib olla väga lihtsad süsteemid [nagu need], mis on välja töötatud Londoni Imperial College'is, et aidata arste nende koolitamisel jäljendavad inimese valu väljendeid. Ja pole mingit põhjust arvata, et need süsteemid on tundlikud. Nad ei tunne tegelikult valu; kõik, mida nad teevad, on sisendite ja väljundite vastendamine väga lihtsal viisil. Kuid nende tekitatud valuväljendid on üsna elutruud.

Ma arvan, et oleme vestlusrobotidega nagu ChatGPT mõneti sarnases seisus – nad on treenitud rohkem kui triljoni sõna treenimisandmetega, et jäljendada inimese reaktsioonimustreid, et reageerida viisil, nagu inimene reageeriks.

Muidugi, kui annate sellele viipe, millele inimene reageeriks valu väljendamisega, suudab ta seda vastust oskuslikult jäljendada.

Kuid ma arvan, et kui me teame, et olukord on selline – kui me teame, et tegeleme oskusliku miimikaga –, pole põhjust arvata, et selle taga on tegelik valu.

UD: See üksus, mille kallal arstitudengid treenivad, on vist midagi roboti sarnast?

JB: See on õige, jah. Nii et neil on mannekeenitaoline inimnäoga asi ja arst suudab kätt vajutada ja saada näoilme, mis jäljendab väljendeid, mida inimesed avaldaksid erineva rõhu korral. Selle eesmärk on aidata arstidel õppida, kuidas patsientidele sobivaid tehnikaid rakendada ilma liigset valu tekitamata.

Ja meid võetakse väga kergesti niipea, kui miski on inimliku näoga ja teeb inimesele sarnaseid ilmeid, isegi kui selle taga pole tõelist intelligentsust.

Nii et kui kujutate ette, et olete seotud sellise AI-ga, mida näeme ChatGPT-s, on teil omamoodi miimika, mis on tõesti väga veenev ja veenab paljusid inimesi.

UD: Sentience tundub midagi, mida me nii-öelda seestpoolt teame. Me mõistame omaenda mõistust, aga kuidas testiksite teiste tundlikkust, olgu see siis tehisintellekt või mõni muu üksus väljaspool iseennast?

JB: Ma arvan, et meil on teiste inimestega, kes saavad meiega rääkida, väga tugev positsioon, sest meil on uskumatult palju tõendeid. Ja parim seletus sellele on see, et teistel inimestel on teadlikud kogemused, nagu meilgi. Ja nii saame kasutada sedalaadi järeldusi, mida filosoofid mõnikord nimetavad "parima seletuse järeldamiseks".

Ma arvan, et saame läheneda ka teiste loomade teemale täpselt samamoodi – et teised loomad ei räägi meiega, kuid nad näitavad üles käitumist, mis on väga loomulikult seletatav selliste seisundite nagu valu omistamisega. Näiteks kui näete, et koer lakub pärast vigastust oma haavu, põetab seda piirkonda, õpib vältima kohti, kus tal on vigastusoht, selgitaksite seda käitumismustrit loomulikult valuseisundi esitamisega.

Ja ma arvan, et kui me tegeleme teiste loomadega, kellel on meie omaga üsna sarnane närvisüsteem ja kes on arenenud täpselt nagu meie, siis ma arvan, et selline järeldus on täiesti mõistlik.

UD: Aga AI-süsteem?

JB: AI puhul on meil suur probleem. Meil on ennekõike probleem, et substraat on erinev. Me ei tea tegelikult, kas teadlik kogemus on substraadi suhtes tundlik – kas sellel peab olema bioloogiline substraat, st närvisüsteem, aju? Või on see midagi, mida saab saavutada täiesti erinevast materjalist - ränipõhisest substraadist?

Kuid siin on ka probleem, mida ma olen nimetanud "mänguprobleemiks" – et kui süsteemil on juurdepääs triljonitele sõnadele treeningandmetest ja seda on koolitatud eesmärgiga matkida inimkäitumist, võivad selle tekitatavad käitumismustrid seletatav sellega, et tal on tõeliselt teadlik kogemus. Teise võimalusena võib neid lihtsalt seletada sellega, et seatakse eesmärgiks käituda nii, nagu inimene selles olukorras reageeriks.

Nii et ma tõesti arvan, et oleme tehisintellekti puhul hädas, sest tõenäoliselt ei leia me end olukorrast, kus see on selgelt parim seletus sellele, mida näeme – et tehisintellekt on teadlik. Alati leidub usutavaid alternatiivseid seletusi. Ja sellest on väga raske lahti saada.

UD: Mis te ette kujutate, võiks olla meie parim valik eristada midagi, mis on tegelikult teadlik, ja üksus, millel on lihtsalt välimus tundlikkusest?

JB: Ma arvan, et esimene etapp on selle tunnistamine väga sügava ja raske probleemina. Teine etapp on püüda õppida teiste loomade juhtumist nii palju kui võimalik. Ma arvan, et kui uurime loomi, kes on meile evolutsiooniliselt üsna lähedal, nagu koerad ja muud imetajad, ei jää me alati kindlad, kas teadlik kogemus võib sõltuda väga spetsiifilistest ajumehhanismidest, mis on imetajate ajule iseloomulikud.

Et sellest üle saada, peame vaatama nii laia valikut loomi kui võimalik. Ja me peame eriti mõtlema selgrootutele, nagu kaheksajalad ja putukad, kui see on potentsiaalselt teine ​​​​sõltumatult arenenud teadlik kogemus. Nii nagu kaheksajala silm on arenenud meie enda silmadest täiesti eraldiseisvalt – selles on põnev sarnasuste ja erinevuste segu –, arvan, et ka tema teadlikud kogemused on sellised: iseseisvalt arenenud, mõnes mõttes sarnane, väga-väga erinev. muid viise.

Selgrootute, nagu kaheksajalad, kogemusi uurides saame hakata aru saama sellest, millised on tõeliselt sügavad omadused, mis ajul peavad olema, et toetada teadlikke kogemusi, asju, mis lähevad sügavamale kui lihtsalt nende spetsiifiliste ajustruktuuride olemasolu, seal imetajatel. Milliseid arvutusi on vaja? Mis tüüpi töötlemine?

Siis – ja ma näen seda kui pikaajalist strateegiat – võiksime minna tagasi tehisintellekti juhtumi juurde ja öelda, kas sellel on sellised erilised arvutusviisid, mida leiame teadvusel olevatel loomadel, nagu imetajad ja kaheksajalad?

UD: Kas usute, et ühel päeval loome tundliku tehisintellekti?

JB: Olen selles osas umbes 50:50. On tõenäoline, et tundlikkus sõltub bioloogilise aju eripäradest ja pole selge, kuidas seda kontrollida. Nii et ma arvan, et AI-s on alati märkimisväärne ebakindlus. Olen selles kindlam: kui teadvus suudab põhimõtteliselt arvutitarkvaras, siis leiavad tehisintellekti teadlased viisi, kuidas seda teha.

Image Credit: Sularaha Macanaya / Unsplash 

Ajatempel:

Veel alates Singulaarsuse keskus