Jak badanie wrażliwości zwierząt może pomóc rozwiązać etyczną zagadkę świadomej sztucznej inteligencji

Jak badanie wrażliwości zwierząt może pomóc rozwiązać etyczną zagadkę świadomej sztucznej inteligencji

Jak badanie wrażliwości zwierząt może pomóc w rozwiązaniu etycznej zagadki czującej sztucznej inteligencji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

sztuczna inteligencja postępuje tak szybko, że nawet niektórzy naukowcy odpowiedzialni za wiele kluczowych odkryć są zaniepokojeni tempem zmian. Na początku tego roku ponad 300 specjalistów pracujących w sztucznej inteligencji i innych zainteresowanych osób publicznych wydało dosadne ostrzeżenie o niebezpieczeństwie, jakie stwarza technologia, porównując ryzyko do pandemii czy wojny nuklearnej.

Tuż pod powierzchnią tych obaw czai się kwestia świadomości maszyny. Nawet jeśli w dzisiejszej sztucznej inteligencji „nikogo nie ma w domu”, niektórzy badacze zastanawiają się, czy pewnego dnia mogą wykazywać przebłysk świadomości – lub coś więcej. Jeśli tak się stanie, wywoła to wiele moralnych i etycznych obaw, mówi Jonathana Bircha, profesor filozofii w London School of Economics and Political Science.

Wraz z postępem technologii sztucznej inteligencji kwestie etyczne wywołane przez interakcje człowieka z sztuczną inteligencją nabrały nowego znaczenia. „Nie wiemy, czy wprowadzić ich do naszego kręgu moralności, czy też wykluczyć” – powiedział Birch. „Nie wiemy, jakie będą konsekwencje. Traktuję to poważnie jako prawdziwe ryzyko, o którym powinniśmy zacząć rozmawiać. Nie do końca, bo myślę ChatGPT jest w tej kategorii, ale dlatego, że nie wiem, co się wydarzy w ciągu najbliższych 10 lub 20 lat”.

W międzyczasie, mówi, dobrze by było, gdybyś badał inne niż ludzkie umysły – na przykład zwierzęce. Birch prowadzi uniwersytet Podstawy projektu Animal Sentience, finansowany przez Unię Europejską wysiłek, który „ma na celu próbę poczynienia pewnych postępów w wielkich kwestiach wrażliwości zwierząt”, jak to ujął Birch. „Jak opracować lepsze metody naukowego badania świadomych doświadczeń zwierząt? I jak możemy wykorzystać rodzącą się naukę o wrażliwości zwierząt, aby opracować lepsze polityki, prawa i sposoby opieki nad zwierzętami?

Nasz wywiad został przeprowadzony przez Zoom i przez e-mail i został zredagowany pod kątem długości i przejrzystości.

(Ten artykuł został pierwotnie opublikowany w Undark. Przeczytać oryginalny artykuł.)

ciemność: Toczy się debata na temat tego, czy sztuczna inteligencja może być świadoma, czy świadoma. I wydaje się, że istnieje równoległe pytanie, czy sztuczna inteligencja może wydać się być czułym. Dlaczego to rozróżnienie jest tak ważne?

Jonathan Birch: Myślę, że to ogromny problem i coś, co właściwie powinno nas przestraszyć. Nawet teraz systemy sztucznej inteligencji są w stanie przekonać swoich użytkowników o ich wrażliwości. Widzieliśmy to w zeszłym roku w przypadku Blake'a Lemoine'a, inżyniera Google, który przekonał się że system, nad którym pracował, był świadomy — i to właśnie wtedy, gdy dane wyjściowe są czysto tekstowe, a użytkownik jest wysoko wykwalifikowanym ekspertem w dziedzinie sztucznej inteligencji.

Wyobraź sobie więc sytuację, w której sztuczna inteligencja jest w stanie kontrolować ludzką twarz i ludzki głos, a użytkownik jest niedoświadczony. Myślę, że sztuczna inteligencja jest już w stanie dość łatwo przekonać dużą liczbę ludzi, że jest świadomą istotą. I to jest duży problem, ponieważ myślę, że zaczniemy widzieć ludzi prowadzących kampanie na rzecz dobrobytu AI, Prawa SI, i podobne rzeczy.

I nie będziemy wiedzieć, co z tym zrobić. Ponieważ to, czego chcielibyśmy, to naprawdę mocny argument powalający, który dowodzi, że systemy AI, o których mówią, są nie świadomy. A tego nie mamy. Nasze teoretyczne rozumienie świadomości nie jest jeszcze na tyle dojrzałe, abyśmy mogli śmiało deklarować jej brak.

UD: Robota lub system sztucznej inteligencji można zaprogramować tak, aby mówił coś w stylu: „Przestań, ranisz mnie”. Ale prosta deklaracja tego rodzaju nie wystarczy, aby służyć jako papierek lakmusowy dla wrażliwości, prawda?

JB: Możesz mieć bardzo proste systemy [takie jak te] opracowane w Imperial College London, aby pomóc lekarzom w ich szkoleniu naśladować ludzką ekspresję bólu. I nie ma absolutnie żadnego powodu, by sądzić, że te systemy są świadome. Tak naprawdę nie odczuwają bólu; wszystko, co robią, to mapowanie wejść na wyjścia w bardzo prosty sposób. Ale wyrazy bólu, które wywołują, są całkiem realistyczne.

Myślę, że jesteśmy w nieco podobnej sytuacji z chatbotami, takimi jak ChatGPT — są one szkolone na ponad bilionie słów danych szkoleniowych, aby naśladować wzorce odpowiedzi człowieka, aby reagować w sposób, w jaki reagowałby człowiek.

Więc oczywiście, jeśli dasz mu podpowiedź, na którą człowiek zareagowałby wyrazem bólu, będzie w stanie umiejętnie naśladować tę reakcję.

Ale myślę, że kiedy wiemy, że taka jest sytuacja – kiedy wiemy, że mamy do czynienia z umiejętną mimiką – nie ma mocnego powodu, by sądzić, że kryje się za tym jakieś rzeczywiste doświadczenie bólu.

UD: Zgaduję, że ten byt, na którym szkolą się studenci medycyny, jest czymś w rodzaju robota?

JB: Zgadza się, tak. Mają więc coś podobnego do manekina, z ludzką twarzą, a lekarz jest w stanie nacisnąć ramię i uzyskać wyraz twarzy naśladujący wyraz twarzy człowieka przy różnym stopniu nacisku. Ma pomóc lekarzom nauczyć się, jak prawidłowo wykonywać techniki na pacjentach, nie powodując zbytniego bólu.

I bardzo łatwo dajemy się nabrać, gdy tylko coś ma ludzką twarz i robi miny jak człowiek, nawet jeśli nie kryje się za tym żadna prawdziwa inteligencja.

Więc jeśli wyobrazisz sobie, że w połączeniu z rodzajem sztucznej inteligencji, którą widzimy w ChatGPT, masz rodzaj mimikry, która jest naprawdę bardzo przekonująca i przekona wiele osób.

UD: Sentience wydaje się czymś, co znamy od środka, że ​​tak powiem. Rozumiemy naszą własną zdolność odczuwania — ale w jaki sposób testowałbyś zdolność odczuwania u innych, niezależnie od tego, czy jest to sztuczna inteligencja, czy jakakolwiek inna istota poza mną?

JB: Myślę, że mamy bardzo mocną pozycję w stosunku do innych ludzi, którzy mogą z nami rozmawiać, ponieważ mamy niewiarygodnie bogaty materiał dowodowy. Najlepszym wytłumaczeniem tego jest to, że inni ludzie mają świadome doświadczenia, tak jak my. Możemy więc użyć tego rodzaju wnioskowania, które filozofowie nazywają czasami „wnioskowaniem do najlepszego wyjaśnienia”.

Myślę, że możemy podejść do tematu innych zwierząt dokładnie w ten sam sposób – inne zwierzęta nie rozmawiają z nami, ale wykazują zachowania, które można bardzo naturalnie wytłumaczyć przypisując stany takie jak ból. Na przykład, jeśli zobaczysz psa liżącego swoje rany po urazie, pielęgnującego ten obszar, uczącego się unikać miejsc, w których istnieje ryzyko urazu, w naturalny sposób wyjaśniłbyś ten wzorzec zachowania, powołując się na stan bólu.

I myślę, że kiedy mamy do czynienia z innymi zwierzętami, które mają system nerwowy bardzo podobny do naszego i które ewoluowały tak jak my, myślę, że ten rodzaj wnioskowania jest całkowicie rozsądny.

UD: A co z systemem sztucznej inteligencji?

JB: W przypadku AI mamy ogromny problem. Przede wszystkim mamy problem z tzw Podłoże jest inny. Tak naprawdę nie wiemy, czy świadome doświadczenie jest wrażliwe na podłoże — czy musi mieć podłoże biologiczne, czyli układ nerwowy, mózg? A może jest to coś, co można osiągnąć w zupełnie innym materiale — podłożu na bazie krzemu?

Ale jest też problem, który nazwałem „problemem z grami” — kiedy system ma dostęp do bilionów słów danych treningowych i został wyszkolony w celu naśladowania ludzkiego zachowania, rodzaje wzorców zachowań, które generuje, mogą można wytłumaczyć autentycznym świadomym doświadczeniem. Lub, alternatywnie, można je po prostu wyjaśnić, wyznaczając sobie cel zachowania się tak, jak człowiek zareagowałby w takiej sytuacji.

Więc naprawdę myślę, że mamy kłopoty w przypadku sztucznej inteligencji, ponieważ jest mało prawdopodobne, że znajdziemy się w sytuacji, w której najwyraźniej najlepszym wyjaśnieniem tego, co widzimy – jest świadomość, że sztuczna inteligencja jest świadoma. Zawsze będą wiarygodne alternatywne wyjaśnienia. A to jest bardzo trudne do wyjścia.

UD: Jak myślisz, jaki byłby nasz najlepszy sposób na odróżnienie czegoś, co jest rzeczywiście świadome, od istoty, która po prostu ma wygląd wrażliwości?

JB: Myślę, że pierwszym etapem jest rozpoznanie tego jako bardzo głębokiego i trudnego problemu. Drugi etap to próba nauczenia się jak najwięcej z przypadku innych zwierząt. Myślę, że kiedy badamy zwierzęta, które są nam bliskie pod względem ewolucyjnym, jak psy i inne ssaki, zawsze nie jesteśmy pewni, czy świadome doświadczenie może zależeć od bardzo specyficznych mechanizmów mózgowych charakterystycznych dla mózgu ssaków.

Aby temu zaradzić, musimy przyjrzeć się jak najszerszej gamie zwierząt. I musimy pomyśleć w szczególności o bezkręgowcach, takich jak ośmiornice i owady, gdzie jest to potencjalnie kolejny niezależnie wyewoluowany przypadek świadomego doświadczenia. Tak jak oko ośmiornicy ewoluowało całkowicie niezależnie od naszych własnych oczu – ma tę fascynującą mieszankę podobieństw i różnic – myślę, że jej świadome doświadczenia też będą takie: niezależnie ewoluowały, podobne pod pewnymi względami, bardzo, bardzo różne w inaczej.

Badając doświadczenia bezkręgowców, takich jak ośmiornice, możemy zacząć rozumieć, jakie naprawdę głębokie cechy musi mieć mózg, aby wspierać świadome doświadczenia, rzeczy, które sięgają głębiej niż tylko te specyficzne struktury mózgu, które są tam u ssaków. Jakie rodzaje obliczeń są potrzebne? Jakie rodzaje przetwarzania?

Wtedy – i postrzegam to jako strategię na dłuższą metę – moglibyśmy wrócić do przypadku sztucznej inteligencji i zapytać, czy ma ona te specjalne rodzaje obliczeń, które znajdujemy u świadomych zwierząt, takich jak ssaki i ośmiornice?

UD: Czy wierzysz, że pewnego dnia stworzymy świadomą sztuczną inteligencję?

JB: Jestem na około 50:50 w tej sprawie. Istnieje prawdopodobieństwo, że zdolność odczuwania zależy od specjalnych cech biologicznego mózgu i nie jest jasne, jak to sprawdzić. Myślę więc, że w sztucznej inteligencji zawsze będzie istniała znaczna niepewność. Jestem bardziej pewny tego: jeśli świadomość może zasadniczo można osiągnąć w oprogramowaniu komputerowym, naukowcy zajmujący się sztuczną inteligencją znajdą na to sposób.

Kredytowych Image: Gotówka Macanaya / Unsplash 

Znak czasu:

Więcej z Centrum osobliwości