Podobnie jak dziecko, ta inspirowana mózgiem sztuczna inteligencja potrafi wyjaśnić swoje rozumowanie

Podobnie jak dziecko, ta inspirowana mózgiem sztuczna inteligencja potrafi wyjaśnić swoje rozumowanie

Podobnie jak dziecko, ta inspirowana mózgiem sztuczna inteligencja może wyjaśnić swoje rozumowanie PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Dzieci są przyrodnikami. Obserwują świat, stawiają hipotezy i je testują. W końcu uczą się wyjaśniać swoje (czasami ujmująco zabawne) rozumowanie.

AI, nie za bardzo. Nie ma wątpliwości, że głębokie uczenie się – rodzaj uczenia maszynowego luźno opartego na mózgu – radykalnie zmienia technologię. Od przewidywania ekstremalnych warunków pogodowych po projektowanie nowych leków lub diagnozowanie śmiertelnych nowotworów – sztuczna inteligencja jest coraz częściej integrowana w granice nauki.

Jednak głębokie uczenie się ma ogromną wadę: algorytmy nie potrafią uzasadnić swoich odpowiedzi. Często nazywany problemem „czarnej skrzynki”, ta nieprzezroczystość utrudnia ich użycie w sytuacjach wysokiego ryzyka, np. w medycynie. Pacjenci chcą wyjaśnień, gdy zdiagnozowano u nich chorobę zmieniającą życie. Na razie algorytmy oparte na głębokim uczeniu się – nawet jeśli charakteryzują się dużą dokładnością diagnostyczną – nie są w stanie dostarczyć takich informacji.

Aby otworzyć czarną skrzynkę, zespół z Southwestern Medical Center Uniwersytetu Teksasu w poszukiwaniu inspiracji wykorzystał ludzki umysł. W badanie in Nauka o przyrodziepołączyli zasady badania sieci mózgowych z bardziej tradycyjnym podejściem do sztucznej inteligencji, które opiera się na możliwych do wyjaśnienia elementach składowych.

Powstała sztuczna inteligencja zachowuje się trochę jak dziecko. Kondensuje różne typy informacji w „centrach”. Każde centrum jest następnie przepisywane na wytyczne dotyczące kodowania, które ludzie mogą przeczytać – CliffsNotes dla programistów, które w prostym języku angielskim wyjaśniają wnioski algorytmu na temat wzorców znalezionych w danych. Może także wygenerować w pełni wykonywalny kod programowania do wypróbowania.

Sztuczna inteligencja, nazywana „głęboką destylacją”, działa jak naukowiec, gdy stawia przed nią różnorodne zadania, takie jak trudne problemy matematyczne i rozpoznawanie obrazów. Szperając w danych, sztuczna inteligencja przekształca je w algorytmy krok po kroku, które mogą przewyższać algorytmy zaprojektowane przez człowieka.

„Głęboka destylacja pozwala odkryć możliwe do uogólnienia zasady, uzupełniające wiedzę człowieka” napisał zespół w swoim artykule.

Cienki papier

Sztuczna inteligencja czasami popełnia błędy w prawdziwym świecie. Weź robotaxis. W ubiegłym roku niektórzy wielokrotnie utknęli w dzielnicy San Francisco, co było uciążliwe dla mieszkańców, ale mimo to chichotali. Co gorsza, pojazdy autonomiczne zablokowały ruch i karetki pogotowia, a w jednym przypadku poważnie skrzywdziły pieszego.

W opiece zdrowotnej i badaniach naukowych zagrożenia mogą być również wysokie.

Jeśli chodzi o domeny wysokiego ryzyka, algorytmy „wymagają niskiej tolerancji na błędy” – zauważa dr Joseph Bakarji z Amerykańskiego Uniwersytetu w Bejrucie, który nie był zaangażowany w badanie: napisał w towarzyszącym artykule na temat pracy.

Barierą dla większości algorytmów głębokiego uczenia się jest ich niewytłumaczalność. Mają strukturę sieci wielowarstwowych. Zbierając tony surowych informacji i otrzymując niezliczone rundy informacji zwrotnych, sieć dostosowuje swoje połączenia, aby ostatecznie uzyskać dokładne odpowiedzi.

Proces ten leży u podstaw głębokiego uczenia się. Problem pojawia się jednak, gdy nie ma wystarczającej ilości danych lub gdy zadanie jest zbyt złożone.

W 2021 roku zespół opracował sztuczną inteligencję to wymagało innego podejścia. Sieć neuronowa, zwana rozumowaniem „symbolicznym”, koduje wyraźne reguły i doświadczenia poprzez obserwację danych.

W porównaniu z głębokim uczeniem się, modele symboliczne są łatwiejsze do interpretacji. Pomyśl o sztucznej inteligencji jak o zestawie klocków Lego, z których każdy reprezentuje inny obiekt lub koncepcję. Można je łączyć w kreatywny sposób, ale połączenia podlegają jasnemu zestawowi zasad.

Sama sztuczna inteligencja jest potężna, ale krucha. Znalezienie elementów składowych w dużej mierze opiera się na wcześniejszej wiedzy. Kiedy staje przed wyzwaniem nowa sytuacja bez wcześniejszego doświadczenia, nie potrafi myśleć nieszablonowo i załamuje się.

I tu wkracza neuronauka. Inspiracją dla zespołu były konektomy, czyli modele współpracy różnych obszarów mózgu. Łącząc tę ​​łączność z symbolicznym rozumowaniem, stworzyli sztuczną inteligencję, która ma solidne i zrozumiałe podstawy, ale może również elastycznie dostosowywać się w obliczu nowych problemów.

W kilku testach model „neurokognitywny” pokonał inne głębokie sieci neuronowe w zadaniach wymagających rozumowania.

Ale czy można sensownie wykorzystać dane i opracować algorytmy, aby je wyjaśnić?

Ludzki dotyk

Jedną z najtrudniejszych części odkryć naukowych jest obserwacja zaszumionych danych i wyciągnięcie wniosków. Proces ten prowadzi do nowych materiałów i leków, głębszego zrozumienia biologii i wglądu w nasz świat fizyczny. Często jest to proces powtarzalny i trwający latami.

Sztuczna inteligencja może przyspieszyć działanie i potencjalnie znaleźć wzorce, które umknęły ludzkiemu umysłowi. Na przykład głębokie uczenie się jest szczególnie przydatne w przewidywaniu struktur białek, ale jego uzasadnienie przewidywania tych struktur jest trudne do zrozumienia.

„Czy możemy zaprojektować algorytmy uczenia się, które przekształcają obserwacje w proste, kompleksowe reguły, tak jak to zwykle robią ludzie?” napisał Bakarji.

W nowym badaniu wykorzystano istniejący model neurokognitywny zespołu i zapewniono mu dodatkowy talent: umiejętność pisania kodu.

Sztuczna inteligencja, zwana głęboką destylacją, grupuje podobne koncepcje, przy czym każdy sztuczny neuron koduje konkretną koncepcję i jej powiązanie z innymi. Na przykład jeden neuron może nauczyć się pojęcia kota i wiedzieć, że różni się od psa. Inny typ radzi sobie ze zmiennością, gdy rzuca mu wyzwanie nowe zdjęcie – powiedzmy tygrys – aby określić, czy bardziej przypomina kota, czy psa.

Te sztuczne neurony są następnie układane w hierarchię. Z każdą warstwą system coraz bardziej różnicuje koncepcje i ostatecznie znajduje rozwiązanie.

Zamiast wymagać, aby sztuczna inteligencja przetwarzała jak najwięcej danych, szkolenie odbywa się krok po kroku — prawie jak uczenie małego dziecka. Dzięki temu możliwa jest ocena rozumowania sztucznej inteligencji, która stopniowo rozwiązuje nowe problemy.

W porównaniu ze standardowym szkoleniem w zakresie sieci neuronowych, sztuczna inteligencja jest oczywista – wyjaśnił Bakarji.

W teście zespół rzucił wyzwanie sztucznej inteligencji za pomocą klasycznej gry wideo – Conway's Game of Life. Gra, stworzona po raz pierwszy w latach 1970. XX wieku, polega na hodowaniu cyfrowej komórki w różne wzory, zgodnie z określonym zestawem zasad (spróbuj sam tutaj). Wyszkolona na danych z symulowanej rozgrywki sztuczna inteligencja była w stanie przewidzieć potencjalne wyniki i przekształcić swoje rozumowanie w czytelne dla człowieka wytyczne lub kod programowania komputerowego.

Sztuczna inteligencja sprawdziła się również w wielu innych zadaniach, takich jak wykrywanie linii na obrazach i rozwiązywanie trudnych problemów matematycznych. W niektórych przypadkach generował kreatywny kod komputerowy, który przewyższał ustalone metody i był w stanie wyjaśnić dlaczego.

Głęboka destylacja może być impulsem dla nauk fizycznych i biologicznych, w których proste części dają początek niezwykle złożonym systemom. Jednym z potencjalnych zastosowań tej metody jest praca jako współnaukowiec dla badaczy dekodujących funkcje DNA. Duża część naszego DNA to „ciemna materia” w tym sensie, że nie wiemy, jaką – jeśli w ogóle – rolę pełni. Wyjaśnialna sztuczna inteligencja mogłaby potencjalnie rozbić sekwencje genetyczne i pomóc genetykom zidentyfikować rzadkie mutacje powodujące wyniszczające choroby dziedziczne.

Poza badaniami zespół jest podekscytowany perspektywą ściślejszej współpracy między sztuczną inteligencją a człowiekiem.

"Podejścia neurosymboliczne mogłoby potencjalnie zapewnić możliwości uczenia maszynowego bardziej zbliżone do ludzkich” – napisał zespół.

Bakarji zgadza się. Nowe badanie wykracza „wykraczając poza postęp techniczny i dotyka wyzwań etycznych i społecznych, przed którymi stoimy dzisiaj”. Wyjaśnialność może działać jako poręcz, pomagając systemom AI w synchronizacji z wartościami ludzkimi podczas szkolenia. W zastosowaniach wysokiego ryzyka, takich jak opieka medyczna, może to budować zaufanie.

Na razie algorytm najlepiej sprawdza się przy rozwiązywaniu problemów, które można rozbić na pojęcia. Nie radzi sobie z ciągłymi danymi, takimi jak strumienie wideo.

To kolejny krok w głębokiej destylacji, napisał Bakarji. „Otworzyłoby to nowe możliwości w obliczeniach naukowych i badaniach teoretycznych”.

Kredytowych Image: 7AV 7AV / Unsplash 

Znak czasu:

Więcej z Centrum osobliwości