Aby uregulować sztuczną inteligencję, zacznij od sprzętu – argumentują zwolennicy

Aby uregulować sztuczną inteligencję, zacznij od sprzętu – argumentują zwolennicy

Aby regulować sztuczną inteligencję, zacznij od sprzętu, twierdzą zwolennicy PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

W naszym dążeniu do ograniczenia niszczycielskiego potencjału sztucznej inteligencji w nowym artykule opublikowanym na Uniwersytecie w Cambridge zasugerowano wbudowanie w sprzęt, który ją zasila, zdalnych wyłączników awaryjnych i blokad, takich jak te opracowane w celu zapobiegania nieautoryzowanemu wystrzeleniu broni nuklearnej.

Papier [PDF], w którym biorą udział głosy wielu instytucji akademickich i kilku z OpenAI, udowadnia, że ​​regulacja sprzętu, na którym opierają się te modele, może być najlepszym sposobem zapobiegania jego niewłaściwemu użyciu.

„Obliczenia istotne dla sztucznej inteligencji to szczególnie skuteczny punkt interwencji: są wykrywalne, wykluczalne i wymierne, a ponadto powstają w ramach niezwykle skoncentrowanego łańcucha dostaw” – argumentują naukowcy.

Uczenie najbardziej wydajnych modeli, które, jak się uważa, przekracza bilion parametrów, wymaga ogromnej infrastruktury fizycznej: dziesiątek tysięcy procesorów graficznych lub akceleratorów oraz tygodni, a nawet miesięcy czasu przetwarzania. To, zdaniem naukowców, sprawia, że ​​istnienie i względna wydajność tych zasobów trudno ukryć.

Co więcej, najbardziej zaawansowane chipy używane do trenowania tych modeli są produkowane przez stosunkowo niewielką liczbę firm, takich jak Nvidia, AMD i Intel, co pozwala decydentom na ograniczenie sprzedaży tych towarów zainteresowanym osobom lub krajom.

Czynniki te, wraz z innymi, takimi jak ograniczenia łańcucha dostaw w produkcji półprzewodników, oferują decydentom środki pozwalające lepiej zrozumieć, w jaki sposób i gdzie wdrażana jest infrastruktura sztucznej inteligencji, kto ma, a kto nie może mieć do niej dostępu, a także egzekwować kary za niewłaściwe wykorzystanie jej, twierdzi gazeta. .

Kontrolowanie infrastruktury

W artykule podkreślono wiele sposobów, w jakie decydenci mogą podejść do regulacji sprzętu AI. Wiele sugestii – w tym te mające na celu poprawę widoczności i ograniczenie sprzedaży akceleratorów AI – jest już wdrażanych na poziomie krajowym.

W zeszłym roku prezydent USA Joe Biden zaproponował zarządzenie wykonawcze którego celem było zidentyfikowanie firm opracowujących duże modele sztucznej inteligencji podwójnego zastosowania, a także dostawców infrastruktury, którzy są w stanie to zrobić ich szkolić. Jeśli nie jesteś zaznajomiony, „podwójne zastosowanie” odnosi się do technologii, które mogą pełnić podwójną funkcję w zastosowaniach cywilnych i wojskowych.

Niedawno Departament Handlu USA zaproponowane rozporządzenie, które wymagałoby od amerykańskich dostawców usług w chmurze wdrożenia bardziej rygorystycznych zasad „poznaj swojego klienta”, aby uniemożliwić osobom lub krajom, których dotyczy problem, obejście ograniczeń eksportowych.

Naukowcy zauważają, że taka widoczność jest cenna, ponieważ może pomóc uniknąć kolejnego wyścigu zbrojeń, takiego jak ten wywołany kontrowersjami dotyczącymi luki rakietowej, w przypadku której błędne raporty doprowadziły do ​​masowego gromadzenia się rakiet balistycznych. Choć są cenne, ostrzegają, że przestrzeganie tych wymogów dotyczących raportowania może spowodować naruszenie prywatności klientów, a nawet doprowadzić do wycieku wrażliwych danych.

Tymczasem, jeśli chodzi o handel, Departament Handlu nadal to robi przyspieszyć ograniczenia, ograniczające wydajność akceleratorów sprzedawanych do Chin. Jednak, jak już wcześniej informowaliśmy, chociaż wysiłki te utrudniły krajom takim jak Chiny zdobycie amerykańskich chipów, są one dalekie od doskonałości.

Aby przezwyciężyć te ograniczenia, badacze zaproponowali wdrożenie globalnego rejestru sprzedaży chipów AI, który umożliwiałby śledzenie ich przez cały cykl życia, nawet po opuszczeniu kraju pochodzenia. Sugerują, że taki rejestr mógłby zawierać unikalny identyfikator w każdym chipie, co mogłoby pomóc w walce przemyt komponentów.

Z bardziej skrajnego krańca spektrum badacze sugerują, że wyłączniki awaryjne można wbudować w krzem, aby zapobiec ich użyciu w złośliwych aplikacjach.

Teoretycznie mogłoby to umożliwić organom regulacyjnym szybsze reagowanie na nadużycia wrażliwych technologii poprzez zdalne odcięcie dostępu do chipów, jednak autorzy ostrzegają, że wiąże się to z ryzykiem. Oznacza to, że w przypadku nieprawidłowego wdrożenia taki wyłącznik awaryjny może stać się celem cyberprzestępców.

Inna propozycja wymagałaby podpisania przez wiele stron potencjalnie ryzykownych zadań szkoleniowych w zakresie sztucznej inteligencji, zanim będą mogły zostać wdrożone na dużą skalę. „Broń nuklearna wykorzystuje podobne mechanizmy zwane powiązaniami działań permisywnych” – napisali.

W przypadku broni nuklearnej te zamki bezpieczeństwa mają na celu uniemożliwienie jednej osobie zbuntowania się i oddania pierwszego uderzenia. Jednak w przypadku sztucznej inteligencji pomysł jest taki, że jeśli osoba fizyczna lub firma chce wytrenować model w chmurze powyżej określonego progu, musi najpierw uzyskać na to autoryzację.

Choć jest to potężne narzędzie, naukowcy zauważają, że może przynieść odwrotny skutek, uniemożliwiając rozwój pożądanej sztucznej inteligencji. Argument wydaje się być taki, że choć użycie broni nuklearnej ma dość jednoznaczny wynik, sztuczna inteligencja nie zawsze jest taka czarno-biała.

Jeśli jednak wydaje Ci się to zbyt dystopijne, artykuł poświęca całą sekcję realokacji zasobów sztucznej inteligencji w celu poprawy społeczeństwa jako całości. Pomysł polega na tym, że decydenci mogliby połączyć siły, aby uczynić obliczenia sztucznej inteligencji bardziej dostępnymi dla grup, które prawdopodobnie nie wykorzystają ich do zła, co określa się jako „alokację”.

Co jest złego w regulowaniu rozwoju sztucznej inteligencji?

Po co zadawać sobie tyle trudu? Cóż, autorzy artykułu zakładają, że sprzęt fizyczny jest z natury łatwiejszy do kontrolowania.

W porównaniu ze sprzętem „inne dane wejściowe i wyjściowe rozwoju sztucznej inteligencji – dane, algorytmy i wyszkolone modele – są łatwo udostępnianymi, niekonkurencyjnymi dobrami niematerialnymi, co z natury utrudnia ich kontrolowanie” – czytamy w artykule.

Argument jest taki, że po opublikowaniu modelu, czy to publicznie, czy wycieku, nie ma możliwości włożenia dżina z powrotem do butelki i powstrzymania jego rozprzestrzeniania się w sieci.

Badacze podkreślili również, że wysiłki mające na celu zapobieganie niewłaściwemu wykorzystaniu modeli okazały się zawodne. W jednym przykładzie autorzy podkreślili łatwość, z jaką badaczom udało się zdemontować zabezpieczenia w Lamie 2 Meta, które miały zapobiegać generowaniu przez model obraźliwego języka.

Dochodząc do skrajności, istnieje obawa, że ​​w celu przyspieszenia można byłoby zastosować wystarczająco zaawansowany model podwójnego zastosowania rozwój broni chemicznej lub biologicznej.

W artykule przyznano, że regulacje dotyczące sprzętu AI nie są skutecznym rozwiązaniem i nie eliminują potrzeby regulacji w innych aspektach branży.

Trudno jednak zignorować udział kilku badaczy OpenAI, biorąc pod uwagę udział dyrektora generalnego Sama Altmana próby kontrolowanie narracji na temat regulacji dotyczących sztucznej inteligencji. ®

Znak czasu:

Więcej z Rejestr