Holly Elmore przewodzi protestowi w sprawie bezpieczeństwa oprogramowania open source

Holly Elmore przewodzi protestowi w sprawie bezpieczeństwa oprogramowania open source

Holly Elmore przewodzi protestowi w sprawie bezpieczeństwa oprogramowania Open Source PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

W odważnym posunięciu przeciwko niedawnemu stanowisku Meta w sprawie sztucznej inteligencji (AI) typu open source Holly Elmore, zwolenniczka bezpieczeństwa AI, stanęła na czele demonstracji przed bazą Meta w San Francisco.

Sedno sporu leży w potencjalnych niebezpieczeństwach związanych ze swobodnym uwalnianiem potężnych wag modeli sztucznej inteligencji, co według Elmore i jej zwolenników może prowadzić do ryzyka „nieodwracalnego rozprzestrzeniania się”.

Meta poruszyła wody technologiczne na początku tego roku uwalniając przeniesienia wagi rodziny modeli LLaMA na badaczy sztucznej inteligencji, co jest decyzją znacznie odbiegającą od polityki innych gigantów technologicznych. Wagi te, istotne dla funkcjonowania modelu, mogą być manipulowane i modyfikowane, gdy znajdą się w rękach ekspertów, co budzi obawy związane z niewłaściwym użyciem. Rzeczywiście, osiągnięcie tych ciężarów nie trwało długo wyciekły online, nasilająca się krytyka podejścia Meta do open source.

Ryzyko zwalniania ciężarów

Elmore, niegdyś związana z zespołem doradców Rethink Priorities, wyraziła swoje obawy:

„Zwalnianie ciężarów jest niebezpieczną polityką, ponieważ modele mogą być modyfikowane przez każdego i nie można ich przywołać”.

Podkreśliła rosnące zagrożenie w miarę jak modele stają się coraz bardziej zaawansowane i skuteczne. Gdy wagi modeli są ogólnodostępne, można je potencjalnie wykorzystać do szkodliwych działań, od tworzenia schematów phishingowych po planowanie cyberataki. Elmore ostrzega, że ​​gdy ciężarki są w zasięgu ręki, omijanie poręczy zabezpieczających jest niepokojącą łatwością.

Peter S. Park z MIT podziela te opinie. Ostrzega przed zagrożeniami, jakie stwarza przeniesienie obecnego podejścia opartego na otwartym kodzie źródłowym do bardziej zaawansowanej sztucznej inteligencji, która mogłaby działać z większą autonomią, umożliwiając w ten sposób nadużycia na większą i bardziej szkodliwą skalę.

Kontrargument: obrona open source

Stelli Bidermana EleutherAI oferuje jednak inną perspektywę. Biderman kwestionuje bezpośrednie założenie, że udostępnienie wag modeli bezpośrednio koreluje z potencjalnym nadużyciem. Jej zdaniem termin „proliferacja” kojarzony z bronią masowego rażenia wprowadza w błąd w kontekście sztucznej inteligencji. Twierdząc, że podstawowe elementy budowania dużych modeli językowych są już ujawnione, Biderman uważa, że ​​tajemnica może nie być panaceum na potencjalne nadużycia.

Dodaje, że naleganie na firmy, aby zachowały tajemnicę na temat swoich modeli, może mieć „poważne dalsze konsekwencje dla przejrzystości, świadomości społecznej i nauki”. Taka polityka może w sposób niezamierzony bardziej zaszkodzić niezależnym badaczom i entuzjastom, niż chronić przed potencjalnymi zagrożeniami.

Nawigacja po wodach open source w AI

Termin 'open-source' w sferze AI jest zagmatwany. Jak wskazuje Stefano Maffulli z Open Source Initiative (OSI), różne organizacje przejęły ten termin, co doprowadziło do niejednoznacznego zrozumienia jego prawdziwego znaczenia w sztucznej inteligencji. Aby oprogramowanie było naprawdę open source, wszystkie jego komponenty, od kodu źródłowego po dane szkoleniowe, muszą być publicznie dostępne i nadawać się do ponownego wykorzystania.

Przyszłość sztucznej inteligencji typu open source wciąż się kształtuje, a OSI aktywnie próbuje zdefiniować jej parametry. Maffulli pozostaje nieugięty co do znaczenia otwartego podejścia, podkreślając, że sztuczna inteligencja może być „godna zaufania, odpowiedzialna i rozliczalna” tylko wtedy, gdy jest zgodna z zasadami otwartego oprogramowania.

Chociaż debata na temat sztucznej inteligencji typu open source jest daleka od rozstrzygnięcia, jedna rzecz jest jasna: szybki rozwój tej technologii wymaga starannej równowagi między dostępnością a bezpieczeństwem. W miarę jak firmy takie jak Meta będą realizować swoje polityki, społeczność technologiczna i społeczeństwo będą w dalszym ciągu zmagać się z wyzwaniami i konsekwencjami sztucznej inteligencji typu open source.

Znak czasu:

Więcej z MetaWiadomości