W odważnym posunięciu przeciwko niedawnemu stanowisku Meta w sprawie sztucznej inteligencji (AI) typu open source Holly Elmore, zwolenniczka bezpieczeństwa AI, stanęła na czele demonstracji przed bazą Meta w San Francisco.
Sedno sporu leży w potencjalnych niebezpieczeństwach związanych ze swobodnym uwalnianiem potężnych wag modeli sztucznej inteligencji, co według Elmore i jej zwolenników może prowadzić do ryzyka „nieodwracalnego rozprzestrzeniania się”.
Wyobraź sobie, że fajnie jest opowiadać się za scentralizowaną kontrolą i bezpieczeństwem poprzez zapomnienie.https://t.co/qw2FNpX3of
— Daniel Jeffries (@Dan_Jeffries1) 8 października 2023 r.
Meta poruszyła wody technologiczne na początku tego roku uwalniając przeniesienia wagi rodziny modeli LLaMA na badaczy sztucznej inteligencji, co jest decyzją znacznie odbiegającą od polityki innych gigantów technologicznych. Wagi te, istotne dla funkcjonowania modelu, mogą być manipulowane i modyfikowane, gdy znajdą się w rękach ekspertów, co budzi obawy związane z niewłaściwym użyciem. Rzeczywiście, osiągnięcie tych ciężarów nie trwało długo wyciekły online, nasilająca się krytyka podejścia Meta do open source.
Ryzyko zwalniania ciężarów
Elmore, niegdyś związana z zespołem doradców Rethink Priorities, wyraziła swoje obawy:
„Zwalnianie ciężarów jest niebezpieczną polityką, ponieważ modele mogą być modyfikowane przez każdego i nie można ich przywołać”.
Podkreśliła rosnące zagrożenie w miarę jak modele stają się coraz bardziej zaawansowane i skuteczne. Gdy wagi modeli są ogólnodostępne, można je potencjalnie wykorzystać do szkodliwych działań, od tworzenia schematów phishingowych po planowanie cyberataki. Elmore ostrzega, że gdy ciężarki są w zasięgu ręki, omijanie poręczy zabezpieczających jest niepokojącą łatwością.
Peter S. Park z MIT podziela te opinie. Ostrzega przed zagrożeniami, jakie stwarza przeniesienie obecnego podejścia opartego na otwartym kodzie źródłowym do bardziej zaawansowanej sztucznej inteligencji, która mogłaby działać z większą autonomią, umożliwiając w ten sposób nadużycia na większą i bardziej szkodliwą skalę.
Gratulacje dla Holly Elmore @ilex_ulmus za kierowanie protestem Meta.
Dotarło do IEEE Spectrum, sztandarowej publikacji IEEE:
Protestujący potępiają „nieodwracalne rozprzestrzenianie się” sztucznej inteligencji Metahttps://t.co/XM0WAz8Zyuhttps://t.co/mfLBPjl2xJ
— Michael Huang ⏸️ (@michhuan) 8 października 2023 r.
Kontrargument: obrona open source
Stelli Bidermana EleutherAI oferuje jednak inną perspektywę. Biderman kwestionuje bezpośrednie założenie, że udostępnienie wag modeli bezpośrednio koreluje z potencjalnym nadużyciem. Jej zdaniem termin „proliferacja” kojarzony z bronią masowego rażenia wprowadza w błąd w kontekście sztucznej inteligencji. Twierdząc, że podstawowe elementy budowania dużych modeli językowych są już ujawnione, Biderman uważa, że tajemnica może nie być panaceum na potencjalne nadużycia.
Dodaje, że naleganie na firmy, aby zachowały tajemnicę na temat swoich modeli, może mieć „poważne dalsze konsekwencje dla przejrzystości, świadomości społecznej i nauki”. Taka polityka może w sposób niezamierzony bardziej zaszkodzić niezależnym badaczom i entuzjastom, niż chronić przed potencjalnymi zagrożeniami.
Nawigacja po wodach open source w AI
Termin 'open-source' w sferze AI jest zagmatwany. Jak wskazuje Stefano Maffulli z Open Source Initiative (OSI), różne organizacje przejęły ten termin, co doprowadziło do niejednoznacznego zrozumienia jego prawdziwego znaczenia w sztucznej inteligencji. Aby oprogramowanie było naprawdę open source, wszystkie jego komponenty, od kodu źródłowego po dane szkoleniowe, muszą być publicznie dostępne i nadawać się do ponownego wykorzystania.
Przyszłość sztucznej inteligencji typu open source wciąż się kształtuje, a OSI aktywnie próbuje zdefiniować jej parametry. Maffulli pozostaje nieugięty co do znaczenia otwartego podejścia, podkreślając, że sztuczna inteligencja może być „godna zaufania, odpowiedzialna i rozliczalna” tylko wtedy, gdy jest zgodna z zasadami otwartego oprogramowania.
Chociaż debata na temat sztucznej inteligencji typu open source jest daleka od rozstrzygnięcia, jedna rzecz jest jasna: szybki rozwój tej technologii wymaga starannej równowagi między dostępnością a bezpieczeństwem. W miarę jak firmy takie jak Meta będą realizować swoje polityki, społeczność technologiczna i społeczeństwo będą w dalszym ciągu zmagać się z wyzwaniami i konsekwencjami sztucznej inteligencji typu open source.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://metanews.com/meta-challenged-as-holly-elmore-leads-protest-on-open-source-safety/
- :Jest
- :nie
- 10
- 7
- 8
- a
- O nas
- dostępność
- dostępny
- aktywnie
- zajęcia
- Dodaje
- zaawansowany
- postęp
- rzecznik
- przed
- przed
- AI
- Wyrównuje
- Wszystkie kategorie
- już
- an
- i
- ktoś
- podejście
- SĄ
- argumentować
- na około
- sztuczny
- sztuczna inteligencja
- Sztuczna inteligencja (AI)
- AS
- powiązany
- założenie
- dostępny
- świadomość
- Bilans
- baza
- podstawowy
- BE
- bo
- stają się
- jest
- uważa,
- pomiędzy
- Budowanie
- by
- CAN
- nie może
- ostrożny
- prowadzone
- przestrogi
- scentralizowane
- wyzwania
- jasny
- kod
- społeczność
- Firmy
- składniki
- Obawy
- Konsekwencje
- budowy
- kontekst
- kontynuować
- kontrola
- Chłodny
- mógłby
- krytyka
- Aktualny
- Niebezpieczny
- Niebezpieczeństwa
- Daniel
- dane
- debata
- decyzja
- określić
- wymagania
- różne
- bezpośrednio
- Spierać się
- Wcześniej
- łatwość
- echa
- Elementy
- podkreślił
- podkreślając
- umożliwiając
- Miłośnicy
- eksperci
- członków Twojej rodziny
- daleko
- flagowy
- W razie zamówieenia projektu
- wykuć
- Francisco
- od
- funkcjonować
- przyszłość
- gigantów
- mocowanie
- ręka
- siła robocza
- zaszkodzić
- szkodliwy
- Have
- he
- Serce
- jej
- wyższy
- Jednak
- HTTPS
- Huang
- IEEE
- if
- Natychmiastowy
- implikacje
- znaczenie
- in
- przypadkowo
- rzeczywiście
- niezależny
- inicjatywa
- Inteligencja
- intensyfikować
- IT
- JEGO
- język
- duży
- większe
- prowadzić
- prowadzący
- Wyprowadzenia
- leży
- lubić
- Lama
- długo
- zrobiony
- utrzymać
- manipulować
- Masa
- Może..
- Meta
- Michał
- może
- zwodniczy
- nadużycie
- MIT
- model
- modele
- zmodyfikowano
- jeszcze
- ruch
- musi
- of
- Oferty
- on
- pewnego razu
- ONE
- tylko
- koncepcja
- open source
- otwarcie
- działać
- organizacji
- Inne
- na zewnątrz
- zewnętrzne
- koniec
- panaceum
- parametry
- Park
- perspektywa
- phishing
- planowanie
- plato
- Analiza danych Platona
- PlatoDane
- zwrotnica
- polityka
- polityka
- silny
- potencjał
- potencjalnie
- mocny
- Zasady
- protest
- publiczny
- Publikacja
- publicznie
- pytania
- wychowywanie
- nośny
- szybki
- królestwo
- niedawny
- uwalniając
- szczątki
- Badacze
- odpowiedzialny
- wielokrotnego użytku
- podniesienie
- ryzyko
- s
- zabezpieczenia
- Bezpieczeństwo
- San
- San Francisco
- Skala
- systemy
- nauka
- bezpieczeństwo
- uczucia
- Osiadły
- kształcie
- ona
- znacznie
- oznacza
- Tworzenie
- Źródło
- Kod źródłowy
- na czele
- Widmo
- stanowisko
- Nadal
- taki
- Kibice
- Brać
- zbiornik
- tech
- technologiczni giganci
- semestr
- niż
- że
- Połączenia
- ich
- Te
- one
- rzecz
- myśleć
- think tank
- Myślący
- to
- w tym roku
- groźba
- zagrożenia
- Przez
- A zatem
- do
- Trening
- Przezroczystość
- prawdziwy
- naprawdę
- stara
- zrozumienie
- nakłaniając
- używany
- zmienne
- istotny
- Ostrzega
- Wody
- Bronie
- Co
- jeśli chodzi o komunikację i motywację
- który
- będzie
- w
- rok
- zefirnet