W ramach prawdopodobnie pierwszego tego rodzaju badania firma Anthropic zajmująca się sztuczną inteligencją (AI) opracowała duży model językowy (LLM), który został dostosowany do oceny wartości przez społeczność użytkowników.
Co to znaczy, że rozwój sztucznej inteligencji jest bardziej demokratyczny? Aby się tego dowiedzieć, nawiązaliśmy współpracę z @collect_intel w użyciu @usepolis być kuratorem konstytucji AI opartej na opiniach około 1000 Amerykanów. Następnie wyszkoliliśmy przeciwko niemu model, korzystając z konstytucyjnej sztucznej inteligencji. pic.twitter.com/ZKaXw5K9sU
— Antropiczny (@AntropicznyAI) 17 października 2023 r.
Wiele dostępnych publicznie rozwiązań LLM zostało opracowanych z poręczami — zakodowanymi instrukcjami dyktującymi określone zachowanie — w celu ograniczenia niepożądanych wyników. Na przykład Claude firmy Anthropic i ChatGPT firmy OpenAI zazwyczaj zapewniają użytkownikom gotowe odpowiedzi dotyczące bezpieczeństwa na żądania wyjściowe dotyczące tematów związanych z przemocą lub kontrowersyjnymi.
Jednakże, jak zauważyło niezliczonych ekspertów, poręcze i inne techniki interwencyjne mogą służyć do okradania użytkowników z ich sprawczości. To, co uważa się za dopuszczalne, nie zawsze jest przydatne, a to, co uważa się za przydatne, nie zawsze jest akceptowalne. Definicje moralności lub osądów opartych na wartościach mogą się różnić w zależności od kultury, populacji i okresu.
Jednym z możliwych rozwiązań tego problemu jest umożliwienie użytkownikom dyktowania dostosowania wartości modeli AI. Eksperyment Anthropic „Collective Constitutional AI” jest odpowiedzią na to „bałaganowe wyzwanie”.
Anthropic, we współpracy z Polis i Collective Intelligence Project, skontaktował się z 1,000 użytkownikami z różnych grup demograficznych i poprosił ich o udzielenie odpowiedzi na serię pytań za pośrednictwem ankiety.
Wyzwanie polega na umożliwieniu użytkownikom agencji określenia, co jest odpowiednie, bez narażania ich na niewłaściwe wyniki. Wiązało się to z pozyskiwaniem wartości od użytkowników, a następnie wdrażaniem tych pomysłów do modelu, który został już przeszkolony.
Anthropic wykorzystuje metodę zwaną „konstytucyjną sztuczną inteligencją”. kierować swoje wysiłki na rzecz dostrojenia LLM pod kątem bezpieczeństwa i użyteczności. Zasadniczo wiąże się to z przekazaniem modelowi listy zasad, których musi przestrzegać, a następnie przeszkoleniem go w zakresie wdrażania tych zasad w całym procesie, podobnie jak konstytucja służy jako podstawowy dokument służący sprawowaniu rządów w wielu krajach.
W eksperymencie Collective Constitutional AI firma Anthropic podjęła próbę zintegrowania informacji zwrotnych pochodzących z grupy z konstytucją modelu. Wyniki, według do wpisu na blogu firmy Anthropic, wydają się być sukcesem naukowym, ponieważ naświetliły dalsze wyzwania w kierunku osiągnięcia celu, jakim jest umożliwienie użytkownikom produktu LLM określenia ich zbiorowych wartości.
Jedną z trudności, jakie zespół musiał pokonać, było opracowanie nowatorskiej metody procesu benchmarkingu. Ponieważ ten eksperyment wydaje się być pierwszym tego rodzaju i opiera się na metodologii Constitutional AI firmy Anthropic, nie ma ustalonego testu umożliwiającego porównanie modeli podstawowych z modelami dostrojonymi na podstawie wartości pochodzących od tłumów.
Ostatecznie wygląda na to, że model, który zaimplementował dane wynikające z opinii użytkowników w ankietach, „nieznacznie” przewyższał model bazowy w obszarze stronniczych wyników.
Według wpisu na blogu:
„Bardziej niż powstały model jesteśmy podekscytowani samym procesem. Uważamy, że może to być jeden z pierwszych przypadków, w których członkowie społeczeństwa, jako grupa, celowo kierowali zachowaniem dużego modelu językowego. Mamy nadzieję, że społeczności na całym świecie będą korzystać z takich technik, aby szkolić modele specyficzne dla kultury i kontekstu, które służą ich potrzebom”.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://cointelegraph.com/news/antropic-democratic-ai-chatbot-by-letting-users-vote-for-its-values
- :ma
- :Jest
- $W GÓRĘ
- 000
- 1
- 17
- a
- O nas
- do przyjęcia
- osiągnięcia
- w poprzek
- przed
- agencja
- AI
- Chatbot AI
- Modele AI
- wyrównanie
- dopuszczać
- Pozwalać
- już
- zawsze
- Amerykanie
- an
- i
- odpowiedź
- Antropiczny
- zjawić się
- pojawia się
- właściwy
- POWIERZCHNIA
- na około
- sztuczny
- sztuczna inteligencja
- Sztuczna inteligencja (AI)
- AS
- At
- próba
- próbę
- baza
- na podstawie
- BE
- być
- zachowanie
- uwierzyć
- Benchmarkingu
- pomiędzy
- stronniczy
- Blog
- budować
- wybudowany
- by
- nazywa
- CAN
- Centra
- wyzwanie
- wyzwania
- chatbot
- ChatGPT
- Cointelegraph
- współpraca
- Collective
- przyjście
- społeczności
- społeczność
- porównanie
- za
- Konstytucja
- kontrowersyjny
- rdzeń
- dane
- definicje
- demokratyczny
- Demografia
- Ustalać
- rozwinięty
- oprogramowania
- dyktować
- trudności
- skierowany
- inny
- dokument
- robi
- starania
- istotnie
- ustanowiony
- przykład
- podniecony
- eksperyment
- informacja zwrotna
- Znajdź
- Firma
- i terminów, a
- W razie zamówieenia projektu
- od
- dalej
- Dać
- Dający
- cel
- zarządzanie
- Zarządzanie
- miał
- Have
- nadzieję
- HTTPS
- pomysły
- wdrożenia
- realizowane
- wykonawczych
- in
- instrukcje
- integrować
- Inteligencja
- celowo
- najnowszych
- zaangażowany
- IT
- JEGO
- jpg
- sądy
- Uprzejmy
- język
- duży
- najmu
- lubić
- LIMIT
- Lista
- LLM
- wiele
- Może..
- oznaczać
- Użytkownicy
- metoda
- Metodologia
- model
- modele
- moralność
- jeszcze
- dużo
- musi
- Narodów
- wymagania
- powieść
- listopad
- of
- on
- ONE
- Opinie
- or
- Inne
- na zewnątrz
- przewyższył
- wydajność
- Wyjścia
- Przezwyciężać
- partner
- okresy
- Miejsce
- planowany
- plato
- Analiza danych Platona
- PlatoDane
- możliwy
- Post
- potencjał
- wygląda tak
- Produkt
- projekt
- publiczny
- pytania
- związane z
- wywołań
- odpowiedź
- wynikły
- Efekt
- rabować
- reguły
- Bezpieczeństwo
- naukowy
- Serie
- służyć
- służy
- specyficzny
- Badanie
- sukces
- Podsłuchu
- cel
- zespół
- Techniki
- test
- niż
- że
- Połączenia
- Strefa
- świat
- ich
- Im
- następnie
- Tam.
- to
- tych
- chociaż?
- zagrożenia
- poprzez
- czas
- do
- tematy
- w kierunku
- Pociąg
- przeszkolony
- Trening
- i twitterze
- zazwyczaj
- niepożądany
- posługiwać się
- Użytkownik
- Użytkownicy
- zastosowania
- za pomocą
- wartość
- oparte na wartości
- Wartości
- przez
- Głosować
- była
- we
- Co
- który
- będzie
- w
- bez
- świat
- zefirnet