Anthropic stworzył demokratycznego chatbota AI, umożliwiając użytkownikom wybór jego zasad.

Anthropic stworzył demokratycznego chatbota AI, umożliwiając użytkownikom wybór jego zasad.

Anthropic stworzył demokratycznego chatbota AI, umożliwiając użytkownikom wybór jego zasad. Inteligencja danych PlatoBlockchain. Wyszukiwanie pionowe. AI.
<!–
Samouczek HTML
->

W ramach przełomowego badania możliwości sztucznej inteligencji Anthropic, firma zajmująca się sztuczną inteligencją (AI), dostosowała model dużego języka (LLM), aby odzwierciedlał wartości zdefiniowane przez użytkownika. To wyjątkowe badanie obejmowało zebranie informacji od 1,000 uczestników w celu dopracowania odpowiedzi LLM w oparciu o ich zbiorową ocenę.

W przeciwieństwie do konwencjonalnych LLM wyposażonych w predefiniowane bariery ograniczające określone wyniki, podejście Anthropic obejmuje agencję użytkownika. Modele takie jak Claude z Anthropic i ChatGPT z OpenAI często stosują się do wstępnie ustawionych reakcji bezpieczeństwa, szczególnie w przypadku drażliwych tematów. Jednak krytycy twierdzą, że takie interwencje mogą zagrażać autonomii użytkownika, ponieważ definicja akceptowalności jest różna i subiektywna w zależności od kultury i okresu.

Potencjalnym rozwiązaniem tego złożonego wyzwania jest umożliwienie użytkownikom kształtowania dostosowania wartości modeli sztucznej inteligencji. Firma Anthropic rozpoczęła eksperyment „Zbiorowa konstytucyjna sztuczna inteligencja” we współpracy z Polis i projektem Collective Intelligence Project. Angażując 1,000 użytkowników z różnych środowisk, w drodze ankiety zadali serię pytań, aby zebrać cenne spostrzeżenia.

Eksperyment polega na przyznaniu użytkownikom uprawnień do określania stosowności bez narażania ich na niepożądane skutki. Proces ten obejmował pozyskanie wartości użytkownika i włączenie ich do wstępnie wytrenowanego modelu. Anthropic wykorzystuje technikę znaną jako „konstytucyjna sztuczna inteligencja”, w której modelowi dostarczany jest zestaw zasad, których należy przestrzegać, podobnie jak konstytucja regulująca zarządzanie w narodach.

W eksperymencie Collective Constitutional AI firma Anthropic miała na celu zintegrowanie informacji zwrotnych od grup użytkowników w strukturze modelu. Według wpisu na blogu Anthropic wyniki sugerują sukces naukowy, rzucając światło na wyzwania związane z umożliwieniem użytkownikom wspólnego definiowania wartości produktu LLM.

Istotną przeszkodą, przed którą stanął zespół, było opracowanie nowatorskiego procesu benchmarkingu. Biorąc pod uwagę pionierski charakter eksperymentu i oparcie się na metodologii Constitutional AI firmy Anthropic, nie ma ustalonego testu umożliwiającego porównanie modeli podstawowych z modelami dopracowanymi przy użyciu wartości pochodzących od tłumów.

Ostatecznie wydaje się, że model uwzględniający dane pochodzące z opinii użytkowników uzyskanych w ankietach wykazał „nieznaczną” poprawę w porównaniu z modelem podstawowym w zakresie łagodzenia stronniczych wyników. Anthropic wyraża podekscytowanie nie tylko powstałym modelem, ale, co ważniejsze, samym przełomowym procesem. Eksperyment ten oznacza jeden z pierwszych przypadków, w których społeczeństwo, jako zbiorowość, celowo wpływało na zachowanie dużego modelu językowego. Mamy nadzieję, że społeczności na całym świecie wykorzystają takie techniki do opracowania modeli dostosowanych do ich specyficznych potrzeb kulturowych i kontekstowych.

Najnowsze wieści

Protokół Ethereum dla DeFi Hope Lend został wyczerpany w następstwie

Najnowsze wieści

Roszczenia wierzycieli FTX przekraczają 50 centów

Najnowsze wieści

Według niedawnego śledztwa pionier Bitcoin Hal Finney

Najnowsze wieści

Prawnicy szacują, że SEC ma 3–14%

Najnowsze wieści

Tajlandia opóźnia wydawanie cyfrowej waluty; domagają się krytycy

Znak czasu:

Więcej z BitcoinŚwiat