Wprowadzamy ulepszenia do dostrajania API i rozwijamy nasz program modeli niestandardowych

Wprowadzamy ulepszenia do dostrajania API i rozwijamy nasz program modeli niestandardowych

Wprowadzenie ulepszeń do dostrajania API i rozszerzenie naszego programu modeli niestandardowych PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Wspomagane dostrajanie

Podczas DevDay w listopadzie zeszłego roku my ogłosił program Custom Model przeznaczony do szkolenia i optymalizacji modeli dla określonej domeny, we współpracy z dedykowaną grupą badaczy OpenAI. Od tego czasu spotkaliśmy się z dziesiątkami klientów, aby ocenić ich potrzeby w zakresie modeli niestandardowych i rozwinęliśmy nasz program w celu dalszej maksymalizacji wydajności.

Dzisiaj oficjalnie ogłaszamy naszą ofertę wspomaganego dostrajania w ramach programu Custom Model. Wspomagane dostrajanie to wspólny wysiłek naszych zespołów technicznych w celu wykorzystania technik wykraczających poza interfejs API dostrajania, takich jak dodatkowe hiperparametry i różne metody efektywnego dostrajania parametrów (PEFT) na większą skalę. Jest to szczególnie przydatne dla organizacji, które potrzebują wsparcia w konfigurowaniu wydajnych potoków danych szkoleniowych, systemów oceny oraz niestandardowych parametrów i metod, aby zmaksymalizować wydajność modelu dla ich przypadku użycia lub zadania.

Na przykład, SK Telecom, operator telekomunikacyjny obsługujący ponad 30 milionów abonentów w Korei Południowej, chciał dostosować model tak, aby był ekspertem w dziedzinie telekomunikacji, koncentrując się początkowo na obsłudze klienta. Współpracowali z OpenAI, aby udoskonalić GPT-4, aby poprawić jego wydajność w rozmowach związanych z telekomunikacją w języku koreańskim. W ciągu wielu tygodni SKT i OpenAI osiągnęły znaczącą poprawę wydajności w zadaniach związanych z obsługą klienta telekomunikacyjnego — wzrost jakości podsumowań rozmów o 35%, wzrost dokładności rozpoznawania zamiarów o 33% oraz wzrost wyników satysfakcji z 3.6 do 4.5 (poza z 5) porównując dopracowany model z GPT-4. 

Model specjalnie wyszkolony

W niektórych przypadkach organizacje muszą od podstaw wyszkolić specjalnie zbudowany model, który rozumie ich działalność, branżę lub domenę. W pełni wytrenowane modele wprowadzają nową wiedzę z określonej domeny poprzez modyfikację kluczowych etapów procesu uczenia modeli przy użyciu nowatorskich technik w trakcie i po szkoleniu. Organizacje, które osiągnęły sukces dzięki w pełni wytrenowanemu modelowi, często dysponują dużymi ilościami zastrzeżonych danych — milionami przykładów lub miliardami tokenów — których chcą użyć do nauczenia modelu nowej wiedzy lub złożonych, unikalnych zachowań w bardzo specyficznych przypadkach użycia. 

Na przykład, Harvey, natywne narzędzie prawne dla prawników oparte na sztucznej inteligencji, współpracujące z OpenAI utwórz specjalnie wyszkolony model dużego języka dla orzecznictwa. Chociaż modele podstawowe były dobre w rozumowaniu, brakowało im rozległej wiedzy na temat historii spraw prawnych i innej wiedzy wymaganej w pracy prawniczej. Po przetestowaniu szybkiej inżynierii, RAG i dostrajaniu Harvey współpracował z naszym zespołem, aby dodać do modelu niezbędną głębię kontekstu — równowartość danych o wartości 10 miliardów tokenów. Nasz zespół modyfikował każdy etap procesu szkolenia modelowego, od szkolenia w trakcie szkolenia specyficznego dla danej domeny po dostosowywanie procesów po szkoleniu i uwzględnianie opinii ekspertów-radców prawnych. W rezultacie uzyskano 83% wzrost liczby odpowiedzi opartych na faktach, a prawnicy w 97% przypadków woleli wyniki niestandardowego modelu niż GPT-4.

Znak czasu:

Więcej z OpenAI