W dobie dużych zbiorów danych i sztucznej inteligencji firmy nieustannie poszukują sposobów wykorzystania tych technologii w celu uzyskania przewagi konkurencyjnej. Jednym z najgorętszych obecnie obszarów sztucznej inteligencji jest generatywna sztuczna inteligencja i nie bez powodu. Generatywna sztuczna inteligencja oferuje zaawansowane rozwiązania, które przesuwają granice tego, co jest możliwe w zakresie kreatywności i innowacyjności. U podstaw tych najnowocześniejszych rozwiązań leży model podstawowy (FM), wysoce zaawansowany model uczenia maszynowego, który jest wstępnie szkolony na ogromnych ilościach danych. Wiele z tych podstawowych modeli wykazało niezwykłą zdolność rozumienia i generowania tekstu podobnego do ludzkiego, co czyni je cennym narzędziem do różnych zastosowań, od tworzenia treści po automatyzację obsługi klienta.
Jednak modele te nie są pozbawione wyzwań. Są wyjątkowo duże i wymagają dużych ilości danych i zasobów obliczeniowych do szkolenia. Ponadto optymalizacja procesu uczenia i kalibracja parametrów może być procesem złożonym i iteracyjnym, wymagającym wiedzy specjalistycznej i dokładnych eksperymentów. Mogą one stanowić bariery dla wielu organizacji chcących zbudować własne podstawowe modele. Aby sprostać temu wyzwaniu, wielu klientów rozważa udoskonalenie istniejących modeli fundamentów. Jest to popularna technika dostosowywania niewielkiej części parametrów modelu do konkretnych zastosowań, przy jednoczesnym zachowaniu wiedzy już zakodowanej w modelu. Umożliwia organizacjom wykorzystanie mocy tych modeli przy jednoczesnej redukcji zasobów wymaganych do dostosowania się do określonej domeny lub zadania.
Istnieją dwa podstawowe podejścia do dostrajania modeli podstawowych: tradycyjne dostrajanie i dostrajanie efektywne pod względem parametrów. Tradycyjne dostrajanie polega na aktualizowaniu wszystkich parametrów wstępnie przeszkolonego modelu dla określonego zadania końcowego. Z drugiej strony, dostrajanie efektywne pod względem parametrów obejmuje różnorodne techniki, które pozwalają na dostosowanie modelu bez aktualizacji wszystkich oryginalnych parametrów modelu. Jedną z takich technik jest adaptacja niskiej rangi (LoRA). Polega na dodaniu małych, specyficznych dla zadania modułów do wstępnie wyszkolonego modelu i ich szkoleniu przy zachowaniu pozostałych parametrów stałych, jak pokazano na poniższej ilustracji.
Źródło: Generatywna sztuczna inteligencja w AWS (O'Reilly, 2023)
LoRA zyskała ostatnio popularność z kilku powodów. Oferuje szybsze szkolenie, zmniejszone wymagania dotyczące pamięci i możliwość ponownego wykorzystania wstępnie wyszkolonych modeli do wielu dalszych zadań. Co ważniejsze, model podstawowy i adapter można przechowywać oddzielnie i łączyć w dowolnym momencie, co ułatwia przechowywanie, dystrybucję i udostępnianie dopracowanych wersji. Wprowadza to jednak nowe wyzwanie: jak właściwie zarządzać tymi nowymi typami dopracowanych modeli. Czy należy połączyć model podstawowy i adapter, czy zachować je oddzielnie? W tym poście omawiamy najlepsze praktyki zarządzania dopracowanymi modelami LoRA Amazon Sage Maker aby odpowiedzieć na to pojawiające się pytanie.
Praca z FM w rejestrze modeli SageMaker
W tym poście omówimy kompleksowy przykład dostrajania modelu dużego języka (LLM) Llama2 przy użyciu metody QLoRA. QLoRA łączy w sobie zalety wydajnego dostrajania parametrów z kwantyzacją 4-bitową/8-bitową, aby jeszcze bardziej zmniejszyć zasoby wymagane do dostrojenia FM do konkretnego zadania lub przypadku użycia. W tym celu użyjemy wstępnie wytrenowanego modelu Llama7 o 2 miliardach parametrów i dopracujemy go w zestawie danych databricks-dolly-15k. LLM, takie jak Llama2, mają miliardy parametrów i są wstępnie szkolone na ogromnych zbiorach danych tekstowych. Dostrajanie dostosowuje LLM do dalszego zadania przy użyciu mniejszego zestawu danych. Jednak dostrajanie dużych modeli jest kosztowne obliczeniowo. Dlatego właśnie użyjemy metody QLoRA do kwantyzacji wag podczas dostrajania, aby zmniejszyć koszt obliczeń.
W naszych przykładach znajdziesz dwa notesy (llm-finetune-combined-with-registry.ipynb
i llm-finetune-separate-with-registry.ipynb
). Każdy z nich działa w inny sposób, aby obsługiwać precyzyjnie dostrojone modele LoRA, jak pokazano na poniższym schemacie:
- Najpierw pobieramy wstępnie wytrenowany model Llama2 z 7 miliardami parametrów przy użyciu notesów SageMaker Studio. LLM, takie jak Llama2, wykazały najnowocześniejszą wydajność w zadaniach przetwarzania języka naturalnego (NLP) po dostrojeniu na danych specyficznych dla domeny.
- Następnie dostrajamy Llama2 w zestawie danych databricks-dolly-15k przy użyciu metody QLoRA. QLoRA zmniejsza koszty obliczeniowe dostrajania poprzez kwantyzację wag modeli.
- Podczas dostrajania integrujemy SageMaker Experiments Plus z interfejsem API Transformers, aby automatycznie rejestrować metryki, takie jak gradient, strata itp.
- Następnie wersjonujemy dopracowany model Llama2 w rejestrze modeli SageMaker, stosując dwa podejścia:
- Przechowywanie pełnego modelu
- Oddzielne przechowywanie adaptera i modelu podstawowego.
- Na koniec hostujemy dopracowane modele Llama2 przy użyciu biblioteki Deep Java Library (DJL) udostępnianej na punkcie końcowym SageMaker w czasie rzeczywistym.
W kolejnych sekcjach przyjrzymy się bliżej każdemu z tych kroków, aby zademonstrować elastyczność SageMaker dla różnych przepływów pracy LLM i w jaki sposób te funkcje mogą pomóc ulepszyć działanie Twoich modeli.
Wymagania wstępne
Aby rozpocząć eksperymentowanie z kodem, spełnij następujące wymagania wstępne.
- Stwórz Domena SageMaker Studio: Amazon SageMaker Studio, w szczególności Studio Notebooks, służy do uruchamiania zadania dostrajania Llama2, a następnie rejestrowania i przeglądania modeli w Rejestr modeli SageMaker. Eksperymenty SageMakera służy również do przeglądania i porównywania dzienników zadań dostrajających Llama2 (straty w szkoleniach/straty w testach itp.).
- Utwórz segment usługi Amazon Simple Storage Service (S3).: Wymagany jest dostęp do zasobnika S3 w celu przechowywania artefaktów szkoleniowych i wag modeli. Aby uzyskać instrukcje, zobacz Tworzenie wiadra. Przykładowy kod użyty w tym poście będzie korzystał z domyślnego segmentu S3 SageMaker, ale możesz go dostosować tak, aby korzystał z dowolnego odpowiedniego segmentu S3.
- Skonfiguruj kolekcje modeli (uprawnienia IAM): Zaktualizuj swoją rolę wykonawczą SageMaker o uprawnienia do grup zasobów wymienionych w sekcji Przewodnik programisty kolekcji rejestru modeli aby zaimplementować grupowanie rejestru modeli przy użyciu kolekcji modeli.
- Zaakceptuj Warunki korzystania z Llama2: Będziesz musiał zaakceptować umowę licencyjną użytkownika końcowego i zasady dopuszczalnego użytkowania dotyczące korzystania z podstawowego modelu Llama2.
Przykłady są dostępne w Repozytorium GitHub. Pliki notesu są testowane przy użyciu notesów Studio działających na jądrze zoptymalizowanym pod kątem procesora graficznego PyTorch 2.0.0 w języku Python 3.10 i typie instancji ml.g4dn.xlarge.
Eksperymenty i integracja wywołania zwrotnego
Eksperymenty Amazon SageMaker pozwala organizować, śledzić, porównywać i oceniać eksperymenty uczenia maszynowego (ML) oraz modelować wersje z dowolnego zintegrowanego środowiska programistycznego (IDE), w tym lokalnych notatników Jupyter, przy użyciu zestawu SageMaker Python SDK lub boto3. Zapewnia elastyczność rejestrowania metryk modelu, parametrów, plików, artefaktów, wykresów z różnych metryk, przechwytywania różnych metadanych, przeszukiwania ich i wspierania odtwarzalności modelu. Analitycy danych mogą szybko porównywać wydajność i hiperparametry na potrzeby oceny modelu za pomocą wizualnych wykresów i tabel. Mogą także skorzystać z narzędzia SageMaker Experiments, aby pobrać utworzone wykresy i udostępnić ocenę modelu swoim interesariuszom.
Szkolenie LLM może być procesem powolnym, kosztownym i iteracyjnym. Bardzo ważne jest, aby użytkownik śledził eksperymenty LLM na dużą skalę, aby zapobiec niespójnemu dostrajaniu modelu. Interfejsy API HuggingFace Transformer umożliwiają użytkownikom śledzenie wskaźników podczas zadań szkoleniowych Callbacki. Wywołania zwrotne to fragmenty kodu „tylko do odczytu”, które mogą dostosować zachowanie pętli szkoleniowej w PyTorch Trainer i które mogą sprawdzać stan pętli szkoleniowej w celu raportowania postępu, logowania się do TensorBoard lub SageMaker Experiments Plus za pomocą niestandardowej logiki (która jest zawarta jako część tego kodu).
Możesz zaimportować kod wywołania zwrotnego SageMaker Experiments zawarty w repozytorium kodu tego wpisu, jak pokazano w następującym bloku kodu:
To wywołanie zwrotne automatycznie zarejestruje następujące informacje w SageMaker Experiments w ramach przebiegu szkoleniowego:
- Parametry treningowe i hiperparametry
- Strata w zakresie szkolenia i walidacji modelu na etapie, w epoce i na etapie końcowym
- Artefakty wejściowe i wyjściowe modelu (zestaw danych szkoleniowych, zbiór danych walidacyjnych, lokalizacja wyników modelu, debuger szkoleniowy i inne)
Poniższy wykres przedstawia przykłady wykresów, które można wyświetlić, korzystając z tych informacji.
Umożliwia to łatwe porównywanie wielu przebiegów przy użyciu funkcji Analizuj w SageMaker Experiments. Możesz wybrać przebiegi eksperymentów, które chcesz porównać, a wykresy porównawcze zostaną automatycznie wypełnione.
Zarejestruj dopracowane modele w kolekcjach rejestru modeli
Kolekcje rejestru modeli jest cechą Rejestr modeli SageMaker umożliwia grupowanie zarejestrowanych modeli, które są ze sobą powiązane i organizowanie ich w hierarchie w celu poprawy wykrywalności modeli na dużą skalę. Będziemy używać kolekcji rejestru modeli do śledzenia modelu podstawowego i jego dopracowanych wariantów.
Metoda pełnego kopiowania modelu
Pierwsza metoda łączy model podstawowy i adapter LoRA i zapisuje w pełni dopracowany model. Poniższy kod ilustruje proces łączenia modeli i zapisuje połączony model za pomocą model.save_pretrained()
.
Połączenie adaptera LoRA i modelu podstawowego w jeden artefakt modelu po dostrojeniu ma zalety i wady. Połączony model jest samowystarczalny i można nim niezależnie zarządzać i wdrażać bez konieczności korzystania z oryginalnego modelu podstawowego. Model można śledzić jako odrębną jednostkę z nazwą wersji odzwierciedlającą model podstawowy i dane dostrajające. Możemy przyjąć nomenklaturę za pomocą base_model_name
+ dopracowane dataset_name
do organizowania grup modeli. Opcjonalnie kolekcje modeli mogą łączyć modele oryginalne i dopracowane, ale może to nie być konieczne, ponieważ połączony model jest niezależny. Poniższy fragment kodu pokazuje, jak zarejestrować dopracowany model.
Możesz użyć estymatora szkoleniowego, aby zarejestrować model w Rejestrze modelu.
Z Rejestru modelu można pobrać pakiet modelu i bezpośrednio wdrożyć ten model.
Jednakże podejście to ma wady. Łączenie modeli prowadzi do nieefektywności przechowywania danych i nadmiarowości, ponieważ model podstawowy jest powielany w każdej dopracowanej wersji. Wraz ze wzrostem rozmiaru modelu i liczby dopracowanych modeli, zapotrzebowanie na pamięć masową wzrasta wykładniczo. Biorąc za przykład model Lama2 7b, model podstawowy ma około 13 GB, a model dostrojony to 13.6 GB. Po każdym dostrojeniu 96% modelu wymaga powielenia. Ponadto dystrybucja i udostępnianie bardzo dużych plików modeli również staje się trudniejsze i stwarza wyzwania operacyjne, ponieważ koszty przesyłania plików i zarządzania rosną wraz ze wzrostem rozmiaru modelu i dostrajaniem zadań.
Oddzielny adapter i metoda podstawowa
Druga metoda koncentruje się na oddzieleniu ciężarów podstawowych i ciężarów adapterów poprzez zapisanie ich jako oddzielnych komponentów modelu i ładowanie ich sekwencyjnie w czasie wykonywania.
Zapisywanie masy podstawy i adaptera ma zalety i wady, podobnie jak metoda pełnego kopiowania modelu. Jedną z zalet jest to, że może zaoszczędzić miejsce do przechowywania. Obciążniki podstawowe, które są największym elementem dopracowanego modelu, są zapisywane tylko raz i można je ponownie wykorzystać z innymi ciężarkami adapterów, które są dostosowane do różnych zadań. Na przykład podstawowa waga Llama2-7B wynosi około 13 GB, ale każde zadanie dostrajania wymaga przechowywania jedynie około 0.6 GB ciężarów adaptera, co stanowi 95% oszczędności miejsca. Kolejną zaletą jest to, że ciężarami podstawowymi można zarządzać oddzielnie od ciężarów adapterów, korzystając z rejestru modeli zawierających wyłącznie ciężary podstawowe. Może to być przydatne w przypadku domen SageMaker, które działają w trybie tylko VPC bez bramy internetowej, ponieważ dostęp do wag podstawowych można uzyskać bez konieczności przechodzenia przez Internet.
Utwórz grupę pakietów modeli dla ciężarów podstawowych
Utwórz grupę pakietów modeli dla wag QLoRA
Poniższy kod pokazuje, jak oznaczyć wagi QLoRA typem zestawu danych/zadania i zarejestrować precyzyjnie dostrojone wagi delta w oddzielnym rejestrze modelu oraz oddzielnie śledzić wagi delta.
Poniższy fragment przedstawia widok z rejestru modeli, w którym modele są podzielone na wagi podstawowe i dostrojone.
Zarządzanie modelami, zbiorami danych i zadaniami w przypadku hiperspersonalizowanych LLM może szybko stać się przytłaczające. Kolekcje rejestru modeli SageMaker może pomóc w grupowaniu powiązanych modeli i organizowaniu ich w hierarchię, aby poprawić wykrywalność modeli. Ułatwia to śledzenie relacji między wagami podstawowymi, wagami adapterów i zestawami danych zadań dostrajających. Można także tworzyć złożone relacje i powiązania pomiędzy modelami.
Utwórz nową kolekcję i dodaj do niej ciężary swojego modelu podstawowego
Połącz wszystkie swoje precyzyjnie dostrojone ciężarki Delta adaptera LoRA z tą kolekcją według zadania i/lub zestawu danych
W rezultacie powstanie hierarchia kolekcji połączona według typu modelu/zadania i zbioru danych użytego do dostrojenia modelu podstawowego.
Ta metoda oddzielania modeli podstawowych i adapterów ma pewne wady. Wadą jest złożoność wdrażania modelu. Ponieważ istnieją dwa oddzielne artefakty modelu, należy wykonać dodatkowe kroki, aby ponownie spakować model, zamiast wdrażać go bezpośrednio z rejestru modeli. W poniższym przykładzie kodu najpierw pobierz i ponownie spakuj najnowszą wersję modelu podstawowego.
Następnie pobierz i ponownie zapakuj najnowsze, precyzyjnie dostrojone obciążniki adapterów LoRA.
Ponieważ do hostowania modelu będziesz używać usługi DJL z dużą szybkością, Twój katalog wnioskowania powinien wyglądać następująco.
Na koniec spakuj niestandardowy kod wnioskowania, model podstawowy i adapter LoRA w jednym pliku .tar.gz na potrzeby wdrożenia.
Sprzątać
Wyczyść swoje zasoby, postępując zgodnie z instrukcjami zawartymi w sekcji dotyczącej czyszczenia notatnika. Odnosić się do Cennik Amazon SageMaker aby uzyskać szczegółowe informacje na temat kosztów instancji wnioskowania.
Wnioski
W tym poście omówiono najlepsze praktyki zarządzania dopracowanymi modelami LoRA w Amazon SageMaker. Omówiliśmy dwie główne metody: połączenie obciążników podstawy i adaptera w jeden samodzielny model oraz oddzielenie obciążników podstawy i adaptera. Obydwa podejścia wiążą się z kompromisami, ale oddzielenie wag pomaga zoptymalizować pamięć masową i umożliwia zaawansowane techniki zarządzania modelami, takie jak kolekcje rejestru modeli SageMaker. Umożliwia to budowanie hierarchii i relacji między modelami w celu poprawy organizacji i wykrywalności. Zachęcamy do wypróbowania przykładowego kodu Repozytorium GitHub samodzielnie eksperymentować z tymi metodami. W miarę szybkiego rozwoju generatywnej sztucznej inteligencji przestrzeganie najlepszych praktyk w zakresie zarządzania modelami pomoże Ci śledzić eksperymenty, znaleźć odpowiedni model do swojego zadania i efektywnie zarządzać wyspecjalizowanymi LLM na dużą skalę.
Referencje
O autorach
Jamesa Wu jest starszym architektem rozwiązań AI/ML w AWS. pomaganie klientom w projektowaniu i budowaniu rozwiązań AI/ML. Praca Jamesa obejmuje szeroki zakres przypadków użycia ML, ze szczególnym uwzględnieniem wizji komputerowej, głębokiego uczenia i skalowania ML w całym przedsiębiorstwie. Przed dołączeniem do AWS James był architektem, programistą i liderem technologicznym przez ponad 10 lat, w tym 6 lat w inżynierii i 4 lata w branży marketingowej i reklamowej.
Pranava Murthy’ego jest Architektem Rozwiązań Specjalistycznych AI/ML w AWS. Koncentruje się na pomaganiu klientom w tworzeniu, szkoleniu, wdrażaniu i migracji obciążeń uczenia maszynowego (ML) do SageMaker. Wcześniej pracował w branży półprzewodników, opracowując duże modele wizji komputerowej (CV) i przetwarzania języka naturalnego (NLP) w celu ulepszenia procesów półprzewodnikowych. W wolnym czasie lubi grać w szachy i podróżować.
Mecit Gungor jest architektem rozwiązań AI/ML w AWS, pomagającym klientom projektować i budować rozwiązania AI/ML na dużą skalę. Zajmuje się szeroką gamą przypadków użycia AI/ML dla klientów z branży telekomunikacyjnej, a obecnie koncentruje się na generatywnej sztucznej inteligencji, LLM oraz optymalizacji szkoleń i wnioskowania. Często można go spotkać spacerującego po dziczy lub grającego w gry planszowe z przyjaciółmi w wolnym czasie.
Shelbee Eigenbrode jest głównym specjalistą ds. rozwiązań AI i uczenia maszynowego w Amazon Web Services (AWS). Od 24 lat zajmuje się technologią, obejmując wiele branż, technologii i ról. Obecnie koncentruje się na połączeniu swojego doświadczenia w zakresie DevOps i ML z domeną MLOps, aby pomóc klientom dostarczać i zarządzać obciążeniami ML na dużą skalę. Z ponad 35 patentami przyznanymi w różnych dziedzinach technologii, ma pasję do ciągłych innowacji i wykorzystywania danych do osiągania wyników biznesowych. Shelbee jest współtwórcą i instruktorem specjalizacji Practical Data Science na Coursera. Jest również współdyrektorem Women In Big Data (WiBD), oddział w Denver. W wolnym czasie lubi spędzać czas z rodziną, przyjaciółmi i nadpobudliwymi psami.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :ma
- :Jest
- :nie
- :Gdzie
- $W GÓRĘ
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- zdolność
- O nas
- Akceptuj
- do przyjęcia
- dostęp
- dostęp
- w poprzek
- adaptacja
- dostosowuje się
- Dodaj
- dodanie
- Dodatkowy
- do tego
- adres
- przyjąć
- zaawansowany
- Korzyść
- Zalety
- Reklama
- Po
- Umowa
- AI
- AI ma rację
- AI / ML
- Wszystkie kategorie
- dopuszczać
- pozwala
- już
- również
- Amazonka
- Amazon Sage Maker
- Studio Amazon SageMaker
- Usługa Amazon Simple Storage (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- kwoty
- an
- w czasie rzeczywistym sprawiają,
- i
- Inne
- każdy
- api
- aplikacje
- podejście
- awanse
- zatwierdzony
- w przybliżeniu
- SĄ
- obszary
- AS
- Współpracownik
- At
- automatycznie
- Automatyzacja
- dostępny
- AWS
- z powrotem
- tło
- bariery
- baza
- BE
- bo
- stają się
- staje się
- być
- zachowanie
- Korzyści
- BEST
- Najlepsze praktyki
- pomiędzy
- Duży
- Big Data
- Miliard
- miliardy
- Blokować
- deska
- Gry planszowe
- obie
- Granice
- budować
- biznes
- ale
- by
- oddzwanianie
- nazywa
- CAN
- zdolność
- zdobyć
- ostrożny
- walizka
- Etui
- wyzwanie
- wyzwania
- Rozdział
- Wykresy
- Szachy
- klasa
- jasny
- kod
- Kod źródłowy
- kolekcja
- kolekcje
- połączyć
- połączony
- kombajny
- łączenie
- Firmy
- porównać
- porównanie
- konkurencyjny
- kompleks
- kompleksowość
- składnik
- składniki
- obliczenia
- obliczeniowy
- komputer
- Wizja komputerowa
- Warunki
- wobec
- zawartość
- Tworzenie treści
- nieustannie
- ciągły
- rdzeń
- Koszty:
- mógłby
- pokryty
- Okładki
- Stwórz
- stworzony
- tworzenie
- kreatywność
- Obecnie
- zwyczaj
- klient
- Obsługa klienta
- Klientów
- dostosowywanie
- dostosować
- pionierski nowatorski
- dane
- nauka danych
- zbiory danych
- głęboko
- głęboka nauka
- głębiej
- Domyślnie
- del
- dostarczyć
- Delta
- wykazać
- Denver
- rozwijać
- wdrażane
- wdrażanie
- Wdrożenie
- Wnętrze
- detale
- Deweloper
- rozwijanie
- oprogramowania
- różne
- trudny
- bezpośrednio
- Wyświetlacz
- rozprowadzać
- rozdzielczy
- nurkować
- domena
- domeny
- pobieranie
- wady
- napęd
- podczas
- każdy
- łatwiej
- z łatwością
- krawędź
- wydajny
- skutecznie
- więcej
- wschodzących
- Umożliwia
- zachęcać
- koniec końców
- Punkt końcowy
- Inżynieria
- Enterprise
- jednostka
- Środowisko
- epoka
- Era
- itp
- oceniać
- ewaluację
- przykład
- przykłady
- wyjątkowo
- egzekucja
- Przede wszystkim system został opracowany
- drogi
- doświadczenie
- eksperyment
- eksperymenty
- ekspertyza
- wykładniczo
- Twarz
- Brak
- członków Twojej rodziny
- szybciej
- Cecha
- Korzyści
- filet
- Akta
- Znajdź
- w porządku
- i terminów, a
- ustalony
- Elastyczność
- koncentruje
- skupienie
- następujący
- W razie zamówieenia projektu
- znaleziono
- Fundacja
- Darmowy
- przyjaciele
- od
- pełny
- funkcjonować
- dalej
- przyszłość
- Wzrost
- zdobyte
- Games
- Bramka
- generujący
- generatywny
- generatywna sztuczna inteligencja
- Go
- będzie
- dobry
- GPU
- udzielony
- wykres
- wykresy
- Zarządzanie
- Grupy
- ręka
- uchwyt
- Have
- mający
- he
- pomoc
- pomoc
- pomaga
- jej
- hierarchia
- wysoko
- jego
- gospodarz
- Najgorętsze
- W jaki sposób
- How To
- Jednak
- HTML
- HTTPS
- Przytulanie twarzy
- ilustruje
- obraz
- wdrożenia
- realizacja
- importować
- ważny
- co ważne
- import
- podnieść
- in
- włączony
- obejmuje
- Włącznie z
- Zwiększać
- Zwiększenia
- wzrastający
- niezależny
- niezależnie
- przemysłowa
- przemysł
- nieskuteczność
- nadmuchuje
- Informacja
- Innowacja
- wkład
- przykład
- zamiast
- instrukcje
- integrować
- zintegrowany
- odsetki
- Internet
- najnowszych
- Przedstawia
- IT
- JEGO
- james
- Java
- Praca
- Oferty pracy
- łączący
- jpg
- Trzymać
- konserwacja
- Klawisz
- kopać
- wiedza
- język
- duży
- największym
- firmy
- lider
- Wyprowadzenia
- nauka
- pozwala
- poziom
- Biblioteka
- Licencja
- leży
- lubić
- lubi
- LINK
- powiązany
- Katalogowany
- LLM
- załadować
- załadunek
- miejscowy
- lokalizacja
- log
- zalogowaniu
- logika
- Popatrz
- wygląda jak
- poszukuje
- od
- maszyna
- uczenie maszynowe
- Główny
- WYKONUJE
- Dokonywanie
- zarządzanie
- zarządzane
- i konserwacjami
- zarządzający
- wiele
- Marketing
- Marketing i reklama
- masywny
- Może..
- Pamięć
- Łączyć
- połączenie
- Metadane
- metoda
- metody
- Metryka
- migrować
- ML
- MLOps
- Moda
- model
- modele
- Moduły
- jeszcze
- wielokrotność
- Nazwa
- Naturalny
- Przetwarzanie języka naturalnego
- niezbędny
- Potrzebować
- potrzeba
- wymagania
- Nowości
- nlp
- notatnik
- już dziś
- numer
- of
- poza
- Oferty
- często
- on
- pewnego razu
- ONE
- tylko
- operacyjny
- operacje
- optymalizacja
- Optymalizacja
- zoptymalizowane
- optymalizacji
- or
- organizacja
- organizacji
- oryginalny
- Inne
- ludzkiej,
- wyniki
- wydajność
- koniec
- Przezwyciężać
- przytłaczający
- własny
- pakiet
- parametr
- parametry
- część
- pasja
- Patenty
- ścieżka
- procent
- jest gwarancją najlepszej jakości, które mogą dostarczyć Ci Twoje monitory,
- uprawnienia
- sztuk
- plato
- Analiza danych Platona
- PlatoDane
- gra
- plus
- polityka
- Popularny
- popularność
- część
- możliwy
- Post
- power
- mocny
- Praktyczny
- praktyki
- warunki wstępne
- prezenty
- konserwowanie
- zapobiec
- poprzednio
- pierwotny
- Główny
- Wcześniejszy
- wygląda tak
- procesów
- przetwarzanie
- Postęp
- prawidłowo
- niska zabudowa
- zapewnia
- Naciskać
- Python
- płomień
- pytanie
- szybko
- zasięg
- szybko
- w czasie rzeczywistym
- powód
- Przyczyny
- niedawno
- zmniejszyć
- Zredukowany
- zmniejsza
- redukcja
- odnosić się
- odzwierciedlając
- zarejestrować
- zarejestrowany
- rejestr
- związane z
- Relacje
- znakomity
- Raportowanie
- składnica
- wymagać
- wymagany
- wymagania
- Zasoby
- REST
- dalsze
- ponownie
- prawo
- Rola
- role
- run
- bieganie
- działa
- Czas
- sagemaker
- Zapisz
- zapisywane
- oszczędność
- Oszczędności
- Skala
- skalowaniem
- nauka
- Naukowcy
- Sdk
- Szukaj
- druga
- Sekcja
- działy
- poszukuje
- Semiconductor
- senior
- oddzielny
- rozsadzający
- usługa
- Usługi
- służąc
- kilka
- Share
- dzielenie
- ona
- powinien
- pokazane
- Targi
- podobny
- Prosty
- ponieważ
- pojedynczy
- Rozmiar
- powolny
- mały
- mniejszy
- skrawek
- rozwiązanie
- Rozwiązania
- kilka
- Źródło
- Typ przestrzeni
- napięcie
- specjalista
- wyspecjalizowanym
- specyficzny
- swoiście
- wydać
- dzielić
- interesariusze
- początek
- Stan
- state-of-the-art
- Rynek
- Ewolucja krok po kroku
- Cel
- Nadal
- przechowywanie
- sklep
- przechowywany
- studio
- taki
- wsparcie
- TAG
- biorąc
- Zadanie
- zadania
- technika
- Techniki
- Technologies
- Technologia
- telekomunikacja
- REGULAMIN
- przetestowany
- XNUMX
- że
- Połączenia
- ich
- Im
- następnie
- Tam.
- Te
- one
- to
- Przez
- czas
- do
- razem
- narzędzie
- pochodnia
- śledzić
- tradycyjny
- Pociąg
- Trening
- przenieść
- transformator
- Transformatory
- Podróżowanie
- prawdziwy
- próbować
- melodia
- tuned
- strojenie
- drugiej
- rodzaj
- typy
- dla
- zrozumienie
- Aktualizacja
- aktualizowanie
- przesłanych
- URL
- posługiwać się
- przypadek użycia
- używany
- Użytkownik
- Użytkownicy
- za pomocą
- uprawomocnienie
- Cenny
- wartość
- różnorodność
- różnorodny
- Naprawiono
- wersja
- Wersje
- początku.
- przez
- Zobacz i wysłuchaj
- wizja
- wizualny
- spacer
- chodził
- chcieć
- była
- Droga..
- sposoby
- we
- sieć
- usługi internetowe
- jeśli chodzi o komunikację i motywację
- który
- Podczas
- dlaczego
- szeroki
- Szeroki zasięg
- będzie
- w
- w ciągu
- bez
- Kobieta
- Praca
- pracował
- przepływów pracy
- działa
- lat
- You
- Twój
- siebie
- zefirnet