PyTorch to platforma uczenia maszynowego (ML), która jest szeroko stosowana przez klientów AWS w różnych zastosowaniach, takich jak wizja komputerowa, przetwarzanie języka naturalnego, tworzenie treści i nie tylko. Dzięki niedawnemu wydaniu PyTorch 2.0 klienci AWS mogą teraz robić to samo, co w PyTorch 1.x, ale szybciej i na większą skalę dzięki ulepszonym szybkościom uczenia, mniejszemu zużyciu pamięci i ulepszonym możliwościom rozproszonym. W wydaniu PyTorch 2.0 uwzględniono kilka nowych technologii, w tym torch.compile, TorchDynamo, AOTAutograd, PrimTorch i TorchInductor. Odnosić się do PyTorch 2.0: Nasza wersja nowej generacji, która jest szybsza, bardziej Pythoniczna i dynamiczna jak zawsze dla szczegółów.
Ten post pokazuje wydajność i łatwość prowadzenia na dużą skalę, wysokowydajnego, rozproszonego szkolenia i wdrażania modeli uczenia maszynowego przy użyciu PyTorch 2.0 w AWS. W tym poście opisano krok po kroku implementację dostrajania modelu RoBERTa (Solidnie Zoptymalizowana Metoda Przedtreningowa BERT) do analizy nastrojów przy użyciu AWS Deep Learning AMI (AWS DLAMI) i Kontenery AWS Deep Learning (DLC) włączone Elastyczna chmura obliczeniowa Amazon (Amazon EC2 p4d.24xlarge) z obserwowanym 42% przyspieszeniem przy użyciu z PyTorch 2.0 torch.compile + bf16 + fused AdamW. Dopracowany model jest następnie wdrażany Grawiton AWSinstancja C7g EC2 oparta na Amazon Sage Maker z zaobserwowanym 10% przyspieszeniem w porównaniu z PyTorch 1.13.
Poniższy rysunek przedstawia test porównawczy wydajności dostrajania modelu RoBERTa na Amazon EC2 p4d.24xlarge z AWS PyTorch 2.0 DLAMI + DLC.
Odnosić się do Zoptymalizowane wnioskowanie PyTorch 2.0 z procesorami AWS Graviton aby uzyskać szczegółowe informacje na temat testów wydajności wnioskowania instancji opartych na AWS Graviton dla PyTorch 2.0.
Wsparcie dla PyTorch 2.0 na AWS
Wsparcie PyTorch2.0 nie ogranicza się do usług i mocy obliczeniowej pokazanych w przykładowym przypadku użycia w tym poście; rozciąga się na wiele innych w AWS, które omawiamy w tej sekcji.
Wymóg biznesowy
Wielu klientów AWS z różnych branż przekształca swoje firmy, wykorzystując sztuczną inteligencję (AI), szczególnie w obszarze generatywnej sztucznej inteligencji i dużych modeli językowych (LLM), które mają na celu generowanie tekstu podobnego do ludzkiego. Są to w zasadzie duże modele oparte na technikach głębokiego uczenia się, które są trenowane przy użyciu setek miliardów parametrów. Wzrost rozmiarów modeli wydłuża czas szkolenia z dni do tygodni, aw niektórych przypadkach nawet do miesięcy. Prowadzi to do wykładniczego wzrostu kosztów szkolenia i wnioskowania, co wymaga bardziej niż kiedykolwiek frameworka takiego jak PyTorch 2.0 z wbudowaną obsługą przyspieszonego szkolenia modeli i zoptymalizowaną infrastrukturą AWS dostosowaną do konkretnych obciążeń i potrzeb w zakresie wydajności.
Wybór obliczeń
AWS zapewnia obsługę PyTorch 2.0 w najszerszym zakresie wydajnych opcji obliczeniowych, szybkich sieci i skalowalnych opcji pamięci masowej o wysokiej wydajności, których można użyć w dowolnym projekcie lub aplikacji ML i dostosować do swoich wymagań dotyczących wydajności i budżetu. Jest to widoczne na diagramie w następnej sekcji; w dolnej warstwie zapewniamy szeroki wybór instancji obliczeniowych obsługiwanych przez procesory AWS Graviton, Nvidia, AMD i Intel.
W przypadku wdrożeń modelowych można użyć procesorów opartych na architekturze ARM, takich jak niedawno ogłoszona instancja oparta na AWS Graviton, która zapewnia wydajność wnioskowania dla PyTorch 2.0 z nawet 3.5-krotnie większą szybkością dla Resnet50 w porównaniu z poprzednią wersją PyTorch i do 1.4-krotnie większą prędkość dla BERT, czyniąc instancje oparte na AWS Graviton najszybszymi instancjami zoptymalizowanymi pod kątem obliczeń w AWS dla rozwiązań wnioskowania modeli opartych na procesorze.
Wybór usług ML
Aby korzystać z obliczeń AWS, możesz wybierać spośród szerokiego zestawu globalnych usług opartych na chmurze do opracowywania uczenia maszynowego, obliczeń i orkiestracji przepływu pracy. Ten wybór pozwala dostosować się do strategii biznesowych i chmurowych oraz uruchamiać zadania PyTorch 2.0 na wybranej platformie. Na przykład, jeśli masz ograniczenia lokalne lub istniejące inwestycje w produkty open source, możesz użyć Amazon EC2, Klaster równoległy AWSlub Ultraklaster AWS do uruchamiania rozproszonych obciążeń szkoleniowych w oparciu o podejście do samodzielnego zarządzania. Możesz także skorzystać z w pełni zarządzanej usługi, takiej jak SageMaker, aby uzyskać zoptymalizowaną pod względem kosztów, w pełni zarządzaną infrastrukturę szkoleniową na skalę produkcyjną. SageMaker integruje się również z różnymi narzędziami MLOps, co pozwala skalować wdrażanie modeli, zmniejszać koszty wnioskowania, efektywniej zarządzać modelami w produkcji i zmniejszać obciążenia operacyjne.
Podobnie, jeśli masz istniejące inwestycje Kubernetes, możesz również użyć Elastyczna usługa Amazon Kubernetes (Amazon EKS) i Kubeflow w AWS zaimplementować potok ML do rozproszonego szkolenia lub skorzystać z natywnej usługi orkiestracji kontenerów AWS, takiej jak Usługa Amazon Elastic Container Service (Amazon ECS) do szkolenia modeli i wdrożeń. Opcje tworzenia platformy ML nie ograniczają się do tych usług; możesz przebierać i wybierać w zależności od wymagań organizacyjnych dla zadań PyTorch 2.0.
Włączanie PyTorch 2.0 z AWS DLAMI i AWS DLC
Aby korzystać ze wspomnianego stosu usług AWS i potężnych mocy obliczeniowych, musisz zainstalować zoptymalizowaną, skompilowaną wersję frameworka PyTorch 2.0 i jego wymaganych zależności, z których wiele to niezależne projekty, i przetestować je kompleksowo. Możesz także potrzebować bibliotek specyficznych dla procesora do przyspieszonych procedur matematycznych, bibliotek specyficznych dla GPU do przyspieszonych procedur matematycznych i komunikacji między GPU oraz sterowników GPU, które należy dostosować do kompilatora GPU używanego do kompilowania bibliotek GPU. Jeśli Twoje zadania wymagają szkolenia wielowęzłowego na dużą skalę, potrzebujesz zoptymalizowanej sieci, która może zapewnić najniższe opóźnienia i najwyższą przepustowość. Po zbudowaniu stosu należy regularnie skanować i łatać je pod kątem luk w zabezpieczeniach oraz odbudowywać i ponownie testować stos po każdej aktualizacji wersji frameworka.
AWS pomaga zredukować ten ciężar, oferując wyselekcjonowany i bezpieczny zestaw frameworków, zależności i narzędzi do przyspieszenia głębokiego uczenia się w chmurze AWS DLAMI i DLC AWS. Te wstępnie utworzone i przetestowane obrazy maszyn i kontenery są zoptymalizowane pod kątem głębokiego uczenia się na typach przyspieszonych instancji obliczeniowych EC2, co pozwala na wydajniejsze i łatwiejsze skalowanie do wielu węzłów dla rozproszonych obciążeń. Zawiera gotową Elastyczny adapter do tkaniny (EFA), stos procesorów graficznych Nvidia i wiele platform głębokiego uczenia (TensorFlow, MXNet i PyTorch z najnowszą wersją 2.0) do wysokowydajnych rozproszonych szkoleń głębokiego uczenia. Nie musisz tracić czasu na instalowanie i rozwiązywanie problemów z oprogramowaniem i sterownikami do głębokiego uczenia lub budowanie infrastruktury ML, ani nie musisz ponosić powtarzających się kosztów łatania tych obrazów pod kątem luk w zabezpieczeniach lub odtwarzania obrazów po każdej aktualizacji nowej wersji platformy. Zamiast tego możesz skupić się na nakładzie pracy o większej wartości dodanej, jakim jest szkolenie zadań na dużą skalę w krótszym czasie i szybsze iterowanie modeli uczenia maszynowego.
Omówienie rozwiązania
Biorąc pod uwagę, że szkolenie z GPU i wnioskowanie o CPU jest popularnym przypadkiem użycia dla klientów AWS, w ramach tego wpisu zawarliśmy krok po kroku implementację architektury hybrydowej (jak pokazano na poniższym diagramie). Zbadamy sztukę tego, co możliwe i użyjemy instancji P4 EC2 z obsługą BF16 zainicjowanej za pomocą podstawowego GPU DLAMI, w tym sterowników NVIDIA, CUDA, NCCL, stosu EFA i PyTorch2.0 DLC do dopracowania modelu analizy nastrojów RoBERTa który zapewnia kontrolę i elastyczność w korzystaniu z dowolnych bibliotek typu open source lub zastrzeżonych. Następnie używamy SageMaker do w pełni zarządzanej infrastruktury hostingu modeli do hostowania naszego modelu w oparciu o AWS Graviton3 Instancje C7g. Wybraliśmy C7g na SageMaker, ponieważ udowodniono, że zmniejsza koszty wnioskowania nawet o 50% w porównaniu z porównywalnymi instancjami EC2 dla wnioskowanie w czasie rzeczywistym na SageMakerze. Poniższy diagram ilustruje tę architekturę.
Szkolenie modelu i hosting w tym przypadku użycia składa się z następujących kroków:
- Uruchom instancję EC2 Ubuntu opartą na GPU DLAMI w swoim VPC i połącz się z instancją za pomocą SSH.
- Po zalogowaniu się do instancji EC2 pobierz DLC AWS PyTorch 2.0.
- Uruchom swój kontener DLC za pomocą skryptu szkolenia modelu, aby dostroić model RoBERTa.
- Po zakończeniu uczenia modelu spakuj zapisany model, skrypty wnioskowania i kilka plików metadanych do pliku tar, którego może użyć wnioskowanie SageMaker, i prześlij pakiet modelu do Usługa Amazon Simple Storage Łyżka (Amazon S3).
- Wdróż model za pomocą SageMaker i utwórz punkt końcowy wnioskowania HTTPS. Punkt końcowy wnioskowania SageMaker zawiera system równoważenia obciążenia i jedną lub więcej instancji kontenera wnioskowania w różnych strefach dostępności. Możesz wdrożyć wiele wersji tego samego modelu lub całkowicie różne modele za tym pojedynczym punktem końcowym. W tym przykładzie hostujemy jeden model.
- Wywołaj punkt końcowy modelu, wysyłając do niego dane testowe i zweryfikuj dane wyjściowe wnioskowania.
W poniższych sekcjach przedstawiamy dostrajanie modelu RoBERTa do analizy nastrojów. RoBERTa jest rozwijana przez Facebook AI, ulepszając popularny model BERT poprzez modyfikację kluczowych hiperparametrów i wstępne szkolenie na większym korpusie. Prowadzi to do poprawy wydajności w porównaniu z waniliowym BERT.
Używamy Transformatory bibliotekę firmy Hugging Face, aby wstępnie wyszkolić model RoBERTa na około 124 milionach tweetów, a następnie dopracować go w zbiorze danych Twittera w celu analizy nastrojów.
Wymagania wstępne
Upewnij się, że spełniasz następujące wymagania wstępne:
- Masz Konto AWS.
- Upewnij się, że jesteś w
us-west-2
Region do uruchomienia tego przykładu. (Ten przykład jest testowany wus-west-2
; jednak możesz biegać w dowolnym innym regionie). - Utwórz rolę z nazwą
sagemakerrole
. Dodaj zarządzane zasadyAmazonSageMakerFullAccess
iAmazonS3FullAccess
aby dać SageMakerowi dostęp do segmentów S3. - Utwórz rolę EC2 z nazwą
ec2_role
. Użyj następującej polityki uprawnień:
1. Uruchom instancję programistyczną
Tworzymy instancję p4d.24xlarge, która oferuje 8 procesorów graficznych NVIDIA A100 Tensor Core w us-west-2
:
Wybierając AMI, postępuj zgodnie z Informacje o wydaniu aby uruchomić to polecenie za pomocą Interfejs wiersza poleceń AWS (AWS CLI), aby znaleźć identyfikator AMI do użycia us-west-2
:
Upewnij się, że rozmiar głównego woluminu gp3 wynosi 200 GiB.
Szyfrowanie woluminów EBS nie jest domyślnie włączone. Rozważ zmianę tego podczas przenoszenia tego rozwiązania do środowiska produkcyjnego.
2. Pobierz kontener Deep Learning
DLC AWS są dostępne jako obrazy platformy Docker w Publiczny rejestr kontenerów Amazon Elastic, zarządzana usługa rejestru obrazów kontenerów AWS, która jest bezpieczna, skalowalna i niezawodna. Każdy obraz platformy Docker jest tworzony w celu uczenia lub wnioskowania na podstawie określonej wersji platformy głębokiego uczenia, wersji Pythona, z obsługą procesora CPU lub GPU. Wybierz platformę PyTorch 2.0 z listy dostępnych Obrazy kontenerów głębokiego uczenia.
Wykonaj następujące kroki, aby pobrać DLC:
A. SSH do instancji. Domyślnie grupa bezpieczeństwa używana z EC2 otwiera port SSH dla wszystkich. Weź to pod uwagę, jeśli przenosisz to rozwiązanie do produkcji:
Domyślnie grupa zabezpieczeń używana z Amazon EC2 otwiera port SSH dla wszystkich. Rozważ zmianę tego, jeśli przenosisz to rozwiązanie do środowiska produkcyjnego.
B. Ustaw zmienne środowiskowe wymagane do uruchomienia pozostałych kroków tej implementacji:
Amazon ECR obsługuje publiczne repozytoria obrazów z wykorzystaniem uprawnień opartych na zasobach AWS Zarządzanie tożsamością i dostępem (IAM), aby określeni użytkownicy lub usługi mieli dostęp do obrazów.
C. Zaloguj się do rejestru DLC:
D. Pobierz najnowszy kontener PyTorch 2.0 z obsługą GPU us-west-2
Jeśli pojawi się błąd „brak wolnego miejsca na urządzeniu”, upewnij się, że zwiększać wolumin EC2 EBS do 200 GiB, a następnie rozciągać się systemem plików Linuksa.
3. Sklonuj najnowsze skrypty dostosowane do PyTorch 2.0
Sklonuj skrypty za pomocą następującego kodu:
Ponieważ używamy interfejsu API transformatorów Hugging Face w najnowszej wersji 4.28.1, włączono już obsługę PyTorch 2.0. Dodaliśmy następujący argument do interfejsu API trenera w train_sentiment.py
aby włączyć nowe funkcje PyTorch 2.0:
- Kompilacja palnika – Doświadcz średnio 43% przyspieszenia na procesorach graficznych Nvidia A100 z jedną linią zmian.
- Typ danych BF16 – Obsługa nowego typu danych (Brain Floating Point) dla procesorów graficznych Ampere lub nowszych.
- Łączony optymalizator AdamW – Połączona implementacja AdamW w celu dalszego przyspieszenia szkolenia. Ta stochastyczna metoda optymalizacji modyfikuje typową implementację spadku masy u Adama poprzez oddzielenie spadku masy od aktualizacji gradientu.
4. Zbuduj nowy obraz Dockera z zależnościami
Rozszerzamy gotowy obraz PyTorch 2.0 DLC, aby zainstalować transformator Hugging Face i inne biblioteki potrzebne do dostrojenia naszego modelu. Pozwala to na korzystanie z dołączonych przetestowanych i zoptymalizowanych bibliotek głębokiego uczenia się i ustawień bez konieczności tworzenia obrazu od podstaw. Zobacz następujący kod:
5. Rozpocznij trening z pojemnikiem
Uruchom następujące polecenie platformy Docker, aby rozpocząć dostrajanie modelu na tweet_eval
zbiór danych o nastrojach. Używamy argumentów kontenera Dockera (rozmiar pamięci współdzielonej, maksymalna zablokowana pamięć i rozmiar stosu) polecany przez firmę Nvidia dla obciążeń związanych z uczeniem głębokim.
Powinieneś spodziewać się następujących danych wyjściowych. Skrypt najpierw pobiera zestaw danych TweetEval, który składa się z siedmiu heterogenicznych zadań na Twitterze, z których wszystkie są ujęte w wieloklasową klasyfikację tweetów. Zadania obejmują ironię, nienawiść, obraźliwość, postawę, emotikony, emocje i sentyment.
Następnie skrypt pobiera model podstawowy i rozpoczyna proces dostrajania. Metryki szkolenia i oceny są raportowane na końcu każdej epoki.
Statystyki wydajności
Dzięki PyTorch 2.0 i najnowszej bibliotece transformatorów Hugging Face 4.28.1 zaobserwowaliśmy 42% przyspieszenie na pojedynczej instancji p4d.24xlarge z 8 procesorami graficznymi A100 40 GB. Poprawa wydajności pochodzi z połączenia torch.compile, typu danych BF16 i połączonego optymalizatora AdamW. Poniższy kod jest końcowym wynikiem dwóch przebiegów szkoleniowych z nowymi funkcjami i bez nich:
6. Przetestuj wytrenowany model lokalnie przed przygotowaniem do wnioskowania SageMaker
Możesz znaleźć następujące pliki pod $ml_working_dir/saved_model/
po treningu:
Upewnijmy się, że możemy uruchomić wnioskowanie lokalnie, zanim przygotujemy się do wnioskowania SageMaker. Możemy załadować zapisany model i uruchomić wnioskowanie lokalnie za pomocą test_trained_model.py
scenariusz:
Powinieneś spodziewać się następującego wyniku z wejściem „Przypadki Covid szybko rosną!”:
7. Przygotuj plik tar z modelem do wnioskowania SageMaker
W katalogu, w którym znajduje się model, utwórz nowy katalog o nazwie code
:
W nowym katalogu utwórz plik inference.py
i dodaj do niego następującą treść:
Ostatecznie powinieneś mieć następującą strukturę folderów:
Model jest gotowy do spakowania i przesłania do Amazon S3 w celu użycia z wnioskami SageMaker:
8. Wdróż model na instancji SageMaker AWS Graviton
Nowe generacje procesorów oferują znaczną poprawę wydajności wnioskowania ML dzięki wyspecjalizowanym wbudowanym instrukcjom. W tym przypadku używamy w pełni zarządzanej infrastruktury hostingowej SageMaker z instancjami C3g opartymi na AWS Graviton7. AWS zmierzył również do 50% oszczędności kosztów dla wnioskowania PyTorch z instancjami EC3 C2g opartymi na AWS Graviton7 w Torch Hub ResNet50 i wieloma modelami Hugging Face w porównaniu z porównywalnymi instancjami EC2.
Aby wdrożyć modele w instancjach AWS Graviton, używamy DLC AWS, które zapewniają wsparcie dla PyTorch 2.0 i TorchServe 0.8.0, lub możesz przynieść własne pojemniki które są kompatybilne z architekturą ARMv8.2.
Korzystamy z modelu, który trenowaliśmy wcześniej: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Jeśli wcześniej nie korzystałeś z SageMaker, przejrzyj Zacznij korzystać z Amazon SageMaker.
Aby rozpocząć, upewnij się, że pakiet SageMaker jest aktualny:
Ponieważ jest to przykład, utwórz plik o nazwie start_endpoint.py
i dodaj następujący kod. To będzie skrypt Pythona uruchamiający punkt końcowy wnioskowania SageMaker w trybie:
Używamy ml.c7g.4xlarge dla instancji i pobieramy PT 2.0 z zakresem obrazu inference_graviton
. To jest nasza instancja AWS Graviton3.
Następnie tworzymy plik, który uruchamia prognozę. Robimy to jako oddzielne skrypty, dzięki czemu możemy uruchamiać prognozy tyle razy, ile chcemy. Tworzyć predict.py
z następującym kodem:
Dzięki wygenerowanym skryptom możemy teraz uruchomić punkt końcowy, wykonać prognozy względem punktu końcowego i posprzątać, gdy skończymy:
9. Sprzątać
Na koniec chcemy posprzątać z tego przykładu. Utwórz cleanup.py i dodaj następujący kod:
Wnioski
AWS DLAMI i DLC stały się podstawowym standardem obsługi obciążeń związanych z głębokim uczeniem w szerokim zakresie usług obliczeniowych i usług uczenia maszynowego w AWS. Oprócz korzystania z DLC specyficznych dla frameworka w usługach AWS ML, możesz także użyć pojedynczego frameworka w Amazon EC2, co usuwa ciężkie prace niezbędne dla programistów do tworzenia i utrzymywania aplikacji do głębokiego uczenia. Odnosić się do Informacje o wersji dla DLAMI i Dostępne obrazy kontenerów do głębokiego uczenia się zacząć.
W tym poście pokazano jedną z wielu możliwości szkolenia i obsługi kolejnego modelu w AWS oraz omówiono kilka formatów, które można zastosować, aby osiągnąć cele biznesowe. Wypróbuj ten przykład lub skorzystaj z naszych innych usług AWS ML, aby zwiększyć produktywność danych w swojej firmie. Zawarliśmy prosty problem analizy nastrojów, aby klienci nowi w ML mogli zrozumieć, jak proste jest rozpoczęcie pracy z PyTorch 2.0 na AWS. W nadchodzących wpisach na blogu będziemy omawiać bardziej zaawansowane przypadki użycia, modele i technologie AWS.
O autorach
Kanwaljit Khurmi jest głównym architektem rozwiązań w Amazon Web Services. Współpracuje z klientami AWS, udzielając wskazówek i pomocy technicznej, pomagając im poprawić wartość ich rozwiązań podczas korzystania z AWS. Kanwaljit specjalizuje się w pomaganiu klientom w zakresie aplikacji kontenerowych i aplikacji do uczenia maszynowego.
Mike'a Schneidera jest programistą systemów z siedzibą w Phoenix AZ. Jest członkiem kontenerów Deep Learning, obsługujących różne obrazy kontenerów Framework, w tym Graviton Inference. Zajmuje się wydajnością i stabilnością infrastruktury.
Lai Wei jest starszym inżynierem oprogramowania w Amazon Web Services. Koncentruje się na budowaniu łatwych w użyciu, wydajnych i skalowalnych ram głębokiego uczenia się w celu przyspieszenia szkolenia modeli rozproszonych. Poza pracą lubi spędzać czas z rodziną, wędrować i jeździć na nartach.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoAiStream. Analiza danych Web3. Wiedza wzmocniona. Dostęp tutaj.
- Wybijanie przyszłości w Adryenn Ashley. Dostęp tutaj.
- Kupuj i sprzedawaj akcje spółek PRE-IPO z PREIPO®. Dostęp tutaj.
- Źródło: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :ma
- :Jest
- :nie
- :Gdzie
- $W GÓRĘ
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- przyśpieszyć
- przyśpieszony
- przyspieszenie
- Akceptuj
- dostęp
- w poprzek
- Działania
- Adam
- Dodaj
- w dodatku
- przyjąć
- zaawansowany
- Po
- przed
- AI
- wyrównać
- wyrównany
- Wszystkie kategorie
- dopuszczać
- Pozwalać
- pozwala
- wzdłuż
- już
- również
- Amazonka
- Amazon EC2
- Amazon Web Services
- AMD
- ilość
- an
- analiza
- w czasie rzeczywistym sprawiają,
- i
- ogłosił
- Inne
- każdy
- api
- Zastosowanie
- aplikacje
- podejście
- w przybliżeniu
- architektura
- SĄ
- POWIERZCHNIA
- argument
- argumenty
- sztuczny
- sztuczna inteligencja
- Sztuczna inteligencja (AI)
- AS
- Wsparcie
- At
- dostępność
- dostępny
- średni
- AWS
- stabilizator
- baza
- na podstawie
- Gruntownie
- BE
- bo
- stają się
- być
- zanim
- rozpocząć
- za
- Benchmark
- Benchmarki
- Duży
- miliardy
- BIN
- Blog
- Najnowsze wpisy
- ciało
- Dolny
- Mózg
- szeroki
- budżet
- budować
- Budowanie
- wybudowany
- wbudowany
- ciężar
- biznes
- biznes
- ale
- by
- wezwanie
- nazywa
- powołanie
- CAN
- możliwości
- walizka
- Etui
- CD
- zmiana
- wymiana pieniędzy
- wybór
- Dodaj
- klasyfikacja
- klient
- Chmura
- kod
- COM
- połączenie
- byliśmy spójni, od początku
- Komunikacja
- porównywalny
- w porównaniu
- zgodny
- kompletny
- obliczać
- komputer
- Wizja komputerowa
- computing
- Skontaktuj się
- Rozważać
- składa się
- Konsola
- Pojemnik
- Pojemniki
- zawartość
- Tworzenie treści
- kontrola
- rdzeń
- Koszty:
- oszczędności
- Koszty:
- mógłby
- pokrycie
- Stwórz
- stworzony
- tworzenie
- Listy uwierzytelniające
- kurator
- Aktualny
- Klientów
- dostosować
- dane
- Data
- Dni
- dedykowane
- głęboko
- głęboka nauka
- Domyślnie
- demonstruje
- W zależności
- rozwijać
- wdrażane
- Wdrożenie
- wdrożenia
- zaprojektowany
- detale
- rozwinięty
- Deweloper
- deweloperzy
- oprogramowania
- różne
- Digest
- dyskutować
- omówione
- dystrybuowane
- szkolenia rozproszone
- inny
- do
- Doker
- zrobić
- nie
- pobieranie
- pliki do pobrania
- kierowca
- sterowniki
- jazdy
- z powodu
- dynamiczny
- każdy
- Wcześniej
- łatwość
- z łatwością
- łatwo
- efekt
- faktycznie
- efektywność
- skutecznie
- wysiłek
- bądź
- umożliwiać
- włączony
- szyfrowanie
- zakończenia
- Punkt końcowy
- inżynier
- wzmocnione
- całkowicie
- Środowisko
- epoka
- błąd
- oceniać
- ewaluację
- Parzyste
- EVER
- Każdy
- przykład
- Przede wszystkim system został opracowany
- Rozszerzać
- oczekiwać
- doświadczenie
- odkryj
- wykładniczy
- eksport
- rozciągać się
- rozciąga się
- tkanina
- Twarz
- członków Twojej rodziny
- szybciej
- najszybszy
- Korzyści
- kilka
- Postać
- filet
- Akta
- finał
- Znajdź
- i terminów, a
- dopasować
- Elastyczność
- unoszący się
- Skupiać
- skupienie
- obserwuj
- następujący
- W razie zamówieenia projektu
- Framework
- Ramy
- od
- w pełni
- dalej
- Generować
- wygenerowane
- generacja
- Pokoleń
- generatywny
- generatywna sztuczna inteligencja
- otrzymać
- git
- GitHub
- Dać
- daje
- Globalne
- GPU
- GPU
- Zarządzanie
- Wzrost
- poradnictwo
- Have
- mający
- he
- ciężki
- ciężkie podnoszenie
- pomoc
- pomaga
- wysoka wydajność
- wyższy
- Najwyższa
- jego
- posiada
- gospodarz
- Hosting
- W jaki sposób
- Jednak
- HTML
- http
- HTTPS
- Piasta
- Setki
- Hybrydowy
- ID
- tożsamość
- if
- ilustruje
- obraz
- zdjęcia
- wdrożenia
- realizacja
- importować
- podnieść
- ulepszony
- poprawa
- ulepszenia
- poprawy
- in
- zawierać
- włączony
- obejmuje
- Włącznie z
- Zwiększać
- wzrastający
- niezależny
- przemysłowa
- Infrastruktura
- wkład
- zainstalować
- zainstalowany
- Instalacja
- przykład
- zamiast
- instrukcje
- Integruje się
- Intel
- Inteligencja
- najnowszych
- Inwestycje
- IP
- ironia
- IT
- JEGO
- Oferty pracy
- jpg
- json
- Klawisz
- Etykieta
- język
- duży
- na dużą skalę
- większe
- Utajenie
- firmy
- Najnowsze wydanie
- uruchomić
- Wyprowadzenia
- nauka
- lewo
- biblioteki
- Biblioteka
- Modernizacja
- lubić
- Ograniczony
- Linia
- linux
- Lista
- załadować
- lokalnie
- usytuowany
- zamknięty
- log
- Zaloguj Się
- od
- niższy
- najniższy
- maszyna
- uczenie maszynowe
- utrzymać
- robić
- Dokonywanie
- zarządzanie
- zarządzane
- wiele
- matematyka
- max
- Może..
- Poznaj nasz
- członek
- Pamięć
- łączy się
- Metadane
- metoda
- Metryka
- milion
- ML
- MLOps
- Moda
- model
- modele
- Moduły
- miesięcy
- jeszcze
- przeniesienie
- wielokrotność
- Nazwa
- Naturalny
- Przetwarzanie języka naturalnego
- niezbędny
- Potrzebować
- potrzebne
- wymagania
- ujemny
- sieć
- sieci
- Neutralny
- Nowości
- Nowe funkcje
- Nowe technologie
- Następny
- węzły
- Uwagi
- Zauważyć..
- już dziś
- Nvidia
- Cele
- of
- obraźliwy
- oferta
- oferuje
- Oferty
- on
- ONE
- open source
- otwiera
- operacyjny
- optymalizacja
- zoptymalizowane
- Opcje
- or
- orkiestracja
- organizacyjny
- OS
- Inne
- Pozostałe
- ludzkiej,
- na zewnątrz
- wydajność
- zewnętrzne
- własny
- pakiet
- pakowane
- parametry
- część
- Łata
- łatanie
- jest gwarancją najlepszej jakości, które mogą dostarczyć Ci Twoje monitory,
- pozwolenie
- uprawnienia
- feniks
- wybierać
- doborowy
- rurociąg
- Platforma
- plato
- Analiza danych Platona
- PlatoDane
- Proszę
- punkt
- polityka
- polityka
- Popularny
- możliwości
- Post
- Wiadomości
- powered
- mocny
- przewidzieć
- przepowiednia
- Przewidywania
- Przygotować
- przygotowanie
- warunki wstępne
- poprzedni
- Główny
- Problem
- wygląda tak
- przetwarzanie
- Procesory
- Produkcja
- wydajność
- Produkty
- projekt
- projektowanie
- własność
- Sprawdzony
- zapewniać
- zapewnia
- publiczny
- położyć
- Python
- płomień
- gotowy
- niedawny
- niedawno
- powtarzające się
- zmniejszyć
- region
- rejestr
- regularnie
- względny
- zwolnić
- rzetelny
- pozostały
- Zgłoszone
- wymagać
- wymagany
- wymagania
- Wymaga
- Zasób
- odpowiedź
- Ograniczenia
- dalsze
- powrót
- przeglądu
- Rola
- korzeń
- run
- bieganie
- sagemaker
- Wnioskowanie SageMakera
- taki sam
- Oszczędności
- skalowalny
- Skala
- skanować
- nauka-scikit
- zakres
- wynik
- zadraśnięcie
- skrypty
- Sekcja
- działy
- bezpieczne
- bezpieczeństwo
- widzieć
- wybierając
- wybór
- wysyłanie
- senior
- sentyment
- oddzielny
- służyć
- usługa
- Usługi
- Sesja
- zestaw
- w panelu ustawień
- ustawienie
- siedem
- kilka
- SHA256
- shared
- powinien
- prezentacja
- pokazał
- pokazane
- Targi
- znaczący
- Prosty
- pojedynczy
- Rozmiar
- rozmiary
- So
- Tworzenie
- Software Engineer
- rozwiązanie
- Rozwiązania
- kilka
- Typ przestrzeni
- wyspecjalizowanym
- specjalizuje się
- specyficzny
- swoiście
- prędkość
- prędkości
- wydać
- Spędzanie
- Stabilność
- stos
- standard
- początek
- rozpoczęty
- rozpocznie
- Zestawienie sprzedaży
- statystyka
- Ewolucja krok po kroku
- Cel
- przechowywanie
- opcje przechowywania
- strategie
- Struktura
- taki
- wsparcie
- Utrzymany
- Wspierający
- podpory
- system
- systemy
- dostosowane
- zadania
- Techniczny
- Techniki
- Technologies
- tensorflow
- test
- przetestowany
- niż
- że
- Połączenia
- Strefa
- ich
- Im
- następnie
- Te
- one
- rzeczy
- to
- chociaż?
- Przez
- wydajność
- poziom
- czas
- czasy
- do
- narzędzia
- pochodnia
- Pociąg
- przeszkolony
- Trening
- transformator
- Transformatory
- transformatorowy
- próbować
- ćwierkać
- tweety
- i twitterze
- drugiej
- rodzaj
- typy
- typowy
- Ubuntu
- dla
- zrozumieć
- zbliżających
- Aktualizacja
- zaktualizowane
- uaktualnienie
- przesłanych
- Stosowanie
- posługiwać się
- przypadek użycia
- używany
- Użytkownicy
- za pomocą
- użyteczność
- wartość
- różnorodność
- różnorodny
- zweryfikować
- wersja
- wizja
- Tom
- Luki w zabezpieczeniach
- chcieć
- we
- sieć
- usługi internetowe
- tygodni
- waga
- powitanie
- jeśli chodzi o komunikację i motywację
- który
- szeroko
- będzie
- w
- bez
- Praca
- workflow
- działa
- napisać
- pisanie
- X
- You
- Twój
- zefirnet
- Strefy