Organizacje z różnych branż, takich jak handel detaliczny, bankowość, finanse, opieka zdrowotna, produkcja i pożyczki, często muszą radzić sobie z ogromną ilością nieustrukturyzowanych dokumentów tekstowych pochodzących z różnych źródeł, takich jak wiadomości, blogi, recenzje produktów, kanały obsługi klienta i media społecznościowe. Dokumenty te zawierają krytyczne informacje, które są kluczowe przy podejmowaniu ważnych decyzji biznesowych. W miarę rozwoju organizacji wyzwaniem staje się wyodrębnienie krytycznych informacji z tych dokumentów. Wraz z postępem technik przetwarzania języka naturalnego (NLP) i uczenia maszynowego (ML) możemy szybko i z dużą dokładnością odkrywać cenne spostrzeżenia i powiązania z tych dokumentów tekstowych, pomagając w ten sposób firmom w podejmowaniu wysokiej jakości decyzji biznesowych na czas. W pełni zarządzane usługi NLP również przyspieszyły przyjęcie NLP. Amazon Comprehend to w pełni zarządzana usługa, która umożliwia budowanie niestandardowych modeli NLP, które są specyficzne dla Twoich wymagań, bez potrzeby posiadania wiedzy specjalistycznej w zakresie uczenia maszynowego.
W tym poście pokazujemy, jak wykorzystać najnowocześniejsze techniki ML do rozwiązania pięciu różnych zadań NLP: podsumowania dokumentów, klasyfikacji tekstu, odpowiadania na pytania, rozpoznawania nazwanych jednostek i ekstrakcji relacji. Dla każdego z tych zadań NLP pokazujemy, jak używać Amazon Sage Maker wykonać następujące czynności:
- Wdrażaj i uruchamiaj wnioskowanie na wstępnie wytrenowanym modelu
- Dostosuj wstępnie wytrenowany model na nowym niestandardowym zestawie danych
- Dalsza poprawa wydajności dostrajania za pomocą Automatyczne dostrajanie modelu SageMaker
- Oceń wydajność modelu na danych testu wstrzymania za pomocą różnych metryk oceny
Chociaż w tym poście omawiamy pięć konkretnych zadań NLP, możesz użyć tego rozwiązania jako szablonu do uogólnienia dostrajania wstępnie wytrenowanych modeli z własnym zestawem danych, a następnie uruchomić optymalizację hiperparametrów w celu zwiększenia dokładności.
Szablony rozwiązań JumpStart
Amazon SageMaker JumpStart zapewnia kompleksowe rozwiązania jednym kliknięciem dla wielu typowych przypadków użycia uczenia maszynowego. Zapoznaj się z poniższymi przypadkami użycia, aby uzyskać więcej informacji na temat dostępnych szablonów rozwiązań:
Szablony rozwiązania JumpStart obejmują różne przypadki użycia, z których każdy oferuje kilka różnych szablonów rozwiązań (to rozwiązanie Document Understanding znajduje się w przypadku użycia „Wyodrębnianie i analizowanie danych z dokumentów”).
Wybierz szablon rozwiązania, który najlepiej pasuje do Twojego przypadku użycia ze strony docelowej JumpStart. Aby uzyskać więcej informacji na temat konkretnych rozwiązań w każdym przypadku użycia oraz sposobu uruchamiania rozwiązania JumpStart, zobacz Szablony rozwiązań.
Omówienie rozwiązania
Poniższy obraz pokazuje, jak można użyć tego rozwiązania z komponentami SageMaker. Zadania szkoleniowe SageMaker są używane do uczenia różnych modeli NLP, a punkty końcowe SageMaker są używane do wdrażania modeli na każdym etapie. Używamy Usługa Amazon Simple Storage (Amazon S3) wraz z SageMaker do przechowywania danych treningowych i artefaktów modeli oraz Amazon Cloud Watch do rejestrowania wyników szkolenia i punktów końcowych.
Otwórz rozwiązanie do rozumienia dokumentów
Przejdź do rozwiązania Document Understanding w JumpStart.
Teraz możemy przyjrzeć się bliżej niektórym zasobom zawartym w tym rozwiązaniu, zaczynając od notatnika demonstracyjnego.
Notatnik demonstracyjny
Notatnika demonstracyjnego można użyć do wysłania przykładowych danych do już wdrożonych punktów końcowych modelu na potrzeby podsumowania dokumentów i zadań związanych z odpowiadaniem na pytania. Notatnik demonstracyjny pozwala szybko zdobyć praktyczne doświadczenie, wykonując zapytania dotyczące przykładowych danych.
Po uruchomieniu rozwiązania Document Understanding otwórz notatnik demonstracyjny, wybierając opcję Użyj punktu końcowego w Notatniku.
Przyjrzyjmy się dokładniej każdemu z pięciu głównych notesów tego rozwiązania.
Wymagania wstępne
In Studio Amazon SageMaker, upewnij się, że używasz PyTorch 1.10 Python 3.8 CPU Optimized
image/kernel, aby otworzyć notatniki. Szkolenie wykorzystuje pięć instancji ml.g4dn.2xlarge, więc powinieneś podnieść a wniosek o zwiększenie limitu usług jeśli Twoje konto wymaga zwiększonych limitów dla tego typu.
Klasyfikacja tekstu
Klasyfikacja tekstu odnosi się do klasyfikowania zdania wejściowego do jednej z etykiet klasy uczącego zestawu danych. Ten notatnik pokazuje, jak korzystać z Interfejs API JumpStart do klasyfikacji tekstów.
Wdróż i uruchom wnioskowanie na wstępnie wytrenowanym modelu
Wybrany przez nas model klasyfikacji tekstu opiera się na osadzeniu tekstu (tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2
) wzór z Centrum TensorFlow, który jest wstępnie przeszkolony w zakresie zestawów danych Wikipedii i BookCorpus.
Model dostępny do wdrożenia jest tworzony przez dołączenie binarnej warstwy klasyfikacji do danych wyjściowych modelu osadzania tekstu, a następnie dostrojenie całego modelu na SST-2 zbiór danych, który składa się z pozytywnych i negatywnych recenzji filmów.
Aby uruchomić wnioskowanie na tym modelu, musimy najpierw pobrać kontener wnioskowania (deploy_image_uri
), skrypt wnioskowania (deploy_source_uri
) i wstępnie wyszkolony model (base_model_uri
). Następnie przekazujemy je jako parametry w celu utworzenia instancji obiektu modelu SageMaker, który możemy następnie wdrożyć:
Poniższy kod pokazuje nasze odpowiedzi:
Dostosuj wstępnie przeszkolony model na niestandardowym zestawie danych
Właśnie przeprowadziliśmy wnioskowanie na temat wstępnie wytrenowanego modelu BERT, który został dopracowany w programie SST-2
zestaw danych.
Następnie omówimy, jak dostroić model na niestandardowym zestawie danych z dowolną liczbą klas. Zbiór danych, którego używamy do dostrajania, nadal jest aktualny SST-2
zestaw danych. Możesz zastąpić ten zestaw danych dowolnym zestawem danych, który Cię interesuje.
Pobieramy kontener szkolenia Docker, źródło algorytmu szkolenia i wstępnie wytrenowany model:
W przypadku hiperparametrów specyficznych dla algorytmu zaczynamy od pobrania słownika Pythona hiperparametrów szkoleniowych, które algorytm akceptuje wraz z ich wartościami domyślnymi. Możesz je zastąpić wartościami niestandardowymi, jak pokazano w poniższym kodzie:
zestaw danych (SST-2
) jest podzielony na zestawy treningowe, walidacyjne i testowe, gdzie zestaw treningowy jest używany do dopasowania modelu, zestaw walidacyjny służy do obliczania metryk oceny, które można wykorzystać do HPO, a zestaw testowy jest używany jako dane wstrzymane do oceny wydajności modelu. Następnie zestaw danych pociągu i walidacji jest przesyłany do Amazon S3 i używany do uruchomienia zadania szkoleniowego dostrajania:
Po zakończeniu zadania dostrajania wdrażamy model, uruchamiamy wnioskowanie na testowym zestawie danych wstrzymania i obliczamy metryki oceny. Ponieważ jest to zadanie klasyfikacji binarnej, używamy metody wynik dokładności i Wynik F1 jako mierniki oceny. Większa wartość oznacza lepszą wydajność. Poniższy zrzut ekranu przedstawia nasze wyniki.
Dalsza poprawa wydajności dostrajania dzięki automatycznemu dostrajaniu modelu SageMaker
W tym kroku pokazujemy, w jaki sposób można jeszcze bardziej poprawić wydajność modelu, dostrajając model za pomocą automatycznego dostrajania modelu SageMaker. Automatyczne dostrajanie modelu, znane również jako optymalizacja hiperparametrów (HPO), znajduje najlepszą wersję modelu przez uruchomienie wielu zadań szkoleniowych w zestawie danych z określonym zakresem hiperparametrów. Następnie wybiera wartości hiperparametrów, które dają model, który działa najlepiej, mierzony za pomocą wybranej metryki, w zbiorze danych walidacji.
Najpierw ustawiamy cel jako wynik dokładności danych walidacyjnych (val_accuracy
) i zdefiniowane metryki dla zadania dostrajania, określając nazwę metryki celu i wyrażenie regularne (regex). Wyrażenie regularne służy do dopasowania danych wyjściowych dziennika algorytmu i przechwytywania wartości liczbowych metryk. Następnie określamy zakresy hiperparametrów, z których wybieramy najlepsze wartości hiperparametrów. Ustawiamy całkowitą liczbę zadań dostrajania na sześć i rozdzielamy te zadania na trzy różne Elastyczna chmura obliczeniowa Amazon (Amazon EC2) do uruchamiania równoległych zadań dostrajania. Zobacz następujący kod:
Przekazujemy te wartości, aby utworzyć instancję obiektu SageMaker Estimator, podobnie jak w poprzednim kroku dostrajania. Zamiast dzwonić do fit
funkcja Estimator
obiekt, mijamy Estimator
obiekt jako parametr do HyperparametrTuner konstruktora i wywołaj fit
jego funkcja, aby uruchomić zadania strojenia:
Po zakończeniu zadań dostrajania wdrażamy model, który daje najlepszy wynik metryki oceny w zestawie danych do walidacji, przeprowadzamy wnioskowanie na tym samym zestawie danych testowych wstrzymania, które wykonaliśmy w poprzedniej sekcji, i obliczamy metryki oceny.
Wyniki pokazują, że model wybrany przez automatyczne dostrajanie modelu znacznie przewyższa model dostrojony w poprzedniej sekcji na zbiorze danych testu wstrzymania.
Rozpoznawanie nazwanych jednostek
Rozpoznawanie nazwanych jednostek (NER) to proces wykrywania i klasyfikowania nazwanych jednostek do predefiniowanych kategorii, takich jak nazwiska osób, organizacje, lokalizacje i ilości. Istnieje wiele rzeczywistych przypadków użycia NER, takich jak silniki rekomendacji, kategoryzowanie i przypisywanie zgłoszeń obsługi klienta do odpowiedniego działu, wydobywanie istotnych informacji z raportów pacjentów w opiece zdrowotnej oraz klasyfikacja treści z wiadomości i blogów.
Wdróż i uruchom wnioskowanie na wstępnie wytrenowanym modelu
Wdrażamy En_core_web_md model z Przestronny biblioteka. spaCy to biblioteka NLP o otwartym kodzie źródłowym, która może być używana do różnych zadań i ma wbudowane metody dla NER. Używamy AWS PyTorch Deep Learning Container (DLC) z trybem skryptowym i instalujemy bibliotekę spaCy jako zależność na wierzchu kontenera.
Następnie punkt wejścia dla skryptu (argument entry_point.py
) jest określony, zawierający cały kod do pobrania i załadowania En_core_web_md
modelować i przeprowadzać wnioskowanie na podstawie danych wysyłanych do punktu końcowego. Wreszcie musimy jeszcze zapewnić model_data
jako wstępnie wytrenowany model do wnioskowania. Ponieważ wstępnie przeszkolony En_core_web_md
model jest pobierany w locie, co jest określone w skrypcie wejściowym, udostępniamy pusty plik archiwum. Po wdrożeniu punktu końcowego można wywołać punkt końcowy bezpośrednio z notebooka przy użyciu pakietu SageMaker Python SDK Predictor
. Zobacz następujący kod:
Danymi wejściowymi do modelu jest dokument tekstowy. Model nazwanych jednostek wyodrębnia fragmenty rzeczowników i nazwane jednostki w dokumencie tekstowym i klasyfikuje je na wiele różnych typów (takich jak ludzie, miejsca i organizacje). Przykładowe dane wejściowe i wyjściowe są pokazane w poniższym kodzie. The start_char
parametr wskazuje przesunięcie znaku na początku zakresu i end_char
wskazuje koniec zakresu.
Dostosuj wstępnie przeszkolony model na niestandardowym zestawie danych
W tym kroku pokazujemy, jak dostroić wstępnie wytrenowane modele językowe dla NER na własnym zbiorze danych. Krok dostrajania aktualizuje parametry modelu, aby uchwycić charakterystykę własnych danych i poprawić dokładność. Używamy WikiANN (PAN-X) w celu dostrojenia DestilBERT-base-uncased Model transformatora z Hugging Face.
Zestaw danych jest podzielony na zestawy uczące, sprawdzające walidację i testowe.
Następnie określamy hiperparametry modelu i używamy DLC AWS Hugging Face z trybem skryptowym (argument entry_point
), aby uruchomić zadanie dostrajania:
Po zakończeniu zadania dostrajania wdrażamy punkt końcowy i wysyłamy zapytanie do tego punktu końcowego za pomocą wstrzymanych danych testowych. Aby wysłać zapytanie do punktu końcowego, każdy ciąg tekstowy musi zostać podzielony na jeden lub wiele tokenów i wysłany do modelu transformatora. Każdy token otrzymuje przewidywany nazwany tag jednostki. Ponieważ każdy ciąg tekstowy można podzielić na jeden lub wiele tokenów, musimy zduplikować podstawowy znacznik podmiotu o nazwie prawdy na wszystkie tokeny, które są z nim powiązane. Dostarczony notatnik przeprowadzi Cię przez kroki, które należy wykonać, aby to osiągnąć.
Na koniec używamy wbudowanych wskaźników oceny Hugging Face sekwencja obliczyć wyniki oceny na danych z testu wstrzymania. Zastosowane metryki oceny to ogólna precyzja, ogólna pamięć, ogólna F1 i dokładność. Poniższy zrzut ekranu przedstawia nasze wyniki.
Dalsza poprawa wydajności dostrajania dzięki automatycznemu dostrajaniu modelu SageMaker
Podobnie jak w przypadku klasyfikacji tekstu, pokazujemy, w jaki sposób można jeszcze bardziej poprawić wydajność modelu, dostrajając model za pomocą automatycznego dostrajania modelu SageMaker. Aby uruchomić zadanie dostrajania, musimy zdefiniować obiektywną metrykę, której chcemy użyć do oceny wydajności modelu na zbiorze danych walidacji (w tym przypadku wynik F1), zakresy hiperparametrów, z których można wybrać najlepsze wartości hiperparametrów, a także konfiguracje zadań dostrajania, takie jak maksymalna liczba zadań dostrajania i liczba zadań równoległych do uruchomienia jednocześnie:
Po zakończeniu zadań dostrajania wdrażamy model, który daje najlepszy wynik metryki oceny w zestawie danych do walidacji, przeprowadzamy wnioskowanie na tym samym zestawie danych testowych wstrzymania, które wykonaliśmy w poprzedniej sekcji, i obliczamy metryki oceny.
Widzimy, że model z HPO osiąga znacznie lepszą wydajność we wszystkich metrykach.
Odpowiadanie na pytania
Odpowiadanie na pytania jest przydatne, gdy chcesz przeszukać dużą ilość tekstu w celu uzyskania określonych informacji. Pozwala użytkownikowi zadać pytanie w języku naturalnym i uzyskać natychmiastową i krótką odpowiedź. Systemy odpowiedzi na pytania oparte na NLP mogą być używane w wyszukiwarkach i telefonicznych interfejsach konwersacyjnych.
Wdróż i uruchom wnioskowanie na wstępnie wytrenowanym modelu
Nasz wstępnie wytrenowany model to model odpowiedzi na pytania ekstrakcyjne (EQA). bert-duże-nieosłonięte-całe-słowa-maskujące-dostrojone-squad zbudowany na modelu Transformer z Hugging Face. Używamy DLC AWS PyTorch z trybem skryptowym i instalujemy Transformatory biblioteka jako zależność na górze kontenera. Podobnie jak w zadaniu NER, w argumencie podajemy pusty plik archiwum model_data
ponieważ wstępnie wytrenowany model jest pobierany w locie. Po wdrożeniu punktu końcowego można wywołać punkt końcowy bezpośrednio z notebooka przy użyciu pakietu SageMaker Python SDK Predictor
. Zobacz następujący kod:
Wszystko, co musimy zrobić, to skonstruować obiekt słownika z dwoma kluczami. context
jest tekstem, z którego chcemy pobrać informacje. question
to zapytanie w języku naturalnym, które określa, jakie informacje chcemy wyodrębnić. Nazywamy predict
na naszym predyktorze i powinniśmy otrzymać odpowiedź z punktu końcowego, który zawiera najbardziej prawdopodobne odpowiedzi:
Mamy odpowiedź i możemy wydrukować najbardziej prawdopodobne odpowiedzi, które zostały wyodrębnione z poprzedniego tekstu. Każda odpowiedź ma wynik ufności używany do rankingu (ale ten wynik nie powinien być interpretowany jako prawdziwe prawdopodobieństwo). Oprócz dosłownej odpowiedzi otrzymujesz także indeksy znaków początkowych i końcowych odpowiedzi z oryginalnego kontekstu:
Teraz dostrajamy ten model za pomocą własnego niestandardowego zestawu danych, aby uzyskać lepsze wyniki.
Dostosuj wstępnie przeszkolony model na niestandardowym zestawie danych
W tym kroku pokazujemy, jak dostroić wstępnie wytrenowane modele językowe dla EQA na własnym zbiorze danych. Krok dostrajania aktualizuje parametry modelu, aby uchwycić charakterystykę własnych danych i poprawić dokładność. Używamy ODDZIAŁ 2.0 zestawu danych w celu dostrojenia modelu osadzania tekstu bert-base-bez obudowy z Przytulania Twarzy. Model dostępny do dostrajania dołącza warstwę wyodrębniania odpowiedzi do modelu osadzania tekstu i inicjuje parametry warstwy do losowych wartości. Krok dostrajania dostraja wszystkie parametry modelu, aby zminimalizować błąd predykcji danych wejściowych i zwraca precyzyjnie dostrojony model.
Podobnie jak w przypadku zadania klasyfikacji tekstu, zbiór danych (SQuAD2.0) jest podzielony na zbiór uczący, walidacyjny i testowy.
Następnie określamy hiperparametry modelu i używamy Interfejs API JumpStart aby uruchomić zadanie dostrajania:
Po zakończeniu zadania dostrajania wdrażamy model, uruchamiamy wnioskowanie na testowym zestawie danych wstrzymania i obliczamy metryki oceny. Stosowane wskaźniki oceny to średni wynik dokładnego dopasowania i średni wynik F1. Poniższy zrzut ekranu przedstawia wyniki.
Dalsza poprawa wydajności dostrajania dzięki automatycznemu dostrajaniu modelu SageMaker
Podobnie jak w poprzednich sekcjach, używamy a HyperparameterTuner
obiekt do uruchamiania zadań dostrajania:
Po zakończeniu zadań dostrajania wdrażamy model, który daje najlepszy wynik metryki oceny w zestawie danych do walidacji, przeprowadzamy wnioskowanie na tym samym zestawie danych testowych wstrzymania, które wykonaliśmy w poprzedniej sekcji, i obliczamy metryki oceny.
Widzimy, że model z HPO wykazuje znacznie lepszą wydajność na danych testu wstrzymania.
Ekstrakcja relacji
Ekstrakcja relacji to zadanie wydobywania relacji semantycznych z tekstu, które zwykle występują między dwoma lub większą liczbą jednostek. Ekstrakcja relacji odgrywa ważną rolę w wydobywaniu ustrukturyzowanych informacji z nieustrukturyzowanych źródeł, takich jak nieprzetworzony tekst. W tym notatniku zademonstrujemy dwa przypadki użycia ekstrakcji relacji.
Dostosuj wstępnie przeszkolony model na niestandardowym zestawie danych
Używamy modelu ekstrakcji relacji zbudowanego na BERT bez obudowy model wykorzystujący transformatory z Przytulanie transformatorów twarzy biblioteka. Model do precyzyjnego dostrajania dołącza liniową warstwę klasyfikacji, która pobiera parę osadzonych tokenów wyprowadzanych przez model osadzania tekstu i inicjuje parametry warstwy do losowych wartości. Krok dostrajania dostraja wszystkie parametry modelu, aby zminimalizować błąd predykcji danych wejściowych i zwraca precyzyjnie dostrojony model.
Zbiór danych, w którym dopracowujemy model SemEval-2010 Zadanie 8. Model zwrócony przez dostrajanie może być dalej wykorzystywany do wnioskowania.
Zestaw danych zawiera zestawy treningowe, sprawdzania poprawności i testowe.
Używamy AWS PyTorch DLC z trybem skryptowym z SageMaker Python SDK, gdzie transformers
biblioteka jest instalowana jako zależność na górze kontenera. Definiujemy SageMakera PyTorch
estymator i zestaw hiperparametrów, takich jak wstępnie wytrenowany model, szybkość uczenia się i liczby epok, aby przeprowadzić precyzyjne dostrajanie. Kod służący do dostrajania modelu wyodrębniania relacji jest zdefiniowany w pliku entry_point.py
. Zobacz następujący kod:
Dalsza poprawa wydajności dostrajania dzięki automatycznemu dostrajaniu modelu SageMaker
Podobnie jak w poprzednich sekcjach, używamy a HyperparameterTuner
obiekt do interakcji z interfejsami API dostrajania hiperparametrów SageMaker. Możemy rozpocząć zadanie dostrajania hiperparametrów, wywołując funkcję fit
metoda:
Po zakończeniu zadania dostrajania hiperparametrów przeprowadzamy wnioskowanie i sprawdzamy wynik oceny.
Widzimy, że model z HPO wykazuje lepszą wydajność na danych testu wstrzymania.
Podsumowanie dokumentu
Podsumowanie dokumentu lub tekstu to zadanie skondensowania dużych ilości danych tekstowych w mniejszy podzbiór znaczących zdań, które reprezentują najważniejsze lub istotne informacje w oryginalnej treści. Podsumowanie dokumentu to przydatna technika wyodrębniania ważnych informacji z dużej ilości danych tekstowych do kilku zdań. Podsumowanie tekstu jest używane w wielu przypadkach, takich jak przetwarzanie dokumentów i wydobywanie informacji z blogów, artykułów i wiadomości.
W tym notesie przedstawiono wdrażanie modelu podsumowania dokumentów podstawa T5 z Przytulanie transformatorów twarzy biblioteka. Testujemy również wdrożone punkty końcowe za pomocą artykułu tekstowego i oceniamy wyniki za pomocą wbudowanej metryki oceny Hugging Face CZERWONA.
Podobnie jak w przypadku odpowiedzi na pytania i notatników NER, używamy PyTorchModel
z SageMaker Python SDK wraz z plikiem entry_point.py
skrypt do ładowania modelu bazowego T5 do punktu końcowego HTTPS. Po pomyślnym wdrożeniu punktu końcowego możemy wysłać artykuł tekstowy do punktu końcowego, aby uzyskać odpowiedź przewidywania:
Następnie oceniamy i porównujemy artykuł tekstowy i wynik podsumowania za pomocą metryki ROUGE. Obliczane są trzy wskaźniki oceny: rougeN
, rougeL
, rougeLsum
. rougeN
mierzy liczbę dopasowań n-grams
między tekstem wygenerowanym przez model (wynik podsumowania) a a reference
(Wprowadź tekst). Metryki rougeL
i rougeLsum
mierzyć najdłuższe pasujące sekwencje słów, wyszukując najdłuższe wspólne podciągi w wygenerowanych i referencyjnych podsumowaniach. Dla każdej metryki obliczane są przedziały ufności dla precyzji, odwołania i wyniku F1. Zobacz następujący kod:
Sprzątać
Zasoby utworzone dla tego rozwiązania można usunąć za pomocą Usuń wszystkie zasoby przycisk z SageMaker Studio IDE. Każdy notatnik zawiera również sekcję czyszczenia z kodem do usuwania punktów końcowych.
Wnioski
W tym poście pokazaliśmy, jak wykorzystać najnowocześniejsze techniki ML do rozwiązania pięciu różnych zadań NLP: podsumowania dokumentów, klasyfikacji tekstu, pytań i odpowiedzi, rozpoznawania nazwanych jednostek i ekstrakcji relacji za pomocą Jumpstart. Rozpocznij teraz z Szybkim startem!
O autorach
Dr Xin Huang jest naukowcem w zakresie wbudowanych algorytmów Amazon SageMaker JumpStart i Amazon SageMaker. Koncentruje się na tworzeniu skalowalnych algorytmów uczenia maszynowego. Jego zainteresowania badawcze dotyczą przetwarzania języka naturalnego, wyjaśnialnego głębokiego uczenia się na danych tabelarycznych oraz solidnej analizy nieparametrycznego klastrowania przestrzenno-czasowego. Opublikował wiele artykułów na konferencjach ACL, ICDM, KDD oraz Royal Statistical Society: Series A.
Vivek Gangasani jest starszym architektem rozwiązań uczenia maszynowego w Amazon Web Services. Pomaga Startupom budować i operacjonalizować aplikacje AI/ML. Obecnie koncentruje się na połączeniu swojego doświadczenia w zakresie kontenerów i uczenia maszynowego, aby dostarczać rozwiązania dotyczące MLOps, wnioskowania ML i uczenia maszynowego o niskim poziomie kodu. W wolnym czasie lubi próbować nowych restauracji i badać pojawiające się trendy w sztucznej inteligencji i głębokim uczeniu się.
Geremiego Cohena jest architektem rozwiązań w AWS, gdzie pomaga klientom w tworzeniu najnowocześniejszych rozwiązań w chmurze. W wolnym czasie lubi krótkie spacery po plaży, zwiedzanie zatoki z rodziną, naprawianie rzeczy w domu, niszczenie rzeczy wokół domu i grillowanie.
Neelam Koshiya jest architektem rozwiązań dla przedsiębiorstw w AWS. Obecnie koncentruje się na pomocy klientom korporacyjnym w ich drodze do wdrożenia chmury w celu uzyskania strategicznych wyników biznesowych. W wolnym czasie lubi czytać i przebywać na świeżym powietrzu.
- Zaawansowane (300)
- AI
- ai sztuka
- generator sztuki ai
- masz robota
- Amazon Sage Maker
- Amazon SageMaker JumpStart
- sztuczna inteligencja
- certyfikacja sztucznej inteligencji
- sztuczna inteligencja w bankowości
- robot sztucznej inteligencji
- roboty sztucznej inteligencji
- oprogramowanie sztucznej inteligencji
- Uczenie maszynowe AWS
- blockchain
- konferencja blockchain ai
- pomysłowość
- sztuczna inteligencja konwersacyjna
- konferencja kryptograficzna
- Dall's
- głęboka nauka
- Ekspert (400)
- google to
- uczenie maszynowe
- plato
- Platon Ai
- Analiza danych Platona
- Gra Platona
- PlatoDane
- platogaming
- skala ai
- składnia
- zefirnet