Wdrażaj modele ML wbudowane w Amazon SageMaker Canvas w punktach końcowych czasu rzeczywistego Amazon SageMaker | Usługi internetowe Amazona

Wdrażaj modele ML wbudowane w Amazon SageMaker Canvas w punktach końcowych czasu rzeczywistego Amazon SageMaker | Usługi internetowe Amazona

Płótno Amazon SageMaker obsługuje teraz wdrażanie modeli uczenia maszynowego (ML) w punktach końcowych wnioskowania w czasie rzeczywistym, umożliwiając przeniesienie modeli ML do środowiska produkcyjnego i kierowanie działaniami w oparciu o spostrzeżenia oparte na technologii ML. SageMaker Canvas to przestrzeń robocza niewymagająca użycia kodu, która umożliwia analitykom i badaczom danych obywatelskich generowanie dokładnych prognoz ML dla ich potrzeb biznesowych.

Do tej pory SageMaker Canvas zapewniał możliwość oceny modelu uczenia maszynowego, generowania zbiorczych prognoz i przeprowadzania analiz typu „co by było, gdyby” w interaktywnym obszarze roboczym. Ale teraz możesz także wdrażać modele w punktach końcowych Amazon SageMaker w celu wnioskowania w czasie rzeczywistym, dzięki czemu korzystanie z przewidywań modeli i kierowanie działaniami poza obszarem roboczym SageMaker Canvas będzie łatwe. Możliwość bezpośredniego wdrażania modeli ML z SageMaker Canvas eliminuje potrzebę ręcznego eksportowania, konfigurowania, testowania i wdrażania modeli ML w środowisku produkcyjnym, co pozwala zaoszczędzić czas i złożoność. Dzięki temu operacjonalizacja modeli uczenia maszynowego staje się bardziej dostępna dla poszczególnych osób, bez konieczności pisania kodu.

W tym poście przeprowadzimy Cię przez proces wdrożyć model w SageMaker Canvas do punktu końcowego w czasie rzeczywistym.

Przegląd rozwiązania

Dla naszego przypadku użycia przyjmujemy rolę użytkownika biznesowego w dziale marketingu operatora telefonii komórkowej i z sukcesem stworzyliśmy model ML w SageMaker Canvas, aby zidentyfikować klientów z potencjalnym ryzykiem odejścia. Dzięki przewidywaniom wygenerowanym przez nasz model chcemy teraz przenieść to ze środowiska programistycznego do produkcyjnego. Aby usprawnić proces wdrażania punktu końcowego naszego modelu na potrzeby wnioskowania, wdrażamy modele ML bezpośrednio z SageMaker Canvas, eliminując w ten sposób potrzebę ręcznego eksportowania, konfigurowania, testowania i wdrażania modeli ML w środowisku produkcyjnym. Pomaga to zmniejszyć złożoność, oszczędza czas, a także sprawia, że ​​operacjonalizacja modeli uczenia maszynowego jest bardziej dostępna dla poszczególnych osób, bez konieczności pisania kodu.

Kroki przepływu pracy są następujące:

  1. Prześlij nowy zestaw danych z obecną populacją klientów do SageMaker Canvas. Aby zapoznać się z pełną listą obsługiwanych źródeł danych, zobacz Importuj dane do Canvas.
  2. Twórz modele uczenia maszynowego i analizuj ich wskaźniki wydajności. Aby uzyskać instrukcje, zobacz Zbuduj niestandardowy model i Oceń wydajność swojego modelu w Amazon SageMaker Canvas.
  3. Wdróż zatwierdzoną wersję modelu jako punkt końcowy do wnioskowania w czasie rzeczywistym.

Możesz wykonać te kroki w SageMaker Canvas bez pisania ani jednej linii kodu.

Wymagania wstępne

W tym przewodniku upewnij się, że spełnione są następujące wymagania wstępne:

  1. Aby wdrożyć wersje modelu na punktach końcowych SageMaker, administrator SageMaker Canvas musi przyznać niezbędne uprawnienia użytkownikowi SageMaker Canvas, którymi można zarządzać w domenie SageMaker, w której znajduje się aplikacja SageMaker Canvas. Aby uzyskać więcej informacji, zobacz Zarządzanie uprawnieniami w Canvas.
    Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.
  2. Zaimplementuj wymagania wstępne, o których mowa w Przewiduj odejścia klientów dzięki uczeniu maszynowemu bez kodu, korzystając z Amazon SageMaker Canvas.

Powinieneś mieć teraz trzy wersje modelu wytrenowane na podstawie historycznych danych prognozy odejścia w Canvas:

  • V1 przeszkolony ze wszystkimi 21 funkcjami i szybką konfiguracją kompilacji z wynikiem modelu 96.903%
  • Szkolenie V2 ze wszystkimi 19 funkcjami (usunięte funkcje telefonu i stanu) oraz konfiguracja szybkiej kompilacji i poprawiona dokładność 97.403%
  • V3 przeszkolony ze standardową konfiguracją kompilacji z wynikiem modelu 97.103%.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Użyj modelu przewidywania rezygnacji klientów

umożliwiać Pokaż zaawansowane metryki na stronie szczegółów modelu i przejrzyj obiektywne metryki powiązane z każdą wersją modelu, aby wybrać najskuteczniejszy model do wdrożenia w SageMaker jako punkcie końcowym.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Na podstawie wskaźników wydajności wybieramy wersję 2 do wdrożenia.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Skonfiguruj ustawienia wdrażania modelu — nazwę wdrożenia, typ instancji i liczbę instancji.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Na początek Canvas automatycznie zarekomenduje najlepszy typ instancji i liczbę instancji do wdrożenia modelu. Możesz go zmienić w zależności od potrzeb związanych z obciążeniem pracą.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Możesz przetestować wdrożony punkt końcowy wnioskowania SageMaker bezpośrednio z poziomu SageMaker Canvas.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Możesz zmieniać wartości wejściowe za pomocą interfejsu użytkownika SageMaker Canvas, aby uzyskać dodatkową prognozę rezygnacji.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Teraz przejdźmy do Studio Amazon SageMaker i sprawdź wdrożony punkt końcowy.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Otwórz notatnik w SageMaker Studio i uruchom następujący kod, aby wywnioskować punkt końcowy wdrożonego modelu. Zastąp nazwę punktu końcowego modelu własną nazwą punktu końcowego modelu.

import boto3, sys
import pandas as pd endpoint_name = "canvas-customer-churn-prediction-model"
sm_rt = boto3.Session().client('runtime.sagemaker') payload = [['PA',163,806,403-2562, 'no', 'yes', 300, 8.16, 3, 7.57,3.93,4,6.5,4.07,100,5.11,4.92,6,5.67,3]]
body = pd.DataFrame(payload).to_csv(header=False, index=False).encode("utf-8") response = sm_rt.invoke_endpoint(EndpointName=endpoint_name, Body=body, ContentType="text/csv",Accept="application/json") response = response['Body'].read().decode("utf-8")
print(response)

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Nasz oryginalny punkt końcowy modelu używa instancji ml.m5.xlarge i 1 liczby instancji. Załóżmy teraz, że spodziewasz się wzrostu liczby użytkowników końcowych korzystających z punktu końcowego modelu i chcesz zapewnić większą moc obliczeniową. Możesz to zrobić bezpośrednio z poziomu SageMaker Canvas, wybierając Zaktualizuj konfigurację.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai. Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Sprzątać

Aby uniknąć przyszłych opłat, usuń zasoby utworzone podczas śledzenia tego wpisu. Obejmuje to wylogowanie się z SageMaker Canvas i usunięcie wdrożonego punktu końcowego SageMaker. SageMaker Canvas wystawia Ci rachunek za czas trwania sesji i zalecamy wylogowanie się z SageMaker Canvas, jeśli z niego nie korzystasz. Odnosić się do Wylogowanie z Amazon SageMaker Canvas by uzyskać więcej szczegółów.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Wnioski

W tym poście omówiliśmy, w jaki sposób SageMaker Canvas może wdrażać modele ML w punktach końcowych wnioskowania w czasie rzeczywistym, umożliwiając przeniesienie modeli ML do środowiska produkcyjnego i kierowanie działaniami w oparciu o spostrzeżenia oparte na ML. W naszym przykładzie pokazaliśmy, jak analityk może szybko zbudować bardzo dokładny model predykcyjny ML bez pisania żadnego kodu, wdrożyć go w SageMaker jako punkt końcowy i przetestować punkt końcowy modelu z SageMaker Canvas, a także z notatnika SageMaker Studio.

Aby rozpocząć swoją przygodę z ML z niskim kodem/bez kodu, zobacz Płótno Amazon SageMaker.

Specjalne podziękowania dla wszystkich, którzy przyczynili się do premiery: Prashanth Kurumaddali, Abishek Kumar, Allen Liu, Sean Lester, Richa Sundrani i Alicia Qi.


O autorach

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Janisza Anand jest starszym menedżerem produktu w zespole Amazon SageMaker Low/No Code ML, który obejmuje SageMaker Canvas i SageMaker Autopilot. Lubi kawę, aktywnie spędzać czas i spędzać czas z rodziną.

Deploy ML models built in Amazon SageMaker Canvas to Amazon SageMaker real-time endpoints | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Indy’ego Sawhney’a jest starszym liderem rozwiązań dla klientów w Amazon Web Services. Zawsze analizując problemy klientów, Indy doradza kierownictwu klientów korporacyjnych AWS na ich wyjątkowej drodze do transformacji chmury. Ma ponad 25-letnie doświadczenie w pomaganiu organizacjom korporacyjnym we wdrażaniu nowych technologii i rozwiązań biznesowych. Indy to specjalista w obszarze Technical Field Community AWS ds. sztucznej inteligencji/ML, specjalizujący się w generatywnej sztucznej inteligencji oraz rozwiązaniach Amazon SageMaker z małą ilością kodu/bez kodu.

Znak czasu:

Więcej z Uczenie maszynowe AWS