Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych za pomocą Amazon SageMaker Studio i Amazon SageMaker Autopilot — część 2

Lasy namorzynowe są ważną częścią zdrowego ekosystemu, a działalność człowieka jest jedną z głównych przyczyn ich stopniowego zanikania z wybrzeży na całym świecie. Wykorzystanie modelu uczenia maszynowego (ML) do identyfikacji obszarów namorzynowych na podstawie obrazu satelitarnego daje naukowcom skuteczny sposób monitorowania wielkości lasów w czasie. W Część 1 z tej serii pokazaliśmy, jak w sposób zautomatyzowany gromadzić dane satelitarne i analizować je w Studio Amazon SageMaker z interaktywną wizualizacją. W tym poście pokazujemy, jak korzystać Autopilot Amazon SageMaker aby zautomatyzować proces budowania niestandardowego klasyfikatora mangrowego.

Trenuj modelkę za pomocą Autopilota

Autopilot zapewnia zrównoważony sposób budowania kilku modeli i wybierania najlepszego. Podczas tworzenia wielu kombinacji różnych technik wstępnego przetwarzania danych i modeli ML przy minimalnym nakładzie pracy, Autopilot zapewnia w razie potrzeby pełną kontrolę nad tymi etapami komponentów.

Możesz korzystać z Autopilota za pomocą jednego z pakietów AWS SDK (szczegóły dostępne w Przewodnik po interfejsie API dla Autopilota) lub przez Studio. Używamy Autopilota w naszym rozwiązaniu Studio, wykonując czynności opisane w tej sekcji:

  1. Na stronie programu Studio Launcher wybierz znak plus dla Nowy eksperyment z autopilotem.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.
  2. W razie zamówieenia projektu Połącz swoje dane, Wybierz Znajdź wiadro S3i wprowadź nazwę zasobnika, w którym przechowywane są zestawy danych treningowych i testowych.
  3. W razie zamówieenia projektu Nazwa pliku zbioru danych, wprowadź nazwę pliku danych treningowych, który utworzyłeś w Przygotuj dane treningowe sekcja w Część 1.
  4. W razie zamówieenia projektu Lokalizacja danych wyjściowych (zasobnik S3), wpisz tę samą nazwę zasobnika co w kroku 2.
  5. W razie zamówieenia projektu Nazwa katalogu zbioru danych, wprowadź nazwę folderu w zasobniku, w którym Autopilot ma przechowywać artefakty.
  6. W razie zamówieenia projektu Czy twoje wejście S3 jest plikiem manifestu?wybierz poza.
  7. W razie zamówieenia projektu celwybierz etykieta.
  8. W razie zamówieenia projektu Automatyczne wdrażaniewybierz poza.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.
  9. Pod ustawienia zaawansowane, Dla Typ problemu uczenia maszynowegowybierz Klasyfikacja binarna.
  10. W razie zamówieenia projektu Miernik celuwybierz AUC.
  11. W razie zamówieenia projektu Wybierz sposób przeprowadzenia eksperymentuwybierz Nie, uruchom pilotaż, aby utworzyć notatnik z definicjami kandydatów.
  12. Dodaj Utwórz eksperyment.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.
    Aby uzyskać więcej informacji o tworzeniu eksperymentu, zobacz Utwórz eksperyment Amazon SageMaker Autopilot.Uruchomienie tego kroku może zająć około 15 minut.
  13. Po zakończeniu wybierz Otwórz notatnik generacji kandydatów, który otwiera nowy notes w trybie tylko do odczytu.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.
  14. Dodaj Importuj notatnik aby zeszyt był edytowalny.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.
  15. W przypadku obrazu wybierz Nauka danych.
  16. W razie zamówieenia projektu Jądrowybierz Python 3.
  17. Dodaj Wybierz.
    Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Ten automatycznie generowany notatnik zawiera szczegółowe objaśnienia i zapewnia pełną kontrolę nad rzeczywistym zadaniem budowania modelu. Niestandardowa wersja notatnik, gdzie klasyfikator jest szkolony z wykorzystaniem pasm satelitarnych Landsat z 2013 roku, jest dostępny w repozytorium kodów pod notebooks/mangrove-2013.ipynb.

Struktura budowania modelu składa się z dwóch części: transformacji cech w ramach etapu przetwarzania danych oraz optymalizacji hiperparametrów (HPO) w ramach etapu wyboru modelu. Wszystkie niezbędne artefakty do tych zadań zostały stworzone podczas eksperymentu Autopilot i zapisane w Usługa Amazon Simple Storage (Amazonka S3). Pierwsza komórka notebooka pobiera te artefakty z Amazon S3 do lokalnego Amazon Sage Maker system plików do wglądu i wszelkich niezbędnych modyfikacji. Istnieją dwa foldery: generated_module i sagemaker_automl, gdzie przechowywane są wszystkie moduły Pythona i skrypty niezbędne do uruchomienia notatnika. Różne etapy transformacji funkcji, takie jak imputacja, skalowanie i PCA, są zapisywane jako generated_modules/candidate_data_processors/dpp*.py.

Autopilot tworzy trzy różne modele w oparciu o algorytmy XGBoost, liniowego uczącego się i wielowarstwowego perceptronu (MLP). Potok kandydatów składa się z jednej z opcji transformacji funkcji, znanej jako data_transformeri algorytm. Potok jest słownikiem Pythona i można go zdefiniować w następujący sposób:

candidate1 = { "data_transformer": { "name": "dpp5", "training_resource_config": { "instance_type": "ml.m5.4xlarge", "instance_count": 1, "volume_size_in_gb": 50 }, "transform_resource_config": { "instance_type": "ml.m5.4xlarge", "instance_count": 1, }, "transforms_label": True, "transformed_data_format": "application/x-recordio-protobuf", "sparse_encoding": True }, "algorithm": { "name": "xgboost", "training_resource_config": { "instance_type": "ml.m5.4xlarge", "instance_count": 1, }, }
}

W tym przykładzie potok przekształca dane treningowe zgodnie ze skryptem w generated_modules/candidate_data_processors/dpp5.py i buduje model XGBoost. W tym miejscu Autopilot zapewnia pełną kontrolę naukowcom zajmującym się danymi, którzy mogą wybrać automatycznie generowane etapy transformacji cech i wyboru modelu lub stworzyć własną kombinację.

Możesz teraz dodać potok do puli, aby Autopilot uruchomił eksperyment w następujący sposób:

from sagemaker_automl import AutoMLInteractiveRunner, AutoMLLocalCandidate automl_interactive_runner = AutoMLInteractiveRunner(AUTOML_LOCAL_RUN_CONFIG)
automl_interactive_runner.select_candidate(candidate1)

Jest to ważny krok, w którym możesz zdecydować się na zachowanie tylko podzbioru kandydatów sugerowanych przez Autopilota, w oparciu o wiedzę merytoryczną, aby skrócić całkowity czas działania. Na razie zachowaj wszystkie sugestie Autopilota, które możesz wymienić w następujący sposób:

automl_interactive_runner.display_candidates()

imię kandydata Algorytm Transformator funkcji
dpp0-xgboost xgboost dpp0.py
dpp1-xgboost xgboost dpp1.py
dpp2-linear-uczeń liniowy-uczeń dpp2.py
dpp3-xgboost xgboost dpp3.py
dpp4-xgboost xgboost dpp4.py
dpp5-xgboost xgboost dpp5.py
dpp6-mlp mlp dpp6.py

Pełny eksperyment Autopilot składa się z dwóch części. Najpierw musisz uruchomić zadania transformacji danych:

automl_interactive_runner.fit_data_transformers(parallel_jobs=7)

Ten krok powinien zakończyć się w około 30 minut dla wszystkich kandydatów, jeśli nie wprowadzisz dalszych zmian w dpp*.py akta.

Następnym krokiem jest zbudowanie najlepszego zestawu modeli poprzez dostrojenie hiperparametrów do odpowiednich algorytmów. Hiperparametry są zwykle podzielone na dwie części: statyczną i przestrajalną. Hiperparametry statyczne pozostają niezmienione przez cały eksperyment dla wszystkich kandydatów korzystających z tego samego algorytmu. Te hiperparametry są przekazywane do eksperymentu jako słownik. Jeśli zdecydujesz się wybrać najlepszy model XGBoost, maksymalizując AUC z trzech rund pięciokrotnego schematu walidacji krzyżowej, słownik wygląda następująco:

{ 'objective': 'binary:logistic', 'eval_metric': 'auc', '_kfold': 5, '_num_cv_round': 3,
} 

Dla przestrajalnych hiperparametrów musisz przekazać inny słownik z zakresami i typem skalowania:

{ 'num_round': IntegerParameter(64, 1024, scaling_type='Logarithmic'), 'max_depth': IntegerParameter(2, 8, scaling_type='Logarithmic'), 'eta': ContinuousParameter(1e-3, 1.0, scaling_type='Logarithmic'),
... }

Kompletny zestaw hiperparametrów jest dostępny w mangrove-2013.ipynb notatnik.

Aby stworzyć eksperyment, w którym wszystkich siedmiu kandydatów można przetestować równolegle, utwórz wieloalgorytmowy tuner HPO:

multi_algo_tuning_parameters = automl_interactive_runner.prepare_multi_algo_parameters( objective_metrics=ALGORITHM_OBJECTIVE_METRICS, static_hyperparameters=STATIC_HYPERPARAMETERS, hyperparameters_search_ranges=ALGORITHM_TUNABLE_HYPERPARAMETER_RANGES)

Miary celu są definiowane niezależnie dla każdego algorytmu:

ALGORITHM_OBJECTIVE_METRICS = { 'xgboost': 'validation:auc', 'linear-learner': 'validation:roc_auc_score', 'mlp': 'validation:roc_auc',
}

Próbowanie wszystkich możliwych wartości hiperparametrów we wszystkich eksperymentach jest marnotrawstwem; możesz przyjąć strategię bayesowską, aby stworzyć tuner HPO:

multi_algo_tuning_inputs = automl_interactive_runner.prepare_multi_algo_inputs()
ase_tuning_job_name = "{}-tuning".format(AUTOML_LOCAL_RUN_CONFIG.local_automl_job_name) tuner = HyperparameterTuner.create( base_tuning_job_name=base_tuning_job_name, strategy='Bayesian', objective_type='Maximize', max_parallel_jobs=10, max_jobs=50, **multi_algo_tuning_parameters,
)

W ustawieniach domyślnych Autopilot wybiera w tunerze 250 zadań, aby wybrać najlepszy model. W tym przypadku wystarczy ustawić max_jobs=50 aby zaoszczędzić czas i zasoby, bez znaczącej kary w zakresie doboru najlepszego zestawu hiperparametrów. Na koniec prześlij zadanie HPO w następujący sposób:

tuner.fit(inputs=multi_algo_tuning_inputs, include_cls_metadata=None)

Proces trwa około 80 minut na instancjach ml.m5.4xlarge. Możesz monitorować postępy w konsoli SageMaker, wybierając Zadania dostrajania hiperparametrów dla Trening w okienku nawigacji.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Możesz zwizualizować szereg przydatnych informacji, w tym wydajność każdego kandydata, wybierając nazwę pracy w toku.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Na koniec porównaj wydajność modelu najlepszych kandydatów w następujący sposób:

from sagemaker.analytics import HyperparameterTuningJobAnalytics SAGEMAKER_SESSION = AUTOML_LOCAL_RUN_CONFIG.sagemaker_session
SAGEMAKER_ROLE = AUTOML_LOCAL_RUN_CONFIG.role tuner_analytics = HyperparameterTuningJobAnalytics( tuner.latest_tuning_job.name, sagemaker_session=SAGEMAKER_SESSION) df_tuning_job_analytics = tuner_analytics.dataframe() df_tuning_job_analytics.sort_values( by=['FinalObjectiveValue'], inplace=True, ascending=False if tuner.objective_type == "Maximize" else True) # select the columns to display and rename
select_columns = ["TrainingJobDefinitionName", "FinalObjectiveValue", "TrainingElapsedTimeSeconds"]
rename_columns = { "TrainingJobDefinitionName": "candidate", "FinalObjectiveValue": "AUC", "TrainingElapsedTimeSeconds": "run_time" } # Show top 5 model performances
df_tuning_job_analytics.rename(columns=rename_columns)[rename_columns.values()].set_index("candidate").head(5)

kandydat AUC czas_pracy (s)
dpp6-mlp 0.96008 2711.0
dpp4-xgboost 0.95236 385.0
dpp3-xgboost 0.95095 202.0
dpp4-xgboost 0.95069 458.0
dpp3-xgboost 0.95015 361.0

Najwydajniejszy model oparty na MLP, choć nieznacznie lepszy niż modele XGBoost z różnymi opcjami etapów przetwarzania danych, również zajmuje dużo więcej czasu na trenowanie. Ważne szczegóły dotyczące uczenia modelu MLP, w tym kombinację użytych hiperparametrów, można znaleźć w następujący sposób:

df_tuning_job_analytics.loc[df_tuning_job_analytics.TrainingJobName==best_training_job].T.dropna() 

Szkolenia JobName mangrove-2-notebook–211021-2016-012-500271c8
SzkolenieStatus pracy Zakończony
Końcowa wartość zamierzenia 0.96008
SzkolenieCzasRozpoczęcia 2021-10-21 20:22:55+00:00
SzkolenieCzasZakończenia 2021-10-21 21:08:06+00:00
Czas trwania szkoleniaSekundy 2711
SzkolenieJobDefinicjaNazwa dpp6-mlp
problem_porzucenia 0.415778
współczynnik_rozmiaru osadzania 0.849226
nioski 256
wskaźnik_nauczenia 0.00013862
mini_wielkość_wsadu 317
typ sieci naprzód
spadek_wagi 1.29323e-12

Utwórz potok wnioskowania

Aby wygenerować wnioskowanie na nowych danych, musisz skonstruować potok wnioskowania w programie SageMaker, który będzie hostował najlepszy model, który można później wywołać w celu wygenerowania wnioskowania. Model potoku SageMaker wymaga trzech kontenerów jako składników: transformacji danych, algorytmu i odwróconej transformacji etykiety (jeśli prognozy liczbowe muszą być mapowane na etykiety nienumeryczne). Dla zwięzłości, tylko część wymaganego kodu jest pokazana w poniższym fragmencie; pełny kod jest dostępny w mangrove-2013.ipynb notatnik:

from sagemaker.estimator import Estimator
from sagemaker import PipelineModel
from sagemaker_automl import select_inference_output …
# Final pipeline model model_containers = [best_data_transformer_model, best_algo_model]
if best_candidate.transforms_label: model_containers.append(best_candidate.get_data_transformer_model( transform_mode="inverse-label-transform", role=SAGEMAKER_ROLE, sagemaker_session=SAGEMAKER_SESSION)) # select the output type
model_containers = select_inference_output("BinaryClassification", model_containers, output_keys=['predicted_label'])

Po skompilowaniu kontenerów modelu możesz skonstruować i wdrożyć potok w następujący sposób:

from sagemaker import PipelineModel pipeline_model = PipelineModel( name=f"mangrove-automl-2013", role=SAGEMAKER_ROLE, models=model_containers, vpc_config=AUTOML_LOCAL_RUN_CONFIG.vpc_config) pipeline_model.deploy(initial_instance_count=1, instance_type='ml.m5.2xlarge', endpoint_name=pipeline_model.name, wait=True)

Wdrożenie punktu końcowego zajmuje około 10 minut.

Uzyskaj wnioskowanie na temat testowego zbioru danych za pomocą punktu końcowego

Po wdrożeniu punktu końcowego można go wywołać z ładunkiem funkcji B1–B7, aby sklasyfikować każdy piksel na obrazie jako namorzyn (1) lub inny (0):

import boto3
sm_runtime = boto3.client('runtime.sagemaker') pred_labels = []
with open(local_download, 'r') as f: for i, row in enumerate(f): payload = row.rstrip('n') x = sm_runtime.invoke_endpoint(EndpointName=inf_endpt, ContentType="text/csv", Body=payload) pred_labels.append(int(x['Body'].read().decode().strip()))

Pełne informacje na temat przetwarzania końcowego prognoz modelu do oceny i wykreślania są dostępne w notebooks/model_performance.ipynb.

Uzyskaj wnioskowanie o testowym zbiorze danych za pomocą transformacji wsadowej

Po utworzeniu najlepszego modelu za pomocą Autopilota możemy użyć modelu do wnioskowania. Aby uzyskać wnioskowanie na temat dużych zestawów danych, bardziej wydajne jest użycie przekształcenia wsadowego. Wygenerujmy predykcje na całym zbiorze danych (uczenie i test) i dołączmy wyniki do cech, abyśmy mogli przeprowadzić dalszą analizę, aby na przykład sprawdzić przewidywane vs rzeczywiste i rozkład cech wśród przewidywanych klas.

Najpierw tworzymy plik manifestu w Amazon S3, który wskazuje lokalizacje danych treningowych i testowych z poprzednich etapów przetwarzania danych:

import boto3
data_bucket = <Name of the S3 bucket that has the training data>
prefix = "LANDSAT_LC08_C01_T1_SR/Year2013"
manifest = "[{{"prefix": "s3://{}/{}/"}},n"train.csv",n"test.csv"n]".format(data_bucket, prefix)
s3_client = boto3.client('s3')
s3_client.put_object(Body=manifest, Bucket=data_bucket, Key=f"{prefix}/data.manifest")

Teraz możemy utworzyć zadanie transformacji wsadowej. Ponieważ nasz pociąg wejściowy i zestaw danych testowych mają label jako ostatnią kolumnę musimy ją usunąć podczas wnioskowania. Aby to zrobić, mijamy InputFilter DataProcessing argument. Kod "$[:-2]" wskazuje opuszczenie ostatniej kolumny. Przewidywane dane wyjściowe są następnie łączone z danymi źródłowymi do dalszej analizy.

W poniższym kodzie konstruujemy argumenty dla zadania transformacji wsadowej, a następnie przekazujemy do create_transform_job funkcjonować:

from time import gmtime, strftime batch_job_name = "Batch-Transform-" + strftime("%Y-%m-%d-%H-%M-%S", gmtime())
output_location = "s3://{}/{}/batch_output/{}".format(data_bucket, prefix, batch_job_name)
input_location = "s3://{}/{}/data.manifest".format(data_bucket, prefix) request = { "TransformJobName": batch_job_name, "ModelName": pipeline_model.name, "TransformOutput": { "S3OutputPath": output_location, "Accept": "text/csv", "AssembleWith": "Line", }, "TransformInput": { "DataSource": {"S3DataSource": {"S3DataType": "ManifestFile", "S3Uri": input_location}}, "ContentType": "text/csv", "SplitType": "Line", "CompressionType": "None", }, "TransformResources": {"InstanceType": "ml.m4.xlarge", "InstanceCount": 1}, "DataProcessing": {"InputFilter": "$[:-2]", "JoinSource": "Input"}
} sagemaker = boto3.client("sagemaker")
sagemaker.create_transform_job(**request)
print("Created Transform job with name: ", batch_job_name)

Możesz monitorować status zadania w konsoli SageMaker.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Wizualizuj wydajność modelu

Możesz teraz zwizualizować wydajność najlepszego modelu w testowym zestawie danych, składającym się z regionów z Indii, Birmy, Kuby i Wietnamu jako macierz pomyłek. Model ma wysoką wartość przywracania pikseli reprezentujących namorzyny, ale precyzję tylko około 75%. Dokładność pikseli innych niż namorzynowe lub innych wynosi 99%, a przypomnienie 85%. Możesz dostroić granicę prawdopodobieństwa prognoz modelu, aby dostosować odpowiednie wartości w zależności od konkretnego przypadku użycia.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Warto zauważyć, że wyniki są znaczną poprawą w stosunku do wbudowanego modelu smileCart.

Wizualizuj prognozy modelu

Na koniec warto obserwować wydajność modelu w określonych regionach na mapie. Na poniższym obrazku obszar namorzynowy na granicy Indii i Bangladeszu jest zaznaczony na czerwono. Punkty pobrane z płata obrazu Landsat należące do zestawu danych testowych nakładają się na region, w którym każdy punkt jest pikselem, który model określa jako reprezentujący namorzyny. Niebieskie punkty są poprawnie klasyfikowane przez model, podczas gdy czarne punkty reprezentują błędy modelu.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Poniższy obraz przedstawia tylko te punkty, które według przewidywań modelu nie reprezentują namorzynów, z tym samym schematem kolorów, co w poprzednim przykładzie. Szary kontur to część łaty Landsata, która nie zawiera żadnych namorzynów. Jak widać na obrazku, model nie popełnia żadnego błędu przy klasyfikowaniu punktów na wodzie, ale ma trudności z odróżnieniem pikseli reprezentujących namorzyny od tych reprezentujących zwykłe liście.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Poniższy rysunek przedstawia wydajność modelu w regionie namorzynów Myanmar.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Na poniższym obrazku model lepiej radzi sobie z identyfikacją pikseli mangrowych.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Sprzątać

Punkt końcowy wnioskowania SageMaker nadal generuje koszty, jeśli pozostanie uruchomiony. Po zakończeniu usuń punkt końcowy w następujący sposób:

sagemaker.delete_endpoint(EndpointName=pipeline_model.name)

Wnioski

Ta seria postów zapewniła kompleksowe ramy dla naukowców zajmujących się danymi do rozwiązywania problemów GIS. Część 1 pokazał proces ETL i wygodny sposób wizualnej interakcji z danymi. Część 2 pokazała, jak używać Autopilota do automatyzacji budowania niestandardowego klasyfikatora namorzynowego.

Możesz użyć tej struktury do eksploracji nowych zestawów danych satelitarnych zawierających bogatszy zestaw pasm przydatnych do klasyfikacji namorzynów i eksploracji inżynierii cech poprzez włączenie wiedzy dziedzinowej.


O autorach

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI. Andriej Iwanowicz jest studentem studiów magisterskich na kierunku Informatyka na Uniwersytecie w Toronto i niedawnym absolwentem programu Inżynierii Nauki na Uniwersytecie w Toronto, na kierunku Inteligencja Maszynowa ze specjalizacją Robotyka/Mechatronika. Interesuje się widzeniem komputerowym, głębokim uczeniem i robotyką. Prace przedstawione w tym poście wykonał podczas letniego stażu w Amazon.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Dawid Dong jest analitykiem danych w Amazon Web Services.

Identyfikuj lasy namorzynowe za pomocą funkcji zdjęć satelitarnych przy użyciu Amazon SageMaker Studio i Amazon SageMaker Autopilot – część 2 PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Arkayoti Misra jest analitykiem danych w Amazon LastMile Transportation. Jest pasjonatem stosowania technik widzenia komputerowego do rozwiązywania problemów, które pomagają Ziemi. Uwielbia pracować z organizacjami non-profit i jest członkiem-założycielem ekipi.org.

Znak czasu:

Więcej z Uczenie maszynowe AWS