Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Amazon SageMaker Autopilot ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin

Amazon SageMaker Otomatik Pilot kuruluşların yalnızca birkaç satır kod veya hatta bir uçtan uca makine öğrenimi (ML) modeli ve çıkarım hattı oluşturmasını ve dağıtmasını mümkün kılar. herhangi bir kod olmadan ile hiç Amazon SageMaker Stüdyosu. Otopilot, özellik mühendisliği, model seçimi ve hiperparametre ayarlama dahil olmak üzere, yapılandırma altyapısının ağır yükünü ve tüm boru hattını oluşturmak için gereken süreyi ortadan kaldırır.

Bu gönderide, Autopilot ile ham verilerden sağlam ve tam olarak dağıtılmış bir çıkarım hattına nasıl geçileceğini gösteriyoruz.

Çözüme genel bakış

Biz kullanmak Lyft'in bisiklet paylaşımına ilişkin halka açık veri seti Bu simülasyon için bir kullanıcının katılıp katılmadığını tahmin etmek için Herkes İçin Bisiklet Paylaşımı programı. Bu basit bir ikili sınıflandırma problemidir.

Kullanıcıları Herkes için Bisiklet Paylaşımı programına katılımlarına göre sınıflandırmak için otomatik ve gerçek zamanlı bir çıkarım hattı oluşturmanın ne kadar kolay olduğunu göstermek istiyoruz. Bu amaçla, San Francisco Körfez Bölgesi'nde faaliyet gösteren hayali bir bisiklet paylaşım şirketi için uçtan uca bir veri alımı ve çıkarım hattını simüle ediyoruz.

Mimari iki bölüme ayrılmıştır: alım hattı ve çıkarım hattı.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Bu gönderinin ilk bölümünde öncelikle makine öğrenimi ardışık düzenine odaklanıyoruz ve ikinci bölümde veri alma ardışık düzenini gözden geçiriyoruz.

Önkoşullar

Bu örnekle birlikte takip etmek için aşağıdaki ön koşulları tamamlayın:

  1. Yeni bir SageMaker not defteri örneği oluşturun.
  2. Bir oluşturma Amazon Kinesis Veri İtfaiyesi ile teslimat akışı AWS Lambda dönüştürme işlevi. Talimatlar için bkz. AWS Lambda ile Amazon Kinesis Firehose Veri Dönüşümü. Bu adım isteğe bağlıdır ve yalnızca veri akışını simüle etmek için gereklidir.

Veri keşfi

Herkese açık bir yerde bulunan veri setini indirip görselleştirelim. Amazon Basit Depolama Hizmeti (Amazon S3) kovası ve statik web sitesi:

# The dataset is located in a public bucket and static s3 website.
# https://www.lyft.com/bikes/bay-wheels/system-data import pandas as pd
import numpy as np
import os
from time import sleep !wget -q -O '201907-baywheels-tripdata.zip' https://s3.amazonaws.com/baywheels-data/201907-baywheels-tripdata.csv.zip
!unzip -q -o 201907-baywheels-tripdata.zip
csv_file = os.listdir('.')
data = pd.read_csv('201907-baywheels-tripdata.csv', low_memory=False)
data.head()

Aşağıdaki ekran görüntüsü, dönüştürmeden önce verilerin bir alt kümesini gösterir.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Verilerin son sütunu, Evet veya Hayır değerini alan ve kullanıcının Herkes için Bisiklet Paylaşımı programına katılıp katılmadığını gösteren ikili bir değişken olan tahmin etmek istediğimiz hedefi içerir.

Herhangi bir veri dengesizliği için hedef değişkenimizin dağılımına bir göz atalım.

# For plotting
%matplotlib inline
import matplotlib.pyplot as plt
#!pip install seaborn # If you need this library
import seaborn as sns
display(sns.countplot(x='bike_share_for_all_trip', data=data))

Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Yukarıdaki grafikte gösterildiği gibi, programa daha az kişinin katılmasıyla veriler dengesizdir.

Aşırı temsil önyargısını önlemek için verileri dengelememiz gerekiyor. Bu adım isteğe bağlıdır, çünkü Autopilot ayrıca sınıf dengesizliğini otomatik olarak ele almak için dahili bir yaklaşım sunar; bu, varsayılan olarak bir F1 puanı doğrulama metriğidir. Ek olarak, verileri kendiniz dengelemeyi seçerseniz, sınıf dengesizliğini ele almak için aşağıdaki gibi daha gelişmiş teknikleri kullanabilirsiniz. cezalandırdı or GAN.

Bu gönderi için, bir veri dengeleme tekniği olarak çoğunluk sınıfının (Hayır) örneğini aşağıya alıyoruz:

Aşağıdaki kod, verileri zenginleştirir ve aşırı temsil edilen sınıfın altında örneklenir:

df = data.copy()
df.drop(columns=['rental_access_method'], inplace=True) df['start_time'] = pd.to_datetime(df['start_time'])
df['start_time'] = pd.to_datetime(df['end_time']) # Adding some day breakdown
df = df.assign(day_of_week=df.start_time.dt.dayofweek, hour_of_day=df.start_time.dt.hour, trip_month=df.start_time.dt.month)
# Breaking the day in 4 parts: ['morning', 'afternoon', 'evening']
conditions = [ (df['hour_of_day'] >= 5) & (df['hour_of_day'] < 12), (df['hour_of_day'] >= 12) & (df['hour_of_day'] < 18), (df['hour_of_day'] >= 18) & (df['hour_of_day'] < 21),
]
choices = ['morning', 'afternoon', 'evening']
df['part_of_day'] = np.select(conditions, choices, default='night')
df.dropna(inplace=True) # Downsampling the majority to rebalance the data
# We are getting about an even distribution
df.sort_values(by='bike_share_for_all_trip', inplace=True)
slice_pointe = int(df['bike_share_for_all_trip'].value_counts()['Yes'] * 2.1)
df = df[-slice_pointe:]
# The data is balanced now. Let's reshuffle the data
df = df.sample(frac=1).reset_index(drop=True)

İkili hedef değerimiz de dahil olmak üzere kategorik özelliklerimizi kasıtlı olarak kodlanmamış bıraktık. Bunun nedeni, bir sonraki bölümde göreceğimiz gibi, Autopilot'un otomatik özellik mühendisliği ve ardışık düzen dağıtımının bir parçası olarak verileri bizim için kodlamayı ve kodunu çözmeyi üstlenmesidir.

Aşağıdaki ekran görüntüsü verilerimizin bir örneğini göstermektedir.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Aşağıdaki grafiklerdeki veriler, beklediğiniz gibi sabah saatleri ve öğleden sonra yoğun saatler için iki zirveyi temsil eden iki modlu bir dağılımla normal görünüyor. Ayrıca hafta sonları ve geceleri düşük aktivite gözlemliyoruz.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Bir sonraki bölümde, verileri bizim için bir deneme çalıştırabilmesi için Autopilot'a besliyoruz.

İkili bir sınıflandırma modeli oluşturun

Otomatik pilot, giriş ve çıkış hedef gruplarını belirtmemizi gerektirir. Verileri yüklemek için giriş kovasını ve özellik mühendisliği ve oluşturulan Jupyter not defterleri gibi yapıları kaydetmek için çıktı kovasını kullanır. Eğitim tamamlandıktan sonra modelin performansını değerlendirmek ve doğrulamak için veri kümesinin %5'ini saklarız ve veri kümesinin %95'ini S3 giriş grubuna yükleriz. Aşağıdaki koda bakın:

import sagemaker
import boto3 # Let's define our storage.
# We will use the default sagemaker bucket and will enforce encryption bucket = sagemaker.Session().default_bucket() # SageMaker default bucket. #Encrypting the bucket
s3 = boto3.client('s3')
SSEConfig={ 'Rules': [ { 'ApplyServerSideEncryptionByDefault': { 'SSEAlgorithm': 'AES256', } }, ] }
s3.put_bucket_encryption(Bucket=bucket, ServerSideEncryptionConfiguration=SSEConfig) prefix = 'sagemaker-automl01' # prefix for ther bucket
role = sagemaker.get_execution_role() # IAM role object to use by SageMaker
sagemaker_session = sagemaker.Session() # Sagemaker API
region = sagemaker_session.boto_region_name # AWS Region # Where we will load our data input_path = "s3://{}/{}/automl_bike_train_share-1".format(bucket, prefix) output_path = "s3://{}/{}/automl_bike_output_share-1".format(bucket, prefix) # Spliting data in train/test set.
# We will use 95% of the data for training and the remainder for testing.
slice_point = int(df.shape[0] * 0.95) training_set = df[:slice_point] # 95%
testing_set = df[slice_point:] # 5% # Just making sure we have split it correctly
assert training_set.shape[0] + testing_set.shape[0] == df.shape[0] # Let's save the data locally and upload it to our s3 data location
training_set.to_csv('bike_train.csv')
testing_set.to_csv('bike_test.csv', header=False) # Uploading file the trasining set to the input bucket
sagemaker.s3.S3Uploader.upload(local_path='bike_train.csv', desired_s3_uri=input_path)

Verileri giriş hedefine yükledikten sonra, Otomatik Pilotu başlatma zamanı:

from sagemaker.automl.automl import AutoML
# You give your job a name and provide the s3 path where you uploaded the data
bike_automl_binary = AutoML(role=role, target_attribute_name='bike_share_for_all_trip', output_path=output_path, max_candidates=30)
# Starting the training bike_automl_binary.fit(inputs=input_path, wait=False, logs=False)

Denemeye başlamak için tek ihtiyacımız olan fit() yöntemini çağırmak. Otopilot, gerekli parametreler olarak giriş ve çıkış S3 konumuna ve hedef öznitelik sütununa ihtiyaç duyar. Özellik işlemeden sonra, Otopilot çağrıları SageMaker otomatik model ayarı veri kümenizde birçok eğitim işi çalıştırarak bir modelin en iyi sürümünü bulmak için. En iyi modeli bulmak için Autopilot'un farklı algoritma ve hiperparametre kombinasyonlarıyla başlattığı eğitim işi sayısı olan aday sayısını 30 ile sınırlamak için isteğe bağlı max_candidates parametresini ekledik. Bu parametreyi belirtmezseniz, varsayılan olarak 250 olur.

Autopilot'un ilerlemesini aşağıdaki kod ile gözlemleyebiliriz:

# Let's monitor the progress this will take a while. Go grup some coffe.
from time import sleep def check_job_status(): return bike_automl_binary.describe_auto_ml_job()['AutoMLJobStatus'] def discribe(): return bike_automl_binary.describe_auto_ml_job() while True: print (check_job_status(), discribe()['AutoMLJobSecondaryStatus'], end='** ') if check_job_status() in ["Completed", "Failed"]: if "Failed" in check_job_status(): print(discribe()['FailureReason']) break sleep(20)

Eğitimin tamamlanması biraz zaman alır. Çalışırken, Autopilot iş akışına bakalım.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

En iyi adayı bulmak için aşağıdaki kodu kullanın:

# Let's take a look at the best candidate selected by AutoPilot
from IPython.display import JSON
def jsonView(obj, rootName=None): return JSON(obj, root=rootName, expanded=True) bestCandidate = bike_automl_binary.describe_auto_ml_job()['BestCandidate']
display(jsonView(bestCandidate['FinalAutoMLJobObjectiveMetric'], 'FinalAutoMLJobObjectiveMetric'))

Aşağıdaki ekran görüntüsü çıktımızı göstermektedir.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Modelimiz %96'lık bir doğrulama doğruluğu elde etti, bu yüzden onu dağıtacağız. Modeli yalnızca doğruluk belirli bir seviyenin üzerindeyse kullanmamız için bir koşul ekleyebiliriz.

çıkarım ardışık düzeni

Modelimizi dağıtmadan önce, en iyi adayımızı ve boru hattımızda neler olduğunu inceleyelim. Aşağıdaki koda bakın:

display(jsonView(bestCandidate['InferenceContainers'], 'InferenceContainers'))

Aşağıdaki şema çıktımızı göstermektedir.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Autopilot modeli oluşturdu ve her biri sırayla belirli bir görevi yürüten üç farklı kapsayıcıda paketledi: dönüştürme, tahmin etme ve tersine dönüştürme. Bu çok adımlı çıkarım, bir SageMaker çıkarım boru hattı.

Çok adımlı bir çıkarım, birden çok çıkarım modelini de zincirleyebilir. Örneğin, bir kapsayıcı gerçekleştirebilir ana bileşen analizi verileri XGBoost kapsayıcısına geçirmeden önce.

Çıkarım işlem hattını bir uç noktaya dağıtın

Dağıtım işlemi yalnızca birkaç kod satırı içerir:

# We chose to difine an endpoint name.
from datetime import datetime as dt
today = str(dt.today())[:10]
endpoint_name='binary-bike-share-' + today
endpoint = bike_automl_binary.deploy(initial_instance_count=1, instance_type='ml.m5.xlarge', endpoint_name=endpoint_name, candidate=bestCandidate, wait=True)

Bir tahminci ile tahmin için uç noktamızı yapılandıralım:

from sagemaker.serializers import CSVSerializer
from sagemaker.deserializers import CSVDeserializer
csv_serializer = CSVSerializer()
csv_deserializer = CSVDeserializer()
# Initialize the predictor
predictor = sagemaker.predictor.Predictor(endpoint_name=endpoint_name, sagemaker_session=sagemaker.Session(), serializer=csv_serializer, deserializer=csv_deserializer )

Artık uç noktamız ve tahmincimiz hazır olduğuna göre, bir kenara ayırdığımız test verilerini kullanma ve modelimizin doğruluğunu test etme zamanı. Verileri çıkarım uç noktamıza her seferinde bir satır gönderen ve karşılığında bir tahmin alan bir yardımcı fonksiyon tanımlayarak başlıyoruz. Çünkü bizde bir XGBoost modelinde, CSV satırını uç noktaya göndermeden önce hedef değişkeni bırakıyoruz. Ek olarak, SageMaker'da XGBoost için başka bir gereklilik olan dosyada döngü oluşturmadan önce başlığı test CSV'sinden kaldırdık. Aşağıdaki koda bakın:

# The fuction takes 3 arguments: the file containing the test set,
# The predictor and finaly the number of lines to send for prediction.
# The function returns two Series: inferred and Actual.
def get_inference(file, predictor, n=1): infered = [] actual = [] with open(file, 'r') as csv: for i in range(n): line = csv.readline().split(',') #print(line) try: # Here we remove the target variable from the csv line before predicting observed = line.pop(14).strip('n') actual.append(observed) except: pass obj = ','.join(line) predicted = predictor.predict(obj)[0][0] infered.append(predicted) pd.Series(infered) data = {'Infered': pd.Series(infered), 'Observed': pd.Series(actual)} return pd.DataFrame(data=data) n = testing_set.shape[0] # The size of the testing data
inference_df = get_inference('bike_test.csv', predictor, n) inference_df['Binary_Result'] = (inference_df['Observed'] == inference_df['Infered'])
display(inference_df.head())

Aşağıdaki ekran görüntüsü çıktımızı göstermektedir.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Şimdi modelimizin doğruluğunu hesaplayalım.
Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.

Aşağıdaki koda bakın:

count_binary = inference_df['Binary_Result'].value_counts()
accuracy = count_binary[True]/n
print('Accuracy:', accuracy)

%92 doğruluk elde ediyoruz. Bu, doğrulama adımı sırasında elde edilen %96'dan biraz daha düşüktür, ancak yine de yeterince yüksektir. Test yeni bir veri seti ile yapıldığı için doğruluğun tam olarak aynı olmasını beklemiyoruz.

Veri alımı

Verileri doğrudan indirdik ve eğitim için yapılandırdık. Gerçek hayatta, verileri doğrudan uç cihazdan veri gölüne göndermeniz ve SageMaker'ın veri gölünden doğrudan not defterine yüklemesini sağlamanız gerekebilir.

Kinesis Data Firehose, akış verilerini veri göllerine, veri depolarına ve analiz araçlarına güvenilir bir şekilde yüklemenin iyi bir seçeneği ve en basit yoludur. Akış verilerini yakalayabilir, dönüştürebilir ve Amazon S3 ve diğer AWS veri depolarına yükleyebilir.

Kullanım durumumuz için, akıştan geçerken bazı hafif veri temizliği yapmak için Lambda dönüştürme işlevine sahip bir Kinesis Data Firehose teslim akışı oluşturuyoruz. Aşağıdaki koda bakın:

# Data processing libraries
import pandas as pd # Data processing
import numpy as np
import base64
from io import StringIO def lambda_handler(event, context): output = [] print('Received', len(event['records']), 'Records') for record in event['records']: payload = base64.b64decode(record['data']).decode('utf-8') df = pd.read_csv(StringIO(payload), index_col=0) df.drop(columns=['rental_access_method'], inplace=True) df['start_time'] = pd.to_datetime(df['start_time']) df['start_time'] = pd.to_datetime(df['end_time']) # Adding some day breakdown df = df.assign(day_of_week=df.start_time.dt.dayofweek, hour_of_day=df.start_time.dt.hour, trip_month=df.start_time.dt.month) # Breaking the day in 4 parts: ['morning', 'afternoon', 'evening'] conditions = [ (df['hour_of_day'] >= 5) & (df['hour_of_day'] < 12), (df['hour_of_day'] >= 12) & (df['hour_of_day'] < 18), (df['hour_of_day'] >= 18) & (df['hour_of_day'] < 21), ] choices = ['morning', 'afternoon', 'evening'] df['part_of_day'] = np.select(conditions, choices, default='night') df.dropna(inplace=True) # Downsampling the majority to rebalance the data # We are getting about an even distribution df.sort_values(by='bike_share_for_all_trip', inplace=True) slice_pointe = int(df['bike_share_for_all_trip'].value_counts()['Yes'] * 2.1) df = df[-slice_pointe:] # The data is balanced now. Let's reshuffle the data df = df.sample(frac=1).reset_index(drop=True) data = base64.b64encode(bytes(df.to_csv(), 'utf-8')).decode("utf-8") output_record = { 'recordId': record['recordId'], 'result': 'Ok', 'data': data } output.append(output_record) print('Returned', len(output), 'Records') print('Event', event) return {'records': output}

Bu Lambda işlevi, cihazlardan veri gölüne aktarılan verilerin hafif dönüşümünü gerçekleştirir. CSV formatlı bir veri dosyası bekler.

Alım adımı için, verileri indirir ve bir Lambda dönüştürme işleviyle Kinesis Data Firehose'a ve S3 veri gölümüze bir veri akışını simüle ederiz.

Birkaç satırın akışını simüle edelim:

# Saving the data in one file.
file = '201907-baywheels-tripdata.csv' data.to_csv(file) # Stream the data 'n' lines at a time.
# Only run this for a minute and stop the cell
def streamer(file, n): with open(file, 'r') as csvfile: header = next(csvfile) data = header counter = 0 loop = True while loop == True: for i in range(n): line = csvfile.readline() data+=line # We reached the end of the csv file. if line == '': loop = False counter+=n # Use your kinesis streaming name stream = client.put_record(DeliveryStreamName='firehose12-DeliveryStream-OJYW71BPYHF2', Record={"Data": bytes(data, 'utf-8')}) data = header print( file, 'HTTPStatusCode: '+ str(stream['ResponseMetadata']['HTTPStatusCode']), 'csv_lines_sent: ' + str(counter), end=' -*- ') sleep(random.randrange(1, 3)) return
# Streaming for 500 lines at a time. You can change this number up and down.
streamer(file, 500) # We can now load our data as a DataFrame because it’s streamed into the S3 data lake:
# Getting data from s3 location where it was streamed.
STREAMED_DATA = 's3://firehose12-deliverybucket-11z0ya3patrod/firehose/2020'
csv_uri = sagemaker.s3.S3Downloader.list(STREAMED_DATA)
in_memory_string = [sagemaker.s3.S3Downloader.read_file(file) for file in csv_uri]
in_memory_csv = [pd.read_csv(StringIO(file), index_col=0) for file in in_memory_string]
display(df.tail())

Temizlemek

Maliyeti en aza indirmek için bu alıştırmada kullanılan tüm kaynakları silmek önemlidir. Aşağıdaki kod, oluşturduğumuz SageMaker çıkarım uç noktasını ve yüklediğimiz eğitim ve test verilerini siler:

#Delete the s3 data
predictor.delete_endpoint() # Delete s3 data
s3 = boto3.resource('s3')
ml_bucket = sagemaker.Session().default_bucket()
delete_data = s3.Bucket(ml_bucket).objects.filter(Prefix=prefix).delete()

Sonuç

ML mühendisleri, veri bilimcileri ve yazılım geliştiricileri, çok az veya hiç ML programlama deneyimi olmadan bir çıkarım hattı oluşturmak ve dağıtmak için Autopilot'u kullanabilir. Otomatik pilot, veri bilimi ve en iyi makine öğrenimi uygulamalarını kullanarak zamandan ve kaynaklardan tasarruf sağlar. Büyük kuruluşlar artık mühendislik kaynaklarını altyapı yapılandırmasından model geliştirmeye ve iş kullanım durumlarını çözmeye kaydırabilir. Başlangıçlar ve daha küçük kuruluşlar, makine öğrenimi konusunda çok az veya hiç ML uzmanlığı olmadan başlayabilir.

SageMaker Autopilot'u kullanmaya başlamak için bkz. Ürün sayfası veya SageMaker Studio içinden SageMaker Autopilot'a erişin.

Ayrıca SageMaker'ın sunduğu diğer önemli özellikler hakkında daha fazla bilgi edinmenizi öneririz. Amazon SageMaker Özellik Mağazasıile entegre olan Amazon SageMaker Ardışık Düzenleri oluşturmak, özellik arama ve keşif eklemek ve otomatik makine öğrenimi iş akışlarını yeniden kullanmak için. Veri kümenizde farklı özellik veya hedef değişkenlere sahip birden fazla Otopilot simülasyonu çalıştırabilirsiniz. Buna, modelinizin zamana (günün saati veya haftanın günü gibi) veya konuma veya her ikisinin birleşimine dayalı olarak araç talebini tahmin etmeye çalıştığı dinamik bir araç tahsis sorunu olarak da yaklaşabilirsiniz.


Yazarlar Hakkında

Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.Doug Mbaya veri ve analitik odaklı bir Kıdemli Çözüm mimarıdır. Doug, AWS iş ortaklarıyla yakın bir şekilde çalışarak bulutta veri ve analitik çözümlerini entegre etmelerine yardımcı olur. Doug'ın önceki deneyimi, araç paylaşımı ve yemek dağıtımı segmentinde AWS müşterilerini desteklemeyi içerir.

Amazon SageMaker Autopilot PlatoBlockchain Veri Zekası ile paylaşılan bir bisiklet ve scooter sınıflandırma modelini otomatikleştirin. Dikey Arama. Ai.Valerio Perrone Amazon SageMaker Otomatik Model Ayarlama ve Otomatik Pilot üzerinde çalışan bir Uygulamalı Bilim Yöneticisidir.

Zaman Damgası:

Den fazla AWS Makine Öğrenimi