یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

با آمازون SageMaker Autopilot یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را خودکار کنید

Amazon SageMaker Autopilot این امکان را برای سازمان‌ها فراهم می‌کند که به سرعت یک مدل یادگیری ماشینی (ML) و خط لوله استنتاج را تنها با چند خط کد یا حتی به‌سرعت بسازند. بدون هیچ کد اصلا با Amazon SageMaker Studio. اتوپایلوت سنگینی زیرساخت های پیکربندی و زمان لازم برای ساخت یک خط لوله کامل، از جمله مهندسی ویژگی، انتخاب مدل، و تنظیم هایپرپارامتر را تخلیه می کند.

در این پست، ما نشان می‌دهیم که چگونه با Autopilot از داده‌های خام به یک خط لوله استنتاج قوی و کاملا مستقر تبدیل شویم.

بررسی اجمالی راه حل

استفاده می کنیم مجموعه داده عمومی Lyft در مورد اشتراک دوچرخه برای این شبیه سازی برای پیش بینی اینکه آیا یک کاربر در آن شرکت می کند یا نه برنامه اشتراک دوچرخه برای همه. این یک مشکل طبقه بندی باینری ساده است.

ما می خواهیم نشان دهیم که ساخت یک خط لوله استنتاج خودکار و در زمان واقعی برای طبقه بندی کاربران بر اساس مشارکت آنها در برنامه Bike Share for All چقدر آسان است. برای این منظور، ما یک خط لوله انتقال داده و استنتاج سرتاسر را برای یک شرکت خیالی اشتراک دوچرخه که در منطقه خلیج سانفرانسیسکو فعالیت می‌کند، شبیه‌سازی می‌کنیم.

معماری به دو بخش تقسیم می شود: خط لوله جذب و خط لوله استنتاج.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

ما عمدتاً بر روی خط لوله ML در بخش اول این پست تمرکز می کنیم و خط لوله انتقال داده ها را در قسمت دوم بررسی می کنیم.

پیش نیازها

برای دنبال کردن این مثال، پیش نیازهای زیر را تکمیل کنید:

  1. یک نمونه نوت بوک SageMaker جدید ایجاد کنید.
  2. ایجاد یک Amazon Kinesis Data Firehose جریان تحویل با یک AWS لامبدا تابع تبدیل برای دستورالعمل، نگاه کنید Amazon Kinesis Firehose Data Transformation با AWS Lambda. این مرحله اختیاری است و فقط برای شبیه سازی جریان داده مورد نیاز است.

اکتشاف داده ها

بیایید مجموعه داده را که در یک عمومی قرار دارد دانلود و تجسم کنیم سرویس ذخیره سازی ساده آمازون وب سایت سطل و استاتیک (Amazon S3):

# The dataset is located in a public bucket and static s3 website.
# https://www.lyft.com/bikes/bay-wheels/system-data import pandas as pd
import numpy as np
import os
from time import sleep !wget -q -O '201907-baywheels-tripdata.zip' https://s3.amazonaws.com/baywheels-data/201907-baywheels-tripdata.csv.zip
!unzip -q -o 201907-baywheels-tripdata.zip
csv_file = os.listdir('.')
data = pd.read_csv('201907-baywheels-tripdata.csv', low_memory=False)
data.head()

تصویر زیر زیر مجموعه ای از داده ها را قبل از تبدیل نشان می دهد.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

آخرین ستون داده شامل هدفی است که می‌خواهیم پیش‌بینی کنیم، که یک متغیر باینری است که مقدار بله یا خیر را دریافت می‌کند و نشان می‌دهد که آیا کاربر در برنامه Bike Share برای همه شرکت می‌کند یا خیر.

بیایید نگاهی به توزیع متغیر هدف خود برای هرگونه عدم تعادل داده بیندازیم.

# For plotting
%matplotlib inline
import matplotlib.pyplot as plt
#!pip install seaborn # If you need this library
import seaborn as sns
display(sns.countplot(x='bike_share_for_all_trip', data=data))

یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

همانطور که در نمودار بالا نشان داده شده است، داده ها نامتعادل هستند و افراد کمتری در برنامه شرکت می کنند.

ما باید داده ها را متعادل کنیم تا از تعصب بیش از حد در بازنمایی جلوگیری کنیم. این مرحله اختیاری است زیرا Autopilot همچنین یک رویکرد داخلی برای کنترل عدم تعادل کلاس به طور خودکار ارائه می دهد که به طور پیش فرض یک معیار اعتبارسنجی امتیاز F1 را نشان می دهد. علاوه بر این، اگر خودتان تصمیم بگیرید که داده ها را متعادل کنید، می توانید از تکنیک های پیشرفته تری برای مدیریت عدم تعادل کلاس استفاده کنید، مانند SMOTE or گان.

برای این پست، کلاس اکثریت (خیر) را به عنوان تکنیک متعادل‌سازی داده‌ها پایین می‌آوریم:

کد زیر داده ها را غنی می کند و کلاسی که بیش از حد ارائه شده را نمونه برداری می کند:

df = data.copy()
df.drop(columns=['rental_access_method'], inplace=True) df['start_time'] = pd.to_datetime(df['start_time'])
df['start_time'] = pd.to_datetime(df['end_time']) # Adding some day breakdown
df = df.assign(day_of_week=df.start_time.dt.dayofweek, hour_of_day=df.start_time.dt.hour, trip_month=df.start_time.dt.month)
# Breaking the day in 4 parts: ['morning', 'afternoon', 'evening']
conditions = [ (df['hour_of_day'] >= 5) & (df['hour_of_day'] < 12), (df['hour_of_day'] >= 12) & (df['hour_of_day'] < 18), (df['hour_of_day'] >= 18) & (df['hour_of_day'] < 21),
]
choices = ['morning', 'afternoon', 'evening']
df['part_of_day'] = np.select(conditions, choices, default='night')
df.dropna(inplace=True) # Downsampling the majority to rebalance the data
# We are getting about an even distribution
df.sort_values(by='bike_share_for_all_trip', inplace=True)
slice_pointe = int(df['bike_share_for_all_trip'].value_counts()['Yes'] * 2.1)
df = df[-slice_pointe:]
# The data is balanced now. Let's reshuffle the data
df = df.sample(frac=1).reset_index(drop=True)

ما عمداً ویژگی‌های دسته‌بندی خود را رمزگذاری نکرده‌ایم، از جمله مقدار هدف باینری خود. این به این دلیل است که Autopilot از رمزگذاری و رمزگشایی داده ها برای ما به عنوان بخشی از مهندسی ویژگی های خودکار و استقرار خط لوله مراقبت می کند، همانطور که در بخش بعدی می بینیم.

تصویر زیر نمونه ای از داده های ما را نشان می دهد.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

داده‌های نمودارهای زیر در غیر این صورت طبیعی به نظر می‌رسند، با یک توزیع دووجهی که همان طور که انتظار دارید، دو اوج را برای ساعات صبح و ساعات شلوغی بعد از ظهر نشان می‌دهد. ما همچنین فعالیت های کم را در تعطیلات آخر هفته و در شب مشاهده می کنیم.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

در قسمت بعدی داده ها را به Autopilot می دهیم تا بتواند آزمایشی را برای ما اجرا کند.

یک مدل طبقه بندی باینری بسازید

Autopilot نیاز دارد که سطل مقصد ورودی و خروجی را مشخص کنیم. از سطل ورودی برای بارگذاری داده ها و سطل خروجی برای ذخیره مصنوعات، مانند مهندسی ویژگی ها و نوت بوک های Jupyter تولید شده استفاده می کند. ما 5٪ از مجموعه داده را برای ارزیابی و اعتبارسنجی عملکرد مدل پس از تکمیل آموزش حفظ می کنیم و 95٪ از مجموعه داده را در سطل ورودی S3 آپلود می کنیم. کد زیر را ببینید:

import sagemaker
import boto3 # Let's define our storage.
# We will use the default sagemaker bucket and will enforce encryption bucket = sagemaker.Session().default_bucket() # SageMaker default bucket. #Encrypting the bucket
s3 = boto3.client('s3')
SSEConfig={ 'Rules': [ { 'ApplyServerSideEncryptionByDefault': { 'SSEAlgorithm': 'AES256', } }, ] }
s3.put_bucket_encryption(Bucket=bucket, ServerSideEncryptionConfiguration=SSEConfig) prefix = 'sagemaker-automl01' # prefix for ther bucket
role = sagemaker.get_execution_role() # IAM role object to use by SageMaker
sagemaker_session = sagemaker.Session() # Sagemaker API
region = sagemaker_session.boto_region_name # AWS Region # Where we will load our data input_path = "s3://{}/{}/automl_bike_train_share-1".format(bucket, prefix) output_path = "s3://{}/{}/automl_bike_output_share-1".format(bucket, prefix) # Spliting data in train/test set.
# We will use 95% of the data for training and the remainder for testing.
slice_point = int(df.shape[0] * 0.95) training_set = df[:slice_point] # 95%
testing_set = df[slice_point:] # 5% # Just making sure we have split it correctly
assert training_set.shape[0] + testing_set.shape[0] == df.shape[0] # Let's save the data locally and upload it to our s3 data location
training_set.to_csv('bike_train.csv')
testing_set.to_csv('bike_test.csv', header=False) # Uploading file the trasining set to the input bucket
sagemaker.s3.S3Uploader.upload(local_path='bike_train.csv', desired_s3_uri=input_path)

پس از بارگذاری داده ها در مقصد ورودی، زمان شروع Autopilot است:

from sagemaker.automl.automl import AutoML
# You give your job a name and provide the s3 path where you uploaded the data
bike_automl_binary = AutoML(role=role, target_attribute_name='bike_share_for_all_trip', output_path=output_path, max_candidates=30)
# Starting the training bike_automl_binary.fit(inputs=input_path, wait=False, logs=False)

تنها چیزی که برای شروع آزمایش نیاز داریم فراخوانی متد fit() است. Autopilot به مکان ورودی و خروجی S3 و ستون ویژگی هدف به عنوان پارامترهای مورد نیاز نیاز دارد. پس از پردازش ویژگی، Autopilot تماس می گیرد تنظیم خودکار مدل SageMaker برای یافتن بهترین نسخه از یک مدل با اجرای بسیاری از کارهای آموزشی در مجموعه داده خود. ما پارامتر اختیاری max_candidates را اضافه کردیم تا تعداد داوطلبان را به 30 محدود کنیم، که تعداد مشاغل آموزشی است که Autopilot با ترکیب های مختلف الگوریتم ها و فراپارامترها راه اندازی می کند تا بهترین مدل را پیدا کند. اگر این پارامتر را مشخص نکنید، به طور پیش فرض 250 است.

با کد زیر می توانیم پیشرفت Autopilot را مشاهده کنیم:

# Let's monitor the progress this will take a while. Go grup some coffe.
from time import sleep def check_job_status(): return bike_automl_binary.describe_auto_ml_job()['AutoMLJobStatus'] def discribe(): return bike_automl_binary.describe_auto_ml_job() while True: print (check_job_status(), discribe()['AutoMLJobSecondaryStatus'], end='** ') if check_job_status() in ["Completed", "Failed"]: if "Failed" in check_job_status(): print(discribe()['FailureReason']) break sleep(20)

تکمیل آموزش کمی زمان می برد. در حالی که در حال اجرا است، اجازه دهید به گردش کار Autopilot نگاه کنیم.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

برای پیدا کردن بهترین کاندید از کد زیر استفاده کنید:

# Let's take a look at the best candidate selected by AutoPilot
from IPython.display import JSON
def jsonView(obj, rootName=None): return JSON(obj, root=rootName, expanded=True) bestCandidate = bike_automl_binary.describe_auto_ml_job()['BestCandidate']
display(jsonView(bestCandidate['FinalAutoMLJobObjectiveMetric'], 'FinalAutoMLJobObjectiveMetric'))

تصویر زیر خروجی ما را نشان می دهد.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

مدل ما به دقت اعتبار 96 درصد دست یافت، بنابراین ما آن را به کار خواهیم گرفت. می‌توانیم شرطی اضافه کنیم که فقط در صورتی از مدل استفاده کنیم که دقت بالاتر از یک سطح مشخص باشد.

خط لوله استنتاج

قبل از استقرار مدل خود، بیایید بهترین نامزد خود و آنچه در خط لوله ما اتفاق می افتد را بررسی کنیم. کد زیر را ببینید:

display(jsonView(bestCandidate['InferenceContainers'], 'InferenceContainers'))

نمودار زیر خروجی ما را نشان می دهد.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

Autopilot مدل را ساخته و آن را در سه کانتینر مختلف بسته بندی کرده است که هر کدام به طور متوالی یک کار خاص را انجام می دهند: تبدیل، پیش بینی و تبدیل معکوس. این استنتاج چند مرحله ای با a امکان پذیر است خط لوله استنتاج SageMaker.

یک استنتاج چند مرحله‌ای همچنین می‌تواند مدل‌های استنتاج چندگانه را زنجیره‌ای کند. به عنوان مثال، یک ظرف می تواند کار کند تجزیه و تحلیل مولفه اصلی قبل از ارسال داده به ظرف XGBoost.

خط لوله استنتاج را به یک نقطه پایانی مستقر کنید

فرآیند استقرار فقط شامل چند خط کد است:

# We chose to difine an endpoint name.
from datetime import datetime as dt
today = str(dt.today())[:10]
endpoint_name='binary-bike-share-' + today
endpoint = bike_automl_binary.deploy(initial_instance_count=1, instance_type='ml.m5.xlarge', endpoint_name=endpoint_name, candidate=bestCandidate, wait=True)

بیایید نقطه پایانی خود را برای پیش بینی با یک پیش بینی پیکربندی کنیم:

from sagemaker.serializers import CSVSerializer
from sagemaker.deserializers import CSVDeserializer
csv_serializer = CSVSerializer()
csv_deserializer = CSVDeserializer()
# Initialize the predictor
predictor = sagemaker.predictor.Predictor(endpoint_name=endpoint_name, sagemaker_session=sagemaker.Session(), serializer=csv_serializer, deserializer=csv_deserializer )

اکنون که نقطه پایانی و پیش بینی کننده خود را آماده کرده ایم، زمان آن رسیده است که از داده های آزمایشی که کنار گذاشته ایم استفاده کنیم و دقت مدل خود را آزمایش کنیم. ما با تعریف یک تابع مفید شروع می کنیم که داده ها را هر بار یک خط به نقطه پایان استنتاج ما ارسال می کند و در ازای آن یک پیش بینی دریافت می کند. چون ما یک XGBoost مدل، قبل از ارسال خط CSV به نقطه پایانی، متغیر هدف را رها می کنیم. علاوه بر این، قبل از حلقه زدن فایل، هدر را از CSV آزمایشی حذف کردیم، که یکی دیگر از نیازهای XGBoost در SageMaker است. کد زیر را ببینید:

# The fuction takes 3 arguments: the file containing the test set,
# The predictor and finaly the number of lines to send for prediction.
# The function returns two Series: inferred and Actual.
def get_inference(file, predictor, n=1): infered = [] actual = [] with open(file, 'r') as csv: for i in range(n): line = csv.readline().split(',') #print(line) try: # Here we remove the target variable from the csv line before predicting observed = line.pop(14).strip('n') actual.append(observed) except: pass obj = ','.join(line) predicted = predictor.predict(obj)[0][0] infered.append(predicted) pd.Series(infered) data = {'Infered': pd.Series(infered), 'Observed': pd.Series(actual)} return pd.DataFrame(data=data) n = testing_set.shape[0] # The size of the testing data
inference_df = get_inference('bike_test.csv', predictor, n) inference_df['Binary_Result'] = (inference_df['Observed'] == inference_df['Infered'])
display(inference_df.head())

تصویر زیر خروجی ما را نشان می دهد.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

حال بیایید دقت مدل خود را محاسبه کنیم.
یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.

کد زیر را ببینید:

count_binary = inference_df['Binary_Result'].value_counts()
accuracy = count_binary[True]/n
print('Accuracy:', accuracy)

ما دقت 92% را بدست می آوریم. این مقدار کمی کمتر از 96٪ به دست آمده در مرحله اعتبار سنجی است، اما هنوز به اندازه کافی بالا است. ما انتظار نداریم که دقت دقیقاً یکسان باشد زیرا آزمایش با یک مجموعه داده جدید انجام می شود.

بلع داده ها

ما داده ها را مستقیما دانلود کردیم و برای آموزش پیکربندی کردیم. در زندگی واقعی، ممکن است مجبور شوید داده ها را مستقیماً از دستگاه لبه به دریاچه داده ارسال کنید و از SageMaker آن را مستقیماً از دریاچه داده در نوت بوک بارگیری کنید.

Kinesis Data Firehose یک گزینه خوب و ساده ترین راه برای بارگیری قابل اعتماد داده های جریانی در دریاچه های داده، فروشگاه های داده و ابزارهای تجزیه و تحلیل است. این می تواند داده های جریانی را در Amazon S3 و دیگر فروشگاه های داده AWS ضبط، تبدیل و بارگیری کند.

برای مورد استفاده خود، یک جریان تحویل Kinesis Data Firehose با تابع تبدیل لامبدا ایجاد می‌کنیم تا هنگام عبور از جریان، مقداری تمیز کردن داده‌های سبک را انجام دهیم. کد زیر را ببینید:

# Data processing libraries
import pandas as pd # Data processing
import numpy as np
import base64
from io import StringIO def lambda_handler(event, context): output = [] print('Received', len(event['records']), 'Records') for record in event['records']: payload = base64.b64decode(record['data']).decode('utf-8') df = pd.read_csv(StringIO(payload), index_col=0) df.drop(columns=['rental_access_method'], inplace=True) df['start_time'] = pd.to_datetime(df['start_time']) df['start_time'] = pd.to_datetime(df['end_time']) # Adding some day breakdown df = df.assign(day_of_week=df.start_time.dt.dayofweek, hour_of_day=df.start_time.dt.hour, trip_month=df.start_time.dt.month) # Breaking the day in 4 parts: ['morning', 'afternoon', 'evening'] conditions = [ (df['hour_of_day'] >= 5) & (df['hour_of_day'] < 12), (df['hour_of_day'] >= 12) & (df['hour_of_day'] < 18), (df['hour_of_day'] >= 18) & (df['hour_of_day'] < 21), ] choices = ['morning', 'afternoon', 'evening'] df['part_of_day'] = np.select(conditions, choices, default='night') df.dropna(inplace=True) # Downsampling the majority to rebalance the data # We are getting about an even distribution df.sort_values(by='bike_share_for_all_trip', inplace=True) slice_pointe = int(df['bike_share_for_all_trip'].value_counts()['Yes'] * 2.1) df = df[-slice_pointe:] # The data is balanced now. Let's reshuffle the data df = df.sample(frac=1).reset_index(drop=True) data = base64.b64encode(bytes(df.to_csv(), 'utf-8')).decode("utf-8") output_record = { 'recordId': record['recordId'], 'result': 'Ok', 'data': data } output.append(output_record) print('Returned', len(output), 'Records') print('Event', event) return {'records': output}

این تابع لامبدا تبدیل نوری داده های جریان یافته از دستگاه ها به دریاچه داده را انجام می دهد. انتظار یک فایل داده با فرمت CSV را دارد.

برای مرحله هضم، ما داده ها را دانلود می کنیم و یک جریان داده را به Kinesis Data Firehose با تابع تبدیل لامبدا و به دریاچه داده S3 خود شبیه سازی می کنیم.

بیایید پخش چند خط را شبیه سازی کنیم:

# Saving the data in one file.
file = '201907-baywheels-tripdata.csv' data.to_csv(file) # Stream the data 'n' lines at a time.
# Only run this for a minute and stop the cell
def streamer(file, n): with open(file, 'r') as csvfile: header = next(csvfile) data = header counter = 0 loop = True while loop == True: for i in range(n): line = csvfile.readline() data+=line # We reached the end of the csv file. if line == '': loop = False counter+=n # Use your kinesis streaming name stream = client.put_record(DeliveryStreamName='firehose12-DeliveryStream-OJYW71BPYHF2', Record={"Data": bytes(data, 'utf-8')}) data = header print( file, 'HTTPStatusCode: '+ str(stream['ResponseMetadata']['HTTPStatusCode']), 'csv_lines_sent: ' + str(counter), end=' -*- ') sleep(random.randrange(1, 3)) return
# Streaming for 500 lines at a time. You can change this number up and down.
streamer(file, 500) # We can now load our data as a DataFrame because it’s streamed into the S3 data lake:
# Getting data from s3 location where it was streamed.
STREAMED_DATA = 's3://firehose12-deliverybucket-11z0ya3patrod/firehose/2020'
csv_uri = sagemaker.s3.S3Downloader.list(STREAMED_DATA)
in_memory_string = [sagemaker.s3.S3Downloader.read_file(file) for file in csv_uri]
in_memory_csv = [pd.read_csv(StringIO(file), index_col=0) for file in in_memory_string]
display(df.tail())

پاک کردن

مهم است که تمام منابع استفاده شده در این تمرین را حذف کنید تا هزینه را به حداقل برسانید. کد زیر نقطه پایانی استنتاج SageMaker را که ما ایجاد کردیم و همچنین داده های آموزشی و آزمایشی که آپلود کردیم حذف می کند:

#Delete the s3 data
predictor.delete_endpoint() # Delete s3 data
s3 = boto3.resource('s3')
ml_bucket = sagemaker.Session().default_bucket()
delete_data = s3.Bucket(ml_bucket).objects.filter(Prefix=prefix).delete()

نتیجه

مهندسان ML، دانشمندان داده و توسعه دهندگان نرم افزار می توانند از Autopilot برای ساخت و استقرار خط لوله استنتاج با تجربه برنامه نویسی ML استفاده کنند. Autopilot با استفاده از علم داده و بهترین شیوه های ML در زمان و منابع صرفه جویی می کند. سازمان‌های بزرگ اکنون می‌توانند منابع مهندسی را از پیکربندی زیرساخت به سمت بهبود مدل‌ها و حل موارد استفاده تجاری تغییر دهند. استارت‌آپ‌ها و سازمان‌های کوچک‌تر می‌توانند یادگیری ماشینی را بدون تخصص ML شروع کنند.

برای شروع کار با SageMaker Autopilot، به قسمت زیر مراجعه کنید صفحه محصول یا به SageMaker Autopilot در SageMaker Studio دسترسی داشته باشید.

همچنین توصیه می‌کنیم درباره سایر ویژگی‌های مهم دیگری که SageMaker ارائه می‌کند، مانند فروشگاه ویژگی آمازون SageMaker، که با خطوط لوله آمازون SageMaker برای ایجاد، افزودن جستجو و کشف ویژگی، و استفاده مجدد از گردش کار خودکار ML. شما می توانید چندین شبیه سازی Autopilot را با ویژگی های مختلف یا انواع هدف در مجموعه داده خود اجرا کنید. همچنین می توانید به این مسئله به عنوان یک مشکل تخصیص پویا وسیله نقلیه نگاه کنید که در آن مدل شما سعی می کند تقاضای خودرو را بر اساس زمان (مانند زمان روز یا روز هفته) یا مکان یا ترکیبی از هر دو پیش بینی کند.


درباره نویسنده

یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.داگ امبایا یک معمار ارشد راه حل با تمرکز بر داده ها و تجزیه و تحلیل است. داگ همکاری نزدیکی با شرکای AWS دارد و به آنها کمک می کند تا داده ها و راه حل های تحلیلی را در فضای ابری ادغام کنند. تجربه قبلی داگ شامل پشتیبانی از مشتریان AWS در بخش اشتراک سواری و تحویل غذا است.

یک مدل طبقه‌بندی دوچرخه‌ها و اسکوترهای مشترک را با Amazon SageMaker Autopilot PlatoBlockchain Data Intelligence خودکار کنید. جستجوی عمودی Ai.والریو پرونه یک مدیر علوم کاربردی است که روی تنظیم خودکار مدل و خلبان خودکار Amazon SageMaker کار می کند.

تمبر زمان:

بیشتر از آموزش ماشین AWS