التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker

هذا منشور ضيف بقلم فيكتور إنريكو جيني ، كبير مهندسي التعلم الآلي في Adspert.

ادسبرت هي شركة بائعي البرامج المستقلين (ISV) ومقرها برلين ، وقد طورت أداة لإدارة عروض الأسعار مصممة لتحسين أداء الحملات التسويقية والإعلانية تلقائيًا. يتمثل المبدأ الأساسي للشركة في أتمتة تعظيم أرباح إعلانات التجارة الإلكترونية بمساعدة الذكاء الاصطناعي. يمهد التطوير المستمر لمنصات الإعلان الطريق لفرص جديدة ، والتي تستخدمها Adspert بخبرة لنجاح عملائها.

الهدف الأساسي لبرنامج Adspert هو تبسيط العملية للمستخدمين مع تحسين الحملات الإعلانية عبر الأنظمة الأساسية المختلفة. يتضمن ذلك استخدام المعلومات التي تم جمعها عبر مختلف المنصات المتوازنة مقابل الميزانية المثلى المحددة على مستوى أعلى من كل منصة. ينصب تركيز Adspert على تحسين تحقيق هدف العميل ، بغض النظر عن النظام الأساسي المستخدم. يواصل Adspert إضافة منصات حسب الضرورة لمنح عملائنا مزايا كبيرة.

في هذا المنشور ، نشارك كيف أنشأ Adspert أداة التسعير من البداية باستخدام خدمات AWS المختلفة مثل الأمازون SageMaker وكيف تعاون Adspert مع معمل بيانات AWS لتسريع هذا المشروع من التصميم إلى البناء في وقت قياسي.

تعيد أداة التسعير تسعير منتج يختاره البائع في سوق التجارة الإلكترونية بناءً على الرؤية وهامش الربح لزيادة الأرباح على مستوى المنتج.

بصفتك بائعًا ، من الضروري أن تكون منتجاتك مرئية دائمًا لأن هذا سيزيد من المبيعات. العامل الأكثر أهمية في مبيعات التجارة الإلكترونية هو ببساطة ما إذا كان عرضك مرئيًا للعملاء بدلاً من عرض المنافس.

على الرغم من أنه يعتمد بالتأكيد على نظام التجارة الإلكترونية المحدد ، فقد وجدنا أن سعر المنتج هو أحد أهم الشخصيات الرئيسية التي يمكن أن تؤثر على الرؤية. ومع ذلك ، تتغير الأسعار في كثير من الأحيان وبسرعة ؛ لهذا السبب ، يجب أن تعمل أداة التسعير في الوقت شبه الحقيقي لزيادة الرؤية.

نظرة عامة على الحل

يوضح الرسم البياني التالي بنية الحل.

يحتوي الحل على المكونات التالية:

  1. Amazon Relational Database Service (Amazon RDS) لـ PostgreSQL هو المصدر الرئيسي للبيانات ، ويحتوي على معلومات المنتج المخزنة في RDS لقاعدة بيانات Postgres.
  2. تصل معلومات تغييرات قائمة المنتجات في الوقت الفعلي في خدمة Amazon Simple Queue Service قائمة انتظار (Amazon SQS).
  3. يتم استيعاب معلومات المنتج المخزنة في Amazon RDS في الوقت الفعلي تقريبًا في الطبقة الأولية باستخدام نمط التقاط بيانات التغيير (CDC) المتاح في خدمة ترحيل قاعدة بيانات AWS (أوس دي إم إس).
  4. يتم استيعاب إشعارات قائمة المنتجات الواردة من Amazon SQS في الوقت شبه الحقيقي في الطبقة الأولية باستخدام ملف AWS لامدا وظيفة.
  5. يتم تخزين بيانات المصدر الأصلية في ملف خدمة تخزين أمازون البسيطة (Amazon S3) دلو طبقة خام باستخدام تنسيق بيانات باركيه. هذه الطبقة هي المصدر الوحيد للحقيقة لبحيرة البيانات. يدعم التقسيم المستخدم في هذا التخزين المعالجة المتزايدة للبيانات.
  6. غراء AWS وظائف استخراج وتحويل وتحميل (ETL) تقوم بتنظيف بيانات المنتج وإزالة التكرارات وتطبيق دمج البيانات والتحويلات العامة غير المرتبطة بحالة عمل معينة.
  7. تتلقى طبقة المرحلة Amazon S3 البيانات المعدة والمخزنة في تنسيق Apache Parquet لمزيد من المعالجة. يدعم التقسيم المستخدم في مخزن المرحلة المعالجة المتزايدة للبيانات.
  8. تستخدم وظائف AWS Glue التي تم إنشاؤها في هذه الطبقة البيانات المتاحة في طبقة المرحلة Amazon S3. يتضمن ذلك تطبيق قواعد العمل الخاصة بحالة الاستخدام والحسابات المطلوبة. يتم تخزين بيانات النتائج من هذه الوظائف في طبقة تحليلات Amazon S3.
  9. تُستخدم طبقة تحليلات Amazon S3 لتخزين البيانات التي تستخدمها نماذج ML لأغراض التدريب. يعتمد التقسيم المستخدم في المتجر المنسق على استخدام البيانات المتوقع. قد يكون هذا مختلفًا عن التقسيم المستخدم في طبقة المرحلة.
  10. نموذج ML لإعادة التسعير هو تطبيق Scikit-Learn Random Forest في SageMaker Script Mode ، والذي يتم تدريبه باستخدام البيانات المتاحة في دلو S3 (طبقة التحليلات).
  11. تعمل وظيفة معالجة البيانات في AWS Glue على تجهيز البيانات للاستدلال في الوقت الفعلي. تعالج الوظيفة البيانات التي تم استيعابها في حاوية S3 (طبقة المرحلة) وتستدعي نقطة نهاية استنتاج SageMaker. تم إعداد البيانات لاستخدامها بواسطة نموذج إعادة تسعير SageMaker. تم تفضيل AWS Glue على Lambda ، لأن الاستدلال يتطلب عمليات معالجة بيانات معقدة مختلفة مثل الوصلات ووظائف النافذة على حجم كبير من البيانات (مليارات المعاملات اليومية). يتم تخزين النتيجة من استدعاءات نموذج إعادة التسعير في دلو S3 (طبقة الاستدلال).
  12. يتم نشر وظيفة تدريب SageMaker باستخدام نقطة نهاية SageMaker. يتم استدعاء نقطة النهاية هذه بواسطة معالج الاستدلال AWS Glue ، مما يؤدي إلى إنشاء توصيات أسعار شبه فورية لزيادة رؤية المنتج.
  13. يتم تخزين التنبؤات التي تم إنشاؤها بواسطة نقطة نهاية استدلال SageMaker في طبقة الاستدلال Amazon S3.
  14. تعالج وظيفة مُحسِّن تنبؤات Lambda التوصيات التي تم إنشاؤها بواسطة نقطة نهاية استدلال SageMaker وتقوم بإنشاء توصية سعر جديدة تركز على زيادة ربح البائع إلى أقصى حد ، وتطبيق المقايضة بين حجم المبيعات وهامش المبيعات.
  15. يتم تقديم توصيات الأسعار التي تم إنشاؤها بواسطة مُحسِّن تنبؤات Lambda إلى واجهة برمجة التطبيقات لإعادة التسعير ، والتي تعمل على تحديث سعر المنتج في السوق.
  16. يتم تخزين توصيات الأسعار المحدثة التي تم إنشاؤها بواسطة مُحسِّن تنبؤات Lambda في طبقة تحسين Amazon S3.
  17. تعيد مهمة أداة تحميل التنبؤ في AWS Glue تحميل التنبؤات التي تم إنشاؤها بواسطة نموذج ML لأغراض المراجعة وإعداد التقارير في RDS المصدر لقاعدة بيانات Postgres SQL. تم استخدام AWS Glue Studio لتنفيذ هذا المكون ؛ إنها واجهة رسومية تسهل إنشاء وظائف ETL وتشغيلها ومراقبتها في AWS Glue.

إعداد البيانات

يتم إنشاء مجموعة البيانات الخاصة بنموذج رؤية Adspert من قائمة انتظار SQS ويتم إدخالها في الطبقة الأولية لبحيرة البيانات الخاصة بنا في الوقت الفعلي باستخدام Lambda. بعد ذلك ، يتم تعقيم البيانات الأولية عن طريق إجراء تحويلات بسيطة ، مثل إزالة التكرارات. يتم تنفيذ هذه العملية في AWS Glue. يتم تخزين النتيجة في الطبقة المرحلية لبحيرة البيانات الخاصة بنا. توفر الإخطارات للمنافسين لمنتج معين ، أسعارهم ، وقنوات الوفاء ، وأوقات الشحن ، والعديد من المتغيرات الأخرى. كما أنها توفر مقياس رؤية يعتمد على النظام الأساسي ، والذي يمكن التعبير عنه كمتغير منطقي (مرئي أو غير مرئي). نتلقى إشعارًا في أي وقت يحدث تغيير في العرض ، مما يضيف ما يصل إلى عدة ملايين من الأحداث شهريًا على جميع منتجات عملائنا.

من مجموعة البيانات هذه ، نستخرج بيانات التدريب على النحو التالي: لكل إشعار ، نقوم بإقران العروض المرئية بكل عرض غير مرئي ، والعكس صحيح. تمثل كل نقطة بيانات منافسة بين بائعين ، حيث يوجد فائز واضح وخاسر. يتم تنفيذ مهمة المعالجة هذه في وظيفة AWS Glue باستخدام Spark. يتم دفع مجموعة بيانات التدريب المعدة إلى حاوية التحليلات S3 لاستخدامها بواسطة SageMaker.

درب النموذج

يصنف نموذجنا لكل زوج من العروض ، إذا كان عرض معين سيكون مرئيًا. يمكّننا هذا النموذج من حساب أفضل سعر لعملائنا ، وزيادة الرؤية على أساس المنافسة ، وزيادة أرباحهم. علاوة على ذلك ، يمكن أن يمنحنا نموذج التصنيف هذا رؤى أعمق حول أسباب ظهور قوائمنا أو عدم رؤيتها. نستخدم الميزات التالية:

  • نسبة السعر إلى أسعار المنافسين
  • الفرق في قنوات التنفيذ
  • مقدار ردود الفعل لكل بائع
  • تقييم ردود الفعل لكل بائع
  • الفرق في الحد الأدنى من أوقات الشحن
  • الفرق في الحد الأقصى لأوقات الشحن
  • توافر منتج كل بائع

يستخدم Adspert برنامج SageMaker لتدريب النموذج واستضافته. نحن نستخدم تطبيق Scikit-Learn Random Forest في وضع البرنامج النصي SageMaker. نقوم أيضًا بتضمين بعض المعالجة المسبقة للميزات مباشرةً في خط أنابيب Scikit-Learn في البرنامج النصي للتدريب. انظر الكود التالي:

import numpy as np

def transform_price(X):
    X = X.to_numpy()
    return np.log(
        X[:, 0] / np.nanmin([X[:, 1], X[:, 2]], axis=0),
    ).reshape(-1, 1)

def difference(X):
    X = X.to_numpy()
    return (X[:, 0] - X[:, 1]).reshape(-1, 1)

def fulfillment_difference(X):
    X = X.astype(int)
    return difference(X)

واحدة من أهم وظائف المعالجة المسبقة هي transform_price، والتي تقسم السعر على الحد الأدنى لسعر المنافس وعمود السعر الخارجي. لقد وجدنا أن هذه الميزة لها تأثير مناسب على دقة النموذج. نقوم أيضًا بتطبيق اللوغاريتم للسماح للنموذج باتخاذ القرار بناءً على فروق الأسعار النسبية ، وليس الفروق المطلقة في الأسعار.

في مجلة training_script.py البرنامج النصي ، نحدد أولاً كيفية بناء Scikit-Learn ColumnTransformer لتطبيق المحولات المحددة على أعمدة إطار البيانات:

import argparse
import os
from io import StringIO

import joblib
import numpy as np
import pandas as pd
from custom_transformers import difference
from custom_transformers import fulfillment_difference
from custom_transformers import transform_price
from sklearn.compose import ColumnTransformer
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import FunctionTransformer
from sklearn.preprocessing import OneHotEncoder

def make_preprocessor():
    return ColumnTransformer([
        ('price_by_smallest_cp', FunctionTransformer(transform_price),
         ['price', 'competitor_price', 'external_price']),
        (fulfillment_difference, FunctionTransformer(fulfillment_difference),
         ['fulfillment', 'competitor_'fulfillment']),
        ('feedback_count', 'passthrough',
         ['feedback_count', 'competitor_feedback_count']),
        ('feedback_rating', 'passthrough',
         ['feedback_rating', 'competitor_feedback_rating']),
        (
            'availability_type',
            OneHotEncoder(categories=[['NOW'], ['NOW']],
                          handle_unknown='ignore'),
            ['availability_type', 'competitor_availability_type'],
        ),
        ('min_shipping', FunctionTransformer(difference),
         ['minimum_shipping_hours', 'competitor_min_shipping_hours']),
        ('max_shipping', FunctionTransformer(difference),
         ['maximum_shipping_hours', 'competitor_max_shipping_hours']),
    ], remainder='drop')

في البرنامج النصي للتدريب ، نقوم بتحميل البيانات من Parquet في إطار بيانات Pandas ، وتحديد خط أنابيب ColumnTranformer و RandomForestClassifier، وتدريب النموذج. بعد ذلك ، يتم إجراء تسلسل للنموذج باستخدام joblib:

if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument('--output-data-dir', type=str,
                        default=os.environ['SM_OUTPUT_DATA_DIR'])
    parser.add_argument('--model-dir', type=str,
                        default=os.environ['SM_MODEL_DIR'])
    parser.add_argument('--train', type=str,
                        default=os.environ['SM_CHANNEL_TRAIN'])

    args = parser.parse_args()

    # load training data
    input_files = [os.path.join(args.train, file)
                   for file in os.listdir(args.train)]
    if len(input_files) == 0:
        raise ValueError
    raw_data = [pd.read_parquet(file) for file in input_files]
    train_data = pd.concat(raw_data)

    # split data set into x and y values
    train_y = train_data.loc[:, 'is_visible']

    if train_y.dtype != 'bool':
        raise ValueError(f'Label 'is_visible' has to be dtype bool but is'
                         f' {train_y.dtype}')

    train_X = train_data.drop('is_visible', axis=1)

    # fit the classifier pipeline and store the fitted model
    clf = Pipeline([
        ('preprocessor', make_preprocessor()),
        ('classifier', RandomForestClassifier(random_state=1)),
    ])
    clf.fit(train_X, train_y)
    joblib.dump(clf, os.path.join(args.model_dir, 'model.joblib'))

في البرنامج النصي للتدريب ، يتعين علينا أيضًا تنفيذ وظائف للاستدلال:

  • input_fn - مسؤول عن تحليل البيانات من نص طلب الحمولة
  • model_fn - يقوم بتحميل وإرجاع النموذج الذي تم إغراقه في قسم التدريب من البرنامج النصي
  • توقع_fn - يحتوي على تطبيقنا لطلب التنبؤ من النموذج باستخدام البيانات من الحمولة
  • توقع_بروبا - من أجل رسم منحنيات الرؤية المتوقعة ، نعيد احتمالية الفئة باستخدام predict_proba وظيفة ، بدلاً من التنبؤ الثنائي للمصنف

انظر الكود التالي:

def input_fn(request_body, request_content_type):
    """Parse input data payload"""
    if request_content_type == 'text/csv':
        df = pd.read_csv(StringIO(request_body))
        return df
    else:
        raise ValueError(f'{request_content_type} not supported by script!')


def predict_fn(input_data, model):
    """Predict the visibilities"""
    classes = model.classes_

    if len(classes) != 2:
        raise ValueError('Model has more than 2 classes!')

    # get the index of the winning class
    class_index = np.where(model.classes_ == 1)[0][0]

    output = model.predict_proba(input_data)
    return output[:, class_index]


def model_fn(model_dir):
    """Deserialized and return fitted model

    Note that this should have the same name as the serialized model in the
    main method
    """
    clf = joblib.load(os.path.join(model_dir, 'model.joblib'))
    return clf

يوضح الشكل التالي استيراد الميزات المستندة إلى الشوائب التي تم إرجاعها بواسطة مصنف الغابة العشوائي.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

باستخدام SageMaker ، تمكنا من تدريب النموذج على كمية كبيرة من البيانات (تصل إلى 14 مليار معاملة يومية) دون تحميل مثيلاتنا الحالية أو الاضطرار إلى إعداد جهاز منفصل بموارد كافية. علاوة على ذلك ، نظرًا لإغلاق المثيلات فورًا بعد وظيفة التدريب ، كان التدريب مع SageMaker فعالاً للغاية من حيث التكلفة. عمل نشر النموذج مع SageMaker دون أي عبء عمل إضافي. تكفي استدعاء دالة واحدة في Python SDK لاستضافة نموذجنا كنقطة نهاية للاستدلال ، ويمكن طلبها بسهولة من الخدمات الأخرى باستخدام SageMaker Python SDK أيضًا. انظر الكود التالي:

from sagemaker.sklearn.estimator import SKLearn

FRAMEWORK_VERSION = "0.23-1"
script_path = 'training_script.py'
output_location = f's3://{bucket}/{folder}/output'
source_dir = 'source_dir'

sklearn = SKLearn(
    entry_point=script_path,
    source_dir=source_dir,
    framework_version=FRAMEWORK_VERSION,
    instance_type='ml.m5.large',
    role=role,
    sagemaker_session=sagemaker_session,
    output_path=output_location)

sklearn.fit({'train': training_path})

يتم تخزين نموذج النموذج في Amazon S3 بواسطة وظيفة الملاءمة. كما هو موضح في الكود التالي ، يمكن تحميل النموذج كملف SKLearnModel باستخدام نموذج النموذج ومسار البرنامج النصي وبعض المعلمات الأخرى. بعد ذلك ، يمكن نشره إلى نوع المثيل المطلوب وعدد المثيلات.

model = sagemaker.sklearn.model.SKLearnModel(
    model_data=f'{output_location}/sagemaker-scikit-learn-2021-02-23-11-13-30-036/output/model.tar.gz',
    source_dir=source_dir,
    entry_point=script_path,
    framework_version=FRAMEWORK_VERSION,
    sagemaker_session=sagemaker_session,
    role=role
)
ENDPOINT_NAME = 'visibility-model-v1'
model.deploy(
    initial_instance_count=1,
    instance_type='ml.m5.large',
    endpoint_name=ENDPOINT_NAME
)

تقييم النموذج في الوقت الحقيقي

عندما يتم إرسال إشعار جديد لأحد منتجاتنا ، فإننا نريد حساب السعر الأمثل وإرساله. لحساب الأسعار المثلى ، نقوم بإنشاء مجموعة بيانات للتنبؤ نقارن فيها عرضنا الخاص بعرض كل منافس لمجموعة من الأسعار الممكنة. يتم تمرير نقاط البيانات هذه إلى نقطة نهاية SageMaker ، والتي تُرجع الاحتمال المتوقع للظهور مقابل كل منافس لكل سعر معين. نسمي احتمالية أن تكون مرئيًا الرؤية المتوقعة. يمكن تصور النتيجة كمنحنى لكل منافس ، وتصور العلاقة بين السعر لدينا والرؤية ، كما هو موضح في الشكل التالي.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

في هذا المثال ، الرؤية ضد المنافس 1 هي تقريبًا دالة ثابتة متعددة الجوانب ، مما يشير إلى أنه يتعين علينا بشكل أساسي خفض السعر إلى ما دون حد معين ، تقريبًا سعر المنافس ، حتى يصبح مرئيًا. ومع ذلك ، فإن الرؤية ضد المنافس 2 لا تقل بشكل حاد. علاوة على ذلك ، لا يزال لدينا فرصة بنسبة 50٪ في الظهور حتى مع السعر المرتفع للغاية. كشف تحليل بيانات الإدخال أن المنافس لديه عدد قليل من التصنيفات ، وهو أمر سيئ للغاية. تعلم نموذجنا أن منصة التجارة الإلكترونية المحددة هذه تعطي عيبًا للبائعين ذوي تقييمات التعليقات الضعيفة. اكتشفنا تأثيرات مشابهة للميزات الأخرى ، مثل قناة التنفيذ وأوقات الشحن.

يتم تنفيذ عمليات تحويل البيانات والاستنتاجات الضرورية مقابل نقطة نهاية SageMaker في AWS Glue. تعمل وظيفة AWS Glue على دفعات صغيرة على بيانات الوقت الفعلي التي يتم الحصول عليها من Lambda.

أخيرًا ، نريد حساب منحنى الرؤية المجمع ، وهو الرؤية المتوقعة لكل سعر محتمل. عرضنا مرئي إذا كان أفضل من جميع عروض البائعين الآخرين. بافتراض الاستقلال بين احتمالات الظهور مقابل كل بائع بالنظر إلى سعرنا ، فإن احتمال الظهور أمام جميع البائعين هو نتاج الاحتمالات المعنية. هذا يعني أنه يمكن حساب منحنى الرؤية المجمع بضرب جميع المنحنيات.

توضح الأشكال التالية الرؤى المتوقعة التي تم إرجاعها من نقطة نهاية SageMaker.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

يوضح الشكل التالي منحنى الرؤية المجمع.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

لحساب السعر الأمثل ، يتم أولاً تنعيم منحنى الرؤية ثم ضربه بالهامش. لحساب الهامش نستخدم تكاليف البضائع والرسوم. تكلفة البضائع المباعة والرسوم هي معلومات المنتج الثابتة التي تتم مزامنتها عبر AWS DMS. استنادًا إلى وظيفة الربح ، يحسب Adspert السعر الأمثل ويرسله إلى منصة التجارة الإلكترونية من خلال واجهة برمجة التطبيقات الخاصة بالمنصة.

يتم تنفيذ ذلك في مُحسِّن التنبؤ AWS Lambda.

يوضح الشكل التالي العلاقة بين الرؤية المتوقعة والسعر.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

يوضح الشكل التالي العلاقة بين السعر والربح.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

وفي الختام

يركز نهج Adspert الحالي لتعظيم الأرباح على إدارة عروض الأسعار لزيادة عوائد الإعلان. لتحقيق أداء متفوق في أسواق التجارة الإلكترونية ، يتعين على البائعين التفكير في كل من الإعلانات والأسعار التنافسية لمنتجاتهم. مع نموذج ML الجديد هذا للتنبؤ بالرؤية ، يمكننا توسيع وظائفنا لضبط أسعار العملاء أيضًا.

يجب أن تكون أداة التسعير الجديدة قادرة على التدريب الآلي لنموذج ML على كمية كبيرة من البيانات ، بالإضافة إلى تحويلات البيانات في الوقت الفعلي والتنبؤات وتحسينات الأسعار. في هذا المنشور ، مررنا عبر الخطوات الرئيسية لمحرك تحسين الأسعار لدينا ، وهيكل AWS الذي طبقناه بالتعاون مع AWS Data Lab لتحقيق تلك الأهداف.

عادة ما يكون أخذ نماذج ML من المفهوم إلى الإنتاج معقدًا ويستغرق وقتًا طويلاً. يجب عليك إدارة كميات كبيرة من البيانات لتدريب النموذج ، واختيار أفضل خوارزمية لتدريبه ، وإدارة سعة الحوسبة أثناء تدريبه ، ثم نشر النموذج في بيئة إنتاج. قلل SageMaker من هذا التعقيد بجعله أكثر وضوحًا لبناء ونشر نموذج ML. بعد أن اخترنا الخوارزميات والأطر المناسبة من مجموعة واسعة من الخيارات المتاحة ، تمكنت SageMaker من إدارة جميع البنية التحتية الأساسية لتدريب نموذجنا ونشره في الإنتاج.

إذا كنت ترغب في البدء في التعرف على SageMaker ، فإن ملف ورشة يوم الغمر يمكن أن تساعدك على اكتساب فهم شامل لكيفية إنشاء حالات استخدام ML من هندسة الميزات ، والخوارزميات المختلفة المضمنة ، وكيفية تدريب نموذج ML وضبطه ونشره في سيناريو يشبه الإنتاج. يرشدك إلى إحضار النموذج الخاص بك وإجراء عملية رفع وتحويل عبء العمل ML في مقر الشركة إلى منصة SageMaker. يوضح أيضًا المفاهيم المتقدمة مثل تصحيح أخطاء النموذج ، ومراقبة النموذج ، و AutoML ، ويساعدك على تقييم عبء العمل ML الخاص بك من خلال عدسة AWS ML Well-Architected.

إذا كنت ترغب في المساعدة في تسريع تنفيذ حالات الاستخدام التي تتضمن البيانات والتحليلات والذكاء الاصطناعي والتعلم الآلي وتحديث بدون خادم والحاويات ، فيرجى الاتصال بـ معمل بيانات AWS.


عن المؤلفين

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.فيكتور إنريكو جيني هو كبير مهندسي التعلم الآلي في Adspert ومقره في برلين ، ألمانيا. يقوم بإنشاء حلول لمشاكل التنبؤ والتحسين من أجل زيادة أرباح العملاء. يتمتع فيكتور بخلفية في الرياضيات التطبيقية ويحب التعامل مع البيانات. في أوقات فراغه ، يستمتع بتعلم اللغة الهنغارية وممارسة فنون الدفاع عن النفس ولعب الجيتار.

التسعير الأمثل لتحقيق أقصى ربح باستخدام Amazon SageMaker PlatoBlockchain Data Intelligence. البحث العمودي. عاي.إنيو باستوري هو مهندس بيانات في فريق AWS Data Lab. إنه متحمس لكل ما يتعلق بالتقنيات الجديدة التي لها تأثير إيجابي على الأعمال التجارية وسبل العيش العامة. يتمتع Ennio بخبرة تزيد عن 9 سنوات في تحليلات البيانات. يساعد الشركات على تحديد منصات البيانات وتنفيذها عبر الصناعات ، مثل الاتصالات ، والخدمات المصرفية ، والألعاب ، والبيع بالتجزئة ، والتأمين.

الطابع الزمني:

اكثر من التعلم الآلي من AWS