Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Amazon SageMaker kullanarak maksimum kâr için optimum fiyatlandırma

Bu, Adspert'te Kıdemli Makine Öğrenimi Mühendisi olan Viktor Enrico Jeney'in konuk yazısıdır.

reklamcı performans pazarlamasını ve reklam kampanyalarını otomatik olarak optimize etmek için tasarlanmış bir teklif yönetimi aracı geliştiren Berlin merkezli bir ISV'dir. Şirketin temel ilkesi, yapay zeka yardımıyla e-ticaret reklamcılığının kârını maksimize etmeyi otomatik hale getirmektir. Reklam platformlarının sürekli gelişimi, Adspert'in müşterilerinin başarısı için ustalıkla kullandığı yeni fırsatların önünü açıyor.

Adspert'in birincil hedefi, farklı platformlarda reklam kampanyalarını optimize ederken kullanıcılar için süreci basitleştirmektir. Bu, çeşitli platformlarda toplanan bilgilerin, her bir platformun üzerinde bir düzeyde belirlenen optimum bütçeye göre dengelenmesini içerir. Adspert'in odak noktası, hangi platformun kullanıldığına bakılmaksızın bir müşterinin hedefine ulaşmasını optimize etmektir. Adspert, müşterilerimize önemli avantajlar sağlamak için gerektiğinde platformlar eklemeye devam ediyor.

Bu gönderide, Adspert'in aşağıdakiler gibi farklı AWS hizmetlerini kullanarak fiyatlandırma aracını sıfırdan nasıl oluşturduğunu paylaşıyoruz. Amazon Adaçayı Yapıcı ve Adspert'in AWS Veri Laboratuvarı bu projeyi tasarımdan inşaata rekor sürede hızlandırmak.

Fiyatlandırma aracı, ürün düzeyinde karı en üst düzeye çıkarmak için görünürlük ve kar marjına dayalı olarak bir e-ticaret pazarında satıcı tarafından seçilen bir ürünü yeniden fiyatlandırır.

Bir satıcı olarak ürünlerinizin her zaman görünür olması çok önemlidir çünkü bu satışları artıracaktır. E-ticaret satışlarındaki en önemli faktör, basitçe, teklifinizin bir rakibin teklifi yerine müşteriler tarafından görülebilmesidir.

Kesinlikle belirli e-ticaret platformuna bağlı olsa da, ürün fiyatının görünürlüğü etkileyebilecek en önemli rakamlardan biri olduğunu gördük. Ancak fiyatlar sık ​​ve hızlı değişiyor; bu nedenle, görünürlüğü artırmak için fiyatlandırma aracının neredeyse gerçek zamanlı olarak hareket etmesi gerekir.

Çözüme genel bakış

Aşağıdaki şemada çözüm mimarisi gösterilmektedir.

Çözüm aşağıdaki bileşenleri içerir:

  1. PostgreSQL için Amazon İlişkisel Veritabanı Hizmeti (Amazon RDS) RDS for Postgres veritabanında depolanan ürün bilgilerini içeren ana veri kaynağıdır.
  2. Ürün listeleme değişiklikleri bilgileri gerçek zamanlı olarak bir Amazon Basit Kuyruk Hizmeti (Amazon SQS) kuyruğu.
  3. Amazon RDS'de depolanan ürün bilgileri, şurada bulunan değişiklik verisi yakalama (CDC) modeli kullanılarak ham katmana neredeyse gerçek zamanlı olarak alınır. AWS Veritabanı Geçiş Hizmeti (AWS DMS'si).
  4. Amazon SQS'den gelen ürün listeleme bildirimleri, ham katmana neredeyse gerçek zamanlı olarak alınır. AWS Lambda fonksiyonu.
  5. Orijinal kaynak veriler, Amazon Basit Depolama Hizmeti (Amazon S3), Parke veri biçimini kullanan ham katman kovası. Bu katman, veri gölü için tek doğruluk kaynağıdır. Bu depolamada kullanılan bölümleme, verilerin artımlı işlenmesini destekler.
  6. AWS Tutkal ayıklama, dönüştürme ve yükleme (ETL) işleri, ürün verilerini temizler, yinelenenleri kaldırır ve belirli bir iş vakasına bağlı olmayan veri konsolidasyonu ve genel dönüşümler uygular.
  7. Amazon S3 aşama katmanı, daha sonraki işlemler için Apache Parquet biçiminde depolanan hazırlanmış verileri alır. Sahne alanı deposunda kullanılan bölümleme, verilerin artımlı işlenmesini destekler.
  8. Bu katmanda oluşturulan AWS Glue işleri, Amazon S3 aşama katmanında bulunan verileri kullanır. Bu, kullanım durumuna özel iş kurallarının uygulanmasını ve gerekli hesaplamaları içerir. Bu işlerden elde edilen sonuç verileri, Amazon S3 analiz katmanında depolanır.
  9. Amazon S3 analiz katmanı, makine öğrenimi modelleri tarafından eğitim amacıyla kullanılan verileri depolamak için kullanılır. Küratörlü mağazada kullanılan bölümleme, beklenen veri kullanımına dayanır. Bu, sahne katmanında kullanılan bölümlemeden farklı olabilir.
  10. Yeniden fiyatlandırma ML modeli, S3 kovasında (analitik katmanı) bulunan veriler kullanılarak eğitilen SageMaker Komut Dosyası Modunda bir Scikit-Learn Random Forest uygulamasıdır.
  11. Bir AWS Glue veri işleme işi, verileri gerçek zamanlı çıkarım için hazırlar. İş, S3 kovasına (aşama katmanı) alınan verileri işler ve SageMaker çıkarım uç noktasını çağırır. Veriler, SageMaker yeniden fiyatlandırma modeli tarafından kullanılmak üzere hazırlanmıştır. AWS Glue, Lambda'ya tercih edildi, çünkü çıkarım, yüksek hacimli verilerde (milyarlarca günlük işlem) birleştirme ve pencere işlevleri gibi farklı karmaşık veri işleme işlemleri gerektiriyor. Yeniden fiyatlandırma modeli çağrılarının sonucu, S3 klasöründe (çıkarım katmanı) depolanır.
  12. SageMaker eğitim işi, bir SageMaker uç noktası kullanılarak dağıtılır. Bu uç nokta, ürün görünürlüğünü artırmak için neredeyse gerçek zamanlı fiyat önerileri üreten AWS Glue çıkarım işlemcisi tarafından çağrılır.
  13. SageMaker çıkarım uç noktası tarafından oluşturulan tahminler, Amazon S3 çıkarım katmanında depolanır.
  14. Lambda tahminleri optimize edici işlevi, SageMaker çıkarım uç noktası tarafından oluşturulan önerileri işler ve satış hacmi ile satış marjı arasında bir denge uygulayarak satıcı kârını maksimize etmeye odaklanan yeni bir fiyat önerisi oluşturur.
  15. Lambda tahminleri optimize edici tarafından oluşturulan fiyat önerileri, pazardaki ürün fiyatını güncelleyen yeniden fiyatlandırma API'sine gönderilir.
  16. Lambda tahminleri optimize edici tarafından oluşturulan güncellenmiş fiyat önerileri, Amazon S3 optimizasyon katmanında depolanır.
  17. AWS Glue tahmin yükleyici işi, denetleme ve raporlama amacıyla ML modeli tarafından oluşturulan tahminleri Postgres SQL veritabanı için kaynak RDS'ye yeniden yükler. Bu bileşeni uygulamak için AWS Glue Studio kullanıldı; AWS Glue'da ETL işlerini oluşturmayı, çalıştırmayı ve izlemeyi kolaylaştıran bir grafik arabirimdir.

Veri Hazırlama

Adspert'in görünürlük modeli için veri kümesi, bir SQS kuyruğundan oluşturulur ve Lambda ile gerçek zamanlı olarak veri gölümüzün ham katmanına alınır. Daha sonra, kopyaları kaldırmak gibi basit dönüşümler gerçekleştirilerek ham veriler sterilize edilir. Bu işlem AWS Glue'da uygulanmaktadır. Sonuç, veri gölümüzün evreleme katmanında saklanır. Bildirimler, belirli bir ürün için rakiplere fiyatları, yerine getirme kanalları, nakliye süreleri ve daha birçok değişkeni sunar. Ayrıca Boole değişkeni (görünür veya görünmez) olarak ifade edilebilen platforma bağlı bir görünürlük ölçüsü sağlarlar. Bir teklif değişikliği olduğunda, tüm müşterilerimizin ürünlerinde ayda birkaç milyona varan olay ekleyen bir bildirim alırız.

Bu veri kümesinden eğitim verilerini şu şekilde çıkarıyoruz: her bildirim için görünür teklifleri görünür olmayan her teklifle eşleştiriyoruz ve bunun tersi de geçerli. Her veri noktası, iki satıcı arasında açık bir kazanan ve kaybedenin olduğu bir rekabeti temsil eder. Bu işleme işi, Spark ile bir AWS Glue işinde uygulanır. Hazırlanan eğitim veri seti, SageMaker tarafından kullanılmak üzere analitik S3 kovasına itilir.

Modeli eğitin

Modelimiz, belirli bir teklifin görünüp görünmeyeceğini her bir teklif çifti için sınıflandırır. Bu model, müşterilerimiz için en iyi fiyatı hesaplamamızı, rekabete dayalı görünürlüğü artırmamızı ve kârlarını maksimize etmemizi sağlıyor. Bunun da ötesinde, bu sınıflandırma modeli, girişlerimizin görünür veya görünmez olmasının nedenlerine ilişkin daha derin bilgiler verebilir. Aşağıdaki özellikleri kullanıyoruz:

  • Bizim fiyatımızın rakiplerin fiyatlarına oranı
  • Yerine getirme kanallarındaki fark
  • Her satıcı için geri bildirim miktarı
  • Her satıcının geri bildirim puanı
  • Minimum nakliye sürelerindeki fark
  • Maksimum nakliye sürelerindeki fark
  • Her satıcının ürününün mevcudiyeti

Adspert, modeli eğitmek ve barındırmak için SageMaker'ı kullanır. Scikit-Learn Random Forest uygulamasını kullanıyoruz. SageMaker Komut Dosyası Modu. Ayrıca, eğitim komut dosyasındaki Scikit-Learn ardışık düzenine bazı özellik ön işlemelerini de dahil ediyoruz. Aşağıdaki koda bakın:

import numpy as np

def transform_price(X):
    X = X.to_numpy()
    return np.log(
        X[:, 0] / np.nanmin([X[:, 1], X[:, 2]], axis=0),
    ).reshape(-1, 1)

def difference(X):
    X = X.to_numpy()
    return (X[:, 0] - X[:, 1]).reshape(-1, 1)

def fulfillment_difference(X):
    X = X.astype(int)
    return difference(X)

En önemli ön işleme işlevlerinden biri, transform_pricefiyatı, rakip fiyatının minimum değerine ve harici bir fiyat sütununa bölen . Bu özelliğin model doğruluğu üzerinde önemli bir etkisi olduğunu tespit ettik. Modelin mutlak fiyat farklılıklarına değil, göreli fiyat farklılıklarına göre karar vermesine izin vermek için logaritmayı da uygularız.

içinde training_script.py komut dosyası, önce Scikit-Learn'in nasıl oluşturulacağını tanımlarız ColumnTransformer belirtilen transformatörleri bir veri çerçevesinin sütunlarına uygulamak için:

import argparse
import os
from io import StringIO

import joblib
import numpy as np
import pandas as pd
from custom_transformers import difference
from custom_transformers import fulfillment_difference
from custom_transformers import transform_price
from sklearn.compose import ColumnTransformer
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import FunctionTransformer
from sklearn.preprocessing import OneHotEncoder

def make_preprocessor():
    return ColumnTransformer([
        ('price_by_smallest_cp', FunctionTransformer(transform_price),
         ['price', 'competitor_price', 'external_price']),
        (fulfillment_difference, FunctionTransformer(fulfillment_difference),
         ['fulfillment', 'competitor_'fulfillment']),
        ('feedback_count', 'passthrough',
         ['feedback_count', 'competitor_feedback_count']),
        ('feedback_rating', 'passthrough',
         ['feedback_rating', 'competitor_feedback_rating']),
        (
            'availability_type',
            OneHotEncoder(categories=[['NOW'], ['NOW']],
                          handle_unknown='ignore'),
            ['availability_type', 'competitor_availability_type'],
        ),
        ('min_shipping', FunctionTransformer(difference),
         ['minimum_shipping_hours', 'competitor_min_shipping_hours']),
        ('max_shipping', FunctionTransformer(difference),
         ['maximum_shipping_hours', 'competitor_max_shipping_hours']),
    ], remainder='drop')

Eğitim komut dosyasında, Parquet'ten gelen verileri bir Pandas veri çerçevesine yüklüyoruz, ardışık düzenin ardışık düzenini tanımlıyoruz. ColumnTranformer ve RandomForestClassifierve modeli eğitin. Daha sonra model kullanılarak serileştirilir. joblib:

if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument('--output-data-dir', type=str,
                        default=os.environ['SM_OUTPUT_DATA_DIR'])
    parser.add_argument('--model-dir', type=str,
                        default=os.environ['SM_MODEL_DIR'])
    parser.add_argument('--train', type=str,
                        default=os.environ['SM_CHANNEL_TRAIN'])

    args = parser.parse_args()

    # load training data
    input_files = [os.path.join(args.train, file)
                   for file in os.listdir(args.train)]
    if len(input_files) == 0:
        raise ValueError
    raw_data = [pd.read_parquet(file) for file in input_files]
    train_data = pd.concat(raw_data)

    # split data set into x and y values
    train_y = train_data.loc[:, 'is_visible']

    if train_y.dtype != 'bool':
        raise ValueError(f'Label 'is_visible' has to be dtype bool but is'
                         f' {train_y.dtype}')

    train_X = train_data.drop('is_visible', axis=1)

    # fit the classifier pipeline and store the fitted model
    clf = Pipeline([
        ('preprocessor', make_preprocessor()),
        ('classifier', RandomForestClassifier(random_state=1)),
    ])
    clf.fit(train_X, train_y)
    joblib.dump(clf, os.path.join(args.model_dir, 'model.joblib'))

Eğitim komut dosyasında, çıkarım için işlevleri de uygulamamız gerekir:

  • girdi_fn – Yükün istek gövdesindeki verileri ayrıştırmaktan sorumludur
  • model_fn – Komut dosyasının eğitim bölümüne atılan modeli yükler ve döndürür
  • tahmin_fn – Yükteki verileri kullanarak modelden bir tahmin istemek için uygulamamızı içerir
  • tahmin_proba – Öngörülen görünürlük eğrilerini çizmek için sınıf olasılığını şu şekilde döndürürüz: predict_proba sınıflandırıcının ikili tahmini yerine işlev

Aşağıdaki koda bakın:

def input_fn(request_body, request_content_type):
    """Parse input data payload"""
    if request_content_type == 'text/csv':
        df = pd.read_csv(StringIO(request_body))
        return df
    else:
        raise ValueError(f'{request_content_type} not supported by script!')


def predict_fn(input_data, model):
    """Predict the visibilities"""
    classes = model.classes_

    if len(classes) != 2:
        raise ValueError('Model has more than 2 classes!')

    # get the index of the winning class
    class_index = np.where(model.classes_ == 1)[0][0]

    output = model.predict_proba(input_data)
    return output[:, class_index]


def model_fn(model_dir):
    """Deserialized and return fitted model

    Note that this should have the same name as the serialized model in the
    main method
    """
    clf = joblib.load(os.path.join(model_dir, 'model.joblib'))
    return clf

Aşağıdaki şekil, tarafından döndürülen kirlilik tabanlı özellik önemlerini göstermektedir. Rastgele Orman Sınıflandırıcısı.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

SageMaker ile, mevcut örneklerimize yük yüklemeden veya yeterli kaynağa sahip ayrı bir makine kurmak zorunda kalmadan büyük miktarda veri üzerinde (günlük 14 milyara kadar işlem) modeli eğitebildik. Ayrıca, bulut sunucuları eğitim işinden hemen sonra kapatıldığı için SageMaker ile eğitim son derece uygun maliyetliydi. SageMaker ile model dağıtımı, herhangi bir ek iş yükü olmadan çalıştı. Modelimizi bir çıkarım uç noktası olarak barındırmak için Python SDK'daki tek bir işlev çağrısı yeterlidir ve SageMaker Python SDK kullanılarak diğer hizmetlerden de kolayca talep edilebilir. Aşağıdaki koda bakın:

from sagemaker.sklearn.estimator import SKLearn

FRAMEWORK_VERSION = "0.23-1"
script_path = 'training_script.py'
output_location = f's3://{bucket}/{folder}/output'
source_dir = 'source_dir'

sklearn = SKLearn(
    entry_point=script_path,
    source_dir=source_dir,
    framework_version=FRAMEWORK_VERSION,
    instance_type='ml.m5.large',
    role=role,
    sagemaker_session=sagemaker_session,
    output_path=output_location)

sklearn.fit({'train': training_path})

Model artefaktı, Amazon S3'te sığdırma işleviyle depolanır. Aşağıdaki kodda görüldüğü gibi, model bir olarak yüklenebilir. SKLearnModel model artefaktı, komut dosyası yolu ve diğer bazı parametreleri kullanan nesne. Daha sonra istenilen instance tipine ve instance sayısına göre konuşlandırılabilir.

model = sagemaker.sklearn.model.SKLearnModel(
    model_data=f'{output_location}/sagemaker-scikit-learn-2021-02-23-11-13-30-036/output/model.tar.gz',
    source_dir=source_dir,
    entry_point=script_path,
    framework_version=FRAMEWORK_VERSION,
    sagemaker_session=sagemaker_session,
    role=role
)
ENDPOINT_NAME = 'visibility-model-v1'
model.deploy(
    initial_instance_count=1,
    instance_type='ml.m5.large',
    endpoint_name=ENDPOINT_NAME
)

Modeli gerçek zamanlı olarak değerlendirin

Ürünlerimizden biri için yeni bir bildirim gönderildiğinde, en uygun fiyatı hesaplamak ve göndermek istiyoruz. Optimum fiyatları hesaplamak için, bir dizi olası fiyat için kendi teklifimizi her bir rakibin teklifiyle karşılaştırdığımız bir tahmin veri seti oluşturuyoruz. Bu veri noktaları, verilen her bir fiyat için her bir rakibe karşı tahmin edilen görünür olma olasılığını veren SageMaker uç noktasına iletilir. Görünür olma olasılığı diyoruz öngörülen görünürlük. Sonuç, aşağıdaki şekilde gösterildiği gibi, her bir rakip için fiyatımız ile görünürlük arasındaki ilişkiyi gösteren bir eğri olarak görselleştirilebilir.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Bu örnekte, Rakip 1'e karşı görünürlük neredeyse parçalı sabit bir fonksiyondur, bu da görünür olmak için esas olarak fiyatı belirli bir eşiğin, kabaca rakibin fiyatının altına düşürmemiz gerektiğini düşündürür. Ancak, Rakip 2'ye karşı görünürlük o kadar dik bir şekilde azalmaz. Üstelik çok yüksek bir fiyata bile %50 görünür olma şansımız var. Girdi verilerinin analizi, rakibin çok zayıf olan düşük miktarda derecelendirmeye sahip olduğunu ortaya çıkardı. Modelimiz, bu belirli e-ticaret platformunun, geri bildirim puanları düşük olan satıcılar için bir dezavantaj sağladığını öğrendi. Yerine getirme kanalı ve nakliye süreleri gibi diğer özellikler için de benzer etkiler keşfettik.

SageMaker uç noktasına karşı gerekli veri dönüşümleri ve çıkarımlar AWS Glue'da uygulanır. AWS Glue işi, Lambda'dan alınan gerçek zamanlı veriler üzerinde mikro gruplar halinde çalışır.

Son olarak, olası her fiyat için tahmini görünürlük olan toplu görünürlük eğrisini hesaplamak istiyoruz. Teklifimiz, diğer tüm satıcıların tekliflerinden daha iyiyse görünür. Fiyatımıza göre her satıcıya karşı görünür olma olasılıkları arasındaki bağımsızlığı varsayarsak, tüm satıcılara karşı görünür olma olasılığı, ilgili olasılıkların ürünüdür. Bu, toplu görünürlük eğrisinin tüm eğriler çarpılarak hesaplanabileceği anlamına gelir.

Aşağıdaki şekiller, SageMaker uç noktasından döndürülen tahmini görünürlükleri gösterir.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Aşağıdaki şekil, toplu görünürlük eğrisini göstermektedir.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Optimum fiyatı hesaplamak için görünürlük eğrisi önce düzleştirilir ve ardından marjla çarpılır. Marjı hesaplamak için mal maliyetlerini ve ücretleri kullanırız. Satılan malların maliyeti ve ücretler, AWS DMS aracılığıyla eşitlenen statik ürün bilgileridir. Adspert, kâr fonksiyonuna dayalı olarak en uygun fiyatı hesaplar ve platformun API'si aracılığıyla e-ticaret platformuna gönderir.

Bu, AWS Lambda tahmin iyileştiricisinde uygulanır.

Aşağıdaki şekil, öngörülen görünürlük ve fiyat arasındaki ilişkiyi göstermektedir.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Aşağıdaki şekil fiyat ve kâr arasındaki ilişkiyi göstermektedir.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.

Sonuç

Adspert'in kâr maksimizasyonuna yönelik mevcut yaklaşımı, reklamcılıktan elde edilen getirileri artırmak için teklif yönetimine odaklanmıştır. Bununla birlikte, e-ticaret pazarlarında üstün performans elde etmek için satıcılar, ürünlerinin hem reklamını hem de rekabetçi fiyatlarını göz önünde bulundurmak zorundadır. Görünürlüğü tahmin etmeye yönelik bu yeni ML modeliyle, müşterinin fiyatlarını da ayarlamak için işlevselliğimizi genişletebiliriz.

Yeni fiyatlandırma aracı, gerçek zamanlı veri dönüşümleri, tahminler ve fiyat optimizasyonlarının yanı sıra büyük miktarda veri üzerinde makine öğrenimi modelinin otomatik eğitimi yeteneğine sahip olmalıdır. Bu yazıda, bu hedeflere ulaşmak için fiyat optimizasyonu motorumuzun ana adımlarını ve AWS Data Lab ile birlikte uyguladığımız AWS mimarisini inceledik.

ML modellerini konseptten üretime almak genellikle karmaşık ve zaman alıcıdır. Modeli eğitmek için büyük miktarda veriyi yönetmeniz, onu eğitmek için en iyi algoritmayı seçmeniz, onu eğitirken işlem kapasitesini yönetmeniz ve ardından modeli bir üretim ortamına dağıtmanız gerekir. SageMaker, makine öğrenimi modelini oluşturmayı ve dağıtmayı çok daha basit hale getirerek bu karmaşıklığı azalttı. Mevcut çok çeşitli seçenekler arasından doğru algoritmaları ve çerçeveleri seçtikten sonra SageMaker, modelimizi eğitmek ve üretime dağıtmak için temel altyapının tamamını yönetti.

SageMaker'ı tanımaya başlamak isterseniz, Daldırma Günü atölyesi özellik mühendisliğinden, çeşitli yerleşik algoritmalardan ve üretim benzeri bir senaryoda makine öğrenimi modelinin nasıl eğitileceği, ayarlanacağı ve dağıtılacağı konusunda ML kullanım senaryolarının nasıl oluşturulacağı konusunda uçtan uca bir anlayış kazanmanıza yardımcı olabilir. Kendi modelinizi getirmeniz ve SageMaker platformuna şirket içi ML iş yükü kaldırma ve değiştirme işlemi gerçekleştirmeniz için size rehberlik eder. Ayrıca model hata ayıklama, model izleme ve AutoML gibi gelişmiş kavramları gösterir ve ML iş yükünüzü AWS ML Well-Architected mercek aracılığıyla değerlendirmenize yardımcı olur.

Veri, analiz, yapay zeka ve makine öğrenimi, sunucusuz ve kapsayıcı modernizasyonu içeren kullanım örneklerinin uygulanmasını hızlandırma konusunda yardım almak isterseniz lütfen şu adresle iletişime geçin: AWS Veri Laboratuvarı.


yazarlar hakkında

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.Viktor Enrico Jeney Berlin, Almanya merkezli Adspert'te Kıdemli Makine Öğrenimi Mühendisidir. Müşterilerin karlarını artırmak için tahmin ve optimizasyon problemlerine çözümler üretir. Viktor, uygulamalı matematik geçmişine sahiptir ve verilerle çalışmayı sever. Boş zamanlarında Macarca öğrenmekten, dövüş sanatları yapmaktan ve gitar çalmaktan hoşlanıyor.

Amazon SageMaker PlatoBlockchain Data Intelligence'ı kullanarak maksimum kâr için optimum fiyatlandırma. Dikey Arama. Ai.Ennio Pastore AWS Data Lab ekibinde bir veri mimarıdır. İşletmeler ve genel geçim kaynakları üzerinde olumlu etkisi olan yeni teknolojilerle ilgili her şeyin meraklısıdır. Ennio, veri analizinde 9 yıldan fazla deneyime sahiptir. Şirketlerin telekomünikasyon, bankacılık, oyun, perakende ve sigorta gibi sektörlerde veri platformları tanımlamasına ve uygulamasına yardımcı olur.

Zaman Damgası:

Den fazla AWS Makine Öğrenimi