Amazon SageMaker بلٹ ان ٹیبلر الگورتھم LightGBM، CatBoost، TabTransformer، اور AutoGluon-Tabular PlatoBlockchain ڈیٹا انٹیلی جنس کا استعمال کرتے ہوئے پیشن گوئی کو چرن کریں۔ عمودی تلاش۔ عی

Amazon SageMaker بلٹ ان ٹیبلر الگورتھم LightGBM، CatBoost، TabTransformer، اور AutoGluon-Tabular کا استعمال کرتے ہوئے پیشن گوئی کو چرن کریں۔

ایمیزون سیج میکر کا ایک سوٹ فراہم کرتا ہے۔ بلٹ ان الگورتھم, پہلے سے تربیت یافتہ ماڈلز، اور پری بلٹ حل ٹیمپلیٹس ڈیٹا سائنسدانوں اور مشین لرننگ (ML) پریکٹیشنرز کو ML ماڈلز کو تیزی سے تربیت اور تعینات کرنے میں مدد کرنے کے لیے۔ ان الگورتھم اور ماڈلز کو زیر نگرانی اور غیر زیر نگرانی سیکھنے دونوں کے لیے استعمال کیا جا سکتا ہے۔ وہ مختلف قسم کے ان پٹ ڈیٹا پر کارروائی کر سکتے ہیں، بشمول ٹیبلر، تصویر اور متن۔

کسٹمر چرن ایک ایسا مسئلہ ہے جس کا سامنا بہت ساری کمپنیوں کو ہوتا ہے، ٹیلی کمیونیکیشن سے لے کر بینکنگ تک، جہاں صارفین عام طور پر حریفوں سے ہار جاتے ہیں۔ نئے گاہک حاصل کرنے کے بجائے موجودہ گاہکوں کو برقرار رکھنا کمپنی کے بہترین مفاد میں ہے کیونکہ عام طور پر نئے گاہکوں کو اپنی طرف متوجہ کرنے کے لیے کافی زیادہ لاگت آتی ہے۔ موبائل آپریٹرز کے پاس تاریخی ریکارڈ موجود ہے جس میں صارفین نے سروس کا استعمال جاری رکھا یا بالآخر منتھنی ختم کردی۔ ہم ایک ML ماڈل کو تربیت دینے کے لیے موبائل آپریٹر کے چرن کی اس تاریخی معلومات کا استعمال کر سکتے ہیں۔ اس ماڈل کو تربیت دینے کے بعد، ہم کسی صوابدیدی گاہک کی پروفائل کی معلومات (وہی پروفائل معلومات جو ہم نے ماڈل کو تربیت دینے کے لیے استعمال کرتے تھے) کو ماڈل تک پہنچا سکتے ہیں، اور اس سے یہ پیشین گوئی کر سکتے ہیں کہ آیا یہ گاہک منڈلانے والا ہے یا نہیں۔

اس پوسٹ میں، ہم تربیت اور تعینات کرتے ہیں۔ چار حال ہی میں جاری کردہ سیج میکر الگورتھملائٹ جی بی ایم، کیٹ بوسٹ، ٹیب ٹرانسفارمر، اور آٹوگلون-ٹیبلر—ایک منتھن کی پیشن گوئی ڈیٹاسیٹ پر۔ ہم استعمال کرتے ہیں سیج میکر خودکار ماڈل ٹیوننگ (ہائپر پیرامیٹر آپٹیمائزیشن کے لیے ایک ٹول) ہر ماڈل کے لیے بہترین ہائپر پیرامیٹر تلاش کرنے کے لیے، اور بہترین کو منتخب کرنے کے لیے ہولڈ آؤٹ ٹیسٹ ڈیٹاسیٹ پر ان کی کارکردگی کا موازنہ کریں۔

آپ جدید ترین ٹیبلولر الگورتھم کے مجموعے کو تلاش کرنے کے لیے اس حل کو بطور ٹیمپلیٹ استعمال کر سکتے ہیں اور بہترین مجموعی ماڈل تلاش کرنے کے لیے ہائپر پیرامیٹر کی اصلاح کا استعمال کر سکتے ہیں۔ آپ اپنی دلچسپی کے حقیقی کاروباری مسائل کو حل کرنے کے لیے اپنی مثال ڈیٹا سیٹ کو آسانی سے تبدیل کر سکتے ہیں۔ اگر آپ سیج میکر SDK کوڈ میں جانا چاہتے ہیں جس سے ہم اس پوسٹ میں گزرے ہیں، تو آپ درج ذیل کا حوالہ دے سکتے ہیں۔ نمونہ Jupyter نوٹ بک.

SageMaker بلٹ ان الگورتھم کے فوائد

اپنے مخصوص قسم کے مسئلے اور ڈیٹا کے لیے الگورتھم کا انتخاب کرتے وقت، SageMaker بلٹ ان الگورتھم استعمال کرنا سب سے آسان آپشن ہے، کیونکہ ایسا کرنے سے درج ذیل بڑے فوائد حاصل ہوتے ہیں:

  • کم کوڈنگ - بلٹ ان الگورتھم کو تجربات کو چلانے کے لیے بہت کم کوڈنگ کی ضرورت ہوتی ہے۔ اعداد و شمار، ہائپر پیرامیٹر، اور کمپیوٹ وسائل آپ کو فراہم کرنے کے لیے صرف ان پٹ کی ضرورت ہے۔ یہ آپ کو تجربات کو زیادہ تیزی سے چلانے کی اجازت دیتا ہے، نتائج کو ٹریک کرنے اور کوڈ کی تبدیلیوں کے لیے کم اوور ہیڈ کے ساتھ۔
  • موثر اور توسیع پذیر الگورتھم کے نفاذ - بلٹ ان الگورتھم متعدد کمپیوٹ مثالوں میں متوازی کے ساتھ آتے ہیں اور تمام قابل اطلاق الگورتھم کے لیے باکس کے باہر GPU سپورٹ کرتے ہیں۔ اگر آپ کے پاس اپنے ماڈل کو تربیت دینے کے لیے بہت زیادہ ڈیٹا ہے، تو زیادہ تر بلٹ ان الگورتھم مانگ کو پورا کرنے کے لیے آسانی سے پیمانے کر سکتے ہیں۔ یہاں تک کہ اگر آپ کے پاس پہلے سے ہی پہلے سے تربیت یافتہ ماڈل ہے، تب بھی SageMaker میں اس کے نتائج کو استعمال کرنا آسان ہو سکتا ہے اور اسے پورٹ کرنے کے بجائے اپنے آپ کو پہلے سے معلوم ہائپر پیرامیٹر داخل کرنا اور خود ایک تربیتی اسکرپٹ لکھنا آسان ہو سکتا ہے۔
  • شفافیت - آپ نتیجے میں بننے والے ماڈل کے نمونے کے مالک ہیں۔ آپ اس ماڈل کو لے سکتے ہیں اور اسے سیج میکر پر کئی مختلف انفرنس پیٹرن کے لیے تعینات کر سکتے ہیں (تمام چیک کریں دستیاب تعیناتی کی اقسام) اور آسان اینڈ پوائنٹ اسکیلنگ اور مینجمنٹ، یا آپ اسے جہاں کہیں بھی ضرورت ہو وہاں تعینات کر سکتے ہیں۔

ڈیٹا ویژولائزیشن اور پری پروسیسنگ

سب سے پہلے، ہم اپنے گاہک کا ڈیٹا سیٹ جمع کرتے ہیں۔ یہ 5,000 ریکارڈز کے ساتھ نسبتاً چھوٹا ڈیٹا سیٹ ہے، جہاں ہر ریکارڈ 21 صفات کا استعمال کرتا ہے تاکہ کسی نامعلوم امریکی موبائل آپریٹر کے صارف کے پروفائل کو بیان کیا جا سکے۔ اوصاف امریکی ریاست سے لے کر جہاں گاہک رہتا ہے، کسٹمر سروس کو کی جانے والی کالوں کی تعداد، دن کے وقت کی کالوں کے لیے بل کی جانے والی قیمت تک۔ ہم یہ پیشین گوئی کرنے کی کوشش کر رہے ہیں کہ آیا گاہک منتھن کرے گا یا نہیں، جو کہ بائنری درجہ بندی کا مسئلہ ہے۔ ذیل میں ان خصوصیات کا ایک ذیلی سیٹ ہے جیسا کہ آخری کالم کے لیبل کے ساتھ نظر آتا ہے۔

ذیل میں ہر کالم کے لیے کچھ بصیرتیں ہیں، خاص طور پر خلاصہ کے اعداد و شمار اور منتخب خصوصیات کے ہسٹوگرام۔

Amazon SageMaker بلٹ ان ٹیبلر الگورتھم LightGBM، CatBoost، TabTransformer، اور AutoGluon-Tabular PlatoBlockchain ڈیٹا انٹیلی جنس کا استعمال کرتے ہوئے پیشن گوئی کو چرن کریں۔ عمودی تلاش۔ عی

اس کے بعد ہم ڈیٹا کو پہلے سے پروسیس کرتے ہیں، اسے تربیت، توثیق اور ٹیسٹ سیٹ میں تقسیم کرتے ہیں، اور ڈیٹا کو اپ لوڈ کرتے ہیں ایمیزون سادہ اسٹوریج سروس (ایمیزون S3)۔

ٹیبلر الگورتھم کی خودکار ماڈل ٹیوننگ

ہائپر پیرامیٹرز کنٹرول کرتے ہیں کہ ہمارے بنیادی الگورتھم کس طرح کام کرتے ہیں اور ماڈل کی کارکردگی کو متاثر کرتے ہیں۔ وہ ہائپر پیرامیٹر تہوں کی تعداد، سیکھنے کی شرح، وزن کی کمی کی شرح، اور اعصابی نیٹ ورک پر مبنی ماڈلز کے لیے چھوڑنے، یا درختوں کے جوڑ کے ماڈلز کے لیے پتوں، تکرار، اور زیادہ سے زیادہ درخت کی گہرائی ہو سکتی ہیں۔ بہترین ماڈل کو منتخب کرنے کے لیے، ہم چار تربیت یافتہ SageMaker ٹیبلولر الگورتھم میں سے ہر ایک پر SageMaker آٹومیٹک ماڈل ٹیوننگ لاگو کرتے ہیں۔ آپ کو ٹیون کرنے کے لیے صرف ہائپر پیرامیٹر اور ہر پیرامیٹر کے لیے ایک رینج کا انتخاب کرنے کی ضرورت ہے۔ خودکار ماڈل ٹیوننگ کے بارے میں مزید معلومات کے لیے رجوع کریں۔ ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ: مشین لرننگ کے لیے مشین لرننگ کا استعمال or ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ: اسکیل ایبل گریڈینٹ فری آپٹیمائزیشن.

آئیے دیکھتے ہیں کہ یہ عملی طور پر کیسے کام کرتا ہے۔

لائٹ جی بی ایم

ہم LightGBM کے ساتھ خودکار ماڈل ٹیوننگ چلا کر شروع کرتے ہیں، اور اس عمل کو دوسرے الگورتھم کے مطابق ڈھالتے ہیں۔ جیسا کہ پوسٹ میں بیان کیا گیا ہے۔ Amazon SageMaker JumpStart ماڈلز اور الگورتھم اب API کے ذریعے دستیاب ہیں۔SageMaker SDK کے ذریعے پہلے سے تیار کردہ الگورتھم کو تربیت دینے کے لیے درج ذیل نمونے درکار ہیں:

  • اس کے فریم ورک کے لیے مخصوص کنٹینر کی تصویر، جس میں تربیت اور تخمینہ کے لیے تمام مطلوبہ انحصار شامل ہیں۔
  • منتخب ماڈل یا الگورتھم کے لیے ٹریننگ اور انفرنس اسکرپٹس

ہم سب سے پہلے ان نمونوں کو بازیافت کرتے ہیں، جو کہ پر منحصر ہے۔ model_id (lightgbm-classification-model اس صورت میں) اور ورژن:

from sagemaker import image_uris, model_uris, script_uris
train_model_id, train_model_version, train_scope = "lightgbm-classification-model", "*", "training"
training_instance_type = "ml.m5.4xlarge"

# Retrieve the docker image
train_image_uri = image_uris.retrieve(region=None,
                                      framework=None,
                                      model_id=train_model_id,
                                      model_version=train_model_version,
                                      image_scope=train_scope,
                                      instance_type=training_instance_type,
                                      )                                      
# Retrieve the training script
train_source_uri = script_uris.retrieve(model_id=train_model_id,
                                        model_version=train_model_version,
                                        script_scope=train_scope
                                        )
# Retrieve the pre-trained model tarball (in the case of tabular modeling, it is a dummy file)
train_model_uri = model_uris.retrieve(model_id=train_model_id,
                                      model_version=train_model_version,
                                      model_scope=train_scope)

اس کے بعد ہم LightGBM کے لیے ڈیفالٹ ہائپر پیرامیٹر حاصل کرتے ہیں، ان میں سے کچھ کو منتخب طے شدہ قدروں پر سیٹ کرتے ہیں جیسے کہ توثیق کے ڈیٹا پر بوسٹنگ راؤنڈز کی تعداد اور تشخیصی میٹرک، اور ویلیو رینجز کی وضاحت کرتے ہیں جنہیں ہم دوسروں کے لیے تلاش کرنا چاہتے ہیں۔ ہم SageMaker پیرامیٹرز استعمال کرتے ہیں۔ ContinuousParameter اور IntegerParameter اس کے لیے:

from sagemaker import hyperparameters
from sagemaker.tuner import ContinuousParameter, IntegerParameter, HyperparameterTuner

# Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(model_id=train_model_id,
                                                   model_version=train_model_version
                                                   )
# [Optional] Override default hyperparameters with custom values
hyperparameters["num_boost_round"] = "500"
hyperparameters["metric"] = "auc"

# Define search ranges for other hyperparameters
hyperparameter_ranges_lgb = {
    "learning_rate": ContinuousParameter(1e-4, 1, scaling_type="Logarithmic"),
    "num_boost_round": IntegerParameter(2, 30),
    "num_leaves": IntegerParameter(10, 50),
    "feature_fraction": ContinuousParameter(0, 1),
    "bagging_fraction": ContinuousParameter(0, 1),
    "bagging_freq": IntegerParameter(1, 10),
    "max_depth": IntegerParameter(5, 30),
    "min_data_in_leaf": IntegerParameter(5, 50),
}

آخر میں، ہم ایک بناتے ہیں سیج میکر تخمینہ لگانے والا، اسے a میں کھلائیں۔ HyperarameterTuner، اور اس کے ساتھ ہائپر پیرامیٹر ٹیوننگ کا کام شروع کریں۔ tuner.fit():

from sagemaker.estimator import Estimator
from sagemaker.tuner import HyperParameterTuner

# Create SageMaker Estimator instance
tabular_estimator = Estimator(
    role=aws_role,
    image_uri=train_image_uri,
    source_dir=train_source_uri,
    model_uri=train_model_uri,
    entry_point="transfer_learning.py",
    instance_count=1,
    instance_type=training_instance_type,
    max_run=360000,
    hyperparameters=hyperparameters,
)

tuner = HyperparameterTuner(
            tabular_estimator,
            "auc",
            hyperparameter_ranges_lgb,
            [{"Name": "auc", "Regex": "auc: ([0-9.]+)"}],
            max_jobs=10,
            max_parallel_jobs=5,
            objective_type="Maximize",
            base_tuning_job_name="some_name",
        )

tuner.fit({"training": training_dataset_s3_path}, logs=True)

۔ max_jobs پیرامیٹر اس بات کی وضاحت کرتا ہے کہ خودکار ماڈل ٹیوننگ جاب میں کل کتنی ملازمتیں چلائی جائیں گی، اور max_parallel_jobs اس بات کی وضاحت کرتا ہے کہ کتنی ہم آہنگی تربیتی ملازمتیں شروع کی جانی چاہئیں۔ ہم مقصد کی بھی وضاحت کرتے ہیں۔ “Maximize” ماڈل کا AUC (وکر کے نیچے کا علاقہ)۔ کی طرف سے بے نقاب دستیاب پیرامیٹرز میں گہرائی میں غوطہ لگانے کے لئے HyperParameterTuner، کا حوالہ دیتے ہیں ہائپر پیرامیٹر ٹونر.

دیکھو نمونہ نوٹ بک یہ دیکھنے کے لیے کہ ہم ٹیسٹ سیٹ پر اس ماڈل کو کیسے تعینات اور جانچنے کے لیے آگے بڑھتے ہیں۔

کیٹ بوسٹ

CatBoost الگورتھم پر ہائپر پیرامیٹر ٹیوننگ کا عمل پہلے جیسا ہی ہے، حالانکہ ہمیں ID کے تحت ماڈل کے نمونے بازیافت کرنے کی ضرورت ہے۔ catboost-classification-model اور ہائپرپیرامیٹر کی حد انتخاب کو تبدیل کریں:

from sagemaker import hyperparameters

# Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(
    model_id=train_model_id, model_version=train_model_version
)
# [Optional] Override default hyperparameters with custom values
hyperparameters["iterations"] = "500"
hyperparameters["eval_metric"] = "AUC"

# Define search ranges for other hyperparameters
hyperparameter_ranges_cat = {
    "learning_rate": ContinuousParameter(0.00001, 0.1, scaling_type="Logarithmic"),
    "iterations": IntegerParameter(50, 1000),
    "depth": IntegerParameter(1, 10),
    "l2_leaf_reg": IntegerParameter(1, 10),
    "random_strength": ContinuousParameter(0.01, 10, scaling_type="Logarithmic"),
}

ٹیب ٹرانسفارمر

TabTransformer ماڈل پر ہائپر پیرامیٹر ٹیوننگ کا عمل پہلے جیسا ہی ہے، حالانکہ ہمیں ID کے تحت ماڈل کے نمونے بازیافت کرنے کی ضرورت ہے۔ pytorch-tabtransformerclassification-model اور ہائپرپیرامیٹر کی حد انتخاب کو تبدیل کریں۔

ہم تربیت کو بھی بدل دیتے ہیں۔ instance_type کرنے کے لئے ml.p3.2xlarge. TabTransformer ایک ایسا ماڈل ہے جو حال ہی میں Amazon کی تحقیق سے اخذ کیا گیا ہے، جو ٹرانسفارمر ماڈلز کا استعمال کرتے ہوئے ٹیبلر ڈیٹا میں گہری سیکھنے کی طاقت لاتا ہے۔ اس ماڈل کو موثر انداز میں تربیت دینے کے لیے، ہمیں GPU کی حمایت یافتہ مثال کی ضرورت ہے۔ مزید معلومات کے لیے رجوع کریں۔ جدولوں میں ڈیٹا کو گہری سیکھنے کی طاقت لانا.

from sagemaker import hyperparameters
from sagemaker.tuner import CategoricalParameter

# Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(
    model_id=train_model_id, model_version=train_model_version
)
# [Optional] Override default hyperparameters with custom values
hyperparameters["n_epochs"] = 40  # The same hyperparameter is named as "iterations" for CatBoost
hyperparameters["patience"] = 10

# Define search ranges for other hyperparameters
hyperparameter_ranges_tab = {
    "learning_rate": ContinuousParameter(0.001, 0.01, scaling_type="Auto"),
    "batch_size": CategoricalParameter([64, 128, 256, 512]),
    "attn_dropout": ContinuousParameter(0.0, 0.8, scaling_type="Auto"),
    "mlp_dropout": ContinuousParameter(0.0, 0.8, scaling_type="Auto"),
    "input_dim": CategoricalParameter(["16", "32", "64", "128", "256"]),
    "frac_shared_embed": ContinuousParameter(0.0, 0.5, scaling_type="Auto"),
}

آٹوگلون-ٹیبلر

AutoGluon کے معاملے میں، ہم ہائپر پیرامیٹر ٹیوننگ نہیں چلاتے ہیں۔ یہ ڈیزائن کے لحاظ سے ہے، کیونکہ AutoGluon ایک سے زیادہ ماڈلز کو ہائپر پیرامیٹر کے سمجھدار انتخاب کے ساتھ جوڑنے اور انہیں متعدد تہوں میں اسٹیک کرنے پر مرکوز ہے۔ یہ ہائپر پیرامیٹرز کے کامل انتخاب کے ساتھ ایک ماڈل کو تربیت دینے کے مقابلے میں زیادہ پرفارمنس ہوتا ہے اور یہ کمپیوٹیشنل طور پر سستا بھی ہوتا ہے۔ تفصیلات کے لیے، چیک آؤٹ کریں۔ آٹوگلون ٹیبلر: سٹرکچرڈ ڈیٹا کے لیے مضبوط اور درست آٹو ایم ایل.

لہذا، ہم سوئچ کرتے ہیں model_id کرنے کے لئے autogluon-classification-ensemble، اور صرف تشخیص میٹرک ہائپر پیرامیٹر کو ہمارے مطلوبہ AUC سکور پر درست کریں:

from sagemaker import hyperparameters

# Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(
    model_id=train_model_id, model_version=train_model_version
)

hyperparameters["eval_metric"] = "roc_auc"

بلانے کے بجائے tuner.fit()، ہم کال کرتے ہیں۔ estimator.fit() ایک تربیتی کام شروع کرنے کے لیے۔

تربیت یافتہ ماڈلز کی بینچ مارکنگ

چاروں ماڈلز کو تعینات کرنے کے بعد، ہم پیشین گوئی کے لیے ہر ایک اینڈ پوائنٹ پر مکمل ٹیسٹ سیٹ بھیجتے ہیں اور ہر ایک کے لیے درستگی، F1، اور AUC میٹرکس کا حساب لگاتے ہیں (میں کوڈ دیکھیں نمونہ نوٹ بک)۔ ہم ایک اہم تردید کے ساتھ مندرجہ ذیل جدول میں نتائج پیش کرتے ہیں: ان ماڈلز کے درمیان نتائج اور متعلقہ کارکردگی کا انحصار اس ڈیٹاسیٹ پر ہوگا جسے آپ تربیت کے لیے استعمال کرتے ہیں۔ یہ نتائج نمائندہ ہیں، اور اگرچہ بعض الگورتھم کے لیے بہتر کارکردگی کا رجحان متعلقہ عوامل پر مبنی ہے (مثال کے طور پر، AutoGluon LightGBM اور CatBoost دونوں ماڈلز کی پیشین گوئیوں کو ذہانت سے پردے کے پیچھے جوڑتا ہے)، کارکردگی میں توازن بدل سکتا ہے۔ ڈیٹا کی تقسیم.

. خودکار ماڈل ٹیوننگ کے ساتھ لائٹ جی بی ایم خودکار ماڈل ٹیوننگ کے ساتھ کیٹ بوسٹ خودکار ماڈل ٹیوننگ کے ساتھ ٹیب ٹرانسفارمر آٹوگلون-ٹیبلر
درستگی 0.8977 0.9622 0.9511 0.98
F1 0.8986 0.9624 0.9517 0.98
اے او سی 0.9629 0.9907 0.989 0.9979

نتیجہ

اس پوسٹ میں، ہم نے کم کوڈنگ کی کوشش کے ساتھ کسٹمر چرن کی پیشن گوئی کے مسئلے کو حل کرنے کے لیے چار مختلف SageMaker بلٹ ان الگورتھم کو تربیت دی۔ ہم نے ان الگورتھم کو تربیت دینے کے لیے بہترین ہائپر پیرامیٹر تلاش کرنے کے لیے SageMaker خودکار ماڈل ٹیوننگ کا استعمال کیا، اور ان کی کارکردگی کا ایک منتخب کرن پریڈیکشن ڈیٹاسیٹ پر موازنہ کیا۔ آپ متعلقہ استعمال کرسکتے ہیں۔ نمونہ نوٹ بک ایک ٹیمپلیٹ کے طور پر، اپنے مطلوبہ ٹیبلر ڈیٹا پر مبنی مسئلہ کو حل کرنے کے لیے ڈیٹاسیٹ کو اپنے ساتھ تبدیل کرنا۔

SageMaker پر ان الگورتھم کو آزمانا یقینی بنائیں، اور اس پر دستیاب دوسرے بلٹ ان الگورتھم کو استعمال کرنے کے طریقے کے بارے میں نمونے والی نوٹ بکس دیکھیں۔ GitHub کے.


مصنفین کے بارے میں

Amazon SageMaker بلٹ ان ٹیبلر الگورتھم LightGBM، CatBoost، TabTransformer، اور AutoGluon-Tabular PlatoBlockchain ڈیٹا انٹیلی جنس کا استعمال کرتے ہوئے پیشن گوئی کو چرن کریں۔ عمودی تلاش۔ عیڈاکٹر ژن ہوانگ Amazon SageMaker JumpStart اور Amazon SageMaker بلٹ ان الگورتھم کے لیے ایک اپلائیڈ سائنٹسٹ ہے۔ وہ اسکیل ایبل مشین لرننگ الگورتھم تیار کرنے پر توجہ مرکوز کرتا ہے۔ اس کی تحقیقی دلچسپیاں قدرتی لینگویج پروسیسنگ، ٹیبلر ڈیٹا پر قابل وضاحت گہرائی سے سیکھنے، اور نان پیرامیٹرک اسپیس ٹائم کلسٹرنگ کے مضبوط تجزیہ کے شعبے میں ہیں۔ انہوں نے ACL، ICDM، KDD کانفرنسز، اور رائل سٹیٹسٹیکل سوسائٹی: سیریز A جرنل میں بہت سے مقالے شائع کیے ہیں۔

Amazon SageMaker بلٹ ان ٹیبلر الگورتھم LightGBM، CatBoost، TabTransformer، اور AutoGluon-Tabular PlatoBlockchain ڈیٹا انٹیلی جنس کا استعمال کرتے ہوئے پیشن گوئی کو چرن کریں۔ عمودی تلاش۔ عیجواؤ مورا ایمیزون ویب سروسز میں ایک AI/ML ماہر حل آرکیٹیکٹ ہے۔ وہ زیادہ تر NLP کے استعمال کے معاملات پر توجہ مرکوز کرتا ہے اور صارفین کو ڈیپ لرننگ ماڈل کی تربیت اور تعیناتی کو بہتر بنانے میں مدد کرتا ہے۔ وہ کم کوڈ ایم ایل سلوشنز اور ایم ایل اسپیشلائزڈ ہارڈ ویئر کا ایک فعال حامی بھی ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ