Amazon SageMaker ٹریننگ پر PyTorch Lightning اور مقامی PyTorch DDP چلائیں، جس میں Amazon Search PlatoBlockchain ڈیٹا انٹیلی جنس شامل ہے۔ عمودی تلاش۔ عی

ایمیزون سیج میکر ٹریننگ پر پائی ٹارچ لائٹننگ اور مقامی پائی ٹارچ ڈی ڈی پی چلائیں، جس میں ایمیزون سرچ کی خاصیت ہے۔

اتنا ڈیٹا، اتنا کم وقت۔ مشین لرننگ (ML) کے ماہرین، ڈیٹا سائنسدانوں، انجینئرز اور پرجوش دنیا بھر میں اس مسئلے کا سامنا کر چکے ہیں۔ قدرتی لینگویج پروسیسنگ سے لے کر کمپیوٹر ویژن تک، ٹیبلولر سے ٹائم سیریز تک، اور ہر چیز کے درمیان، زیادہ سے زیادہ GPUs کے خلاف ڈیٹا چلاتے وقت رفتار کو بہتر بنانے کے پرانے مسئلے نے لاتعداد حلوں کو متاثر کیا ہے۔ آج، ہمیں مقامی اوپن سورس فریم ورک استعمال کرنے والے PyTorch ڈویلپرز کے لیے خصوصیات کا اعلان کرتے ہوئے خوشی ہو رہی ہے، جیسے پائی ٹارچ لائٹننگ اور پائی ٹارچ ڈی ڈی پی، جو بادل تک ان کے راستے کو ہموار کرے گا۔

ایمیزون سیج میکر ML کے لیے ایک مکمل طور پر منظم سروس ہے، اور SageMaker ماڈل ٹریننگ پیمانے پر اعلیٰ کارکردگی کی تربیت کے لیے ایک بہترین کمپیوٹ ماحول ہے۔ سیج میکر ماڈل ٹریننگ ریموٹ ٹریننگ کا تجربہ پیش کرتی ہے جس میں سیملیس کنٹرول ہوائی جہاز کے ساتھ اعلی کارکردگی اور کم قیمت پر ایم ایل ماڈلز کو آسانی سے تربیت اور دوبارہ تیار کیا جا سکتا ہے۔ ہم SageMaker ٹریننگ پورٹ فولیو میں نئی ​​خصوصیات کا اعلان کرتے ہوئے بہت پرجوش ہیں جو PyTorch کو بڑے پیمانے پر چلانے کو اور بھی آسان اور قابل رسائی بناتے ہیں:

  1. PyTorch Lightning کو اب ضم کیا جا سکتا ہے۔ سیج میکر کی تقسیم شدہ ڈیٹا متوازی لائبریری کوڈ کی تبدیلی کی صرف ایک لائن کے ساتھ۔
  2. سیج میکر ماڈل ٹریننگ اب NCCL بیک اینڈ کے ساتھ مقامی PyTorch Distributed Data Parallel کی حمایت حاصل ہے، جس سے ڈویلپرز کو SageMaker پر پہلے سے کہیں زیادہ آسانی سے منتقل ہونے کی اجازت ملتی ہے۔

اس پوسٹ میں، ہم ان نئی خصوصیات پر تبادلہ خیال کرتے ہیں، اور یہ بھی سیکھتے ہیں کہ ایمیزون سرچ نے کس طرح ماڈل ٹریننگ کے وقت کو تیز کرنے کے لیے SageMaker میں آپٹمائزڈ ڈسٹری بیوٹڈ ٹریننگ بیک اینڈ کے ساتھ PyTorch Lightning کو چلایا ہے۔

ایمیزون سرچ کیس اسٹڈی میں غوطہ لگانے سے پہلے، ان لوگوں کے لیے جو واقف نہیں ہیں، ہم اس پر کچھ پس منظر دینا چاہیں گے سیج میکر کی تقسیم شدہ ڈیٹا متوازی لائبریری. 2020 میں، ہم نے پیمانے پر تقسیم شدہ گریڈینٹ ڈیسنٹ کے لیے ایک حسب ضرورت کلسٹر کنفیگریشن تیار اور لانچ کیا جو کلسٹر کی مجموعی کارکردگی کو بڑھاتا ہے، جسے Amazon Science پر متعارف کرایا گیا ہے۔ ہیرنگ. پیرامیٹر سرورز اور رنگ پر مبنی ٹوپولاجی دونوں میں سے بہترین کا استعمال کرتے ہوئے، سیج میکر ڈسٹری بیوٹڈ ڈیٹا پیریلل (SMDDP) کو اس کے لیے بہتر بنایا گیا ہے۔ ایمیزون لچکدار کمپیوٹ کلاؤڈ (ایمیزون EC2) نیٹ ورک ٹوپولوجی، بشمول EFA. بڑے کلسٹر سائز کے لیے، SMDDP Horovod (TensorFlow) اور PyTorch ڈسٹری بیوٹڈ ڈیٹا متوازی کے مقابلے میں 20-40% تھرو پٹ بہتری فراہم کرنے کے قابل ہے۔ چھوٹے کلسٹر سائز اور معاون ماڈلز کے لیے، ہم تجویز کرتے ہیں۔ سیج میکر ٹریننگ کمپائلر، جو کام کے مجموعی وقت کو 50% تک کم کرنے کے قابل ہے۔

کسٹمر اسپاٹ لائٹ: ایمیزون سرچ کے ساتھ سیج میکر کے آپٹمائزڈ بیک اینڈ پر پائی ٹارچ لائٹننگ

Amazon Search پر تلاش اور دریافت کے تجربے کے لیے ذمہ دار ہے۔ Amazon.com. یہ ایمیزون پر خریدنے کے لیے مصنوعات تلاش کرنے والے صارفین کے لیے تلاش کے تجربے کو طاقت دیتا ہے۔ اعلی سطح پر، Amazon تلاش Amazon.com پر فروخت ہونے والی تمام مصنوعات کے لیے ایک انڈیکس بناتی ہے۔ جب کوئی گاہک کوئی سوال داخل کرتا ہے، تو Amazon تلاش مختلف قسم کی ML تکنیکوں کا استعمال کرتی ہے، بشمول گہری سیکھنے کے ماڈلز، گاہک کے استفسار سے متعلقہ اور دلچسپ پروڈکٹس کو ملانے کے لیے۔ پھر یہ گاہک کو نتائج دکھانے سے پہلے مصنوعات کی درجہ بندی کرتا ہے۔

Amazon تلاش کے سائنسدانوں نے PyTorch Lightning کو گہرے سیکھنے کے ماڈلز کو تربیت دینے کے لیے ایک اہم فریم ورک کے طور پر استعمال کیا ہے جو PyTorch کے اوپری حصے پر اس کی اضافی قابل استعمال خصوصیات کی وجہ سے تلاش کی درجہ بندی کو طاقت بخشتا ہے۔ SMDDP اس نئے SageMaker کے آغاز سے پہلے PyTorch Lightning میں لکھے گئے ڈیپ لرننگ ماڈلز کے لیے تعاون یافتہ نہیں تھا۔ اس نے Amazon کے تلاش کے سائنسدانوں کو روک دیا جو PyTorch Lightning کو ڈیٹا متوازی تکنیکوں کا استعمال کرتے ہوئے اپنی ماڈل ٹریننگ کو اسکیل کرنے سے ترجیح دیتے ہیں، ان کی تربیت کا وقت نمایاں طور پر کم ہو جاتا ہے اور انہیں نئے تجربات کی جانچ کرنے سے روکا جاتا ہے جن کے لیے مزید توسیع پذیر تربیت کی ضرورت ہوتی ہے۔

ٹیم کے ابتدائی بینچ مارکنگ کے نتائج ایک نمونہ ماڈل کے لیے 7.3 گنا تیز تربیتی وقت دکھاتے ہیں جب ایک نوڈ ٹریننگ بیس لائن کے مقابلے میں آٹھ نوڈس پر تربیت دی جاتی ہے۔ ان بینچ مارکنگ میں استعمال ہونے والا بیس لائن ماڈل ایک ملٹی لیئر پرسیپٹرون نیورل نیٹ ورک ہے جس میں سات گھنے مکمل طور پر منسلک تہوں اور 200 سے زیادہ پیرامیٹرز ہیں۔ مندرجہ ذیل جدول ml.p3.16xlarge SageMaker ٹریننگ مثالوں پر بینچ مارکنگ کے نتائج کا خلاصہ کرتا ہے۔

مثالوں کی تعداد تربیت کا وقت (منٹ) بہتری
1 99 بیس لائن
2 55 1.8x
4 27 3.7x
8 13.5 7.3x

اگلا، ہم نئے لانچوں کی تفصیلات میں غوطہ لگاتے ہیں۔ اگر آپ چاہیں تو، آپ ہماری متعلقہ کے ذریعے قدم رکھ سکتے ہیں۔ مثال کے طور پر نوٹ بک.

PyTorch Lightning کو SageMaker کی تقسیم شدہ تربیتی لائبریری کے ساتھ چلائیں۔

ہمیں یہ اعلان کرتے ہوئے خوشی ہو رہی ہے کہ SageMaker Data Parallel اب بغیر کسی رکاوٹ کے PyTorch Lightning کے ساتھ SageMaker ٹریننگ میں ضم ہو جاتا ہے۔

PyTorch Lightning ایک اوپن سورس فریم ورک ہے جو PyTorch میں حسب ضرورت ماڈل لکھنے کے لیے آسانیاں فراہم کرتا ہے۔ کچھ طریقوں سے جیسا کہ کیراس نے TensorFlow کے لیے کیا تھا، یا یہاں تک کہ دلیل سے Hugging Face کے لیے، PyTorch Lightning خود PyTorch کی نچلی سطح کی زیادہ تر فعالیت کے لیے تجرید کے ساتھ ایک اعلیٰ سطح کا API فراہم کرتا ہے۔ اس میں ماڈل کی وضاحت، پروفائلنگ، تشخیص، کٹائی، ماڈل کی ہم آہنگی، ہائپر پیرامیٹر کنفیگریشنز، ٹرانسفر لرننگ، اور بہت کچھ شامل ہے۔

اس سے پہلے، PyTorch Lightning کے ڈویلپرز اس بارے میں غیر یقینی تھے کہ کس طرح بغیر کسی رکاوٹ کے اپنے تربیتی کوڈ کو اعلی کارکردگی والے SageMaker GPU کلسٹرز پر منتقل کیا جائے۔ اس کے علاوہ، ان کے لیے SageMaker Data Parallel کے ذریعے متعارف کرائے گئے کارکردگی کے فوائد سے فائدہ اٹھانے کا کوئی طریقہ نہیں تھا۔

PyTorch Lightning کے لیے، عام طور پر، SageMaker Training پر ان APIs کو چلانے کے لیے کوڈ میں بہت کم تبدیلیاں ہونی چاہئیں۔ مثال کے طور پر نوٹ بک میں ہم استعمال کرتے ہیں۔ ڈی ڈی پی اسٹریٹجی اور ڈی ڈی پی پلگ ان طریقوں

PyTorch Lightning کو SageMaker Data Parallel کے ساتھ ایک آپٹمائزڈ بیک اینڈ کے طور پر استعمال کرنے کے تین مراحل ہیں:

  1. حمایت یافتہ استعمال کریں۔ AWS ڈیپ لرننگ کنٹینر (DLC) آپ کی بنیادی تصویر کے طور پر، یا اختیاری طور پر اپنا کنٹینر بنائیں اور سیج میکر ڈیٹا متوازی بیک اینڈ خود انسٹال کریں۔. یقینی بنائیں کہ آپ کے پاس PyTorch Lightning آپ کے ضروری پیکجوں میں شامل ہے، جیسے کہ a کے ساتھ requirements.txt فائل.
  2. اپنی ٹریننگ اسکرپٹ میں کچھ معمولی کوڈ تبدیلیاں کریں جو آپٹمائزڈ بیک اینڈ کو فعال کرتی ہیں۔ یہ شامل ہیں:
    1. SM DDP لائبریری درآمد کریں:
      import smdistributed.dataparallel.torch.torch_smddp
      

    2. SageMaker کے لیے PyTorch Lightning Environment ترتیب دیں:
      from pytorch_lightning.plugins.environments.lightning_environment 
        import LightningEnvironment
      
      env = LightningEnvironment()
      env.world_size = lambda: int(os.environ["WORLD_SIZE"])
      env.global_rank = lambda: int(os.environ["RANK"])

    3. اگر آپ PyTorch Lightning کا 1.5.10 سے پرانا ورژن استعمال کر رہے ہیں، تو آپ کو کچھ مزید اقدامات شامل کرنے کی ضرورت ہوگی۔
      1. سب سے پہلے، ماحولیاتی متغیر شامل کریں:
        os.environ["PL_TORCH_DISTRIBUTED_BACKEND"] = "smddp"

      2. دوسرا، یقینی بنائیں کہ آپ استعمال کرتے ہیں DDPPluginبجائے DDPStrategy. اگر آپ ایک حالیہ ورژن استعمال کر رہے ہیں، جسے آپ آسانی سے سیٹ کر سکتے ہیں۔ requirements.txt میں source_dir آپ کے کام کے لیے، پھر یہ ضروری نہیں ہے۔ درج ذیل کوڈ دیکھیں:
        ddp = DDPPlugin(parallel_devices=[torch.device("cuda", d) for d in range(num_gpus)], cluster_environment=env)

    4. اختیاری طور پر، اپنے عمل گروپ کے پسدید کی وضاحت کریں۔ "smddp" میں DDPSTrategy چیز. تاہم، اگر آپ PyTorch DDP بیک اینڈ کے ساتھ PyTorch Lightning استعمال کر رہے ہیں، جو کہ سپورٹ بھی ہے، تو اسے صرف ہٹا دیں۔process_group_backend` پیرامیٹر درج ذیل کوڈ دیکھیں:
      ddp = DDPStrategy(
        cluster_environment=env, 
        process_group_backend="smddp", 
        accelerator="gpu")

  3. اس بات کو یقینی بنائیں کہ آپ کے پاس تخمینہ لگانے والے میں تقسیم کا ایک طریقہ درج ہے، جیسے distribution={"smdistributed":{"dataparallel":{"enabled":True} اگر آپ ہیرنگ بیک اینڈ استعمال کر رہے ہیں، یا distribution={"pytorchddp":{"enabled":True}.
  • میں مناسب پیرامیٹرز کی مکمل فہرست کے لیے distribution پیرامیٹر، ہماری دستاویزات دیکھیں یہاں.

اب آپ اپنی سیج میکر ٹریننگ جاب شروع کر سکتے ہیں! آپ اپنی تربیتی نوکری Python SDK، Boto3، SageMaker کنسول، کے ذریعے شروع کر سکتے ہیں۔ AWS کمانڈ لائن انٹرفیس (AWS CLI)، اور ان گنت دوسرے طریقے۔ AWS کے نقطہ نظر سے، یہ ہے ایک واحد API کمانڈ: create-training-job. چاہے آپ اس کمانڈ کو اپنے مقامی ٹرمینل سے لانچ کریں، ایک او ڈبلیو ایس لامبڈا۔ تقریب ، ایک ایمیزون سیج میکر اسٹوڈیو نوٹ بک، ایک KubeFlow پائپ لائن، یا کوئی دوسرا کمپیوٹ ماحول مکمل طور پر آپ پر منحصر ہے۔

براہ کرم نوٹ کریں کہ PyTorch Lightning اور SageMaker Data Parallel کے درمیان انضمام فی الحال 1.11 سے شروع ہونے والے PyTorch کے صرف نئے ورژنز کے لیے تعاون یافتہ ہے۔ اس کے علاوہ، یہ ریلیز PyTorch 1.12 سے شروع ہونے والے SageMaker کے لیے صرف AWS DLCs میں دستیاب ہے۔ یقینی بنائیں کہ آپ اس تصویر کو اپنی بنیاد کے طور پر اشارہ کرتے ہیں۔ میں us-east-1، یہ پتہ درج ذیل ہے:

ecr_image = '763104351884.dkr.ecr.us-east-1.amazonaws.com/pytorch-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker'

پھر آپ اسے اپنی بیس امیج کے طور پر استعمال کرتے ہوئے اپنے ڈوکر کنٹینر کو بڑھا سکتے ہیں، یا آپ اسے متغیر کے طور پر منتقل کر سکتے ہیں image_uri کی دلیل سیج میکر ٹریننگ کا تخمینہ لگانے والا۔

نتیجے کے طور پر، آپ AWS پر دستیاب بہترین کارکردگی کے ساتھ، SageMaker Training کے آپٹمائزڈ GPUs پر اپنا PyTorch Lightning کوڈ چلانے کے قابل ہو جائیں گے۔

SageMaker پر PyTorch تقسیم شدہ ڈیٹا متوازی چلائیں۔

سب سے بڑا مسئلہ PyTorch تقسیم شدہ ڈیٹا متوازی (DDP) حل کرنا دھوکہ دہی سے آسان ہے: رفتار۔ ایک اچھا تقسیم شدہ تربیتی فریم ورک استحکام، بھروسے، اور سب سے اہم بات، پیمانے پر بہترین کارکردگی فراہم کرتا ہے۔ PyTorch DDP ایک سے زیادہ GPU ڈیوائسز پر سنگل نوڈ اور ملٹی نوڈ سیٹنگز میں اپنے ماڈلز کو نقل کرنے کے لیے APIs کے ساتھ ٹارچ ڈویلپرز کو فراہم کر کے اس پر ڈیلیور کرتا ہے۔ اس کے بعد فریم ورک ٹریننگ ڈیٹاسیٹ سے لے کر ہر ماڈل کاپی میں مختلف اشیاء کو شارڈنگ کرنے کا انتظام کرتا ہے، ہر ایک ماڈل کی کاپیوں کو ہر قدم پر ہم آہنگ کرنے کے لیے گریڈینٹ کا اوسط بناتا ہے۔ یہ مکمل ٹریننگ رن کی مکمل تکمیل پر ایک ماڈل تیار کرتا ہے۔ مندرجہ ذیل خاکہ اس عمل کی وضاحت کرتا ہے۔

PyTorch DDP ان منصوبوں میں عام ہے جو بڑے ڈیٹا سیٹس کا استعمال کرتے ہیں۔ ہر ڈیٹاسیٹ کا درست سائز وسیع پیمانے پر مختلف ہوگا، لیکن ایک عام رہنما خطوط ڈیٹاسیٹس، کمپیوٹ سائزز، اور ماڈل کے سائز کو اسی طرح کے تناسب میں پیمانہ کرنا ہے۔ بھی کہا جاتا ہے پیمانے کے قوانین، ان تینوں کا بہترین امتزاج بحث کے لیے بہت زیادہ ہے اور درخواستوں کی بنیاد پر مختلف ہوگا۔ AWS میں، متعدد صارفین کے ساتھ کام کرنے کی بنیاد پر، ہم ڈیٹا کے متوازی حکمت عملیوں کے فوائد کو واضح طور پر دیکھ سکتے ہیں جب ڈیٹا سیٹ کا مجموعی سائز کم از کم چند دسیوں GBs ہوتا ہے۔ جب ڈیٹا سیٹ اور بھی بڑے ہو جاتے ہیں، تو کسی قسم کے ڈیٹا کی متوازی حکمت عملی کو لاگو کرنا مجموعی تجربے کو تیز کرنے اور اپنے وقت کی قدر کو بہتر بنانے کے لیے ایک اہم تکنیک ہے۔

اس سے پہلے، وہ صارفین جو PyTorch DDP کو احاطے میں یا دوسرے کمپیوٹ ماحول میں تقسیم شدہ تربیت کے لیے استعمال کر رہے تھے، ان کے پاس اپنے پروجیکٹس کو آسانی سے SageMaker Training میں منتقل کرنے کے لیے ایک فریم ورک کی کمی تھی تاکہ بغیر کسی رکاوٹ کے کنٹرول والے جہاز کے ساتھ اعلیٰ کارکردگی والے GPUs کا فائدہ اٹھایا جا سکے۔ خاص طور پر، انہیں یا تو اپنے ڈیٹا کے متوازی فریم ورک کو SMDDP میں منتقل کرنے کی ضرورت تھی، یا SageMaker ٹریننگ پر PyTorch DDP کی صلاحیتوں کو دستی طور پر تیار کرنے اور جانچنے کی ضرورت تھی۔ آج، سیج میکر ٹریننگ اپنے PyTorch DDP کوڈ پر سوار ہونے والے صارفین کے لیے ایک ہموار تجربہ فراہم کرنے پر خوش ہے۔

اسے مؤثر طریقے سے استعمال کرنے کے لیے، آپ کو اپنے تربیتی اسکرپٹ میں کوئی تبدیلی کرنے کی ضرورت نہیں ہے۔

آپ اس نئے پیرامیٹر کو درج ذیل کوڈ میں دیکھ سکتے ہیں۔ میں distribution پیرامیٹر، صرف شامل کریں pytorchddp اور بطور فعال سیٹ کریں۔ true.

estimator = PyTorch(
    base_job_name="pytorch-dataparallel-mnist",
    source_dir="code",
    entry_point = "my_model.py",
    ... 
    # Training using SMDataParallel Distributed Training Framework
    distribution = {"pytorchddp": {"enabled": "true"}}
)

یہ نئی ترتیب SageMaker Python SDK کے ورژن 2.102.0 اور PyTorch DLC کے 1.11 سے شروع ہوتی ہے۔

PyTorch DDP ڈویلپرز کے لیے جو مقبول سے واقف ہیں۔ ٹارچرن فریم ورک، یہ جاننا مددگار ہے کہ سیج میکر تربیتی ماحول پر یہ ضروری نہیں ہے، جو پہلے سے ہی مضبوط فالٹ ٹولرنس فراہم کرتا ہے۔ تاہم، کوڈ کو دوبارہ لکھنے کو کم کرنے کے لیے، آپ ایک اور لانچر اسکرپٹ لا سکتے ہیں جو اس کمانڈ کو آپ کے انٹری پوائنٹ کے طور پر چلاتا ہے۔

اب PyTorch کے ڈویلپرز آسانی سے اپنی اسکرپٹس کو SageMaker پر منتقل کر سکتے ہیں، اس بات کو یقینی بناتے ہوئے کہ ان کے اسکرپٹ اور کنٹینرز متعدد کمپیوٹ ماحول میں بغیر کسی رکاوٹ کے چل سکتے ہیں۔

یہ انہیں مستقبل میں فائدہ اٹھانے کے لیے تیار کرتا ہے۔ سیج میکر کی تقسیم شدہ تربیتی لائبریریاں جو 40% تک سپیڈ اپ اضافہ فراہم کرنے کے لیے AWS سے بہتر تربیتی ٹوپولاجی فراہم کرتے ہیں۔ PyTorch ڈویلپرز کے لیے، یہ کوڈ کی ایک لائن ہے! PyTorch DDP کوڈ کے لیے، آپ آسانی سے بیک اینڈ کو سیٹ کر سکتے ہیں۔ smddp ابتدا میں (دیکھیں۔ PyTorch ٹریننگ اسکرپٹ میں ترمیم کریں۔)، جیسا کہ درج ذیل کوڈ میں دکھایا گیا ہے:

import smdistributed.dataparallel.torch.torch_smddp
import torch.distributed as dist
dist.init_process_group(backend='smddp')

جیسا کہ ہم نے اوپر دیکھا، آپ کا بیک اینڈ بھی سیٹ کر سکتے ہیں۔ DDPStrategy کرنے کے لئے smddp بجلی کا استعمال کرتے وقت. یہ تک کی قیادت کر سکتے ہیں 40% مجموعی رفتار بڑے کلسٹرز کے لیے! سیج میکر پر تقسیم شدہ تربیت کے بارے میں مزید جاننے کے لیے دیکھیں ہمارا آن ڈیمانڈ ویبینار، کی حمایت نوٹ بک، متعلقہ دستاویزات، اور کاغذات.

نتیجہ

اس پوسٹ میں، ہم نے سیج میکر ٹریننگ فیملی کے اندر دو نئی خصوصیات متعارف کرائی ہیں۔ یہ PyTorch ڈویلپرز کے لیے PyTorch DDP اور PyTorch Lightning دونوں SageMaker پر اپنا موجودہ کوڈ استعمال کرنا بہت آسان بنا دیتے ہیں۔

ہم نے یہ بھی دکھایا کہ ایمیزون سرچ کس طرح سیج میکر ٹریننگ کو اپنے گہرے سیکھنے کے ماڈلز کی تربیت کے لیے استعمال کرتی ہے، اور خاص طور پر PyTorch Lightning کے ساتھ SageMaker Data Parallel optimized اجتماعی لائبریری کو بیک اینڈ کے طور پر۔ مجموعی طور پر تقسیم شدہ تربیت میں منتقل ہونے سے Amazon تلاش کو ٹرین کے 7.3x تیز رفتار وقت حاصل کرنے میں مدد ملی۔


مصنفین کے بارے میں

Amazon SageMaker ٹریننگ پر PyTorch Lightning اور مقامی PyTorch DDP چلائیں، جس میں Amazon Search PlatoBlockchain ڈیٹا انٹیلی جنس شامل ہے۔ عمودی تلاش۔ عیایملی ویبر SageMaker کے لانچ ہونے کے فوراً بعد AWS میں شامل ہوا، اور تب سے دنیا کو اس کے بارے میں بتانے کی کوشش کر رہا ہے! صارفین کے لیے ایم ایل کے نئے تجربات بنانے کے علاوہ، ایملی کو تبتی بدھ مت کا مراقبہ اور مطالعہ کرنا پسند ہے۔

Amazon SageMaker ٹریننگ پر PyTorch Lightning اور مقامی PyTorch DDP چلائیں، جس میں Amazon Search PlatoBlockchain ڈیٹا انٹیلی جنس شامل ہے۔ عمودی تلاش۔ عی کرن دھیمان ٹورنٹو، کینیڈا میں مقیم AWS میں سافٹ ویئر ڈویلپمنٹ انجینئر ہے۔ وہ تقسیم شدہ کمپیوٹنگ ورک بوجھ کو تیز کرنے کے لیے مشین لرننگ کی جگہ اور تعمیراتی حل کے بارے میں بہت پرجوش ہے۔

Amazon SageMaker ٹریننگ پر PyTorch Lightning اور مقامی PyTorch DDP چلائیں، جس میں Amazon Search PlatoBlockchain ڈیٹا انٹیلی جنس شامل ہے۔ عمودی تلاش۔ عیوشوا کریا AWS Deep Engine میں سافٹ ویئر ڈویلپمنٹ انجینئر ہے۔ اس کی دلچسپیاں مشین لرننگ اور ڈسٹری بیوٹڈ سسٹمز کے چوراہے پر ہیں اور وہ ٹیک اور اے آئی میں خواتین کو بااختیار بنانے کے بارے میں بھی پرجوش ہیں۔

Amazon SageMaker ٹریننگ پر PyTorch Lightning اور مقامی PyTorch DDP چلائیں، جس میں Amazon Search PlatoBlockchain ڈیٹا انٹیلی جنس شامل ہے۔ عمودی تلاش۔ عیایمن النہراوی۔ ایمیزون سرچ میں ایک پرنسپل سافٹ ویئر انجینئر ہے جو مشین لرننگ ایکسلریشن، اسکیلنگ اور آٹومیشن کی کوششوں کی رہنمائی کرتا ہے۔ اس کی مہارت متعدد شعبوں پر محیط ہے، بشمول مشین لرننگ، ڈسٹری بیوٹڈ سسٹمز، اور پرسنلائزیشن۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ