PyTorch عبارة عن إطار عمل للتعلم الآلي (ML) يستخدم على نطاق واسع من قبل عملاء AWS لمجموعة متنوعة من التطبيقات ، مثل رؤية الكمبيوتر ومعالجة اللغة الطبيعية وإنشاء المحتوى والمزيد. مع إصدار PyTorch 2.0 الأخير ، يمكن لعملاء AWS الآن القيام بنفس الأشياء التي يمكنهم القيام بها باستخدام PyTorch 1.x ولكن بشكل أسرع وعلى نطاق واسع مع سرعات تدريب محسّنة واستخدام أقل للذاكرة وإمكانيات موزعة محسّنة. تم تضمين العديد من التقنيات الجديدة بما في ذلك torch.compile و TorchDynamo و AOTAutograd و PrimTorch و TorchInductor في إصدار PyTorch2.0. تشير إلى PyTorch 2.0: إصدارنا من الجيل التالي الأسرع والأكثر بيثونية والديناميكية أكثر من أي وقت مضى للتفاصيل.
يوضح هذا المنشور الأداء وسهولة تشغيل تدريب ونشر نموذج ML موزع على نطاق واسع وعالي الأداء باستخدام PyTorch 2.0 على AWS. يسير هذا المنشور أكثر من خلال التنفيذ التدريجي للضبط الدقيق لنموذج RoBERTa (نهج BERT المسبق المحسن بشكل قوي) لتحليل المشاعر باستخدام AWS للتعلم العميق AMIs (AWS DLAMI) و حاويات AWS Deep Learning (DLC) قيد التشغيل الأمازون الحوسبة المرنة السحابية (Amazon EC2 p4d.24xlarge) مع تسريع ملحوظ بنسبة 42٪ عند استخدامه مع PyTorch 2.0 torch.compile + bf16 + المنصهر AdamW. ثم يتم نشر النموذج الدقيق على أوس جرافيتونالمثيل C7g EC2 المستند إلى الأمازون SageMaker مع تسريع ملحوظ بنسبة 10٪ مقارنة بـ PyTorch 1.13.
يوضح الشكل التالي معيار أداء لضبط نموذج RoBERTa على Amazon EC2 p4d.24xlarge مع AWS PyTorch 2.0 DLAMI + DLC.
الرجوع إلى استنتاج محسّن لـ PyTorch 2.0 باستخدام معالجات AWS Graviton للحصول على تفاصيل حول معايير أداء استدلال المثيل المستندة إلى AWS Graviton لـ PyTorch 2.0.
دعم PyTorch 2.0 على AWS
لا يقتصر دعم PyTorch2.0 على الخدمات والحساب الموضح في مثال حالة الاستخدام في هذا المنشور ؛ يمتد إلى العديد من الآخرين على AWS ، والتي نناقشها في هذا القسم.
متطلبات العمل
يقوم العديد من عملاء AWS ، عبر مجموعة متنوعة من الصناعات ، بتحويل أعمالهم باستخدام الذكاء الاصطناعي (AI) ، وتحديداً في مجال الذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة (LLM) المصممة لإنشاء نص يشبه الإنسان. هذه نماذج كبيرة أساسًا تعتمد على تقنيات التعلم العميق التي يتم تدريبها بمئات المليارات من المعلمات. يؤدي النمو في أحجام النماذج إلى زيادة وقت التدريب من أيام إلى أسابيع ، وحتى أشهر في بعض الحالات. يؤدي هذا إلى زيادة هائلة في تكاليف التدريب والاستدلال ، الأمر الذي يتطلب ، أكثر من أي وقت مضى ، إطار عمل مثل PyTorch 2.0 مع دعم مدمج لتدريب النموذج المعجل والبنية التحتية المُحسَّنة لـ AWS المصممة خصيصًا لأعباء العمل واحتياجات الأداء المحددة.
اختيار الحوسبة
توفر AWS دعم PyTorch 2.0 على أوسع خيارات الحوسبة القوية والشبكات عالية السرعة وخيارات التخزين عالية الأداء القابلة للتطوير والتي يمكنك استخدامها لأي مشروع أو تطبيق ML وتخصيصها لتلائم متطلبات الأداء والميزانية. يتجلى هذا في الرسم التخطيطي في القسم التالي ؛ في المستوى السفلي ، نقدم مجموعة واسعة من مثيلات الحوسبة التي تدعمها معالجات AWS Graviton و Nvidia و AMD و Intel.
لنشر النموذج ، يمكنك استخدام المعالجات القائمة على ARM مثل المثيل المستند إلى AWS Graviton الذي تم الإعلان عنه مؤخرًا والذي يوفر أداء استنتاج لـ PyTorch 2.0 مع سرعة تصل إلى 3.5 أضعاف سرعة Resnet50 مقارنة بإصدار PyTorch السابق ، وما يصل إلى 1.4 مرة السرعة لـ BERT ، مما يجعل المثيلات المستندة إلى AWS Graviton أسرع المثيلات المحسّنة للحوسبة على AWS لحلول الاستدلال النموذجية القائمة على وحدة المعالجة المركزية.
اختيار خدمات ML
لاستخدام حوسبة AWS ، يمكنك الاختيار من بين مجموعة واسعة من الخدمات العالمية المستندة إلى السحابة لتطوير ML والحساب وتنظيم سير العمل. يتيح لك هذا الاختيار التوافق مع عملك واستراتيجيات السحابة وتشغيل وظائف PyTorch 2.0 على النظام الأساسي الذي تختاره. على سبيل المثال ، إذا كانت لديك قيود محلية أو استثمارات حالية في منتجات مفتوحة المصدر ، فيمكنك استخدام Amazon EC2 ، AWS ParallelClusterالطرق أو أوس ألترا كلوستر لتشغيل أعباء العمل التدريبية الموزعة على أساس نهج الإدارة الذاتية. يمكنك أيضًا استخدام خدمة مُدارة بالكامل مثل SageMaker للحصول على بنية تحتية للتدريب مُحسّنة التكلفة ومدارة بالكامل وعلى نطاق الإنتاج. يتكامل SageMaker أيضًا مع العديد من أدوات MLOps ، والتي تتيح لك توسيع نطاق نشر النموذج وتقليل تكاليف الاستدلال وإدارة النماذج بشكل أكثر فاعلية في الإنتاج وتقليل العبء التشغيلي.
وبالمثل ، إذا كان لديك استثمارات Kubernetes حالية ، فيمكنك أيضًا استخدام خدمة أمازون مطاطا Kubernetes (Amazon EKS) و Kubeflow على AWS لتنفيذ خط أنابيب ML للتدريب الموزع أو استخدام خدمة تنسيق حاوية AWS أصلية مثل خدمة الأمازون المرنة للحاويات (Amazon ECS) للتدريب على النموذج وعمليات النشر. لا تقتصر خيارات بناء منصة ML على هذه الخدمات ؛ يمكنك الاختيار والاختيار وفقًا لمتطلباتك التنظيمية لوظائف PyTorch 2.0 الخاصة بك.
تمكين PyTorch 2.0 مع AWS DLAMI و AWS DLC
لاستخدام الحزمة المذكورة أعلاه من خدمات AWS والحوسبة القوية ، يجب عليك تثبيت إصدار مجمع محسن من إطار عمل PyTorch2.0 وتبعياته المطلوبة ، والعديد منها عبارة عن مشاريع مستقلة ، واختبارها من البداية إلى النهاية. قد تحتاج أيضًا إلى مكتبات خاصة بوحدة المعالجة المركزية لإجراءات الرياضيات المتسارعة ، والمكتبات الخاصة بوحدة معالجة الرسومات للرياضيات المتسارعة وإجراءات الاتصال بين وحدة معالجة الرسومات ، وبرامج تشغيل وحدة معالجة الرسومات التي يلزم مواءمتها مع برنامج التحويل البرمجي GPU المستخدم لتجميع مكتبات وحدة معالجة الرسومات. إذا كانت مهامك تتطلب تدريبًا على نطاق واسع متعدد العقد ، فأنت بحاجة إلى شبكة محسّنة يمكنها توفير أقل زمن انتقال وأعلى إنتاجية. بعد إنشاء المكدس الخاص بك ، تحتاج إلى فحصها بانتظام وتصحيحها بحثًا عن الثغرات الأمنية وإعادة بناء المكدس وإعادة اختباره بعد كل ترقية لإصدار إطار العمل.
تساعد AWS في تقليل هذا العبء الثقيل من خلال تقديم مجموعة منظمة وآمنة من الأطر والتبعيات والأدوات لتسريع التعلم العميق في السحابة على الرغم من AWS DLAMIs و حزم AWS DLC. تم تحسين هذه الصور والحاويات المعدة مسبقًا والمختبرة للتعلم العميق على أنواع مثيلات الحوسبة المعجلة EC2 ، مما يسمح لك بالتوسع في عقد متعددة لأحمال العمل الموزعة بكفاءة وسهولة أكبر. يتضمن محول النسيج المرن (EFA) و Nvidia GPU stack والعديد من أطر التعلم العميق (TensorFlow و MXNet و PyTorch مع أحدث إصدار من 2.0) للتدريب على التعلم العميق الموزع عالي الأداء. لا تحتاج إلى قضاء بعض الوقت في تثبيت برامج وبرامج التشغيل الخاصة بالتعلم العميق واستكشاف الأخطاء وإصلاحها أو إنشاء بنية أساسية لتعلّم الآلة ، ولا يتعين عليك تحمل التكلفة المتكررة لتصحيح هذه الصور بحثًا عن نقاط الضعف الأمنية أو إعادة إنشاء الصور بعد كل ترقية لإصدار إطار عمل جديد. بدلاً من ذلك ، يمكنك التركيز على الجهد ذي القيمة المضافة الأعلى لوظائف التدريب على نطاق واسع في فترة زمنية أقصر والتكرار على نماذج ML بشكل أسرع.
حل نظرة عامة
بالنظر إلى أن التدريب على GPU والاستدلال على وحدة المعالجة المركزية هو حالة استخدام شائعة لعملاء AWS ، فقد أدرجنا كجزء من هذا المنشور تنفيذًا تدريجيًا للبنية الهجينة (كما هو موضح في الرسم البياني التالي). سنستكشف فن الممكن ونستخدم مثيل P4 EC2 مع دعم BF16 الذي تمت تهيئته مع Base GPU DLAMI بما في ذلك برامج تشغيل NVIDIA و CUDA و NCCL و EFA stack و PyTorch2.0 DLC لضبط نموذج تحليل المشاعر RoBERTa يمنحك التحكم والمرونة لاستخدام أي مكتبات مفتوحة المصدر أو مملوكة. ثم نستخدم SageMaker لبنية تحتية لاستضافة نموذج مُدار بالكامل لاستضافة نموذجنا على AWS Graviton3 مثيلات C7g. اخترنا C7g على SageMaker لأنه ثبت أنه يقلل تكاليف الاستدلال بنسبة تصل إلى 50٪ مقارنة بمثيلات EC2 المماثلة لـ الاستدلال في الوقت الحقيقي على SageMaker. الرسم البياني التالي يوضح هذه العمارة.
يتكون التدريب النموذجي والاستضافة في حالة الاستخدام هذه من الخطوات التالية:
- قم بتشغيل مثيل EC2 Ubuntu المستند إلى GPU DLAMI في VPC الخاص بك والاتصال بالمثيل الخاص بك باستخدام SSH.
- بعد تسجيل الدخول إلى مثيل EC2 الخاص بك ، قم بتنزيل AWS PyTorch 2.0 DLC.
- قم بتشغيل حاوية DLC الخاصة بك باستخدام برنامج نصي للتدريب النموذجي لضبط نموذج RoBERTa.
- بعد اكتمال تدريب النموذج ، قم بحزم النموذج المحفوظ ونصوص الاستدلال وعدد قليل من ملفات البيانات الوصفية في ملف tar يمكن لاستدلال SageMaker استخدامه وتحميل حزمة النموذج إلى خدمة تخزين أمازون البسيطة دلو (أمازون S3).
- انشر النموذج باستخدام SageMaker وأنشئ نقطة نهاية استدلال HTTPS. تحتوي نقطة نهاية استدلال SageMaker على موازن تحميل ومثيل واحد أو أكثر من حاوية الاستنتاج في مناطق توافر خدمات مختلفة. يمكنك نشر إصدارات متعددة من نفس النموذج أو نماذج مختلفة تمامًا خلف نقطة النهاية الفردية هذه. في هذا المثال ، نستضيف نموذجًا واحدًا.
- قم باستدعاء نقطة نهاية النموذج الخاص بك عن طريق إرسال بيانات الاختبار والتحقق من إخراج الاستدلال.
في الأقسام التالية ، نعرض ضبط نموذج RoBERTa لتحليل المشاعر. تم تطوير RoBERTa بواسطة Facebook AI ، وتحسين نموذج BERT الشهير من خلال تعديل المعلمات الفائقة الرئيسية والتدريب المسبق على مجموعة أكبر. هذا يؤدي إلى تحسين الأداء مقارنة بالفانيليا بيرت.
نستخدم محولات مكتبة بواسطة Hugging Face للحصول على نموذج RoBERTa مُدرب مسبقًا على ما يقرب من 124 مليون تغريدة ، ونقوم بضبطه على مجموعة بيانات Twitter لتحليل المشاعر.
المتطلبات الأساسية المسبقة
تأكد من تلبية المتطلبات الأساسية التالية:
- انت تملك حساب AWS.
- تأكد من أنك في
us-west-2
منطقة لتشغيل هذا المثال. (تم اختبار هذا المثال فيus-west-2
؛ ومع ذلك ، يمكنك تشغيل أي منطقة أخرى.) - قم بإنشاء دور مع اسم
sagemakerrole
. أضف السياسات المُدارةAmazonSageMakerFullAccess
وAmazonS3FullAccess
لمنح SageMaker إمكانية الوصول إلى حاويات S3. - قم بإنشاء دور EC2 مع اسم
ec2_role
. استخدم سياسة الأذونات التالية:
1. إطلاق مثيل التطوير الخاص بك
نقوم بإنشاء مثيل p4d.24xlarge يقدم 8 وحدات معالجة رسومات NVIDIA A100 Tensor Core بتنسيق us-west-2
:
عند اختيار AMI ، اتبع ملف ملاحظات الإصدار لتشغيل هذا الأمر باستخدام واجهة سطر الأوامر AWS (AWS CLI) للعثور على معرّف AMI لاستخدامه فيه us-west-2
:
تأكد من أن حجم جذر gp3 هو 200 جيجابايت.
لا يتم تمكين تشفير وحدة تخزين EBS افتراضيًا. ضع في اعتبارك تغيير هذا عند نقل هذا الحل إلى الإنتاج.
2. قم بتنزيل حاوية التعلم العميق
تتوفر AWS DLCs كصور Docker بتنسيق سجل الحاويات المرنة في أمازون عام، خدمة تسجيل صور حاوية AWS مُدارة آمنة وقابلة للتطوير وموثوقة. تم تصميم كل صورة Docker للتدريب أو الاستدلال على إصدار إطار عمل تعلم عميق محدد ، إصدار Python ، مع دعم وحدة المعالجة المركزية أو وحدة معالجة الرسومات. حدد إطار عمل PyTorch 2.0 من القائمة المتاحة صور حاويات التعلم العميق.
أكمل الخطوات التالية لتنزيل DLC الخاص بك:
أ. SSH للمثيل. بشكل افتراضي ، تفتح مجموعة الأمان المستخدمة مع EC2 منفذ SSH للجميع. يرجى مراعاة هذا إذا كنت تنقل هذا الحل إلى الإنتاج:
بشكل افتراضي ، تفتح مجموعة الأمان المستخدمة مع Amazon EC2 منفذ SSH للجميع. ضع في اعتبارك تغيير هذا إذا كنت تنقل هذا الحل إلى الإنتاج.
ب. قم بتعيين متغيرات البيئة المطلوبة لتشغيل الخطوات المتبقية لهذا التنفيذ:
تدعم Amazon ECR مستودعات الصور العامة باستخدام الأذونات المستندة إلى الموارد إدارة الهوية والوصول AWS (IAM) بحيث يمكن لمستخدمين أو خدمات معينة الوصول إلى الصور.
ج. قم بتسجيل الدخول إلى سجل DLC:
د. اسحب أحدث حاوية PyTorch 2.0 مع دعم GPU بتنسيق us-west-2
إذا تلقيت الخطأ "لا توجد مساحة على الجهاز" ، فتأكد من ذلك زيادة حجم EC2 EBS إلى 200 جيجا بايت ثم مد نظام ملفات Linux.
3. استنساخ أحدث البرامج النصية التي تم تكييفها مع PyTorch 2.0
استنساخ البرامج النصية باستخدام الكود التالي:
نظرًا لأننا نستخدم Hugging Face transformers API مع أحدث إصدار 4.28.1 ، فقد مكنت بالفعل دعم PyTorch 2.0. أضفنا الوسيطة التالية إلى المدرب في API بتنسيق train_sentiment.py
لتمكين ميزات PyTorch 2.0 الجديدة:
- تجميع الشعلة - جرب تسريع متوسط 43٪ على وحدات معالجة الرسومات Nvidia A100 مع خط تغيير واحد.
- نوع بيانات BF16 - دعم نوع البيانات الجديد (Brain Floating Point) للأمبير أو وحدات معالجة الرسومات الأحدث.
- تنصهر محسن AdamW - تطبيق AdamW مدمج لزيادة سرعة التدريب. تعمل طريقة التحسين العشوائية هذه على تعديل التنفيذ النموذجي لانحلال الوزن في آدم عن طريق فصل تناقص الوزن عن تحديث التدرج.
4. بناء صورة Docker جديدة مع التبعيات
نقوم بتوسيع صورة PyTorch 2.0 DLC المبنية مسبقًا لتثبيت محول Hugging Face والمكتبات الأخرى التي نحتاجها لضبط نموذجنا. يتيح لك ذلك استخدام مكتبات وإعدادات التعلم العميق المُختبرة والمحسّنة دون الحاجة إلى إنشاء صورة من البداية. انظر الكود التالي:
5. ابدأ التدريب باستخدام الحاوية
قم بتشغيل أمر Docker التالي لبدء ضبط النموذج على ملف tweet_eval
مجموعة بيانات المشاعر. نحن نستخدم وسيطات حاوية Docker (حجم الذاكرة المشتركة ، الحد الأقصى للذاكرة المقفلة ، وحجم المكدس) أوصت به نفيديا لأعباء التعلم العميق.
يجب أن تتوقع الناتج التالي. يقوم النص أولاً بتنزيل مجموعة بيانات TweetEval ، والتي تتكون من سبع مهام غير متجانسة في Twitter ، وكلها مؤطرة كتصنيف تغريدة متعدد الفئات. تتضمن المهام السخرية والكراهية والهجوم والموقف والرموز التعبيرية والعاطفة والمشاعر.
يقوم البرنامج النصي بعد ذلك بتنزيل النموذج الأساسي ويبدأ عملية الضبط الدقيق. يتم الإبلاغ عن مقاييس التدريب والتقييم في نهاية كل حقبة.
إحصائيات الأداء
مع PyTorch 2.0 وأحدث مكتبة لمحولات Hugging Face 4.28.1 ، لاحظنا تسريعًا بنسبة 42٪ على مثيل واحد p4d.24xlarge مع 8 A100 40GB GPUs. تأتي تحسينات الأداء من مزيج من torch.compile ونوع بيانات BF16 ومحسن AdamW المدمج. الكود التالي هو النتيجة النهائية لاثنين من التدريبات مع وبدون ميزات جديدة:
6. اختبر النموذج المدرّب محليًا قبل التحضير لاستنتاج SageMaker
يمكنك العثور على الملفات التالية تحت $ml_working_dir/saved_model/
بعد التدريب:
لنتأكد من أنه يمكننا تشغيل الاستدلال محليًا قبل التحضير لاستنتاج SageMaker. يمكننا تحميل النموذج المحفوظ وتشغيل الاستدلال محليًا باستخدام test_trained_model.py
النصي:
يجب أن تتوقع الناتج التالي مع الإدخال "تتزايد حالات Covid بسرعة!":
7. قم بإعداد نموذج tarball لاستدلال SageMaker
تحت الدليل حيث يوجد النموذج ، قم بإنشاء دليل جديد يسمى code
:
في الدليل الجديد ، قم بإنشاء الملف inference.py
ويضاف اليها ما يلي:
في النهاية ، يجب أن يكون لديك بنية المجلد التالية:
النموذج جاهز ليتم تعبئته وتحميله إلى Amazon S3 لاستخدامه مع استدلال SageMaker:
8. قم بنشر النموذج على مثيل SageMaker AWS Graviton
تقدم الأجيال الجديدة من وحدات المعالجة المركزية (CPU) تحسينًا ملحوظًا في الأداء في استدلال ML بسبب التعليمات المضمنة المتخصصة. في حالة الاستخدام هذه ، نستخدم البنية التحتية للاستضافة المُدارة بالكامل من SageMaker مع مثيلات C3g المستندة إلى AWS Graviton7. قامت AWS أيضًا بقياس ما يصل إلى 50٪ وفورات في التكاليف لاستدلال PyTorch باستخدام مثيلات EC3 C2g المستندة إلى AWS Graviton7 عبر Torch Hub ResNet50 ونماذج Hugging Face متعددة بالنسبة لمثيلات EC2 المماثلة.
لنشر النماذج في مثيلات AWS Graviton ، نستخدم AWS DLCs التي توفر الدعم لـ PyTorch 2.0 و TorchServe 0.8.0 ، أو يمكنك أحضر حاوياتك الخاصة المتوافقة مع بنية ARMv8.2.
نستخدم النموذج الذي دربناه سابقًا: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. إذا لم تكن قد استخدمت SageMaker من قبل ، فراجع ابدأ مع Amazon SageMaker.
للبدء ، تأكد من تحديث حزمة SageMaker:
لأن هذا مثال ، قم بإنشاء ملف يسمى start_endpoint.py
وأضف الكود التالي. سيكون هذا هو نص Python لبدء نقطة نهاية استنتاج SageMaker مع الوضع:
نحن نستخدم ml.c7g.4xlarge للمثال ونسترجع PT 2.0 بنطاق الصورة inference_graviton
. هذا هو مثيل AWS Graviton3 الخاص بنا.
بعد ذلك ، نقوم بإنشاء الملف الذي يقوم بتشغيل التوقع. نقوم بذلك كنصوص منفصلة حتى نتمكن من تشغيل التنبؤات عدة مرات كما نريد. يخلق predict.py
مع الكود التالي:
مع إنشاء البرامج النصية ، يمكننا الآن بدء نقطة نهاية ، والقيام بالتنبؤات مقابل نقطة النهاية ، والتنظيف عند الانتهاء:
9. نظف
أخيرًا ، نريد التنظيف من هذا المثال. قم بإنشاء cleanup.py وأضف الكود التالي:
وفي الختام
أصبحت AWS DLAMIs و DLCs معيار الانتقال لتشغيل أعباء عمل التعلم العميق على مجموعة واسعة من خدمات الحوسبة والتعلم الآلي على AWS. إلى جانب استخدام حزم DLC الخاصة بالإطار على خدمات AWS ML ، يمكنك أيضًا استخدام إطار عمل واحد على Amazon EC2 ، والذي يزيل العبء الثقيل اللازم للمطورين لبناء تطبيقات التعلم العميق والحفاظ عليها. تشير إلى ملاحظات إصدار DLAMI و صور حاويات التعلم العميق المتاحة للبدء.
أظهر هذا المنشور أحد الاحتمالات العديدة لتدريب نموذجك التالي وتقديمه على AWS وناقش العديد من التنسيقات التي يمكنك اعتمادها لتلبية أهداف عملك. جرب هذا المثال أو استخدم خدمات AWS ML الأخرى لتوسيع إنتاجية البيانات لعملك. لقد قمنا بتضمين مشكلة بسيطة لتحليل المشاعر حتى يتمكن العملاء الجدد في ML من فهم مدى سهولة بدء استخدام PyTorch 2.0 على AWS. سنغطي حالات استخدام ونماذج وتقنيات أكثر تقدمًا في منشورات المدونة القادمة.
عن المؤلفين
كانوالجيت خورمي هو مهندس حلول رئيسي في Amazon Web Services. إنه يعمل مع عملاء AWS لتقديم التوجيه والمساعدة الفنية لمساعدتهم على تحسين قيمة حلولهم عند استخدام AWS. Kanwaljit متخصص في مساعدة العملاء في استخدام الحاويات وتطبيقات التعلم الآلي.
مايك شنايدر هو مطور أنظمة ، ومقره في فينكس أريزونا. وهو عضو في حاويات التعلم العميق ، التي تدعم العديد من صور حاوية الإطار ، لتشمل Graviton Inference. إنه مكرس لكفاءة البنية التحتية واستقرارها.
لاي وي هو مهندس برمجيات أول في Amazon Web Services. إنه يركز على بناء أطر تعلم عميقة سهلة الاستخدام وعالية الأداء وقابلة للتطوير لتسريع تدريب النموذج الموزع. خارج العمل ، يستمتع بقضاء الوقت مع أسرته والمشي لمسافات طويلة والتزلج.
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- أفلاطونايستريم. ذكاء بيانات Web3. تضخيم المعرفة. الوصول هنا.
- سك المستقبل مع أدرين أشلي. الوصول هنا.
- شراء وبيع الأسهم في شركات ما قبل الاكتتاب مع PREIPO®. الوصول هنا.
- المصدر https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :لديها
- :يكون
- :ليس
- :أين
- $ UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- تسريع
- معجل
- تسريع
- استمر
- الوصول
- في
- اكشن
- ادم
- تضيف
- وأضاف
- تبنى
- متقدم
- بعد
- ضد
- AI
- محاذاة
- الانحياز
- الكل
- السماح
- السماح
- يسمح
- على طول
- سابقا
- أيضا
- أمازون
- Amazon EC2
- أمازون ويب سيرفيسز
- AMD
- كمية
- an
- تحليل
- تحليل
- و
- أعلن
- آخر
- أي وقت
- API
- تطبيق
- التطبيقات
- نهج
- ما يقرب من
- هندسة معمارية
- هي
- المنطقة
- حجة
- الحجج
- مصطنع
- الذكاء الاصطناعي
- الذكاء الاصطناعي (منظمة العفو الدولية)
- AS
- مساعدة
- At
- توفر
- متاح
- المتوسط
- AWS
- موازن
- قاعدة
- على أساس
- في الأساس
- BE
- لان
- أصبح
- كان
- قبل
- بدأ
- وراء
- مؤشر
- المعايير
- كبير
- المليارات
- BIN
- المدونة
- المقالات والأخبار
- الجسدي
- الملابس السفلية
- دماغ
- واسع
- ميزانية
- نساعدك في بناء
- ابني
- بنيت
- مدمج
- عبء
- الأعمال
- الأعمال
- لكن
- by
- دعوة
- تسمى
- دعوة
- CAN
- قدرات
- حقيبة
- الحالات
- CD
- تغيير
- متغير
- خيار
- اختار
- تصنيف
- زبون
- سحابة
- الكود
- COM
- مجموعة
- يأتي
- Communication
- مماثل
- مقارنة
- متوافق
- إكمال
- إحصاء
- الكمبيوتر
- رؤية الكمبيوتر
- الحوسبة
- التواصل
- نظر
- يتكون
- كنسولات
- وعاء
- حاويات
- محتوى
- انشاء محتوى
- مراقبة
- جوهر
- التكلفة
- وفورات في التكاليف
- التكاليف
- استطاع
- تغطية
- خلق
- خلق
- خلق
- أوراق اعتماد
- من تنسيق
- حالياًّ
- العملاء
- تصميم
- البيانات
- التاريخ
- أيام
- مخصصة
- عميق
- التعلم العميق
- الترتيب
- يوضح
- اعتمادا
- نشر
- نشر
- نشر
- نشر
- تصميم
- تفاصيل
- المتقدمة
- المطور
- المطورين
- التطوير التجاري
- مختلف
- استوعب
- بحث
- ناقش
- وزعت
- التدريب الموزع
- عدة
- do
- عامل في حوض السفن
- فعل
- لا
- بإمكانك تحميله
- التنزيلات
- سائق
- السائقين
- قيادة
- اثنان
- ديناميكي
- كل
- في وقت سابق
- سهولة
- بسهولة
- سهل
- تأثير
- على نحو فعال
- كفاءة
- بكفاءة
- جهد
- إما
- تمكين
- تمكين
- التشفير
- النهاية
- نقطة النهاية
- مهندس
- تعزيز
- تماما
- البيئة
- عصر
- خطأ
- تقييم
- تقييم
- حتى
- EVER
- كل
- مثال
- القائمة
- وسع
- توقع
- الخبره في مجال الغطس
- اكتشف
- الأسي
- تصدير
- مد
- يمتد
- قماش
- الوجه
- فيسبوك
- للعائلات
- أسرع
- أسرع
- المميزات
- قليل
- الشكل
- قم بتقديم
- ملفات
- نهائي
- الاسم الأول
- تناسب
- مرونة
- يطفو على السطح
- تركز
- التركيز
- اتباع
- متابعيك
- في حالة
- الإطار
- الأطر
- تبدأ من
- تماما
- إضافي
- توليد
- ولدت
- جيل
- أجيال
- توليدي
- الذكاء الاصطناعي التوليدي
- دولار فقط واحصل على خصم XNUMX% على جميع
- بوابة
- GitHub جيثب:
- منح
- يعطي
- العالمية
- وحدة معالجة الرسوميات:
- وحدات معالجة الرسومات
- تجمع
- التسويق
- توجيه
- يملك
- وجود
- he
- ثقيل
- رفع أحمال ثقيلة
- مساعدة
- يساعد
- أداء عالي
- أعلى
- أعلى
- له
- يحمل
- مضيف
- استضافة
- كيفية
- لكن
- HTML
- HTTP
- HTTPS
- محور
- مئات
- مهجنة
- ID
- هوية
- if
- يوضح
- صورة
- صور
- تنفيذ
- التنفيذ
- استيراد
- تحسن
- تحسن
- تحسين
- تحسينات
- تحسين
- in
- تتضمن
- شامل
- يشمل
- بما فيه
- القيمة الاسمية
- في ازدياد
- مستقل
- الصناعات
- البنية التحتية
- إدخال
- تثبيت
- تثبيت
- تركيب
- مثل
- بدلًا من ذلك
- تعليمات
- يدمج
- إنتل
- رؤيتنا
- إلى
- الاستثمارات
- IP
- سخرية
- IT
- انها
- المشــاريــع
- JPG
- جسون
- القفل
- تُشير
- لغة
- كبير
- على نطاق واسع
- أكبر
- كمون
- آخر
- أحدث إصدار
- إطلاق
- يؤدي
- تعلم
- اليسار
- المكتبات
- المكتبة
- تجميل
- مثل
- محدود
- خط
- لينكس
- قائمة
- تحميل
- محليا
- تقع
- مقفل
- سجل
- تسجيل الدخول
- خسارة
- خفض
- أدنى
- آلة
- آلة التعلم
- المحافظة
- جعل
- القيام ب
- إدارة
- تمكن
- كثير
- الرياضيات
- ماكس
- مايو..
- تعرف علي
- عضو
- مكبر الصوت : يدعم، مع دعم ميكروفون مدمج لمنع الضوضاء
- يدمج
- البيانات الوصفية
- طريقة
- المقاييس
- مليون
- ML
- MLOps
- موضة
- نموذج
- عارضات ازياء
- الوحدات
- المقبلة.
- الأكثر من ذلك
- يتحرك
- متعدد
- الاسم
- طبيعي
- معالجة اللغات الطبيعية
- ضروري
- حاجة
- بحاجة
- إحتياجات
- سلبي
- شبكة
- الشبكات
- متعدد
- جديد
- مزايا جديدة
- التكنولوجيات الجديدة
- التالي
- العقد
- ملاحظة
- يلاحظ..
- الآن
- NVIDIA
- أهداف
- of
- هجومي
- عرض
- الوهب
- عروض
- on
- ONE
- المصدر المفتوح
- يفتح
- تشغيل
- التحسين
- الأمثل
- مزيد من الخيارات
- or
- تزامن
- التنظيمية
- OS
- أخرى
- أخرى
- لنا
- خارج
- الناتج
- في الخارج
- الخاصة
- صفقة
- معلب
- المعلمات
- جزء
- بقعة
- الترقيع
- أداء
- إذن
- أذونات
- عنقاء
- اختيار
- التقطت
- خط أنابيب
- المنصة
- أفلاطون
- الذكاء افلاطون البيانات
- أفلاطون داتا
- من فضلك
- البوينت
- سياسات الخصوصية والبيع
- سياسة
- الرائج
- إمكانيات
- منشور
- المنشورات
- مدعوم
- قوي
- تنبأ
- تنبؤ
- تنبؤات
- إعداد
- إعداد
- الشروط
- سابق
- رئيسي
- المشكلة
- عملية المعالجة
- معالجة
- المعالجات
- الإنتــاج
- إنتاجية
- المنتجات
- تنفيذ المشاريع
- مشروع ناجح
- الملكية
- ثبت
- تزود
- ويوفر
- جمهور
- وضع
- بايثون
- pytorch
- استعداد
- الأخيرة
- مؤخرا
- متكرر
- تخفيض
- منطقة
- سجل
- بانتظام
- نسبي
- الافراج عن
- الخدمة الموثوقة
- المتبقية
- وذكرت
- تطلب
- مطلوب
- المتطلبات الأساسية
- يتطلب
- مورد
- استجابة
- القيود
- نتيجة
- عائد أعلى
- مراجعة
- النوع
- جذر
- يجري
- تشغيل
- sagemaker
- الاستدلال SageMaker
- نفسه
- مدخرات
- تحجيم
- حجم
- تفحص
- تعلم الحروف
- نطاق
- أحرز هدفاً
- خدش
- مخطوطات
- القسم
- أقسام
- تأمين
- أمن
- انظر تعريف
- اختيار
- اختيار
- إرسال
- كبير
- عاطفة
- مستقل
- خدمة
- الخدمة
- خدماتنا
- الجلسة
- طقم
- إعدادات
- الإعداد
- سبعة
- عدة
- SHA256
- شاركت
- ينبغي
- عرض
- أظهرت
- أظهرت
- يظهر
- هام
- الاشارات
- عزباء
- المقاس
- الأحجام
- So
- تطبيقات الكمبيوتر
- مهندس البرمجيات
- حل
- الحلول
- بعض
- الفضاء
- متخصص
- تتخصص
- محدد
- على وجه التحديد
- سرعة
- بسرعة
- أنفق
- الإنفاق
- استقرار
- كومة
- معيار
- بداية
- بدأت
- يبدأ
- ملخص الحساب
- إحصائيات
- خطوة
- خطوات
- تخزين
- خيارات التخزين
- استراتيجيات
- بناء
- هذه
- الدعم
- مدعومة
- دعم
- الدعم
- نظام
- أنظمة
- تناسب
- المهام
- تقني
- تقنيات
- التكنولوجيا
- tensorflow
- تجربه بالعربي
- اختبار
- من
- أن
- •
- المنطقة
- من مشاركة
- منهم
- then
- تشبه
- هم
- الأشياء
- على الرغم من؟
- عبر
- الإنتاجية
- صف
- الوقت
- مرات
- إلى
- أدوات
- شعلة
- قطار
- متدرب
- قادة الإيمان
- محول
- محولات
- تحويل
- محاولة
- سقسقة
- تويت
- أو تويتر
- اثنان
- نوع
- أنواع
- نموذجي
- أوبونتو
- مع
- فهم
- المقبلة
- تحديث
- تحديث
- ترقية
- تم التحميل
- الأستعمال
- تستخدم
- حالة الاستخدام
- مستعمل
- المستخدمين
- استخدام
- سهل حياتك
- قيمنا
- تشكيلة
- مختلف
- تحقق من
- الإصدار
- رؤيتنا
- حجم
- نقاط الضعف
- تريد
- we
- الويب
- خدمات ويب
- أسابيع
- وزن
- ترحيب
- متى
- التي
- على نحو واسع
- سوف
- مع
- بدون
- للعمل
- سير العمل
- أعمال
- اكتب
- جاري الكتابة
- X
- أنت
- حل متجر العقارات الشامل الخاص بك في جورجيا
- زفيرنت
- المناطق