تمت كتابة هذا المنشور بالاشتراك مع فيليب شميد من Hugging Face.
لقد سمعنا جميعًا عن التقدم المحرز في مجال نماذج اللغة الكبيرة (LLMs) والعدد المتزايد باستمرار من مجموعات المشكلات حيث توفر LLM رؤى قيمة. النماذج الكبيرة ، عند تدريبها على مجموعات بيانات ضخمة والعديد من المهام ، تكون أيضًا قادرة على التعميم جيدًا على المهام التي لم يتم تدريبهم عليها تحديدًا. تسمى هذه النماذج نماذج الأساس، وهو مصطلح شاع لأول مرة من قبل معهد ستانفورد للذكاء الاصطناعي المتمركز حول الإنسان. على الرغم من أن نماذج الأساس هذه قادرة على التعميم جيدًا ، خاصةً بمساعدة الهندسة السريعة التقنيات ، غالبًا ما تكون حالة الاستخدام خاصة بالمجال ، أو تكون المهمة مختلفة جدًا ، بحيث يحتاج النموذج إلى مزيد من التخصيص. تتمثل إحدى طرق تحسين أداء نموذج كبير لمجال أو مهمة معينة في مواصلة تدريب النموذج باستخدام مجموعة بيانات أصغر ومهمة محددة. على الرغم من أن هذا النهج ، المعروف باسم الكون المثالى، ينجح في تحسين دقة LLMs ، فإنه يتطلب تعديل جميع أوزان النموذج. يعد الضبط الدقيق أسرع بكثير من التدريب المسبق للنموذج بفضل حجم مجموعة البيانات الأصغر بكثير ، ولكنه لا يزال يتطلب قوة حاسوبية وذاكرة كبيرة. يعمل الضبط الدقيق على تعديل جميع أوزان المعلمات الخاصة بالنموذج الأصلي ، مما يجعله باهظ الثمن وينتج عنه نموذج بنفس حجم النموذج الأصلي.
لمواجهة هذه التحديات ، وجه يعانق قدم ال مكتبة الضبط الدقيق بكفاءة المعلمات (PEFT). تتيح لك هذه المكتبة تجميد معظم أوزان النموذج الأصلي واستبدال طبقات النموذج أو توسيعها عن طريق تدريب مجموعة إضافية أصغر بكثير من المعلمات. هذا يجعل التدريب أقل تكلفة بكثير من حيث الحوسبة والذاكرة المطلوبة.
في هذا المنشور ، نوضح لك كيفية تدريب المعلمة السبعة مليارات نموذج بلومز باستخدام وحدة معالجة رسومات واحدة فقط (GPU) الأمازون SageMaker، منصة التعلم الآلي (ML) من أمازون لإعداد وبناء وتدريب ونشر نماذج تعلم الآلة عالية الجودة. بلومز هو نموذج لمعالجة اللغة الطبيعية للأغراض العامة (NLP). نستخدم PEFT لتحسين هذا النموذج للمهمة المحددة لتلخيص المحادثات الشبيهة بالمراسلة. مثيل GPU الفردي الذي نستخدمه هو مثال منخفض التكلفة لأنواع المثيلات العديدة التي توفرها AWS. يسلط تدريب هذا النموذج على وحدة معالجة رسومات واحدة (GPU) الضوء على التزام AWS بأن تكون المزود الأكثر فعالية من حيث التكلفة لخدمات AI / ML.
يمكن العثور على رمز هذه الإرشادات التفصيلية في مستودع GitHub لأجهزة الكمبيوتر المحمولة Hugging Face ضمن ملف sagemaker / 24_train_bloom_peft_lora المجلد.
المتطلبات الأساسية المسبقة
للمتابعة ، يجب أن تكون لديك المتطلبات الأساسية التالية:
- An حساب AWS.
- دفتر Jupyter في الداخل أمازون ساجميكر ستوديو أو مثيلات دفتر SageMaker.
- ستحتاج إلى الوصول إلى نوع مثيل SageMaker ml.g5.2xlarge ، والذي يحتوي على وحدة معالجة رسومات NVIDIA A10G واحدة. على ال وحدة تحكم إدارة AWS، انتقل إلى Service Quotas لـ SageMaker واطلب زيادة 1 مثيل للحصص التالية: ml.g5.2xlarge لاستخدام وظيفة التدريب و ml.g5.2xlarge لاستخدام نقطة النهاية.
- بعد تطبيق الحصص النسبية المطلوبة على حسابك ، يمكنك استخدام صورة Studio Python 3 الافتراضية (Data Science) مع مثيل ml.t3.medium لتشغيل مقتطفات رمز دفتر الملاحظات. للحصول على القائمة الكاملة للنواة المتاحة ، يرجى الرجوع إلى متوفر Amazon SageMaker Kernels.
قم بإعداد جلسة SageMaker
استخدم الكود التالي لإعداد جلسة SageMaker الخاصة بك:
قم بتحميل مجموعة البيانات وتحضيرها
نستخدم سامسوم مجموعة البيانات ، وهي عبارة عن مجموعة من 16,000 محادثة شبيهة بالرسول مع ملخصات. تم إنشاء المحادثات وكتابتها من قبل لغويين يجيدون اللغة الإنجليزية. فيما يلي مثال على مجموعة البيانات:
لتدريب النموذج ، تحتاج إلى تحويل المدخلات (النص) إلى معرفات الرمز المميز. يتم ذلك عن طريق رمز رمز Hugging Face Transformers. لمزيد من المعلومات ، يرجى الرجوع إلى الفصل 6 من دورة Hugging Face NLP.
قم بتحويل المدخلات بالكود التالي:
قبل بدء التدريب ، تحتاج إلى معالجة البيانات. بمجرد تدريب النموذج ، سيأخذ مجموعة من الرسائل النصية كمدخلات وينشئ ملخصًا كإخراج. تحتاج إلى تنسيق البيانات كموجه (الرسائل) بالإجابة الصحيحة (الملخص). تحتاج أيضًا إلى تقسيم الأمثلة إلى تسلسلات إدخال أطول لتحسين تدريب النموذج. انظر الكود التالي:
الآن يمكنك استخدام ملف تكامل نظام الملفات لتحميل مجموعة البيانات إلى خدمة تخزين أمازون البسيطة (أمازون إس 3):
صقل BLOOMZ-7B مع LoRA و bitsandbytes int-8 على SageMaker
عناق الوجه BLOOMZ-7B بطاقة نموذجية يشير إلى أن تدريبها الأولي قد تم توزيعه على 8 عقد مع 8 وحدات معالجة رسومات A100 80 جيجابايت ووحدات معالجة مركزية بذاكرة 512 جيجابايت لكل منهما. لا يمكن الوصول إلى تكوين الحوسبة هذا بسهولة ، وهو باهظ التكلفة للمستهلكين ، ويتطلب خبرة في تحسين أداء التدريب الموزع. يقلل SageMaker من الحواجز التي تحول دون تكرار هذا الإعداد من خلال ملفات توزيع مكتبات تدريبية؛ ومع ذلك ، فإن تكلفة ثماني مثيلات ml.p4de.24xlarge عند الطلب ستكون 376.88 دولارًا للساعة. علاوة على ذلك ، يستهلك النموذج المدرب بالكامل حوالي 40 غيغابايت من الذاكرة ، وهو ما يتجاوز الذاكرة المتاحة للعديد من وحدات معالجة الرسومات المتاحة للمستهلكين الفرديين ويتطلب استراتيجيات للتعامل مع استنتاج النماذج الكبيرة. ونتيجة لذلك ، فإن الضبط الكامل للنموذج لمهمتك على عمليات تشغيل النماذج المتعددة ونشرها سيتطلب تكاليف كبيرة للحوسبة والذاكرة والتخزين على الأجهزة التي لا يمكن للمستهلكين الوصول إليها بسهولة.
هدفنا هو إيجاد طريقة لتكييف BLOOMZ-7B مع حالة استخدام تلخيص الدردشة لدينا بطريقة أكثر سهولة وفعالية من حيث التكلفة مع الحفاظ على الدقة. لتمكين نموذجنا من ضبطه بدقة على مثيل SageMaker ml.g5.2xlarge مع وحدة معالجة رسومات NVIDIA A10G واحدة للمستهلكين ، فإننا نستخدم تقنيتين لتقليل متطلبات الحوسبة والذاكرة للضبط الدقيق: LoRA والقياس الكمي.
LoRA (تكيف الرتبة المنخفضة) هي تقنية تقلل بشكل كبير من عدد معلمات النموذج والحسابات المرتبطة بها اللازمة للضبط الدقيق لمهمة جديدة دون خسارة في الأداء التنبئي. أولاً ، يقوم بتجميد أوزان النموذج الأصلي الخاص بك وبدلاً من ذلك يُحسِّن مصفوفات أوزان تحلل الرتبة الأصغر لمهمتك الجديدة بدلاً من تحديث الأوزان الكاملة ، ثم يعيد إدخال هذه الأوزان المكيفة إلى النموذج الأصلي. وبالتالي ، فإن تحديثات تدرج الوزن الأقل تعني حوسبة أقل وذاكرة GPU أثناء الضبط الدقيق. الحدس وراء هذا النهج هو أن LoRA تسمح لـ LLMs بالتركيز على الرموز المميزة للمدخلات والمخرجات الأكثر أهمية مع تجاهل الرموز المميزة الزائدة عن الحاجة والأقل أهمية. لتعميق فهمك لتقنية LoRA ، راجع الورقة الأصلية LoRA: التكيف منخفض الرتبة لنماذج اللغة الكبيرة.
بالإضافة إلى تقنية LoRA ، يمكنك استخدام ملف bitsanbytes Hugging Face Integration LLM.int8 () طريقة لتقدير نموذج BloomZ المجمد ، أو تقليل دقة قيم الوزن والانحياز ، من خلال تقريبها من float16 إلى int8. يقلل القياس الكمي من الذاكرة المطلوبة لـ BloomZ بحوالي أربع مرات ، مما يمكّنك من ملاءمة النموذج على مثيل وحدة معالجة الرسومات A10G دون خسارة كبيرة في الأداء التنبئي. لتعميق فهمك لكيفية عمل التكميم int8 ، وتنفيذه في مكتبة bitsandbytes ، وتكامله مع مكتبة Hugging Face Transformers ، راجع مقدمة لطيفة لمضاعفة المصفوفة 8 بت للمحولات على نطاق واسع باستخدام محولات تعانق الوجه ، والتسريع والبت وبايت.
أتاحت Hugging Face إمكانية الوصول إلى LoRA والتكميم عبر مجموعة واسعة من نماذج المحولات من خلال مكتبة PEFT وتكاملها مع مكتبة bitsandbytes. الوظيفة create_peft_config () في البرنامج النصي المعد run_clm.py يوضح استخدامها في إعداد النموذج الخاص بك للتدريب:
باستخدام LoRA ، يشير الناتج من print_trainable_parameters () إلى أننا كنا قادرين على تقليل عدد معلمات النموذج من 7 مليارات إلى 3.9 مليون. هذا يعني أن 5.6٪ فقط من معلمات النموذج الأصلي بحاجة إلى التحديث. يتيح لنا هذا الانخفاض الكبير في متطلبات الحوسبة والذاكرة ملاءمة نموذجنا وتدريبه على وحدة معالجة الرسومات دون مشاكل.
لخلق تدريب SageMaker وظيفة ، سوف تحتاج إلى مقدر الوجه المعانقة. المقدّر يتعامل مع تدريب SageMaker الشامل ومهام النشر. يعتني SageMaker ببدء وإدارة كل ما هو مطلوب الأمازون الحوسبة المرنة السحابية مثيلات (Amazon EC2) لك. بالإضافة إلى ذلك ، فإنه يوفر حاوية تدريب Hugging Face الصحيحة ، وتحميل البرامج النصية المتوفرة ، وتنزيل البيانات من دلو S3 الخاص بنا إلى الحاوية في المسار /opt/ml/input/data
. ثم تبدأ وظيفة التدريب. انظر الكود التالي:
يمكنك الآن بدء عملك التدريبي باستخدام طريقة .fit () وتمرير مسار S3 إلى البرنامج النصي للتدريب:
إن استخدام LoRA والتكميم يجعل ضبط BLOOMZ-7B لمهمتنا ميسور التكلفة وفعال مع SageMaker. عند استخدام وظائف تدريب SageMaker ، فأنت تدفع فقط مقابل وحدات معالجة الرسومات مقابل مدة تدريب النموذج. في مثالنا ، استغرقت وظيفة تدريب SageMaker 20,632،5.7 ثانية ، أي حوالي 5.2 ساعة. يكلف مثيل ml.g1.515xlarge الذي استخدمناه 7 دولارًا للساعة للاستخدام عند الطلب. نتيجة لذلك ، بلغت التكلفة الإجمالية لتدريب طراز BLOOMZ-8.63B الذي تم ضبطه بدقة 7 دولارًا فقط. وبالمقارنة ، فإن الضبط الدقيق الكامل لأوزان النموذج البالغ 600 مليارات سيكلف ما يقدر بـ 6,900 دولار ، أو XNUMX٪ أكثر لكل دورة تدريبية ، بافتراض تحجيم GPU الخطي على تكوين الحوسبة الأصلي الموضح في بطاقة نموذج Hugging Face. من الناحية العملية ، قد يختلف هذا أيضًا اعتمادًا على استراتيجية التدريب الخاصة بك ، واختيار المثال ، وتسعير المثال.
يمكننا أيضًا تقليل تكاليف التدريب لدينا باستخدام قامت SageMaker بإدارة مثيلات Spot. ومع ذلك ، هناك احتمال أن يؤدي ذلك إلى زيادة إجمالي وقت التدريب بسبب مقاطعة Spot Instance. يرى الأمازون SageMaker التسعير على سبيل المثال تفاصيل التسعير.
انشر النموذج إلى نقطة نهاية SageMaker للاستدلال
مع LoRA ، قمت مسبقًا بتكييف مجموعة أصغر من الأوزان لمهمتك الجديدة. أنت بحاجة إلى طريقة لدمج هذه الأوزان الخاصة بالمهمة مع الأوزان المدربة مسبقًا للنموذج الأصلي. في البرنامج النصي run_clm.py ، مكتبة PEFT merge_and_unload()
تهتم الطريقة بدمج نموذج BLOOMZ-7B الأساسي مع أوزان المحول المحدّث التي تم ضبطها وفقًا لمهمتك لتسهيل نشرها دون تقديم أي زمن انتقال للاستدلال مقارنة بالنموذج الأصلي.
في هذا القسم ، ننتقل من خلال الخطوات لإنشاء نموذج SageMaker من الأداة النموذجية التي تم ضبطها بدقة ونشرها في نقطة نهاية SageMaker للاستدلال. أولاً ، يمكنك إنشاء نموذج Hugging Face باستخدام قطعة أثرية جديدة مضبوطة بدقة للنشر إلى نقطة نهاية SageMaker. نظرًا لأنك قمت مسبقًا بتدريب النموذج باستخدام مقدر SageMaker Hugging Face ، يمكنك نشر النموذج على الفور. يمكنك بدلاً من ذلك تحميل النموذج المدرب إلى حاوية S3 واستخدامها لإنشاء حزمة نموذج لاحقًا. انظر الكود التالي:
كما هو الحال مع أي مقدر SageMaker ، يمكنك نشر النموذج باستخدام طريقة النشر () من كائن مقدر Hugging Face ، وتمرير العدد المطلوب ونوع المثيلات. في هذا المثال ، نستخدم نفس نوع مثيل G5 المجهز بوحدة معالجة رسومات NVIDIA A10g واحدة تم ضبط النموذج عليها في الخطوة السابقة:
قد تستغرق نقطة نهاية SageMaker من 5 إلى 10 دقائق لإحضار المثيل الخاص بك عبر الإنترنت وتنزيل النموذج الخاص بك حتى تكون جاهزًا لقبول طلبات الاستدلال.
عند تشغيل نقطة النهاية ، يمكنك اختبارها عن طريق إرسال نموذج حوار من قسم اختبار مجموعة البيانات. قم أولاً بتحميل تقسيم الاختبار باستخدام مكتبة Hugging Face Datasets. بعد ذلك ، حدد عددًا صحيحًا عشوائيًا لفهرس تقطيع عينة اختبار واحدة من مصفوفة مجموعة البيانات. باستخدام تنسيق السلسلة ، ادمج عينة الاختبار مع قالب سريع في إدخال منظم لتوجيه استجابة نموذجنا. يمكن بعد ذلك دمج هذا الإدخال المنظم مع معلمات إدخال إضافية للنموذج في حمولة JSON عينة منسقة. أخيرًا ، قم باستدعاء نقطة نهاية SageMaker مع العينة المنسقة واطبع إخراج النموذج الذي يلخص مربع حوار العينة. انظر الكود التالي:
تنظيف
الآن بعد أن اختبرت نموذجك ، تأكد من تنظيف موارد SageMaker المرتبطة لمنع استمرار الرسوم:
نبذة عامة
في هذا المنشور ، استخدمت مكتبات Hugging Face Transformer و PEFT و bitsandbytes مع SageMaker لضبط نموذج لغة بلومز الكبير على وحدة معالجة رسومات واحدة مقابل 8 دولارات ثم نشر النموذج إلى نقطة نهاية SageMaker للاستدلال على عينة اختبار. يقدم SageMaker طرقًا متعددة لاستخدام نماذج Hugging Face ؛ لمزيد من الأمثلة ، تحقق من عينات AWS GitHub.
للاستمرار في استخدام SageMaker لضبط نماذج الأساس ، جرب بعض الأساليب في المنشور مهندس معماري مخصص لتطبيقات AI SaaS التوليدية على Amazon SageMaker. نشجعك أيضًا على معرفة المزيد عن إمكانيات Amazon Generative AI من خلال الاستكشاف بداية القفز, أمازون تيتان النماذج و أمازون بيدروك.
حول المؤلف
فيليب شميد هو قائد تقني في Hugging Face مع مهمة إضفاء الطابع الديمقراطي على التعلم الآلي الجيد من خلال المصادر المفتوحة والعلوم المفتوحة. فيليب شغوف بإنتاج نماذج التعلم الآلي المتطورة والتوليدية للذكاء الاصطناعي. إنه يحب مشاركة معرفته حول الذكاء الاصطناعي ومعالجة اللغات الطبيعية في العديد من اللقاءات مثل Data Science على AWS ، وفي اجتماعاته الفنية مدونة.
روبرت فيشر مهندس حلول كبير لعملاء الرعاية الصحية وعلوم الحياة. إنه يعمل عن كثب مع العملاء لفهم كيف يمكن أن تساعدهم AWS في حل المشكلات ، لا سيما في مجال الذكاء الاصطناعي / التعلم الآلي. يتمتع روبرت بسنوات عديدة من الخبرة في هندسة البرمجيات عبر مجموعة من قطاعات الصناعة بما في ذلك الأجهزة الطبية والتكنولوجيا المالية والتطبيقات التي تواجه المستهلك.
دوغ كيلي هو مهندس حلول AWS الأب الذي يعمل كمستشار تقني موثوق به لأفضل الشركات الناشئة في مجال التعلم الآلي في القطاعات التي تتراوح من منصات التعلم الآلي والمركبات المستقلة إلى الزراعة الدقيقة. وهو عضو في المجتمع الميداني التقني لـ AWS ML حيث يتخصص في دعم العملاء بأعباء عمل استدلال MLOps و ML.
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- تمويل EVM. واجهة موحدة للتمويل اللامركزي. الوصول هنا.
- مجموعة كوانتوم ميديا. تضخيم IR / PR. الوصول هنا.
- أفلاطونايستريم. ذكاء بيانات Web3. تضخيم المعرفة. الوصول هنا.
- المصدر https://aws.amazon.com/blogs/machine-learning/train-a-large-language-model-on-a-single-amazon-sagemaker-gpu-with-hugging-face-and-lora/
- :لديها
- :يكون
- :ليس
- :أين
- $ UP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 16
- 17
- 20
- 2018
- 24
- 26%
- 28
- 40
- 7
- 8
- 80
- 9
- a
- ماهرون
- من نحن
- تسريع
- استمر
- الوصول
- يمكن الوصول
- حسابي
- دقة
- في
- تكيف
- تكيف
- تضيف
- إضافة
- إضافي
- وبالإضافة إلى ذلك
- العنوان
- المستشار
- بأسعار معقولة
- زراعة
- AI
- AI / ML
- AL
- اليكس
- الكل
- يسمح
- على طول
- ألفا
- أيضا
- بالرغم ان
- أمازون
- Amazon EC2
- الأمازون SageMaker
- أمازون ويب سيرفيسز
- an
- و
- أي وقت
- التطبيقات
- تطبيقي
- التقديم
- نهج
- هي
- مجموعة
- مصطنع
- AS
- أسوشيتد
- At
- اهتمام
- تلقائيا
- مستقل
- المركبات المستقلة
- متاح
- AWS
- الى الخلف
- الحواجز
- قاعدة
- BE
- لان
- وراء
- يجري
- انحياز
- مليار
- جلب
- واسع
- ابني
- لكن
- by
- تسمى
- CAN
- قدرات
- فيزا وماستركارد
- يهمني
- حقيبة
- سلسلة
- التحديات
- تغيير
- اسعارنا محددة من قبل وزارة العمل
- التحقق
- فئة
- عن كثب
- الكود
- مجموعة شتاء XNUMX
- دمج
- الجمع بين
- التزام
- مجتمع
- مماثل
- نسبيا
- قارن
- مقارنة
- إحصاء
- الحوسبة
- القدرة الحاسوبية
- الاعداد
- بناء على ذلك
- مستهلك
- المستهلكين
- وعاء
- استمر
- واصل
- المحادثات
- تحول
- ملفات تعريف الارتباط ( الكوكيز )
- تصحيح
- التكلفة
- فعاله من حيث التكلفه
- التكاليف
- استطاع
- الدورة
- خلق
- خلق
- على
- العملاء
- التخصيص
- المتطور والحديث
- البيانات
- علم البيانات
- قواعد البيانات
- تعمق
- الترتيب
- دمقرطة
- اعتمادا
- نشر
- نشر
- نشر
- نشر
- مطلوب
- تفاصيل
- الأجهزة
- حوار
- حوار
- مختلف
- بعد
- وزعت
- التدريب الموزع
- do
- هل
- نطاق
- فعل
- إلى أسفل
- بإمكانك تحميله
- التنزيلات
- اثنان
- مدة الأقامة
- أثناء
- e
- E & T
- كل
- أسهل
- فعال
- تمكين
- تمكن
- شجع
- النهائي إلى نهاية
- نقطة النهاية
- الهندسة
- انجليزي
- عهود
- مسلح
- خاصة
- مقدر
- حتى
- المتنامية
- مثال
- أمثلة
- يتجاوز
- إلا
- يوجد
- ذو تكلفة باهظة
- الخبره في مجال الغطس
- خبرة
- مد
- الوجه
- مروحة
- أسرع
- المميزات
- أقل
- حقل
- ملفات
- أخيرا
- FINTECH
- الاسم الأول
- تناسب
- تركز
- اتباع
- متابعيك
- في حالة
- شكل
- وجدت
- دورة تأسيسية
- أربعة
- تجمد
- الجمعة
- تبدأ من
- مجمد
- بالإضافة إلى
- تماما
- وظيفة
- إضافي
- علاوة على ذلك
- هدف عام
- توليد
- توليدي
- الذكاء الاصطناعي التوليدي
- لطيف
- دولار فقط واحصل على خصم XNUMX% على جميع
- GitHub جيثب:
- معطى
- العالمية
- Go
- هدف
- الذهاب
- خير
- وحدة معالجة الرسوميات:
- وحدات معالجة الرسومات
- الرسومات
- تجمع
- توجيه
- مقابض
- أجهزة التبخير
- يملك
- he
- الرعاية الصحية
- سمعت
- مساعدة
- مرتفع
- عالي الجودة
- ويبرز
- له
- ساعة
- ساعات العمل
- كيفية
- كيفية
- لكن
- HTML
- HTTP
- HTTPS
- محور
- تعانق الوجه
- i
- ID
- IDS
- if
- يوضح
- صورة
- فورا
- التنفيذ
- استيراد
- أهمية
- تحسن
- in
- يشمل
- بما فيه
- القيمة الاسمية
- في ازدياد
- مؤشر
- يشير
- فرد
- العالمية
- معلومات
- في البداية
- إدخال
- المدخلات
- رؤى
- مثل
- بدلًا من ذلك
- معهد
- التكامل
- إلى
- أدخلت
- إدخال
- المُقدّمة
- مسائل
- IT
- انها
- وظيفة
- المشــاريــع
- JPG
- جسون
- م
- المعرفة
- معروف
- ملصقات
- لغة
- كبير
- كمون
- الى وقت لاحق
- طبقات
- قيادة
- تعلم
- تعلم
- أقل
- المكتبات
- المكتبة
- الحياة
- علوم الحياة
- قائمة
- ll
- LLM
- تحميل
- يعد
- خسارة
- يحب
- منخفض
- منخفضة التكلفة
- آلة
- آلة التعلم
- صنع
- الحفاظ على
- جعل
- يصنع
- تمكن
- إدارة
- إدارة
- كثير
- هائل
- مصفوفة
- ماكس
- مايو..
- يعني
- طبي
- متوسط
- تعرف علي
- يجتمع
- Meetups
- عضو
- مكبر الصوت : يدعم، مع دعم ميكروفون مدمج لمنع الضوضاء
- دمج
- رسائل
- طريقة
- مليون
- دقيقة
- الرسالة
- ML
- MLOps
- نموذج
- عارضات ازياء
- الأكثر من ذلك
- أكثر
- كثيرا
- متعدد
- الاسم
- طبيعي
- معالجة اللغات الطبيعية
- التنقل
- حاجة
- بحاجة
- إحتياجات
- جديد
- التالي
- البرمجة اللغوية العصبية
- العقد
- مفكرة
- الآن
- عدد
- NVIDIA
- موضوع
- of
- عروض
- غالبا
- on
- على الطلب
- مرة
- ONE
- online
- فقط
- جاكيت
- المصدر المفتوح
- التحسين
- الأمثل
- المثلى
- or
- طلب
- أصلي
- لنا
- خارج
- أوجز
- الناتج
- على مدى
- صفقة
- ورق
- المعلمة
- المعلمات
- مرت
- مرور
- عاطفي
- مسار
- أداء
- مخصصه
- المنصة
- منصات التداول
- أفلاطون
- الذكاء افلاطون البيانات
- أفلاطون داتا
- إمكانية
- منشور
- قوة
- ممارسة
- دقة
- وتوقع
- متنبئ
- إعداد
- أعدت
- إعداد
- الشروط
- منع
- سابق
- سابقا
- التسعير
- طباعة
- المشكلة
- مشاكل
- عملية المعالجة
- معالجة
- التقدّم
- المقدمة
- مزود
- ويوفر
- توفير
- بايثون
- عشوائية
- نطاق
- تتراوح
- معدل
- بدلا
- استعداد
- تخفيض
- يقلل
- تخفيض
- منطقة
- بقية
- يحل محل
- تكرار
- مستودع
- طلب
- طلبات
- تطلب
- مطلوب
- المتطلبات الأساسية
- يتطلب
- الموارد
- استجابة
- نتيجة
- النتائج
- عائد أعلى
- ROBERT
- النوع
- التقريب
- يجري
- تشغيل
- ادارة العلاقات مع
- sagemaker
- الاستدلال SageMaker
- نفسه
- حفظ
- حجم
- التحجيم
- علوم
- علوم
- مخطوطات
- ثواني
- القسم
- انظر تعريف
- اختيار
- إرسال
- يخدم
- الخدمة
- خدماتنا
- الجلسة
- طقم
- باكجات
- الإعداد
- عدة
- مشاركة
- ينبغي
- إظهار
- هام
- بشكل ملحوظ
- الاشارات
- عزباء
- المقاس
- الأصغر
- So
- تطبيقات الكمبيوتر
- هندسة البرمجيات
- الحلول
- حل
- بعض
- مصدر
- الفضاء
- تتخصص
- محدد
- على وجه التحديد
- انقسم
- بقعة
- ستانفورد
- بداية
- ابتداء
- يبدأ
- البدء
- خطوة
- خطوات
- لا يزال
- تخزين
- استراتيجيات
- الإستراتيجيات
- خيط
- منظم
- ستوديو
- بنجاح
- هذه
- تلخيص
- ملخص
- دعم
- أخذ
- يأخذ
- مهمة
- المهام
- تقني
- تقنيات
- قالب
- مصطلح
- سياسة الحجب وتقييد الوصول
- تجربه بالعربي
- اختبار
- من
- شكر
- أن
- •
- المحور
- من مشاركة
- منهم
- then
- هناك.
- تشبه
- هم
- على الرغم من؟
- عبر
- الوقت
- مرات
- إلى
- سويا
- رمز
- tokenize
- المرمز
- الرموز
- غدا
- استغرق
- تيشرت
- الإجمالي
- قطار
- متدرب
- قادة الإيمان
- محول
- محولات
- صحيح
- افضل
- محاولة
- اثنان
- نوع
- أنواع
- مع
- فهم
- فهم
- وحدة
- تحديث
- آخر التحديثات
- تحديث
- تم التحميل
- تحميل
- بناء على
- us
- الأستعمال
- تستخدم
- حالة الاستخدام
- مستعمل
- استخدام
- القيمة
- القيم
- مختلف
- السيارات
- الإصدار
- القطاعات
- حجم
- تجول
- تريد
- وكان
- طريق..
- طرق
- we
- الويب
- خدمات ويب
- وزن
- حسن
- كان
- متى
- التي
- في حين
- ويكيبيديا
- سوف
- مع
- في غضون
- بدون
- كلمات
- أعمال
- سوف
- مكتوب
- خاطئ
- سنوات
- أنت
- حل متجر العقارات الشامل الخاص بك في جورجيا
- شباب
- زفيرنت