مع الذكاء الاصطناعي ، تحتاج إلى رؤية الصورة الأكبر للأجهزة والبرامج PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

مع الذكاء الاصطناعي ، تحتاج إلى رؤية الصورة الأكبر للأجهزة والبرامج

ميزة دعائية لقد مر عقد ونصف منذ أن أبهر الباحثون عالم التكنولوجيا من خلال إثبات أن وحدات المعالجة الرسومية يمكن استخدامها لتسريع عمليات الذكاء الاصطناعي الرئيسية بشكل كبير.

يستمر هذا الإدراك في السيطرة على خيال المؤسسات. ذكرت IDC أنه عندما يتعلق الأمر بالبنية التحتية ، فإن حوسبة GPU المتسارعة و HPC مثل توسيع نطاقها من بين أهم الاعتبارات لقادة التكنولوجيا والمهندسين المعماريين الذين يتطلعون إلى بناء البنية التحتية للذكاء الاصطناعي الخاصة بهم.

ولكن بالنسبة لجميع المنظمات التي طبقت الذكاء الاصطناعي بنجاح على مشاكل العالم الحقيقي ، فإن الكثير منها يكافح لتجاوز مرحلة التجريب أو المرحلة التجريبية. أبحاث IDC لعام 2021 وجدت أن أقل من ثلث المستجيبين قد نقلوا مشروعات الذكاء الاصطناعي الخاصة بهم إلى الإنتاج ، وأن ثلث هؤلاء فقط وصلوا إلى "مرحلة ناضجة من الإنتاج".

تشمل العقبات المذكورة مشاكل معالجة البيانات وإعدادها وتعزيز البنية التحتية لدعم الذكاء الاصطناعي على نطاق المؤسسة. قال IDC إن الشركات بحاجة إلى الاستثمار في "البنية التحتية المصممة لهذا الغرض والحجم المناسب".

ما هي مشكلة الذكاء الاصطناعي هنا؟

إذن ، ما هو الخطأ الذي تحدثه هذه المنظمات مع الذكاء الاصطناعي؟ قد يكون أحد العوامل هو أن قادة التكنولوجيا ومتخصصي الذكاء الاصطناعي يفشلون في إلقاء نظرة شاملة على خط أنابيب الذكاء الاصطناعي الأوسع مع إيلاء الكثير من الاهتمام لوحدات معالجة الرسومات مقارنة بمحركات الحوسبة الأخرى ، ولا سيما وحدة المعالجة المركزية الموقرة.

لأنه في النهاية ، لا يتعلق الأمر بدعم وحدات المعالجة المركزية (CPU) مقابل وحدات معالجة الرسومات (GPU) مقابل أجهزة ASIC. بدلاً من ذلك ، يتعلق الأمر بإيجاد الطريقة المثلى لإنشاء خط أنابيب للذكاء الاصطناعي يمكن أن ينقلك من الأفكار والبيانات وبناء النماذج إلى النشر والاستدلال. وهذا يعني تقدير نقاط القوة الخاصة بهياكل المعالجات المختلفة ، بحيث يمكنك تطبيق محرك الحوسبة الصحيح في الوقت المناسب.

كما أوضح كبير مديري Intel ، Datacenter AI Strategy and Execution ، يوضح Shardul Brahmbhatt ، "لقد تم استخدام وحدة المعالجة المركزية للخدمات الصغيرة ومثيلات الحوسبة التقليدية في السحابة. وقد تم استخدام وحدات معالجة الرسومات للحوسبة المتوازية ، مثل دفق الوسائط والألعاب وأعباء عمل الذكاء الاصطناعي. "

لذا ، نظرًا لأن المشغلين الفائقين وغيرهم من المشغلين السحابيين وجهوا انتباههم إلى الذكاء الاصطناعي ، أصبح من الواضح أنهم يستفيدون من نفس نقاط القوة في مهام مختلفة.

إن قدرات وحدات معالجة الرسومات حول الحوسبة المتوازية تجعلها مناسبة للغاية لتدريب خوارزميات الذكاء الاصطناعي ، على سبيل المثال. وفي الوقت نفسه ، تتمتع وحدات المعالجة المركزية (CPU) بميزة عندما يتعلق الأمر بالدُفعات المنخفضة والاستدلال في الوقت الحقيقي بزمن انتقال منخفض واستخدام تلك الخوارزميات لتحليل البيانات الحية وتقديم النتائج والتنبؤات.

مرة أخرى ، هناك محاذير ، يوضح Brahmbhatt ، "هناك أماكن تريد فيها القيام بالمزيد من الاستدلال الجماعي. وهذا الاستدلال الجماعي هو أيضًا شيء يتم إجراؤه من خلال وحدات معالجة الرسومات أو ASIC ".

النظر إلى أسفل خط الأنابيب

لكن خط أنابيب الذكاء الاصطناعي يمتد إلى ما هو أبعد من التدريب والاستدلال. في الجانب الأيسر من خط الأنابيب ، يجب معالجة البيانات وتطوير الخوارزميات. تلعب وحدة المعالجة المركزية العامة دورًا مهمًا هنا.

في الواقع ، تمثل وحدات معالجة الرسومات نسبة صغيرة نسبيًا من إجمالي نشاط المعالج عبر خط أنابيب الذكاء الاصطناعي ، حيث تمثل أعباء العمل "مرحلة البيانات" التي تعمل بالطاقة من وحدة المعالجة المركزية ثلثي إجمالي ، وفقًا لشركة Intel (يمكنك قراءة موجز الحل - تحسين الاستدلال باستخدام تقنية Intel CPU هنا).

ويذكرنا Brahmbhatt أن بنية وحدة المعالجة المركزية لها مزايا أخرى ، بما في ذلك قابلية البرمجة.

"نظرًا لاستخدام وحدات المعالجة المركزية على نطاق واسع ، هناك بالفعل نظام بيئي موجود للمطورين والتطبيقات المتاحة ، بالإضافة إلى الأدوات التي توفر سهولة الاستخدام وقابلية البرمجة لحوسبة الأغراض العامة ،" كما يقول.

ثانيًا ، توفر وحدات المعالجة المركزية وصولاً أسرع إلى مساحة الذاكرة الأكبر. والشيء الثالث هو أنها أكثر حوسبة غير منظمة مقارنة بوحدات معالجة الرسومات [التي] هي حوسبة متوازية أكثر. لهذه الأسباب ، تعمل وحدات المعالجة المركزية (CPU) كمحركات للبيانات التي تغذي وحدات معالجة الرسومات ، وبالتالي تساعد في نماذج نظام التوصية بالإضافة إلى أحمال العمل المتطورة مثل شبكات Graph Neural ".

خطة مفتوحة لتطوير الذكاء الاصطناعي

إذن كيف يجب أن ننظر إلى أدوار وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) على التوالي عند التخطيط لخط تطوير الذكاء الاصطناعي ، سواء في مكان العمل ، أو في السحابة ، أو متداخلة على حد سواء؟

أحدثت وحدات معالجة الرسومات ثورة في تطوير الذكاء الاصطناعي ، لأنها قدمت طريقة تسريع تؤدي إلى تفريغ العمليات من وحدة المعالجة المركزية. لكن هذا لا يعني أن هذا هو الخيار الأكثر منطقية لوظيفة معينة.

كما يوضح شاراث راجافا ، المهندس المعماري لمنصة إنتل ، "لقد قامت تطبيقات الذكاء الاصطناعي بحسابات موجهة. حسابات المتجهات متوازية. لتشغيل أعباء عمل الذكاء الاصطناعي بكفاءة ، يمكن للمرء أن يستغل قدرات وحدات المعالجة المركزية ووحدات معالجة الرسومات مع الأخذ في الاعتبار حجم حوسبة المتجه ، وزمن انتقال التفريغ ، وقابلية الموازاة ، والعديد من العوامل الأخرى ". لكنه يتابع ، بالنسبة لمهمة "أصغر" ، فإن "تكلفة" التفريغ ستكون مفرطة ، وقد لا يكون من المنطقي تشغيلها على وحدة معالجة الرسومات أو المسرع.

يمكن أن تستفيد وحدات المعالجة المركزية أيضًا من التكامل الوثيق مع مكونات النظام الأخرى التي تسمح لها بإكمال مهمة الذكاء الاصطناعي بسرعة أكبر. ينطوي الحصول على أقصى قيمة من عمليات نشر الذكاء الاصطناعي على أكثر من مجرد تشغيل النماذج نفسها - تعتمد البصيرة المطلوبة على المعالجة المسبقة الفعالة والاستدلال وعمليات المعالجة اللاحقة. تتطلب المعالجة المسبقة أن يتم إعداد البيانات لتتناسب مع توقعات الإدخال للنموذج المدرب قبل تغذيته لتوليد الاستدلال. ثم يتم استخراج المعلومات المفيدة من نتائج الاستدلال في مرحلة ما بعد المعالجة.

إذا فكرنا في نظام كشف التسلل لمركز البيانات (IDS) على سبيل المثال ، فمن المهم العمل على إخراج النموذج لحماية ومنع أي ضرر ناتج عن هجوم إلكتروني في الوقت المناسب. وعادة ما تكون خطوات المعالجة المسبقة والمعالجة اللاحقة أكثر كفاءة عندما يتم تنفيذها على وحدات المعالجة المركزية للنظام المضيف لأنها أكثر تكاملاً مع بقية النظام البيئي المعماري.

تعزيز الأداء تحت أوامر المبتدئين

فهل يعني ذلك التخلي عن فوائد تسريع وحدة معالجة الرسومات تمامًا؟ ليس بالضرورة. تقوم Intel ببناء تسريع الذكاء الاصطناعي في وحدات المعالجة المركزية Xeon Scalable الخاصة بها منذ عدة سنوات. يتضمن النطاق بالفعل Deep Learning Boost للاستدلال عالي الأداء على نماذج التعلم العميق ، في حين أن Advanced Vector Extensions 512 (AVX 512) و Vector Neural Network Extensions (VNNI) يعملان على تسريع أداء INT8 الاستنتاجي. لكن DL Boost يستخدم أيضًا تنسيق النقطة العائمة للدماغ (BF16) لتعزيز الأداء في أعباء العمل التدريبية التي لا تتطلب مستويات عالية من الدقة.

ستضيف وحدات المعالجة المركزية Xeon Scalable من الجيل الرابع القادمة من Intel مضاعفة المصفوفة المتقدمة ، أو AMX. سيعطي هذا تعزيزًا إضافيًا بمقدار 8 مرات مقارنة بامتدادات AVX-512 VNNI x86 التي تم تنفيذها في المعالجات السابقة وفقًا لحسابات Intel ، ويسمح لمعالجات Intel Xeon Scalable من الجيل الرابع "بالتعامل مع أعباء العمل التدريبية وخوارزميات DL كما تفعل وحدة معالجة الرسومات". ولكن يمكن أيضًا تطبيق نفس المسرعات على حوسبة وحدة المعالجة المركزية العامة لأعباء العمل التي تعتمد على الذكاء الاصطناعي وغير الذكاء الاصطناعي.

هذا لا يعني أن إنتل تتوقع أن تكون خطوط أنابيب الذكاء الاصطناعي x86 من البداية إلى النهاية. عندما يكون من المنطقي تفريغ أعباء العمل التدريبية بالكامل التي ستستفيد من الموازاة ، تقدم Intel معالج Habana Gaudi AI Training Processor. تشير الاختبارات المعيارية إلى أن مثيلات Amazon EC2 DL1 الأخيرة التي تعمل بالطاقة والتي يمكنها تقديم أداء سعر أفضل بنسبة تصل إلى 40 بالمائة مقارنة بمثيلات التدريب المستندة إلى وحدة معالجة الرسومات Nvidia المستضافة أيضًا في السحابة.

في الوقت نفسه ، تم توجيه سلسلة GPU Flex لمركز البيانات من Intel نحو أعباء العمل والعمليات التي تستفيد من الموازاة مثل الاستدلال بالذكاء الاصطناعي ، مع تطبيقات مختلفة يتم وضعها في نماذج AI "أخف وزنا وأكثر تعقيدًا. ستبدأ وحدة معالجة الرسومات GPU الأخرى لمركز بيانات Intel® ، والتي تحمل الاسم الرمزي Ponte Vecchio (PVC) ، قريبًا تشغيل الكمبيوتر الفائق Aurora في مختبر Argonne الوطني.

هل يمكننا أن نذهب من النهاية إلى النهاية؟

من المحتمل إذن ، أن يدعم سيليكون إنتل خط أنابيب الذكاء الاصطناعي بأكمله ، مع تقليل الحاجة إلى تفريغ البيانات بين محركات الحوسبة المختلفة دون داع. تدعم معالجات الشركة - سواء كانت GPU أو وحدة المعالجة المركزية - نموذجًا برمجيًا مشتركًا يعتمد على أدوات مفتوحة المصدر وأطر عمل مع تحسينات Intel من خلال برنامج OneAPI الخاص بها.

يستشهد Brahmbhatt بتراث Intel في بناء نظام إيكولوجي لبرامج x86 قائم على المجتمع والمصدر المفتوح كميزة أخرى. "إن فلسفة إنتل هي ..." دع النظام البيئي يقود عملية التبني ". ونحتاج إلى التأكد من أننا عادلون ومنفتحون على النظام البيئي ، وأن نعيد أي من الصلصة السرية الخاصة بنا إلى النظام البيئي ".

"نحن نستخدم مكدس برامج مشتركًا ، للتأكد أساسًا من أن المطورين ليسوا مضطرين للقلق بشأن التمايز الأساسي لعنوان IP بين وحدة المعالجة المركزية ووحدة معالجة الرسومات للذكاء الاصطناعي."

يعد هذا المزيج من مكدس البرامج المشترك والتركيز على استخدام محرك الحوسبة المناسب للمهمة الصحيحة أكثر أهمية في المؤسسة. تعتمد الشركات على الذكاء الاصطناعي لمساعدتها في حل بعض أكثر مشاكلها إلحاحًا ، سواء كان ذلك في السحابة أو في مكان ما. لكن أعباء العمل المختلطة تتطلب برنامجًا كامل الميزات ، بالإضافة إلى صيانة وإدارة مكدس النظام ، لتشغيل التعليمات البرمجية غير المضمنة في النواة الموجودة في المسرع.

لذلك ، عندما يتعلق الأمر بالإجابة على السؤال "كيف يمكننا تحويل الذكاء الاصطناعي إلى نطاق مؤسسي" ، قد تعتمد الإجابة على إلقاء نظرة على الصورة الأكبر والتأكد من استخدام المجموعة الكاملة للأجهزة ومجموعة البرامج الموجودة تحت تصرفك.

برعاية إنتل.

الطابع الزمني:

اكثر من السجل