الذكاء الاصطناعي التوليدي: ما يلزم لتحويل المبالغة إلى نموذج تحولي

الذكاء الاصطناعي التوليدي: ما يلزم لتحويل المبالغة إلى نموذج تحولي

الذكاء الاصطناعي التوليدي: ما يلزم لتحويل المبالغة إلى نموذج تحويلي لذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

1.    التحول التطوري للذكاء الاصطناعي نحو الذكاء الاصطناعي التوليدي

 أدت التطورات السريعة في تقنيات الذكاء الاصطناعي (AI) والتعلم الآلي (ML) - على سبيل المثال ، قدرات معالجة اللغة الطبيعية (NLP) ونماذج اللغة الكبيرة (LLM) إلى تكثيف التقلبات الواسعة للتكنولوجيا في أداء الأعمال والحكومة والمجتمع في في الآونة الأخيرة. جزء من التحول التطوري للذكاء الاصطناعي / تعلم الآلة ، ظهرت نماذج اللغات الكبيرة المدفوعة بقدرات الذكاء الاصطناعي التوليدية كموضوع يحظى باهتمام أكبر لاستكشاف حالات استخدام الابتكار واعتمادها من قبل الشركات التجارية. يتم تدريب هذه النماذج مسبقًا على مجموعة كبيرة من بيانات المجالات المتنوعة وتحتوي على قدرات مصممة لاعتماد مناهج تعلم غير خاضعة للإشراف أو شبه خاضعة للإشراف من أجل التعزيز التدريجي لدقة نتائجها.

يفتح ظهور الذكاء الاصطناعي التوليدي آفاقًا جديدة للابتكار التخريبي عبر المجالات - إعادة تشكيل نماذج الأعمال وزيادة أشكال جديدة من التطبيقات الذكية. تشير أبحاث السوق إلى أن سوق الذكاء الاصطناعي التوليدي العالمي ينمو بمعدل نمو سنوي مركب يبلغ 32.2٪ في السنوات الخمس المقبلة ليصل إلى 5 مليار دولار بحلول عام 53.9. وفي الوقت نفسه ، تتطلب المخاوف المتزايدة بشأن الافتقار إلى المصداقية وقلة تفسير النتائج والمسائل الأخلاقية المحيطة: وضع حواجز الحماية الأساسية.

 2.    الوعد والإمكانات

أدت المشاركة الهائلة التي أنشأتها ChatGPT التي تعمل بنظام LLM بعد إصدارها في نوفمبر 2022 إلى جلب الذكاء الاصطناعي التوليدي بشكل غير متوقع إلى مركز ثورة التكنولوجيا. بغض النظر عن الهيجان الواسع ، فإن ChatGPT - كمثال على نموذج متعدد الوسائط كبير ، يجلب مجموعة واسعة من الإمكانات الإبداعية لإعادة اختراع الأعمال مع حالات استخدام مدركة تهدف إلى الابتكار والإنتاجية. تعد المحادثات الشبيهة بالإنسان ، أو إنشاء أو تحرير محتوى نصي / صورة / فيديو ، وتلخيص المحادثة أو المحتوى ، والكتابة الفنية والتأليف ، أمثلة أساسية للقدرات الإبداعية للذكاء الاصطناعي. وسط الاهتمام المكثف ، فإن الإطلاق المحموم لنماذج ومنصات LLM المتنوعة الجاهزة والمدربة مسبقًا من قبل عمالقة التكنولوجيا يحدد مسارًا جديدًا لاعتماد الذكاء الاصطناعي في الصناعة لتمكين الوصول الديمقراطي إلى الذكاء الاصطناعي التوليدي لشركات الأعمال.

في حين أن الوعد بأفكار التحول المدعومة بالذكاء الاصطناعي عبر مجموعة واسعة من المجالات جذبت خيال الناس ، فإن المخاوف المتزايدة بشأن المخاطر المحتملة والقضايا الأخلاقية تؤكد على نقاط الضعف الجوهرية - إذا تركت دون معالجة. يعد الافتقار إلى الدقة الواقعية والهلوسة أو المخرجات التخيلية وانخفاض الذكاء العاطفي والتعاطف بالإضافة إلى الاستجابات المزعجة أو المواجهة من المخاطر الواقعية التي يجب تجنبها في جميع سيناريوهات الأعمال. طوال الوقت ، فإن المخاوف المتعلقة باستخفاف الإمكانات البشرية وفقدان الوظائف والتخيلات السوداء والتمييز والتحيز هي روابط أخلاقية خطيرة تنشأ عن الأداء غير المنضبط للذكاء الاصطناعي التوليدي. كما أن الاستهلاك الهائل للطاقة لدعم قوة الحوسبة الضخمة في تدريب LLM مما أدى إلى زيادة البصمة الكربونية يعيق نية الشركات في جعل الكربون محايدًا في السنوات القادمة.

3.    معضلة الشركات المالية

إلى جانب الفضول والإثارة في وقت مبكر حول حداثة الذكاء الاصطناعي التوليدي ، لا تزال مجموعة كبيرة من الشركات المالية تكافح من أجل فك رموز سياق الصورة الكبيرة بشكل واقعي - من حيث أهميتها الوظيفية ، ومجالات التطبيق وحالات الاستخدام والتكاليف والفوائد وكذلك القانونية والمخاطر التنظيمية التي ينطوي عليها تبني الأعمال. لا تكاد توجد إجابات موثوقة مثل ما يتطلبه الأمر لتحديد وتأهيل مجموعة غير واضحة من الفرص والتكاليف بالإضافة إلى الخطوات التالية المتسقة نحو اعتماد مستوى المؤسسة لبناء حلول مخصصة. كما أن المخاوف المتعلقة بخصوصية البيانات ، والانتحال ، وانتهاك حقوق الطبع والنشر ، والغموض التنظيمي ، تعمل على تقويض سيناريو التبني المبكر الضخم في الصناعة.

وسط الضجيج المكثف ، ظهر نهجان متباينان لاعتماد الذكاء الاصطناعي التوليفي في مشهد الخدمات المالية. تشير المواقف المتباينة التي تتخذها الشركات المالية الرائدة على نطاق واسع إلى المعضلة التي تواجهها الصناعة حول توجهاتها المستقبلية. من ناحية ، شرعت الشركات في مبادرة إستراتيجية شاملة تركز على الذكاء الاصطناعي التوليدي - أي ما وراء التجريب ، والاعتماد في مجالات تطبيق محددة تركز على حالات الاستخدام المحددة لزيادة الإنتاجية والرؤى الذكية من خلال حلول مخصصة. من ناحية أخرى ، فإن الشركات حذرة للغاية وتبتعد عن أي فكرة للتبني على الأقل في المدى القريب ، مع مراعاة التحكم في المخاطر ومخاوف الامتثال التنظيمي - بما في ذلك مشكلات برامج الطرف الثالث ، وحساسية معلومات العميل السرية وانتهاك خصوصية البيانات. بين النقيضين المتناقضين ، تتطلب نية الشركات المبكرة للشروع في الاستكشاف والتجريب تقييمًا مكثفًا. تسترشد بأسوار الحماية لمبادئ الذكاء الاصطناعي المسؤول ، والجدوى التجارية والتقنية لحالات الاستخدام ، والبناء الهندسي الموثوق به لتكامل LLM مع العمليات التجارية الأساسية ، تصبح متطلبات أساسية.

4.    اعتماد نطاق المؤسسة: الضرورات الأساسية

في حين أنه من السابق لأوانه التنبؤ بالاتجاهات المستقبلية ومسار تبني الصناعة للذكاء الاصطناعي التوليدي ، فمن المتوقع أن تهيمن متلازمة FOMO (الخوف من الضياع) على تفكير الشركات المالية للاستثمار في التجارب لمجموعة ضيقة حالات الاستخدام المركزة. الأهم من ذلك ، أن تكامل القدرات القائمة على الذكاء الاصطناعي التوليدي في العمليات التجارية الأساسية للشركات المالية يتطلب تقييمًا شاملاً للعوامل التأسيسية. النظر في الاختلافات الواسعة في التركيز على حالة الاستخدام ، والميزات الأقل قابلية للمقارنة ، والمقارنة المعيارية المعقدة لـ LLMs المتاحة ، وتقييم قدراتها وشروطها التجارية والنشر يصبح تمرينًا شاقًا. وهو يستلزم تقييمًا مفصلاً لمدى ملاءمة حالات الاستخدام ، وتحليل التكلفة والعائد لميزات الابتكار ، والجدوى التكنولوجية ، والأثر البشري ، فضلاً عن الفروق الدقيقة في المخاطر القانونية والتنظيمية والمتعلقة بالسمعة ، إلى جانب تدابير المراقبة والتخفيف.

من وجهة نظر التكنولوجيا ، يعتمد اعتماد الذكاء الاصطناعي التوليدي على مستوى المؤسسة بشكل كبير على عوامل التكنولوجيا ونظام البيانات - بما في ذلك ممارسات علوم البيانات والأنظمة الأساسية لشركة تجارية. بصرف النظر عن سياق مشكلة العمل التي يتعين حلها في مجالات التطبيق المتنوعة ، فإن مستوى النضج لاعتماد الذكاء الاصطناعي وجاهزية منصة وأدوات النمذجة بالإضافة إلى توسيع خطوط أنابيب هندسة البيانات هي متطلبات أساسية للمضي قدمًا في مسار استكشاف القيمة الذي يركز على الذكاء الاصطناعي. تعد الزيادة الكبيرة لمنصة الذكاء الاصطناعي للمؤسسات من خلال تمكين الوصول إلى العديد من النماذج مفتوحة المصدر أو نماذج الملكية ، وأدوات النمذجة من الجيل الجديد وتدفقات العمل بالإضافة إلى أحكام البنية التحتية للحوسبة عالية الأداء هي الخطوات الأولى الأساسية.

4.1  البحث عن النموذج الصحيح ووضعه في سياقه

بالتوافق مع مركزية حالات استخدام الأعمال ، لدى الشركات خيارات لاختيار نموذج من مجموعة من LLMs المتاحة - المصدر المفتوح (على سبيل المثال ، Meta OPT ، LLaMA ، EleutherAI's GPT-NeoX ، Hugging Face 'Bloom ، Google's PaLM ، Databricks's Dolly 2.0 ، Stability .AI's StableLM) أو نماذج الملكية المغلقة (على سبيل المثال ، ChatGPT من OpenAI ، Dolly من Databricks ، Jurassic من AI21 Labs ، Cohere ، LightOn). عادةً ما تقدم النماذج مفتوحة المصدر نظامًا بيئيًا غنيًا للمطورين مع إمكانية دورات التكرار السريع بالإضافة إلى التقنيات المحسّنة لتحسين الاستدلال والقياس. يشمل الاعتبار المهم الآخر اختيار نموذج للأغراض العامة كبير الحجم يلبي نطاقات أعمال أوسع أو نموذج نطاق صغير الحجم نسبيًا (على سبيل المثال ، BloombergGPT للتمويل). نظرًا لتعدد النماذج المدربة مسبقًا والمتاحة مع تغطية حالات الاستخدام المتنوعة ، فإن الخيار العملي الأقل لشركة ما هو بناء نموذجها الخاص من نقطة الصفر. علاوة على ذلك ، فإن هذا النهج محفوف بالمخاطر المتمثلة في إنتاج نتائج أقل موثوقية حتى بعد تكبد تكاليف كبيرة ، والتعامل مع تعقيدات دقة النمذجة المكثفة وتوفير مجموعة بيانات مجال ضخمة لمتطلبات ما قبل التدريب.

4.2  تكلفة نماذج الضبط الدقيق وإعادة التدريب

تصبح المرونة في نقل التعلم أو ضبط النماذج المتاحة في سياق مجال معين مع كمية محدودة من مجموعة بيانات المستخدم في شكل تعلم قليل اللقطات أو التعلم قصير المدى عاملاً حاسمًا للنشر السريع للتوافق مع احتياجات العمل. كما أن تطور علوم البيانات وتكنولوجيا الحوسبة يجلب عنصرًا من الديناميكية في النماذج ويتطلب ترقية وتكرارًا بشكل منتظم. في الواقع ، يضيف التعلم الجديد واحتياجات إعادة التدريب لنموذج مطبق. حتى إذا كانت رسوم الاستدلال API أو رسوم خدمة الاتصال لبيانات التدريب واستخدام النموذج تظهر عادةً في جزء منخفض من 100 أو 1000 من الدولار (على سبيل المثال ، $ 0.000N / 1K tokens) ، يمكن أن تكون التكلفة التراكمية في ضبط أو إعادة تدريب نموذج كمية عالية فلكيا. كما تم إدراكه في حالة الرحلة السحابية ، فإن الرسوم التجارية الظاهرة الاسمية المطبقة على خروج البيانات ودخولها بواسطة فائض التقلص في نماذج نشر مختلفة تتجاوز بشكل روتيني نفقة OPEX المتوقعة. نظرًا لعدم القدرة على التنبؤ بترقيات LLM عبر دورة حياتها وما يترتب على ذلك من احتياجات التعلم أو إعادة التدريب ، سيكون من الصعب توقع تقييم واقعي لرؤوس التكلفة هذه.

4.3  متطلبات البنية التحتية للتكنولوجيا والحوسبة

تتطلب تعقيدات LLM قوة حسابية قوية بشكل كبير من أجل تدريب وتشغيل أسرع. لدعم تدريب معلمات الرمز المميز بمليارات أو تريليونات الحجم ومعالجة مجموعة بيانات ضخمة ، يتطلب الأمر أجهزة وذاكرة وموارد حسابية متخصصة في إعداد متوازي أو موزع. لأخذ مثال ، تشير بعض التحليلات إلى أن تدريب 380 مليار معلمة LLaMA نموذج معالجة 2048 رمزًا / ثانية / GPU على 100 A80 GPU مع 1.4 جيجا بايت من ذاكرة الوصول العشوائي التي تتضمن مجموعة بيانات 21 تريليون رمز يستغرق حوالي 4.05 يومًا. يستلزم ذلك تكاليف GPU والبنية التحتية التي تصل إلى XNUMX مليون دولار أمريكي. في حالة سيناريوهات التدريب المتعددة أو التكرارية التي تنطوي على مدة زمنية أطول ، يمكن أن تقفز تكاليف الحوسبة إلى رقم باهظ للغاية. وبالتالي ، فإن توفير بنية أساسية للحوسبة فعالة من حيث التكلفة لدعم المعالجة على نطاق واسع بأداء مثالي يصبح مطلبًا حيويًا.

4.4  أدوات النمذجة وسير العمل

يعد الوصول إلى مجموعة متنوعة من النماذج التي تم اختبارها مسبقًا وأدوات النمذجة المتقدمة والمسرعات متطلبات أساسية لاستكشاف إمكانات حالات استخدام الابتكار عبر مراحل تصميم الحلول المخصصة وتطويرها واختبارها ونشرها. بصرف النظر عن تمكين البنية التحتية للحوسبة وهندسة البيانات ، يجب أن تدعم منصات الذكاء الاصطناعي التوليدية مجموعة من الخدمات الشاملة عبر تدريب النماذج والضبط النهائي وخدمات الاستدلال ونشرها مدعومًا بسير عمل متكامل للذكاء الاصطناعي. الشيء الجيد هو أن الشركات الرائدة في مجال الفائقة قد أعادت صياغة نظامها الأساسي وخدماتها التي تركز على الذكاء الاصطناعي لتوفير نماذج أساس عالية الأداء ، وأجهزة حاسوبية ، وأطر برمجية لجذب اهتمام السوق المتزايد بـ LLM. تتكون مجموعة الخدمات النموذجية من نماذج تم اختبارها مسبقًا ونماذج الحلول المضمنة والخدمات وأدوات سير العمل والقدرات بالإضافة إلى واجهات برمجة التطبيقات وأطر العمل لإنشاء تطبيقات على نطاق واسع.

4.5  مراقبة المخاطر والضمانات

في السنوات الأخيرة ، ركز التركيز التنظيمي (ووضع القواعد قيد التقدم) عبر الولايات القضائية الرئيسية على المعايير الشاملة لإطار عمل الذكاء الاصطناعي المسؤول للممارسات وتدابير حوكمة المخاطر لضمان العدالة وإمكانية الشرح والثقة في أنظمة الذكاء الاصطناعي. يستلزم تكامل نماذج الذكاء الاصطناعي في العمليات التجارية الأساسية التحكم المعزز في المخاطر والضمانات المتعلقة بخصوصية البيانات ومخاوف الأمان وكذلك لضمان ثقة وموثوقية النتائج. أصبحت المعالجة الفعالة لقضايا التحكم في المخاطر والامتثال أمرًا حيويًا لحسابين أساسيين - أولاً ، يظل نموذج السحابة الهجين النموذجي لتشغيل تطبيقات المؤسسة وأعباء العمل عرضة لنقاط ضعف غير معروفة ، على الرغم من مجموعة تدابير الحماية الأمنية. ثانيًا ، يشكل استخدام مجموعة البيانات الكبيرة التي تتضمن معلومات سرية للعميل أو معلومات حساسة للأعمال مستويات جديدة من المخاطر من التعرض غير المقصود للبيانات. أيضًا ، تحمل أنماط المشاعر أو السلوك المشوهة المستمدة من بيانات تدريب قليلة أو صفرية مستوى غير محدد من التحيز في النتائج. بالتأكيد ، يترتب على الثقة والموثوقية تداعيات كبيرة على الأعمال وتحتاج إلى إشراف وتحكم شاملين عبر دورة حياة النموذج ، بما يتجاوز تحديد المربع للامتثال لتوجيهات الاستجابة للذكاء الاصطناعي.

5.    المضي قدمًا: الاستعداد لاجتياز مسار غير مؤكد

إن التأثير التحويلي الواسع للذكاء الاصطناعي التوليدي عبر وظائف الأعمال لا بد أن يغير الطريقة التي سعت بها الشركات المالية لإعادة الابتكار في منظمة أعمال قائمة على البيانات في السنوات الأخيرة. أثناء انتظار المزيد من العلامات الواضحة للتطور التكنولوجي والتنظيمي ، يشير الحافز الفوري للشركات نحو المشاريع الاستكشافية الحذرة التي تركز على حالات استخدام محدودة قليلة لبناء ميزة تنافسية قوية. بهدف إعادة ابتكار الأعمال وتسخير مزايا الإنتاجية والفعالية من حيث التكلفة ، يبدو أن حالات الاستخدام في عمليات الأعمال الداخلية هي المجموعة الأولى من المرشحين لتطبيق الذكاء الاصطناعي التوليدي. للبدء بنهج حذر ، فإنه سيحد من المخاطر التجارية والتنظيمية والقانونية إلى أدنى مستوى.

في عالم عدم القدرة على التنبؤ السائد على منحنى تطور الذكاء الاصطناعي ، يبدو الاعتماد على مستوى المؤسسة مع مجموعة من التطبيقات القاتلة طريقًا طويلاً للعديد من العوامل الواقعية - مخاوف تتعلق بخصوصية البيانات ، وتطور نموذج قانوني وتنظيمي متماسك ، وتدريب نموذج واحتياجات إعادة التدريب ، والحوسبة النظام الأساسي ، وتكاليف البنية التحتية والقيود. مع تقدم تراكم حالات الاستخدام وقصص التبني عبر المسارات الاستكشافية ، من المحتمل أن يكون الحد الأدنى من الاستثمار ليتم احتسابه في سباق الغرور في أحد طرفيه والسلبية المليئة بالفضول عند طرف آخر امتدادًا لرحلات التجريب. الأهم من ذلك ، أن تطور الحوسبة الفائقة للذكاء الاصطناعي على جانب الحوسبة ، والوضوح الأفضل لجوانب حقوق النشر على الجانب القانوني ، والتضمين الأعمق لنواة الذكاء الاصطناعي المسؤولة في النماذج يمكن أن يعيد صياغة نموذج الذكاء الاصطناعي التوليدي أو الصور الرمزية المستقبلية بالكامل في السنوات القادمة.

الطابع الزمني:

اكثر من فينتكسترا