ما هي Hypernetworks؟ ذكاء بيانات PlatoBlockchain. البحث العمودي. عاي.

ما هي Hypernetworks؟

عندما ظهرت "Stable Diffusion" ، تطبيق AI الذي يعرض صورًا واقعية تم التقاطها قبل بضعة أسابيع ، ظهرت كلمة طنانة جديدة معها ؛ الشبكات الفائقة.

الآن ، أصبح الانتشار المستقر بالفعل والشبكات الفائقة ملتصقين لدرجة أنه من المستحيل ذكر أحدهما دون الآخر في نفس الفقرة.

"لقد قمت بتدريب الشبكات الفائقة الانتشار المستقرة على مجموعات بيانات صغيرة (لا ، ليس الفنانون المعاصرون بصرف النظر عنك حقًا) لتعليمها" أنماطًا "غامضة لا تفهمها حقًا خارج الصندوق. إنه يعمل تمامًا كما هو موصوف ، في الواقع أفضل مما كنت أعتقده ، "يقول أحد المستخدمين على تويتر.

هذا يجسد ضجة الشبكة الفائقة التي تجتاح مستخدمي الإنترنت مؤخرًا.

في علوم الكمبيوتر ، تعد الشبكة الفائقة من الناحية الفنية شبكة تولد أوزانًا لشبكة رئيسية. بمعنى آخر ، يُعتقد أن سلوك الشبكة الرئيسية هو نفسه مع الشبكات العصبية الأخرى لأنها تتعلم تعيين بعض المدخلات الأولية إلى أهدافها المرغوبة بينما تأخذ الشبكة الفائقة مجموعة من المدخلات التي تحتوي على معلومات حول بنية الأوزان وتولد وزن تلك الطبقة.

اقرأ أيضًا: تقنية الذكاء الاصطناعي التي تخلق صورًا مزيفة عميقة تدمر الحياة

كيف يتم استخدام الشبكات الفائقة؟

لفهم ما هي الشبكة الفائقة ، دعنا نعود قليلاً. إذا قمت بإنشاء صور على Stable Diffusion - أداة AI لإنشاء الفن الرقمي والصور - فقد صادفتها.

يشير التدريب عمومًا إلى عملية يتعلم فيها النموذج (يحدد) القيم الجيدة لجميع الأوزان والتحيز من الأمثلة المصنفة

إنشاء الصور على انتشار مستقر ليست عملية تلقائية ، كما غطينا في مكان آخر. من أجل الوصول إلى هناك ، هناك عملية.

أولاً ، يجب أن يتعلم نموذج AI كيفية عرض أو تركيب صورة لشخص ما في صورة من نموذج ثنائي الأبعاد أو ثلاثي الأبعاد عبر برنامج. على الرغم من أن نموذج Stable Diffusion قد تم اختباره بدقة ، إلا أنه يحتوي على بعض قيود التدريب التي يمكن تصحيحها عن طريق أساليب التدريب على التضمين والشبكات الفائقة.

للحصول على أفضل النتائج ، قد يختار المستخدمون النهائيون القيام بتدريب إضافي لضبط مخرجات التوليد لتتناسب مع حالات استخدام أكثر تحديدًا. يتضمن تدريب "التضمين" مجموعة من الصور التي يوفرها المستخدم ، ويسمح للنموذج بإنشاء صور متشابهة بصريًا كلما تم استخدام اسم التضمين في موجه جيل.

تستند الزخارف على مفهوم "الانعكاس النصي" الذي طوره باحثون من جامعة تل أبيب حيث ترتبط تمثيلات المتجهات لرموز محددة يستخدمها برنامج ترميز النص في النموذج بكلمات زائفة جديدة. يمكن أن يقلل التضمين من التحيزات داخل النموذج الأصلي ، أو يحاكي الأنماط المرئية.

من ناحية أخرى ، فإن "الشبكة الفائقة" عبارة عن شبكة عصبية مُدرَّبة مسبقًا يتم تطبيقها على نقاط مختلفة داخل شبكة عصبية أكبر ، وتشير إلى التقنية التي أنشأها مطور NovelAI Kurumuz في عام 2021 ، والمخصصة أصلاً لنماذج محولات توليد النص .

تدريب فنانين معينين

يتم تضمين Hypernetworks لتوجيه النتائج نحو اتجاه معين ، مما يسمح للنماذج المستندة إلى الانتشار المستقر بتكرار أنماط فنية لفنانين معينين. تتمتع الشبكة بميزة القدرة على العمل حتى عندما لا يتعرف النموذج الأصلي على الفنان وستستمر في معالجة الصورة من خلال إيجاد مناطق رئيسية ذات أهمية مثل الشعر والعينين ، ثم تصحيح هذه المناطق في مساحة كامنة ثانوية.

تعد طبقة التضمين في Stable Diffusion مسؤولة عن ترميز المدخلات (على سبيل المثال ، موجه النص وتسميات الفئات) في متجهات منخفضة الأبعاد. تساعد هذه المتجهات في توجيه نموذج الانتشار لإنتاج صور تتطابق مع مدخلات المستخدم ، "يشرح بيني تشيونغ في مدونته.

"طبقة Hypernetwork هي طريقة للنظام لتعلم وتمثيل معرفته الخاصة. إنها تسمح لـ Stable Diffusion بإنشاء صور بناءً على تجربتها السابقة. "

بينما تقوم طبقة التضمين الخاصة بها بترميز المدخلات مثل موجه النص وتسميات الفئة إلى متجهات منخفضة الأبعاد للمساعدة في توجيه نموذج الانتشار لإنتاج صور تتطابق مع مدخلات المستخدم ، فإن طبقة الشبكة الفائقة هي إلى حد ما وسيلة للنظام لتعلم وتمثيل خاصته المعرفه.

بمعنى آخر ، يسمح لـ Stable Diffusion بإنشاء صور بناءً على تجربتها السابقة. في Stable Diffussion ، تعد الشبكة الفائقة طبقة إضافية تتم معالجتها بعد عرض الصورة من خلال النموذج. تميل Hypernetwork إلى تحريف جميع النتائج من النموذج نحو بيانات التدريب بطريقة "تغيير" النموذج بشكل أساسي.

الاحتفاظ بالذاكرة

هذا يعني بشكل أساسي أن الشبكة الفائقة مسؤولة عن الاحتفاظ بذاكرة الصور التي أنشأها النظام سابقًا. عندما يعطي المستخدم مدخلات جديدة ، يمكن للنظام استخدام معرفته السابقة لإنشاء صورة أكثر دقة. على هذا النحو ، تسمح الشبكات الفائقة للنظام بالتعلم بشكل أسرع والتحسين كما هو.

هذا له ميزة أن كل صورة تحتوي على شيء يصف بيانات التدريب الخاصة بك ، ستبدو مثل بيانات التدريب الخاصة بك.

"وجدنا أن التدريب على التضمين أسهل من التدريب باستخدام شبكة فائقة السرعة لتوليد صور شخصية. كتب تشيونغ: "لقد أسفر تدريبنا عن نتائج جيدة نشعر بالرضا عنها".

لكنها تقنية لا يزال الكثيرون يساومون عليها. بدأت شبكات Hypernetworks ومولدات الذكاء الاصطناعي في تلبية احتياجات المستخدمين ورغباتهم. لا شك في أن واجهات المستخدم وتقنيات التحفيز سوف تتقدم بسرعة ، وربما حتى تكون جذابة شراء مراجعات جوجل على حين غرة ، مثل MetaNews مغطاة مؤخرا.

شارك هذا المنشور

الطابع الزمني:

اكثر من ميتا نيوز