मेटा ने एआई इमेज सेगमेंटेशन मॉडल, एसएएम का खुलासा किया

मेटा ने एआई इमेज सेगमेंटेशन मॉडल, एसएएम का खुलासा किया

मेटा ने एआई इमेज सेगमेंटेशन मॉडल, एसएएम प्लेटोब्लॉकचेन डेटा इंटेलिजेंस का अनावरण किया। लंबवत खोज. ऐ.

वर्णमाला इंक गूगल एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले सुपर कंप्यूटरों के बारे में जानकारी साझा की है, यह दावा करते हुए कि वे शक्तिशाली और तेज हैं एनवीडिया का A100 चिप। Google ने Tensor Processing Unit (TPU) नामक अपनी कस्टम चिप का उत्पादन किया है, जो इसकी चौथी पीढ़ी में है।

टेक दिग्गज के अनुसार, कंपनी अपने एआई प्रशिक्षण कार्य के 90% से अधिक के लिए चिप्स का उपयोग कर रही है। Google चिप डेटा को मॉडल के माध्यम से जोड़ता है ताकि उन्हें मानव जैसे ग्रंथों या छवियों को उत्पन्न करने जैसे कार्यों में व्यावहारिक बनाया जा सके।

आदर्श रूप में, टीपीयू डिजाइन किए गए हैं गहरे तंत्रिका नेटवर्क (डीएनएन) के निष्कर्ष चरण में तेजी लाने के लिए, जिनका उपयोग कई मशीन लर्निंग अनुप्रयोगों जैसे छवि पहचान, भाषण मान्यता, प्राकृतिक भाषा प्रसंस्करण आदि में किया जाता है। TPU का उपयोग DNN के प्रशिक्षण के लिए भी किया जाता है।

यह भी पढ़ें: ट्विटर लीगल हॉट वॉटर में जर्मनी की धमकी के रूप में ठीक है

मंगलवार को गूगल एक वैज्ञानिक पत्र प्रकाशित किया यह बताते हुए कि इसने 4 000 से अधिक चिप्स कैसे फँसाए हैं। फर्म के अनुसार, यह व्यक्तिगत मशीनों को एक स्थान पर लाने के लिए कस्टम विकसित ऑप्टिकल स्विच का उपयोग करता है।

वैज्ञानिक पत्र में, Google ने कहा कि तुलनात्मक रूप से आकार की प्रणालियों के लिए, इसके चिप्स Nvidia की A1.7 चिप पर आधारित प्रणाली की तुलना में 1.9 गुना तेज और 100 गुना अधिक ऊर्जा कुशल हैं, जो चौथी पीढ़ी के TPU के समय बाजार में थी।

अधिक सुधार की आवश्यकता है

विश्लेषकों का मानना ​​है कि जैसे-जैसे कारोबार बढ़ेगा, डेटा अनुमान चिप्स का बाजार तेजी से बढ़ेगा एआई प्रौद्योगिकियों उनके उत्पादों में। हालाँकि, Google जैसी फर्में पहले से ही इस बात पर काम कर रही हैं कि ऐसा करने से होने वाली अतिरिक्त लागतों पर कैसे काबू पाया जाए, और लागतों में से एक बिजली है।

बड़े भाषा मॉडल जो उत्पादों को चलाते हैं जैसे गूगल की बार्ड या OpenAI's ChatGPT का आकार बहुत बढ़ गया है। वास्तव में वे एक चिप पर स्टोर करने के लिए बहुत बड़े हैं।

जैसे, एआई सुपर कंप्यूटर बनाने वाली कंपनियों के बीच इन कनेक्शनों में सुधार प्रतिस्पर्धा के लिए एक महत्वपूर्ण बिंदु बन गया है।

इसके अतिरिक्त, ये मॉडल हजारों चिप्स में विभाजित हैं और मॉडल को प्रशिक्षित करने के लिए हफ्तों या उससे अधिक समय तक एक साथ काम करते हैं।

Google का अब तक का सबसे महत्वपूर्ण सार्वजनिक रूप से प्रकट किया गया भाषा मॉडल, PaLM, इसे 4 दिनों में 000 50 चिप सुपरकंप्यूटरों में से दो में विभाजित करके प्रशिक्षित किया गया था।

फर्म के मुताबिक, इसके सुपरकंप्यूटर चिप्स के बीच कनेक्शन को फ्लाई पर कॉन्फ़िगर करना आसान बनाते हैं।

सिस्टम के बारे में ब्लॉग पोस्ट में Google फेलो नॉर्म जोप्पी और Google के प्रतिष्ठित इंजीनियर डेविड पैटरसन ने कहा, "सर्किट स्विचिंग विफल घटकों के आसपास रूट करना आसान बनाता है।"

"यह लचीलापन हमें एमएल (मशीन लर्निंग) मॉडल के प्रदर्शन में तेजी लाने के लिए सुपरकंप्यूटर इंटरकनेक्ट की टोपोलॉजी को बदलने की इजाजत देता है।"

Google के अनुसार कोई तुलना नहीं है

बड़ी मात्रा में डेटा के साथ एआई मॉडल के प्रशिक्षण के लिए एनवीडिया बाजार पर हावी है। हालाँकि, उन मॉडलों के प्रशिक्षित होने के बाद, उन्हें संकेतों के लिए पाठ प्रतिक्रिया उत्पन्न करने और यह तय करने के लिए कि क्या एक छवि में एक बिल्ली है, जैसे कार्यों को "अनुमान" कहा जाता है, में व्यापक उपयोग के लिए रखा जाता है।

प्रमुख सॉफ्टवेयर स्टूडियो वर्तमान में Nvidia के A100 प्रोसेसर का उपयोग कर रहे हैं। A100 चिप्स सबसे अधिक उपयोग किए जाने वाले चिप्स हैं जो विकास स्टूडियो द्वारा AI मशीन लर्निंग वर्कलोड के लिए उपयोग किए जाते हैं।

RSI A100 अनुकूल है मशीन लर्निंग मॉडल के लिए जो चैटजीपीटी जैसे उपकरणों को शक्ति प्रदान करता है, बिंग एआई, या स्थिर प्रसार। यह एक साथ कई सरल गणना करने में सक्षम है, जो तंत्रिका नेटवर्क मॉडल के प्रशिक्षण और उपयोग के लिए महत्वपूर्ण है।

जबकि एनवीडिया ने टिप्पणी के अनुरोधों को ठुकरा दिया रायटर, Google ने कहा कि उन्होंने अपनी चौथी पीढ़ी की तुलना Nvidia की वर्तमान प्रमुख H100 चिप से नहीं की क्योंकि यह Google की चिप के बाद बाजार में आई थी, और इसे नई तकनीक के साथ बनाया गया है।

Google ने यह भी कहा कि कंपनी के पास "भविष्य की युक्तियों की एक स्वस्थ पाइपलाइन" है, बिना बेहतर विवरण दिए, लेकिन संकेत दिया कि यह एक नए TPU पर काम कर सकता है जो Nvidia H100 के साथ प्रतिस्पर्धा करेगा।

हालाँकि Google अभी केवल अपने सुपरकंप्यूटर के बारे में विवरण जारी कर रहा है, यह 2020 से कंपनी के अंदर मेयस काउंटी, ओक्लाहोमा के एक डेटा सेंटर में ऑनलाइन है।

Google ने कहा कि स्टार्टअप मिडजर्नी ने अपने मॉडल को प्रशिक्षित करने के लिए सिस्टम का इस्तेमाल किया, जो पाठ के कुछ शब्द खिलाए जाने के बाद ताजा छवियां उत्पन्न करता है।

समय टिकट:

से अधिक मेटान्यूज