Run:ai অধিগ্রহণের মাধ্যমে, Nvidia-এর লক্ষ্য আপনার AI K8s পরিচালনা করা

Run:ai অধিগ্রহণের মাধ্যমে, Nvidia-এর লক্ষ্য আপনার AI K8s পরিচালনা করা

Run:ai অধিগ্রহণের মাধ্যমে, এনভিডিয়ার লক্ষ্য আপনার AI K8s PlatoBlockchain ডেটা ইন্টেলিজেন্স পরিচালনা করা। উল্লম্ব অনুসন্ধান. আ.

এনভিডিয়া বুধবার GPU-তে নির্মিত কম্পিউটিং ক্লাস্টারগুলির দক্ষতা বাড়ানোর জন্য AI-কেন্দ্রিক Kubernetes অর্কেস্ট্রেশন প্রদানকারী Run:ai-এর অধিগ্রহণের ঘোষণা দিয়েছে।

বিস্তারিত চুক্তি প্রকাশ করা হয়নি, কিন্তু জানা চুক্তির মূল্য প্রায় $700 মিলিয়ন হতে পারে। তেল আবিব ভিত্তিক স্টার্টআপ রয়েছে স্পষ্টতই এটি 118 সালে প্রতিষ্ঠিত হওয়ার পর থেকে চারটি ফান্ডিং রাউন্ড জুড়ে $2018 মিলিয়ন সংগ্রহ করেছে।

Run:ai-এর প্ল্যাটফর্ম বিভিন্ন জনপ্রিয় Kubernetes ভেরিয়েন্টের সাথে কাজ করার জন্য একটি কেন্দ্রীয় ব্যবহারকারী ইন্টারফেস এবং নিয়ন্ত্রণ সমতল প্রদান করে। এটি এটিকে কিছুটা RedHat এর OpenShift বা SUSE এর Rancher এর মত করে তোলে এবং এতে নামস্থান, ব্যবহারকারীর প্রোফাইল এবং সম্পদ বরাদ্দের মতো জিনিসগুলি পরিচালনা করার জন্য একই সরঞ্জামগুলির অনেকগুলি বৈশিষ্ট্য রয়েছে৷

মূল পার্থক্য হল Run:ai's ডিজাইন করা হয়েছে থার্ড-পার্টি AI টুলস এবং ফ্রেমওয়ার্কের সাথে একীভূত করার জন্য এবং GPU অ্যাক্সিলারেটেড কন্টেইনার পরিবেশের সাথে মোকাবিলা করার জন্য। এর সফ্টওয়্যার পোর্টফোলিওতে কাজের লোড শিডিউলিং এবং অ্যাক্সিলারেটর পার্টিশনিংয়ের মতো উপাদান রয়েছে, যার পরবর্তীটি একাধিক ওয়ার্কলোডকে একক GPU জুড়ে ছড়িয়ে দেওয়ার অনুমতি দেয়।

এনভিডিয়ার মতে, Run:ai-এর প্ল্যাটফর্ম ইতিমধ্যেই এর সুপারপড কনফিগারেশন, বেস কমান্ড ক্লাস্টার ম্যানেজমেন্ট সিস্টেম, এনজিসি কন্টেইনার লাইব্রেরি এবং একটি এআই এন্টারপ্রাইজ স্যুট সহ তার ডিজিএক্স কম্পিউট প্ল্যাটফর্মগুলিকে সমর্থন করে।

এআই কুবারনেটস বেয়ার মেটাল ডিপ্লোয়মেন্টের উপর অনেক সুবিধার দাবি করে, কারণ একাধিক, সম্ভাব্য ভৌগলিকভাবে বিতরণ করা সংস্থানগুলি জুড়ে স্কেলিং পরিচালনা করার জন্য পরিবেশ কনফিগার করা যেতে পারে।

আপাতত, বিদ্যমান Run:ai গ্রাহকদের Nvidia প্ল্যাটফর্মে বড় পরিবর্তন আনার বিষয়ে চিন্তা করতে হবে না। ক মুক্তি, এনভিডিয়া বলেছে যে এটি অবিলম্বে ভবিষ্যতের জন্য একই ব্যবসায়িক মডেলের অধীনে Run:ai-এর পণ্যগুলি অফার করা চালিয়ে যাবে — এর অর্থ যাই হোক না কেন।

ইতিমধ্যে, যারা এনভিডিয়ার ডিজিএক্স ক্লাউডে সাবস্ক্রাইব করেছে তারা তাদের এআই ওয়ার্কলোডের জন্য Run:ai-এর বৈশিষ্ট্য সেটে অ্যাক্সেস পাবে, যার মধ্যে বড় ভাষা মডেল (LLM) স্থাপনা রয়েছে।

জিপিইউ জায়ান্টের ঠিক এক মাস পরে ঘোষণাটি আসে অপাবৃত এনভিডিয়া ইনফারেন্স মাইক্রোসার্ভিসেস (NIM) নামে এআই মডেল তৈরির জন্য একটি নতুন কন্টেইনার প্ল্যাটফর্ম।

NIMS হল মূলত প্রি-কনফিগার করা এবং অপ্টিমাইজ করা কন্টেইনার ইমেজ যাতে মডেল থাকে, সেটা ওপেন সোর্স বা মালিকানাধীন সংস্করণই হোক না কেন, এটি চালানোর জন্য প্রয়োজনীয় সমস্ত নির্ভরতা সহ।

বেশিরভাগ কন্টেইনারের মতো, CUDA-এক্সিলারেটেড কুবারনেটস নোড সহ বিভিন্ন ধরনের রানটাইম জুড়ে NIMগুলি স্থাপন করা যেতে পারে।

এলএলএম এবং অন্যান্য এআই মডেলগুলিকে মাইক্রোসার্ভিসে পরিণত করার পিছনে ধারণাটি হল যে সেগুলিকে একসাথে নেটওয়ার্ক করা যেতে পারে এবং আরও জটিল এবং বৈশিষ্ট্যযুক্ত AI মডেলগুলি তৈরি করতে ব্যবহার করা যেতে পারে যা অন্যথায় নিজেকে কোনও ডেডিকেটেড মডেলকে প্রশিক্ষণ না দিয়েই সম্ভব হবে, বা অন্ততপক্ষে এইভাবে এনভিডিয়া লোকেদের ব্যবহার করে কল্পনা করে। তাদের

Run:ai-এর অধিগ্রহণের সাথে, Nvidia-এর এখন GPU অবকাঠামো জুড়ে এই NIM-এর স্থাপনা পরিচালনার জন্য একটি Kubernetes অর্কেস্ট্রেশন স্তর রয়েছে। ®

সময় স্ট্যাম্প:

থেকে আরো নিবন্ধনকর্মী