جنسن هوانگ، مدیرعامل انویدیا معتقد است که در آینده، نرمافزار سازمانی فقط مجموعهای از رباتهای چت است که برای تکمیل این کار به هم متصل شدهاند.
او روی صحنه در جریان GTC خود گفت: "بعید است که شما آن را از ابتدا بنویسید یا یک دسته کامل از کدهای پایتون یا هر چیز دیگری بنویسید." مفتاح دوشنبه. "به احتمال زیاد شما تیمی از هوش مصنوعی را جمع آوری کنید."
جنسن توضیح می دهد که این تیم هوش مصنوعی ممکن است شامل مدلی باشد که برای تجزیه و تفویض یک درخواست به مدل های مختلف دیگر طراحی شده است. برخی از این مدل ها ممکن است برای درک خدمات تجاری مانند SAP یا Service Now آموزش دیده باشند، در حالی که برخی دیگر ممکن است تجزیه و تحلیل عددی را روی داده های ذخیره شده در یک پایگاه داده برداری انجام دهند. سپس این داده ها را می توان با یک مدل دیگر ترکیب کرد و به کاربر نهایی ارائه کرد.
او توضیح داد: «ما میتوانیم هر روز گزارشی دریافت کنیم، یا میدانید، در اوج ساعت که ارتباطی با یک برنامه ساخت، یا برخی پیشبینیها، یا برخی هشدارهای مشتری، یا برخی پایگاهدادههای اشکالات یا هر چیز دیگری دارد، داشته باشیم.
انویدیا برای زنجیرهای کردن همه این مدلها، صفحهای از کتاب Docker را برداشته و یک زمان اجرا برای هوش مصنوعی ایجاد کرده است.
اینها که Nvidia Inference Microservices یا به اختصار NIM نامیده میشوند، اساساً تصاویر محفظهای هستند که هر دو مدل را، چه منبع باز یا اختصاصی، به همراه تمام وابستگیهای لازم برای اجرای آن را در بر میگیرند. سپس این مدلهای کانتینری میتوانند در هر تعداد زمان اجرا، از جمله گرههای Kubernetes شتابدهنده Nvidia، مستقر شوند.
شما می توانید آن را در زیرساخت ما به نام DGX Cloud استقرار دهید، یا می توانید آن را در prem مستقر کنید، یا می توانید آن را در هر جایی که دوست دارید استقرار دهید. هنگامی که آن را توسعه دادید، هر جا به عهده شماست، می توانید آن را ببرید.” جنسن گفت.
البته، ابتدا به یک اشتراک در مجموعه AI Enterprise انویدیا نیاز دارید، که دقیقاً ارزان نیست و 4,500 دلار در سال به ازای هر GPU یا 1 دلار در ساعت به ازای هر GPU در فضای ابری است. به نظر میرسد این استراتژی قیمتگذاری به طور کلی سیستمهای متراکمتر با عملکرد بالاتر را تشویق میکند، زیرا صرف نظر از اینکه روی L40s کار میکنید یا خیر، هزینه یکسانی دارد. B100s.
اگر ایده کانتینریسازی بارهای کاری سریعشده GPU آشنا به نظر میرسد، این دقیقاً ایده جدیدی برای Nvidia نیست. شتاب CUDA بوده است پشتیبانی در طیف گستردهای از زمانهای اجرا کانتینر، از جمله Docker، Podman، Containerd، یا CRI-O برای سالها، و به نظر نمیرسد که Nvidia Container Runtime به جایی برسد.
به نظر می رسد ارزش پیشنهادی پشت NIM این است که انویدیا بسته بندی و بهینه سازی این مدل ها را انجام می دهد تا نسخه مناسب CUDA، Triton Inference Server یا TensorRT LLM را داشته باشند که برای به دست آوردن بهترین عملکرد از آنها ضروری است.
استدلال این است که اگر انویدیا بهروزرسانیای را منتشر کند که عملکرد استنتاج انواع مدلهای خاص را به طور چشمگیری افزایش دهد، استفاده از آن عملکرد فقط مستلزم پایین کشیدن آخرین تصویر NIM است.
علاوه بر بهینهسازی مدلهای خاص سختافزاری، انویدیا همچنین در حال کار بر روی فعال کردن ارتباطات ثابت بین کانتینرها است تا بتوانند از طریق تماسهای API با یکدیگر چت کنند.
همانطور که میدانیم، فراخوانهای API که امروزه توسط مدلهای هوش مصنوعی مختلف موجود در بازار استفاده میشوند، همیشه ثابت نیستند و در نتیجه ترکیب کردن برخی از مدلها آسانتر است و برخی دیگر ممکن است به کار بیشتری نیاز داشته باشند.
وام دادن دانش نهادی به مدلهای هدف عمومی
هرکسی که از یک ربات چت هوش مصنوعی استفاده کرده باشد، میداند که اگرچه معمولاً با سؤالات دانش عمومی بسیار خوب هستند، اما همیشه با درخواستهای مبهم یا فنی قابل اعتمادترین نیستند.
جنسن این واقعیت را در طول سخنرانی خود برجسته کرد. در مورد یک برنامه داخلی مورد استفاده در انویدیا، مدل زبان بزرگ Llama 2 70B متا به طرز عجیبی تعریفی را برای یک اصطلاح نامرتبط ارائه کرد.
انویدیا به جای تلاش برای ترغیب شرکتها به آموزش مدلهای خود - چیزی که پردازندههای گرافیکی زیادی را به فروش میرساند اما بازار آدرسپذیر را به میزان قابل توجهی محدود میکند - ابزارهایی را برای تنظیم دقیق NIMهای خود با دادهها و فرآیندهای مشتری توسعه داده است.
ما سرویسی به نام NeMo Microservices داریم که به شما کمک میکند دادهها را مدیریت کنید، دادهها را آماده کنید تا بتوانید روی این هوش مصنوعی... شما آن را به خوبی تنظیم می کنید و سپس آن را حفاظ می کنید. پس از آن می توانید عملکرد آن را در مقایسه با نمونه های دیگر ارزیابی کنید.
او همچنین در مورد سرویس NeMo Retriever انویدیا صحبت کرد که مبتنی بر مفهوم استفاده از نسل افزوده بازیابی (RAG) برای نشان دادن اطلاعاتی است که مدل به طور خاص روی آن آموزش ندیده است.
ایده در اینجا این است که اسناد، فرآیندها و سایر داده ها را می توان در یک پایگاه داده برداری که به مدل متصل است بارگذاری کرد. بر اساس یک پرس و جو، مدل سپس می تواند آن پایگاه داده را جستجو کند، اطلاعات مربوطه را بازیابی و خلاصه کند.
مدلهای NIM و NeMo Retriever برای ادغام RAGها در حال حاضر در دسترس هستند، در حالی که NeMo Microservices در دسترس است. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/03/19/nvidia_why_write_code_when/
- : دارد
- :است
- $UP
- 7
- a
- درباره ما
- تسریع شد
- شتاب
- دسترسی
- در میان
- اضافه
- اضافی
- آدرس پذیر
- مزیت - فایده - سود - منفعت
- در برابر
- AI
- AI chatbot
- مدل های هوش مصنوعی
- هوشیار
- معرفی
- در امتداد
- همچنین
- همیشه
- an
- تحلیل
- و
- دیگر
- هر
- هر چیزی
- هر جا
- API
- ظاهر می شود
- هستند
- استدلال
- دور و بر
- AS
- At
- افزوده شده
- در دسترس
- مستقر
- BE
- بوده
- پشت سر
- بودن
- معتقد است که
- بهترین
- میان
- کتاب
- تقویت می کند
- هر دو
- رباتها
- شکستن
- اشکالات
- ساختن
- دسته
- کسب و کار
- اما
- by
- نام
- تماس ها
- CAN
- می توانید دریافت کنید
- مدیر عامل شرکت
- معین
- زنجیر
- گپ
- chatbot
- ارزان
- ابر
- CO
- رمز
- مجموعه
- ترکیب شده
- ارتباطات
- کامل
- مفهوم
- متصل
- استوار
- ظرف
- ظروف
- هزینه
- دوره
- ایجاد شده
- دروغ گفتن
- مشتری
- اطلاعات مشتری
- داده ها
- پایگاه داده
- روز
- تعریف
- وابستگی
- گسترش
- مستقر
- طراحی
- توسعه
- توسعه
- do
- کارگر بارانداز
- اسناد و مدارک
- ندارد
- پایین
- به طور چشمگیری
- در طی
- هر
- در اوایل
- آسان تر
- را قادر می سازد
- پایان
- سرمایه گذاری
- نرمافزار سازمانی
- شرکت
- اساسا
- هر
- کاملا
- مثال ها
- توضیح داده شده
- توضیح می دهد
- واقعیت
- آشنا
- پایان
- نام خانوادگی
- برای
- پیش بینی
- از جانب
- قابلیت
- آینده
- سوالات عمومی
- نسل
- دریافت کنید
- رفتن
- خوب
- GPU
- GPU ها
- دسته
- اتفاق می افتد
- سخت افزار
- آیا
- he
- کمک
- کمک می کند
- اینجا کلیک نمایید
- بالاتر
- برجسته
- خود را
- ساعت
- HTTPS
- huang
- اندیشه
- if
- تصویر
- تصاویر
- in
- تشویق
- شامل
- از جمله
- اطلاعات
- شالوده
- سازمانی
- ادغام
- داخلی
- به
- نیست
- IT
- ITS
- جنسن هوانگ
- JPG
- تنها
- مفتاح
- دانستن
- دانش
- زبان
- بزرگ
- آخرین
- پسندیدن
- احتمالا
- محدود
- ll
- پشم لاما
- LLM
- نگاه کنيد
- شبیه
- خیلی
- بازار
- ممکن است..
- متا
- خدمات میکرو
- قدرت
- مدل
- مدل
- دوشنبه
- اکثر
- لازم
- نیاز
- جدید
- گره
- اکنون
- عدد
- کارت گرافیک Nvidia
- of
- on
- پردازنده
- یک بار
- باز کن
- منبع باز
- بهینه سازی
- بهینه سازی
- or
- دیگر
- دیگران
- ما
- خارج
- خود
- بسته بندی
- با ما
- برای
- انجام
- کارایی
- برنامه
- افلاطون
- هوش داده افلاطون
- PlatoData
- پیش فرض
- آماده
- ارائه شده
- زیبا
- قیمت گذاری
- فرآیندهای
- برنامه
- پیشنهاد
- اختصاصی
- ارائه
- کشیدن
- هدف
- پــایتــون
- پرس و جو
- سوالات
- پارچه
- RE
- بدون در نظر گرفتن
- منتشر شده
- مربوط
- قابل اعتماد
- گزارش
- درخواست
- درخواست
- نیاز
- نتیجه
- بازیابی
- راست
- در حال اجرا
- زمان اجرا
- s
- سعید
- همان
- شیره
- خراش
- جستجو
- به نظر می رسد
- فروش
- سرور
- سرویس
- خدمات
- کوتاه
- تنها
- So
- نرم افزار
- برخی از
- چیزی
- برای تلفن های موبایل
- منبع
- خاص
- به طور خاص
- صحنه
- ذخیره شده
- استراتژی
- رشته
- اشتراک، ابونمان
- دنباله
- خلاصه کردن
- سطح
- سیستم های
- گرفتن
- مصرف
- کار
- تیم
- فنی
- مدت
- که
- La
- آینده
- شان
- آنها
- سپس
- اینها
- آنها
- این
- به
- امروز
- با هم
- ابزار
- بالا
- قطار
- آموزش دیده
- تریتون
- تلاش
- اهنگ
- انواع
- فهمیدن
- بعید
- بروزرسانی
- استفاده
- کاربر
- با استفاده از
- معمولا
- ارزش
- تنوع
- مختلف
- نسخه
- بسیار
- از طريق
- we
- هر چه
- چه
- که
- در حین
- WHO
- تمام
- وسیع
- اراده
- با
- در داخل
- مهاجرت کاری
- کارگر
- خواهد بود
- نوشتن
- کد بنویس
- سال
- هنوز
- شما
- مال شما
- یوتیوب
- زفیرنت