У середу компанія Nvidia оголосила про придбання постачальника оркестровки Kubernetes Run:ai, орієнтованого на ШІ, щоб допомогти підвищити ефективність обчислювальних кластерів, побудованих на GPU.
Деталі Угода не були розголошені, але як повідомляється угода може бути оцінена приблизно в 700 мільйонів доларів. Тель-авівський стартап має мабуть залучив 118 мільйонів доларів США протягом чотирьох раундів фінансування з моменту свого заснування в 2018 році.
Платформа Run:ai надає центральний інтерфейс користувача та площину керування для роботи з різними популярними варіантами Kubernetes. Це робить його трохи схожим на OpenShift від RedHat або Rancher від SUSE, і він містить багато тих самих інструментів для керування такими речами, як простори імен, профілі користувачів і розподіл ресурсів.
Ключова відмінність полягає в тому, що Run:ai розроблено для інтеграції зі сторонніми інструментами та фреймворками штучного інтелекту та роботи з контейнерними середовищами, прискореними GPU. Його портфоліо програмного забезпечення включає такі елементи, як планування робочого навантаження та розподіл прискорювача, останній з яких дозволяє розподілити кілька робочих навантажень на один GPU.
За словами Nvidia, платформа Run:ai вже підтримує її обчислювальні платформи DGX, включаючи конфігурації Superpod, систему керування кластером Base Command, бібліотеку контейнерів NGC і пакет AI Enterprise.
Що стосується штучного інтелекту, Kubernetes заявляє про низку переваг перед розгортанням «голого металу», оскільки середовище можна налаштувати для масштабування кількох, потенційно географічно розподілених, ресурсів.
На даний момент існуючим клієнтам Run:ai не потрібно турбуватися про те, що Nvidia внесе серйозні зміни в платформу. В звільнити, Nvidia заявила, що продовжить пропонувати продукти Run:ai за тією ж бізнес-моделлю в найближчому майбутньому — що б це не означало.
Тим часом ті, хто підписався на DGX Cloud від Nvidia, отримають доступ до набору функцій Run:ai для своїх робочих навантажень AI, включаючи розгортання великої мовної моделі (LLM).
Оголошення з’явилося трохи більше ніж через місяць після появи гіганта GPU представила нову контейнерну платформу для створення моделей ШІ під назвою Nvidia Inference Microservices (NIM).
NIMS — це, по суті, попередньо налаштовані та оптимізовані образи контейнерів, що містять модель, будь то версія з відкритим вихідним кодом або пропрієтарна версія, з усіма залежностями, необхідними для її запуску.
Як і більшість контейнерів, NIM можна розгортати в різних середовищах виконання, включаючи вузли Kubernetes із прискоренням CUDA.
Ідея перетворення LLM та інших моделей штучного інтелекту на мікросервіси полягає в тому, що їх можна об’єднати в мережу та використовувати для створення більш складних і багатофункціональних моделей штучного інтелекту, ніж це було б можливо без самостійного навчання спеціальної моделі, або, принаймні, так Nvidia бачить людей, які використовують їх.
Після придбання Run:ai Nvidia тепер має рівень оркестровки Kubernetes для керування розгортанням цих NIM у своїй інфраструктурі GPU. ®
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/
- : має
- :є
- 2018
- a
- МЕНЮ
- прискорений
- прискорювач
- доступ
- придбання
- через
- Переваги
- після
- AI
- Моделі AI
- Цілі
- ВСІ
- асигнувань
- дозволяє
- вже
- an
- та
- оголошений
- Оголошення
- ЕСТЬ
- AS
- At
- база
- BE
- за
- Біт
- підсилювач
- будувати
- Створюємо
- побудований
- бізнес
- бізнес-модель
- але
- званий
- CAN
- центральний
- Зміни
- претензій
- хмара
- кластер
- CO
- приходить
- команда
- комплекс
- обчислення
- обчислення
- налаштувати
- Контейнер
- Контейнери
- продовжувати
- контроль
- може
- CrunchBase
- Клієнти
- угода
- присвячених
- залежно
- розгорнути
- розгортання
- розгортання
- призначений
- деталі
- різниця
- розподілений
- ефективність
- зусилля
- елементи
- підприємство
- Навколишнє середовище
- середовищах
- передбачення
- по суті
- існуючий
- особливість
- риси
- для
- Заснований
- чотири
- каркаси
- фінансування
- раунди фінансування
- майбутнє
- географічно
- отримати
- гігант
- GPU
- обробляти
- допомога
- Як
- HTTPS
- ідея
- зображень
- Негайний
- накладення
- in
- includes
- У тому числі
- Інфраструктура
- інтегрувати
- інтерфейс
- в
- IT
- ЙОГО
- JPG
- просто
- ключ
- мова
- великий
- шар
- найменш
- бібліотека
- як
- LLM
- основний
- РОБОТИ
- управляти
- управління
- управління
- багато
- Може..
- значити
- метал
- мікросервіс
- мільйона
- модель
- Моделі
- місяць
- більше
- найбільш
- множинний
- необхідно
- Нові
- ngc
- вузли
- зараз
- номер
- Nvidia
- of
- пропонувати
- on
- відкрити
- з відкритим вихідним кодом
- оптимізований
- or
- оркестровка
- Інше
- інакше
- над
- літак
- платформа
- Платформи
- plato
- Інформація про дані Платона
- PlatoData
- популярний
- портфель
- це можливо
- потенційно
- Продукти
- Профілі
- власником
- Постачальник
- забезпечує
- піднятий
- вважати
- ресурс
- ресурси
- Багаті
- грубо
- турів
- прогін
- біг
- s
- Зазначений
- то ж
- Масштабування
- планування
- комплект
- з
- один
- Софтвер
- Source
- поширення
- введення в експлуатацію
- набір
- Опори
- система
- Такі
- ніж
- Що
- Команда
- їх
- Їх
- Ці
- вони
- речі
- третя сторона
- це
- ті
- до
- разом
- інструменти
- Навчання
- Поворот
- при
- використовуваний
- користувач
- Інтерфейс користувача
- використання
- цінний
- різноманітність
- версія
- було
- середа
- були
- будь
- Чи
- який
- волі
- з
- без
- робочий
- турбуватися
- б
- вашу
- себе
- зефірнет