Microsoft наповнює хмару Azure додатковими можливостями машинного навчання

Microsoft наповнює хмару Azure додатковими можливостями машинного навчання

Корпорація Майкрософт наповнює хмару Azure більшою кількістю машинного навчання PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Корпорація Майкрософт подбала про те, щоб включити Azure до фестивалю штучного інтелекту, тобто конференції розробників Build 2023 цього тижня.

Коли підприємства розглядають можливість експериментувати з генеративним штучним інтелектом або розгортати його, вони цілком можуть звернути увагу на загальнодоступні хмари та подібну масштабовану обчислювальну інфраструктуру та інфраструктуру зберігання для запуску таких речей, як широкомовні моделі (LLM).

Microsoft, озброєний ChatGPT, GPT-4 та інші системи OpenAI місяцями впроваджували можливості штучного інтелекту в усі закутки своєї імперії. Azure нічим не відрізняється – наприклад, служба OpenAI – і після неї Створення конференції, публічна хмара Redmond тепер має ще більше затребуваних пропозицій.

На першому місці списку розширений партнерство з Nvidia, яка сама поспішає зарекомендувати себе як незамінний постачальник технологій ШІ, від прискорювачів GPU до програмного забезпечення. Тільки цього тижня виробник мікросхем оприлюднив низку партнерських відносин, наприклад, з Dell на Dell Technologies World і виробниками суперкомп’ютерів на ISC23.

Перенесення ресурсів Nvidia в Azure

Зокрема, Microsoft інтегрує набір програмного забезпечення Nvidia AI Enterprise, інструменти розробки, фреймворки та попередньо навчені моделі в Azure Machine Learning, створюючи те, що Тіна Мангнані, менеджер із продуктів для хмарної платформи машинного навчання, назвала «першим корпоративним, безпечним, кінцевим комплексна хмарна платформа для розробників, щоб створювати, розгортати та керувати програмами штучного інтелекту, включаючи спеціальні моделі великих мов».

Того ж дня Microsoft створила Azure Machine Learning реєстри – платформа для розміщення та спільного використання таких будівельних блоків машинного навчання, як контейнери, моделі та дані, а також інструмент для інтеграції AI Enterprise в Azure – загальнодоступний. AI Enterprise у машинному навчанні Azure також доступний у обмеженій технічній попередній версії.

«Це означає, що клієнти, які вже мають співпрацю та стосунки з Azure, можуть використовувати ці відносини — вони можуть споживати з уже наявних хмарних контрактів — щоб отримати Nvidia AI Enterprise і використовувати його в Azure ML, щоб отримати це безперебійний досвід корпоративного рівня або окремо на примірниках, які вони вибирають», — сказав журналістам Манувір Дас, віце-президент із корпоративних обчислень у Nvidia, за кілька днів до відкриття Build.

Ізоляція мереж для захисту даних ШІ

Підприємства, які використовують операції штучного інтелекту в хмарі, хочуть гарантувати, що їхні дані не будуть доступні іншим компаніям, а ізоляція мережі є ключовим інструментом. Корпорація Майкрософт має такі функції, як робочий простір для приватних посилань і захист від викрадання даних, але не має опції загальнодоступної IP-адреси для обчислювальних ресурсів компаній, які навчають моделі ШІ. На Build, оголосив постачальник керована ізоляція мережі у машинному навчанні Azure для вибору режиму ізоляції, який найкраще відповідає політикам безпеки підприємства.

Не пропустіть наше висвітлення Build 2023

Не дивно, що інструменти з відкритим вихідним кодом все більше проникають у простір ШІ. Минулого року корпорація Майкрософт співпрацювала з компанією Hugging Face, щоб запровадити кінцеві точки машинного навчання Azure на основі технології компанії з відкритим кодом. У Build, пара організацій розширений їхні стосунки.

Hugging Face вже пропонує a кураторський набір інструментів і API, а також a величезний хаб моделей ML для завантаження та використання. Тепер колекція з тисяч цих моделей з’явиться в каталозі машинного навчання Azure Редмонда, щоб клієнти могли отримати до них доступ і розгорнути їх на керованих кінцевих точках у хмарі Microsoft.

Більше варіантів моделі фундаменту

Редмонд також робить моделі фундаменту у машинному навчанні Azure доступний у загальнодоступній попередній версії. Базові моделі — це потужні та високопродуктивні попередньо навчені моделі, які організації можуть налаштовувати за допомогою власних даних для власних цілей і розгортати за потреби.

Моделі фундаменту стають дуже важливими, оскільки вони можуть допомогти організаціям створювати нетривіальні програми на основі машинного навчання, розроблені відповідно до їхніх конкретних вимог, без необхідності витрачати сотні мільйонів доларів на навчання моделей з нуля або перенесення обробки та конфіденційних даних клієнтів у хмару.

Nvidia випустила a немо структура, яка може бути корисною в цій сфері, і цього місяця є партнерська за допомогою ServiceNow і – цього тижня – Dell Проект Helix уздовж цих ліній.

«Оскільки ми працювали з корпоративними компаніями над генеративним ШІ протягом останніх кількох місяців, ми дізналися, що існує велика кількість корпоративних компаній, які хотіли б використовувати потужність генеративного ШІ, але робити це у своїх власних центрах обробки даних. або зробіть це за межами загальнодоступної хмари», — сказав Дас з Nvidia.

Такі ресурси, як моделі з відкритим вихідним кодом і базові моделі, обіцяють зменшити складність і витрати, щоб надати більшій кількості організацій доступ до генеративного ШІ. ®

Часова мітка:

Більше від Реєстр