Microsoft расширяет возможности облака Azure машинным обучением

Microsoft расширяет возможности облака Azure машинным обучением

Microsoft наполняет облако Azure дополнительными возможностями машинного обучения PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Microsoft позаботилась о том, чтобы включить Azure в AI-fest, который был конференцией разработчиков Build 2023 на этой неделе.

Поскольку предприятия планируют экспериментировать с генеративным искусственным интеллектом или развертывать его, они вполне могут обратиться к общедоступным облакам и аналогичной масштабируемой инфраструктуре вычислений и хранения для запуска таких вещей, как модели с большим языком (LLM).

Microsoft, вооружившись ChatGPT, GPT-4 и другие системы OpenAI в течение нескольких месяцев внедряли возможности ИИ в каждый уголок своей империи. Azure ничем не отличается — например, служба OpenAI — и после ее Построить конференцию, общедоступное облако Редмонда теперь имеет еще больше востребованных предложений.

Верхним в списке является расширенный партнерство с Nvidia, которая сама спешит зарекомендовать себя как незаменимый поставщик технологий искусственного интеллекта, от ускорителей GPU до программного обеспечения. Только на этой неделе производитель чипов объявил о множестве партнерских отношений, таких как Dell на Dell Technologies World и производители суперкомпьютеров на ISC23.

Перенос ресурсов Nvidia в Azure

В частности, Microsoft интегрирует набор программного обеспечения Nvidia AI Enterprise, инструментов разработки, фреймворков и предварительно обученных моделей в Машинное обучение Azure, создавая то, что Тина Мангнани, менеджер по продуктам облачной платформы машинного обучения, назвала «первым готовым к работе, безопасным, конечным комплексная облачная платформа, позволяющая разработчикам создавать, развертывать и управлять приложениями ИИ, включая настраиваемые крупноформатные языковые модели».

В тот же день Microsoft сделала Azure Machine Learning реестры — общедоступная платформа для размещения и совместного использования таких строительных блоков машинного обучения, как контейнеры, модели и данные, а также инструмент для интеграции AI Enterprise в Azure. AI Enterprise в Машинном обучении Azure также доступен в ограниченной технической предварительной версии.

«Это означает, что для клиентов, у которых есть существующие обязательства и отношения с Azure, они могут использовать эти отношения — они могут использовать из облачных контрактов, которые у них уже есть, — чтобы получить Nvidia AI Enterprise и использовать его либо в Azure ML, чтобы получить это бесшовный опыт корпоративного уровня или отдельно на инстансах, которые они выбирают», — сказал Манувир Дас, вице-президент по корпоративным вычислениям в Nvidia, журналистам за несколько дней до открытия Build.

Изоляция сетей для защиты данных ИИ

Предприятия, выполняющие операции ИИ в облаке, хотят, чтобы их данные не попадали в руки других компаний, а сетевая изоляция является ключевым инструментом. У Microsoft есть такие функции, как рабочее пространство с частной ссылкой и защита от кражи данных, но нет общедоступного IP-адреса для вычислительных ресурсов компаний, обучающих модели искусственного интеллекта. На Build производитель объявил изоляция управляемой сети в Машинном обучении Azure для выбора режима изоляции, который лучше всего соответствует политикам безопасности предприятия.

Не пропустите наш обзор Build 2023

Неудивительно, что инструменты с открытым исходным кодом все чаще приходят в пространство ИИ. В прошлом году Microsoft заключила партнерское соглашение с Hugging Face, чтобы предоставить конечные точки машинного обучения Azure на основе технологии компании с открытым исходным кодом. В Build пара организаций расширенный их отношения.

Hugging Face уже предлагает кураторский набор инструментов и API, а также огромный центр моделей машинного обучения для загрузки и использования. Теперь коллекция из тысяч этих моделей появится в каталоге Redmond Azure Machine Learning, чтобы клиенты могли получить доступ и развернуть их на управляемых конечных точках в облаке Microsoft.

Больше вариантов модели фундамента

Редмонд также делает модели фундамента в Машинном обучении Azure, доступном в общедоступной предварительной версии. Базовые модели — это мощные и высокопроизводительные предварительно обученные модели, которые организации могут настраивать с использованием собственных данных для своих целей и развертывать по мере необходимости.

Модели фундамента становятся весьма важными, поскольку они могут помочь организациям создавать нетривиальные приложения на основе машинного обучения, адаптированные к их конкретным требованиям, без необходимости тратить сотни миллионов долларов на обучение моделей с нуля или перенос обработки и конфиденциальных данных клиентов в облако.

Nvidia выпустила НеМо рамки, которые могут быть полезны в этой области, и в этом месяце партнерство с ServiceNow и — на этой неделе — Dell в Проект Хеликс по этим линиям.

«После того, как мы работали с корпоративными компаниями над генеративным ИИ в течение последних нескольких месяцев, мы узнали, что существует большое количество корпоративных компаний, которые хотели бы использовать возможности генеративного ИИ, но делать это в своих собственных центрах обработки данных. или сделать это за пределами общедоступного облака», — сказал Дас из Nvidia.

Ресурсы, такие как модели с открытым исходным кодом и базовые модели, обещают снизить сложность и затраты, чтобы предоставить большему количеству организаций доступ к генеративному ИИ. ®

Отметка времени:

Больше от Регистр