Microsoft napycha chmurę Azure większą ilością uczenia maszynowego

Microsoft napycha chmurę Azure większą ilością uczenia maszynowego

Microsoft uzupełnia chmurę Azure o więcej rozwiązań uczenia maszynowego PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Microsoft zadbał o włączenie platformy Azure do AI-fest, którym była konferencja programistów Build 2023 w tym tygodniu.

Gdy przedsiębiorstwa rozważają eksperymentowanie z generatywną sztuczną inteligencją lub wdrażanie jej, mogą równie dobrze szukać chmur publicznych i podobnej skalowalnej infrastruktury obliczeniowej i pamięci masowej do obsługi takich rzeczy, jak modele wielkojęzyczne (LLM).

Microsoft, uzbrojony w ChatGPT, GPT-4 i inne systemy OpenAI od miesięcy wpychają możliwości sztucznej inteligencji w każdy zakamarek swojego imperium. Azure nie jest inny – przykładem jest usługa OpenAI – i po niej Zbuduj konferencję, publiczna chmura Redmond ma teraz jeszcze więcej zgłoszonych ofert.

Wysoko na liście znajduje się wersja rozszerzona współpraca z Nvidią, która sama dąży do zdobycia pozycji niezastąpionego dostawcy technologii sztucznej inteligencji, od akceleratorów GPU po oprogramowanie. Tylko w tym tygodniu producent chipów ujawnił wiele partnerstw, takich jak Dell na Dell Technologies World i producenci superkomputerów na ISC23.

Przenoszenie zasobów Nvidii na platformę Azure

W szczególności Microsoft integruje pakiet oprogramowania AI Enterprise firmy Nvidia, narzędzia programistyczne, struktury i wstępnie wytrenowane modele z Azure Machine Learning, tworząc coś, co Tina Manghnani, menedżer produktu platformy chmurowej uczenia maszynowego, nazwała „pierwszym gotowym do zastosowania w przedsiębiorstwie, bezpiecznym, końcowym kompleksowa platforma chmurowa dla programistów do tworzenia, wdrażania i zarządzania aplikacjami AI, w tym niestandardowymi dużymi modelami językowymi”.

Tego samego dnia Microsoft stworzył Azure Machine Learning rejestry – platforma do hostowania i udostępniania takich bloków uczenia maszynowego jak kontenery, modele i dane oraz narzędzie do integracji AI Enterprise z Azure – ogólnie dostępne. AI Enterprise w Azure Machine Learning jest również dostępne w ograniczonej technicznej wersji zapoznawczej.

„Oznacza to, że dla klientów, którzy mają istniejące zobowiązania i relacje z platformą Azure, mogą korzystać z tych relacji – mogą korzystać z umów w chmurze, które już mają – aby uzyskać Nvidia AI Enterprise i używać jej w ramach Azure ML, aby uzyskać to bezproblemowe doświadczenie klasy korporacyjnej lub osobno w wybranych przez siebie instancjach”, powiedział dziennikarzom Manuvir Das, wiceprezes ds. komputerów korporacyjnych w firmie Nvidia, kilka dni przed otwarciem Build.

Izolowanie sieci w celu ochrony danych AI

Przedsiębiorstwa prowadzące operacje AI w chmurze chcą mieć pewność, że ich dane nie zostaną ujawnione innym firmom, a izolacja sieci jest kluczowym narzędziem. Firma Microsoft oferuje takie funkcje, jak obszar roboczy łącza prywatnego i ochrona przed eksfiltracją danych, ale nie ma opcji publicznego adresu IP dla zasobów obliczeniowych firm szkolących modele sztucznej inteligencji. W Build, sprzedawca ogłosił zarządzana izolacja sieci w Azure Machine Learning w celu wybrania trybu izolacji, który najlepiej pasuje do zasad bezpieczeństwa przedsiębiorstwa.

Nie przegap naszej relacji z Build 2023

Nic dziwnego, że narzędzia open source coraz częściej pojawiają się w przestrzeni sztucznej inteligencji. W zeszłym roku Microsoft nawiązał współpracę z Hugging Face, aby wprowadzić punkty końcowe Azure Machine Learning oparte na technologii firmy open source. W Build, para organizacji rozszerzony ich związek.

Hugging Face już oferuje wyselekcjonowany zestaw narzędzi i interfejsów API, a także ogromne centrum modeli ML do pobrania i używania. Teraz kolekcja tysięcy tych modeli pojawi się w katalogu Azure Machine Learning firmy Redmond, aby klienci mogli uzyskiwać do nich dostęp i wdrażać je na zarządzanych punktach końcowych w chmurze firmy Microsoft.

Więcej opcji modeli fundamentów

Redmond również tworzy modele fundamentów w Azure Machine Learning dostępne w publicznej wersji zapoznawczej. Modele podstawowe to wydajne i wysoce wydajne wstępnie wytrenowane modele, które organizacje mogą dostosowywać za pomocą własnych danych do własnych celów i wdrażać w razie potrzeby.

Modele fundamentów stają się dość ważne, ponieważ mogą pomóc organizacjom w tworzeniu nietrywialnych aplikacji wspieranych przez ML, dostosowanych do ich specyficznych wymagań, bez konieczności wydawania setek milionów dolarów na szkolenie modeli od podstaw lub przenoszenie przetwarzania i wrażliwych danych klientów do chmury.

Nvidia wydała tzw nemo ramy, które mogą być przydatne w tej dziedzinie, iw tym miesiącu partner z ServiceNow i – w tym tygodniu – Dell in Helisa projektu wzdłuż tych linii.

„Pracując z firmami korporacyjnymi nad generatywną sztuczną inteligencją w ciągu ostatnich kilku miesięcy, dowiedzieliśmy się, że istnieje duża liczba firm, które chciałyby wykorzystać moc generatywnej sztucznej inteligencji, ale robią to we własnych centrach danych lub zrób to poza chmurą publiczną” – powiedział Das z Nvidii.

Zasoby, takie jak open source i modele podstawowe, obiecują zmniejszenie złożoności i kosztów, aby umożliwić większej liczbie organizacji dostęp do generatywnej sztucznej inteligencji. ®

Znak czasu:

Więcej z Rejestr