Microsoft fyller på Azure-molnet med mer maskininlärning

Microsoft fyller på Azure-molnet med mer maskininlärning

Microsoft fyller på Azure-molnet med mer maskininlärning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Microsoft såg till att inkludera Azure i AI-festen som var utvecklarkonferensen Build 2023 denna vecka.

När företag överväger att experimentera med eller distribuera generativ AI kan de mycket väl se till offentliga moln och liknande skalbar dator- och lagringsinfrastruktur för att köra saker som stora språkmodeller (LLM).

Microsoft, beväpnad med ChatGPT, GPT-4 och andra OpenAI-system har i flera månader knuffat in AI-kapaciteter i varje skrymsle och vrår av dess imperium. Azure är inte annorlunda – OpenAI-tjänsten är ett exempel – och efter dess Bygg konferens, Redmonds publika moln har nu ännu fler erbjudanden.

Högt upp på listan står en utökad samarbete med Nvidia, som själv skyndar sig att etablera sig som den oumbärliga AI-teknikleverantören, från GPU-acceleratorer till mjukvara. Bara denna vecka presenterade chiptillverkaren en mängd partnerskap, som med Dell på Dell Technologies World och superdatortillverkare på ISC23.

Ta med Nvidia-resurser till Azure

Specifikt integrerar Microsoft Nvidias AI Enterprise-svit med mjukvara, utvecklingsverktyg, ramverk och förtränade modeller i Azure Machine Learning, vilket skapar vad Tina Manghnani, produktchef för maskininlärningsmolnplattformen, kallade "den första företagsklara, säkra, slutet -to-end molnplattform för utvecklare att bygga, distribuera och hantera AI-applikationer inklusive anpassade stora språkmodeller."

Samma dag gjorde Microsoft Azure Machine Learning register – en plattform för att vara värd för och dela sådana maskinlärande byggstenar som behållare, modeller och data och ett verktyg för att integrera AI Enterprise i Azure – allmänt tillgängligt. AI Enterprise i Azure Machine Learning är också tillgänglig i begränsad teknisk förhandsvisning.

"Vad detta betyder är att för kunder som har befintliga engagemang och relationer med Azure kan de använda dessa relationer – de kan konsumera från de molnkontrakt som de redan har – för att skaffa Nvidia AI Enterprise och använda det antingen inom Azure ML för att få detta sömlös upplevelse av företagsklass eller separat på instanser som de väljer att göra”, sa Manuvir Das, vice vd för enterprise computing på Nvidia, till journalister några dagar innan Build öppnade.

Isolera nätverk för att skydda AI-data

Företag som driver AI-verksamhet i molnet vill säkerställa att deras data inte exponeras för andra företag, med nätverksisolering som ett nyckelverktyg. Microsoft har funktioner som privat länkarbetsyta och dataexfiltreringsskydd, men inget offentligt IP-alternativ för beräkningsresurser för företag som tränar AI-modeller. På Build meddelade leverantören hanterad nätverksisolering i Azure Machine Learning för att välja det isoleringsläge som bäst passar ett företags säkerhetspolicyer.

Missa inte vår Build 2023-täckning

Föga överraskande kommer verktyg med öppen källkod alltmer in i AI-utrymmet. Microsoft samarbetade förra året med Hugging Face för att ta fram Azure Machine Learning-slutpunkter som drivs av företagets teknologi med öppen källkod. På Build, paret av organisationer expanderade deras relation.

Hugging Face erbjuder redan en utvald uppsättning av verktyg och API:er samt en enormt nav av ML-modeller att ladda ner och använda. Nu kommer en samling av tusentals av dessa modeller att visas Redmonds Azure Machine Learning-katalog så att kunder kan komma åt och distribuera dem på hanterade slutpunkter i Microsofts moln.

Fler alternativ för foundationmodell

Redmond gör också grundmodeller i Azure Machine Learning tillgänglig i offentlig förhandsvisning. Grundmodeller är kraftfulla och mycket kapabla förtränade modeller som organisationer kan anpassa med sin egen data för sina egna syften och rulla ut efter behov.

Grundmodeller blir ganska viktiga, eftersom de kan hjälpa organisationer att bygga icke-triviala ML-drivna applikationer, formade efter deras specifika krav, utan att behöva spendera hundratals miljoner dollar på att träna modellerna från grunden eller ladda ner bearbetning och känslig kunddata till molnet.

Nvidia släppte en nemo ramverk som kan vara användbart på detta område, och den här månaden har samarbetar med ServiceNow och – den här veckan – Dell in Projekt Helix längs de linjerna.

"När vi har arbetat med företagsföretag om generativ AI under de senaste månaderna, har vi lärt oss att det finns ett stort antal företagsföretag som skulle vilja utnyttja kraften i generativ AI, men som gör det i sina egna datacenter eller gör det utanför det offentliga molnet, säger Nvidias Das.

Resurser som öppen källkod och grundmodeller lovar att minska komplexiteten och kostnaderna för att ge fler organisationer tillgång till generativ AI. ®

Tidsstämpel:

Mer från Registret