Microsoft propt de Azure-cloud vol met meer machine learning

Microsoft propt de Azure-cloud vol met meer machine learning

Microsoft vult de Azure-cloud met meer machine learning PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Microsoft zorgde ervoor dat Azure deze week werd opgenomen in het AI-fest dat de Build 2023-ontwikkelaarsconferentie was.

Als ondernemingen overwegen te experimenteren met generatieve AI of deze in te zetten, kijken ze misschien naar openbare clouds en vergelijkbare schaalbare computer- en opslaginfrastructuur om zaken als large-language models (LLM's) uit te voeren.

Microsoft, gewapend met ChatGPT, GPT-4 en andere OpenAI-systemen hebben al maanden AI-mogelijkheden in alle hoeken en gaten van hun imperium geduwd. Azure is niet anders – de OpenAI Service is een voorbeeld – en daarna Conferentie opzetten, heeft de openbare cloud van Redmond nu nog meer geclaimde aanbiedingen.

Hoog op de lijst staat een uitgebreide samenwerking met Nvidia, dat zelf haast heeft om zichzelf te vestigen als de onmisbare aanbieder van AI-technologie, van GPU-versnellers tot software. Alleen al deze week onthulde de chipmaker een groot aantal partnerschappen, zoals met Dell op Dell Technologies World en supercomputermakers op ISC23.

Nvidia-resources naar Azure brengen

In het bijzonder integreert Microsoft Nvidia's AI Enterprise-suite van software, ontwikkeltools, frameworks en vooraf getrainde modellen in Azure Machine Learning, waardoor ontstaat wat Tina Manghnani, productmanager voor het machine learning cloudplatform, "de eerste enterprise-ready, veilige, end -to-end cloudplatform voor ontwikkelaars om AI-applicaties te bouwen, implementeren en beheren, inclusief op maat gemaakte grote taalmodellen.”

Diezelfde dag maakte Microsoft Azure Machine Learning registers – een platform voor het hosten en delen van machine learning-bouwstenen zoals containers, modellen en data en een tool voor het integreren van AI Enterprise in Azure – algemeen beschikbaar. AI Enterprise in Azure Machine Learning is ook beschikbaar in beperkte technische preview.

“Wat dit betekent is dat voor klanten die bestaande afspraken en relaties met Azure hebben, ze die relaties kunnen gebruiken – ze kunnen gebruik maken van de cloudcontracten die ze al hebben – om Nvidia AI Enterprise te verkrijgen en deze binnen Azure ML te gebruiken om dit te krijgen. naadloze enterprise-grade ervaring of afzonderlijk op momenten dat ze dat willen, "vertelde Manuvir Das, vice-president van enterprise computing bij Nvidia, aan journalisten een paar dagen voordat Build werd geopend.

Netwerken isoleren om AI-gegevens te beschermen

Ondernemingen die AI-activiteiten in de cloud uitvoeren, willen ervoor zorgen dat hun gegevens niet worden blootgesteld aan andere bedrijven, waarbij netwerkisolatie een belangrijk hulpmiddel is. Microsoft heeft functies zoals werkruimte met privélinks en bescherming tegen data-exfiltratie, maar geen openbare IP-optie voor computerresources van bedrijven die AI-modellen trainen. Bij Build maakte de verkoper bekend beheerde netwerkisolatie in Azure Machine Learning voor het kiezen van de isolatiemodus die het beste past bij het beveiligingsbeleid van een onderneming.

Mis onze Build 2023-dekking niet

Het is niet verwonderlijk dat open-sourcetools steeds vaker hun intrede doen in de AI-ruimte. Microsoft werkte vorig jaar samen met Hugging Face om Azure Machine Learning-eindpunten mogelijk te maken die worden aangedreven door de technologie van het open-sourcebedrijf. Bij Build, het paar organisaties uitgebreid hun relatie.

Hugging Face biedt al een samengestelde set van tools en API's, evenals een enorme hub van ML-modellen om te downloaden en te gebruiken. Nu verschijnt een verzameling van duizenden van deze modellen in de Azure Machine Learning-catalogus van Redmond, zodat klanten ze kunnen openen en implementeren op beheerde eindpunten in de cloud van Microsoft.

Meer opties voor funderingsmodellen

Redmond maakt ook funderingsmodellen in Azure Machine Learning beschikbaar in openbare preview. Foundation-modellen zijn krachtige en zeer capabele vooraf getrainde modellen die organisaties kunnen aanpassen met hun eigen gegevens voor hun eigen doeleinden en naar behoefte kunnen uitrollen.

Funderingsmodellen worden behoorlijk belangrijk, omdat ze organisaties kunnen helpen bij het bouwen van niet-triviale ML-aangedreven applicaties, gevormd naar hun specifieke vereisten, zonder dat ze honderden miljoenen dollars hoeven te besteden aan het trainen van de modellen vanaf het begin of het verplaatsen van verwerking en gevoelige klantgegevens naar de cloud.

Nvidia heeft een nemo kader dat op dit gebied nuttig kan zijn, en deze maand heeft partnered met ServiceNow en – deze week – Dell binnen ProjectHelix langs die lijnen.

“Terwijl we de afgelopen maanden met grote bedrijven hebben gewerkt aan generatieve AI, hebben we geleerd dat er een groot aantal grote bedrijven zijn die de kracht van generatieve AI willen benutten, maar dit in hun eigen datacenters doen. of doe het buiten de openbare cloud,' zei Nvidia's Das.

Middelen zoals open-source- en basismodellen beloven de complexiteit en kosten te verminderen om meer organisaties toegang te geven tot generatieve AI. ®

Tijdstempel:

Meer van Het register