Microsoft riempie il cloud di Azure con più machine learning

Microsoft riempie il cloud di Azure con più machine learning

Microsoft arricchisce il cloud di Azure con più machine learning PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Microsoft si è assicurata di includere Azure nell'AI-fest che è stata la conferenza degli sviluppatori Build 2023 di questa settimana.

Poiché le aziende prendono in considerazione la possibilità di sperimentare o implementare l'IA generativa, potrebbero benissimo rivolgersi a cloud pubblici e simili infrastrutture di calcolo e archiviazione scalabili per eseguire cose come i modelli LLM (Large-Language Model).

Microsoft, armato con ChatGPT, GPT-4 e altri sistemi OpenAI, da mesi spingono le capacità dell'IA in ogni angolo del suo impero. Azure non è diverso - il servizio OpenAI è un esempio - e dopo di esso Costruisci conferenza, il cloud pubblico di Redmond ora ha ancora più offerte rivendicate.

In cima alla lista c'è un espanso collaborazione con Nvidia, che a sua volta si sta affrettando ad affermarsi come l'indispensabile fornitore di tecnologia AI, dagli acceleratori GPU al software. Solo questa settimana il produttore di chip ha svelato una serie di partnership, come con Dell al Dell Technologies World e con i produttori di supercomputer all'ISC23.

Portare le risorse Nvidia in Azure

Nello specifico, Microsoft sta integrando la suite AI Enterprise di software, strumenti di sviluppo, framework e modelli preaddestrati in Azure Machine Learning, creando ciò che Tina Manghnani, product manager per la piattaforma cloud di machine learning, ha definito "il primo piattaforma cloud to-end che consente agli sviluppatori di creare, distribuire e gestire applicazioni AI, inclusi modelli di linguaggio di grandi dimensioni personalizzati.

Lo stesso giorno, Microsoft ha realizzato Azure Machine Learning registri – una piattaforma per l'hosting e la condivisione di elementi costitutivi di apprendimento automatico come contenitori, modelli e dati e uno strumento per l'integrazione di AI Enterprise in Azure – generalmente disponibile. AI Enterprise in Azure Machine Learning è disponibile anche in anteprima tecnica limitata.

"Ciò significa che per i clienti che hanno impegni e relazioni esistenti con Azure, possono utilizzare tali relazioni - possono utilizzare dai contratti cloud che hanno già - per ottenere Nvidia AI Enterprise e utilizzarla all'interno di Azure ML per ottenere questo un'esperienza senza soluzione di continuità di livello aziendale o separatamente su istanze che scelgono di fare ", ha detto ai giornalisti Manuvir Das, vicepresidente dell'informatica aziendale di Nvidia, pochi giorni prima dell'apertura di Build.

Isolare le reti per proteggere i dati AI

Le aziende che eseguono operazioni di intelligenza artificiale nel cloud vogliono assicurarsi che i propri dati non vengano esposti ad altre società, con l'isolamento della rete come strumento chiave. Microsoft ha funzionalità come l'area di lavoro del collegamento privato e la protezione dall'esfiltrazione dei dati, ma nessuna opzione IP pubblico per le risorse di calcolo delle aziende che addestrano modelli di intelligenza artificiale. A Build, ha annunciato il venditore isolamento della rete gestito in Azure Machine Learning per scegliere la modalità di isolamento più adatta ai criteri di sicurezza di un'azienda.

Non perdere la nostra copertura Build 2023

Non sorprende che gli strumenti open source stiano entrando sempre più nello spazio dell'IA. L'anno scorso Microsoft ha collaborato con Hugging Face per portare gli endpoint di Azure Machine Learning basati sulla tecnologia dell'azienda open source. A Build, la coppia di organizzazioni ampliato la loro relazione.

Hugging Face offre già a set curato di strumenti e API, nonché a enorme hub di modelli ML da scaricare e utilizzare. Ora una raccolta di migliaia di questi modelli apparirà nel catalogo Azure Machine Learning di Redmond in modo che i clienti possano accedervi e distribuirli su endpoint gestiti nel cloud di Microsoft.

Altre opzioni del modello di fondazione

Anche Redmond sta facendo modelli di fondazione in Azure Machine Learning disponibile in anteprima pubblica. I modelli di base sono modelli preaddestrati potenti e altamente capaci che le organizzazioni possono personalizzare con i propri dati per i propri scopi e implementarli secondo necessità.

Modelli di fondazione stanno diventando piuttosto importanti, in quanto possono aiutare le organizzazioni a creare applicazioni basate su ML non banali, modellate sui loro requisiti specifici, senza dover spendere centinaia di milioni di dollari per addestrare i modelli da zero o scaricare l'elaborazione e i dati sensibili dei clienti nel cloud.

Nvidia ha rilasciato un nemo quadro che può essere utile in questo settore, e questo mese ha collaborato con ServiceNow e, questa settimana, Dell in Progetto Elica lungo quelle linee.

"Poiché negli ultimi mesi abbiamo lavorato con le aziende sull'IA generativa, ciò che abbiamo appreso è che esiste un gran numero di aziende che vorrebbero sfruttare la potenza dell'IA generativa, ma lo fanno nei propri data center o fallo al di fuori del cloud pubblico", ha detto Das di Nvidia.

Risorse come i modelli open source e di base promettono di ridurre la complessità e i costi per consentire a più organizzazioni di accedere all'IA generativa. ®

Timestamp:

Di più da Il registro