Microsoft completează Azure cloud cu mai multă învățare automată

Microsoft completează Azure cloud cu mai multă învățare automată

Microsoft stuffs Azure cloud with more machine learning PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Microsoft s-a asigurat că include Azure în festivalul AI care a fost conferința pentru dezvoltatori Build 2023 săptămâna aceasta.

Pe măsură ce întreprinderile iau în considerare să experimenteze sau să implementeze IA generativă, ele pot apela la nori publici și la o infrastructură de calcul și stocare scalabilă similară pentru a rula lucruri precum modele de limbă mare (LLM).

Microsoft, înarmat cu ChatGPT, GPT-4 și alte sisteme OpenAI au introdus de luni de zile capabilitățile AI în fiecare colț al imperiului său. Azure nu este diferit – Serviciul OpenAI este un exemplu – și după el Construiește conferința, cloud-ul public al lui Redmond are acum și mai multe oferte revendicate.

În fruntea listei este un extins parteneriat cu Nvidia, care se grăbește să se impună ca furnizor indispensabil de tehnologie AI, de la acceleratoare GPU până la software. Numai în această săptămână, producătorul de cipuri a dezvăluit o serie de parteneriate, cum ar fi cu Dell la Dell Technologies World și producătorii de supercomputere la ISC23.

Aducerea resurselor Nvidia în Azure

Mai exact, Microsoft integrează suita Nvidia AI Enterprise de software, instrumente de dezvoltare, cadre și modele pregătite în prealabil în Azure Machine Learning, creând ceea ce Tina Manghnani, manager de produs pentru platforma cloud de învățare automată, a numit „primul sfârșit pregătit pentru întreprindere, sigur. platformă cloud până la capăt pentru dezvoltatori pentru a construi, implementa și gestiona aplicații AI, inclusiv modele de limbaj mari personalizate.”

În aceeași zi, Microsoft a creat Azure Machine Learning registre – o platformă pentru găzduirea și partajarea unor blocuri de învățare automată precum containere, modele și date și un instrument pentru integrarea AI Enterprise în Azure – disponibil în general. AI Enterprise în Azure Machine Learning este disponibil și în previzualizare tehnică limitată.

„Ceea ce înseamnă aceasta este că pentru clienții care au angajamente și relații existente cu Azure, pot folosi acele relații – pot consuma din contractele cloud pe care le au deja – pentru a obține Nvidia AI Enterprise și o pot folosi fie în Azure ML pentru a obține acest lucru. experiență perfectă la nivel de întreprindere sau separat în cazurile pe care le aleg”, a declarat Manuvir Das, vicepreședinte de calcul pentru întreprinderi la Nvidia, cu câteva zile înainte de deschiderea Build.

Izolarea rețelelor pentru a proteja datele AI

Întreprinderile care desfășoară operațiuni AI în cloud vor să se asigure că datele lor nu sunt expuse altor companii, izolarea rețelei fiind un instrument cheie. Microsoft are caracteristici precum spațiul de lucru cu legături private și protecția la exfiltrarea datelor, dar nicio opțiune IP publică pentru resursele de calcul ale companiilor care pregătesc modele AI. La Build, a anunțat vânzătorul izolarea rețelei gestionate în Azure Machine Learning pentru a alege modul de izolare care se potrivește cel mai bine politicilor de securitate ale unei întreprinderi.

Nu ratați acoperirea noastră Build 2023

Deloc surprinzător, instrumentele open-source vin din ce în ce mai mult în spațiul AI. Microsoft a colaborat anul trecut cu Hugging Face pentru a aduce puncte finale Azure Machine Learning alimentate de tehnologia companiei open-source. La Build, perechea de organizații extins relatia lor.

Hugging Face oferă deja o set curatat de instrumente și API-uri precum și a hub imens de modele ML de descărcat și utilizat. Acum o colecție de mii de aceste modele va apărea în catalogul Azure Machine Learning de la Redmond, astfel încât clienții să le poată accesa și să le implementeze pe punctele finale gestionate din cloud-ul Microsoft.

Mai multe opțiuni de model de fundație

Redmond face și el modele de fundație în Azure Machine Learning disponibil în previzualizare publică. Modelele de fundație sunt modele puternice și de înaltă capacitate pregătite pe care organizațiile le pot personaliza cu propriile date pentru propriile scopuri și le pot implementa după cum este necesar.

Modele de fundație devin destul de importante, deoarece pot ajuta organizațiile să construiască aplicații non-triviale bazate pe ML, adaptate cerințelor lor specifice, fără a fi nevoie să cheltuiască sute de milioane de dolari pentru antrenarea modelelor de la zero sau să descarce procesarea și datele sensibile ale clienților în cloud.

Nvidia a lansat un nemo cadru care poate fi util în acest domeniu, iar luna aceasta are parteneriat cu ServiceNow și – săptămâna aceasta – Dell în Proiectul Helix pe acele linii.

„Deoarece am lucrat cu companii de întreprindere pe IA generativă în ultimele luni, ceea ce am învățat este că există un număr mare de companii care ar dori să profite de puterea AI generativă, dar o fac în propriile centre de date. sau fă-o în afara cloud-ului public”, a spus Das de la Nvidia.

Resurse precum modelele open-source și fundația promit să reducă complexitatea și costurile pentru a permite mai multor organizații să aibă acces la IA generativă. ®

Timestamp-ul:

Mai mult de la Registrul