Microsoft füllt die Azure-Cloud mit mehr maschinellem Lernen

Microsoft füllt die Azure-Cloud mit mehr maschinellem Lernen

Microsoft füllt die Azure-Cloud mit mehr maschinellem Lernen PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Microsoft hat dafür gesorgt, Azure in das KI-Fest der Build 2023-Entwicklerkonferenz dieser Woche einzubeziehen.

Wenn Unternehmen darüber nachdenken, mit generativer KI zu experimentieren oder diese einzusetzen, könnten sie durchaus auf öffentliche Clouds und ähnliche skalierbare Rechen- und Speicherinfrastrukturen zurückgreifen, um Dinge wie Large-Language-Models (LLMs) auszuführen.

Microsoft, bewaffnet mit ChatGPT, GPT-4 und andere OpenAI-Systeme drängen seit Monaten KI-Fähigkeiten in jeden Winkel ihres Imperiums. Azure ist nicht anders – der OpenAI Service ist ein Beispiel – und danach Konferenz aufbauen, Redmonds öffentliche Cloud hat jetzt noch mehr beanspruchte Angebote.

Ganz oben auf der Liste steht ein erweitertes Partnerschaft mit Nvidia, das selbst bestrebt ist, sich als unverzichtbarer Anbieter von KI-Technologie zu etablieren, von GPU-Beschleunigern bis hin zu Software. Allein diese Woche stellte der Chiphersteller eine Reihe von Partnerschaften vor, beispielsweise mit Dell auf der Dell Technologies World und Supercomputerherstellern auf der ISC23.

Nvidia-Ressourcen in Azure integrieren

Konkret integriert Microsoft Nvidias AI Enterprise-Suite aus Software, Entwicklungstools, Frameworks und vorab trainierten Modellen in Azure Machine Learning und schafft so das, was Tina Manghnani, Produktmanagerin für die Cloud-Plattform für maschinelles Lernen, als „das erste unternehmensfähige, sichere Ende“ bezeichnet --to-End-Cloud-Plattform für Entwickler zum Erstellen, Bereitstellen und Verwalten von KI-Anwendungen, einschließlich benutzerdefinierter großer Sprachmodelle.“

Am selben Tag führte Microsoft Azure Machine Learning ein Registrierungen – eine Plattform zum Hosten und Teilen von Bausteinen des maschinellen Lernens wie Containern, Modellen und Daten sowie ein Tool zur Integration von AI Enterprise in Azure – allgemein verfügbar. AI Enterprise in Azure Machine Learning ist auch in einer eingeschränkten technischen Vorschau verfügbar.

„Das bedeutet, dass Kunden, die über bestehende Engagements und Beziehungen zu Azure verfügen, diese Beziehungen nutzen können – sie können von den Cloud-Verträgen profitieren, die sie bereits haben –, um Nvidia AI Enterprise zu erwerben und es entweder innerhalb von Azure ML zu nutzen, um dies zu erhalten.“ „Sie können entweder ein nahtloses Erlebnis auf Unternehmensniveau oder separat auf Instanzen nutzen, die sie möchten“, sagte Manuvir Das, Vizepräsident für Enterprise Computing bei Nvidia, einige Tage vor der Eröffnung von Build gegenüber Journalisten.

Isolierung von Netzwerken zum Schutz von KI-Daten

Unternehmen, die KI-Operationen in der Cloud betreiben, möchten sicherstellen, dass ihre Daten nicht an andere Unternehmen weitergegeben werden, wobei die Netzwerkisolation ein wichtiges Instrument ist. Microsoft verfügt über Funktionen wie Private Link Workspace und Datenexfiltrationsschutz, aber keine öffentliche IP-Option für Rechenressourcen von Unternehmen, die KI-Modelle trainieren. Auf der Build gab der Anbieter bekannt verwaltete Netzwerkisolation in Azure Machine Learning zur Auswahl des Isolationsmodus, der am besten zu den Sicherheitsrichtlinien eines Unternehmens passt.

Verpassen Sie nicht unsere Build 2023-Berichterstattung

Es überrascht nicht, dass Open-Source-Tools zunehmend Einzug in den KI-Bereich halten. Microsoft hat sich letztes Jahr mit Hugging Face zusammengetan, um Azure Machine Learning-Endpunkte auf den Markt zu bringen, die auf der Technologie des Open-Source-Unternehmens basieren. Bei Build, dem Organisationspaar ergänzt ihre Beziehung.

Hugging Face bietet bereits eine kuratiertes Set von Tools und APIs sowie a riesiger Knotenpunkt von ML-Modellen zum Herunterladen und Verwenden. Jetzt wird eine Sammlung Tausender dieser Modelle im Azure Machine Learning-Katalog von Redmond erscheinen, sodass Kunden darauf zugreifen und sie auf verwalteten Endpunkten in der Cloud von Microsoft bereitstellen können.

Weitere Optionen für Stiftungsmodelle

Redmond macht auch Gründungsmodelle in Azure Machine Learning in der öffentlichen Vorschau verfügbar. Foundation-Modelle sind leistungsstarke und hochleistungsfähige vorab trainierte Modelle, die Unternehmen mit ihren eigenen Daten für ihre eigenen Zwecke anpassen und bei Bedarf einführen können.

Gründungsmodelle werden immer wichtiger, da sie Unternehmen dabei helfen können, nicht-triviale ML-basierte Anwendungen zu erstellen, die auf ihre spezifischen Anforderungen zugeschnitten sind, ohne Hunderte Millionen Dollar dafür ausgeben zu müssen, die Modelle von Grund auf zu trainieren oder Verarbeitungs- und sensible Kundendaten in die Cloud auszulagern.

Nvidia hat eine veröffentlicht Nemo Rahmen, der in diesem Bereich nützlich sein könnte, und dieser Monat hat dies getan Partnerschaft mit ServiceNow und – diese Woche – Dell in Projekt Helix entlang dieser Linien.

„Während wir in den letzten Monaten mit Unternehmen an der generativen KI gearbeitet haben, haben wir gelernt, dass es eine große Anzahl von Unternehmen gibt, die die Leistungsfähigkeit der generativen KI gerne nutzen würden, dies aber in ihren eigenen Rechenzentren tun oder tun Sie es außerhalb der öffentlichen Cloud“, sagte Nvidias Das.

Ressourcen wie Open-Source- und Foundation-Modelle versprechen eine Reduzierung der Komplexität und Kosten, um mehr Organisationen Zugang zu generativer KI zu ermöglichen. ®

Zeitstempel:

Mehr von Das Register