Microsoft llena la nube de Azure con más aprendizaje automático

Microsoft llena la nube de Azure con más aprendizaje automático

Microsoft llena la nube de Azure con más inteligencia de datos PlatoBlockchain de aprendizaje automático. Búsqueda vertical. Ai.

Microsoft se aseguró de incluir a Azure en el festival de IA que fue la conferencia de desarrolladores Build 2023 esta semana.

A medida que las empresas consideren experimentar o implementar IA generativa, es posible que busquen nubes públicas e infraestructura de almacenamiento y computación escalable similar para ejecutar cosas como modelos de lenguaje grande (LLM).

Microsoft, armado con ChatGPT, GPT-4 y otros sistemas OpenAI han estado impulsando durante meses las capacidades de IA en todos los rincones y grietas de su imperio. Azure no es diferente, el servicio OpenAI es un ejemplo, y después de su Construir conferencia, la nube pública de Redmond ahora tiene aún más ofertas reclamadas.

En lo alto de la lista se encuentra una versión ampliada asociación con Nvidia, que se apresura a establecerse como el proveedor indispensable de tecnología de inteligencia artificial, desde aceleradores de GPU hasta software. Solo esta semana, el fabricante de chips dio a conocer una serie de asociaciones, como con Dell en Dell Technologies World y los fabricantes de supercomputadoras en ISC23.

Llevar los recursos de Nvidia a Azure

Específicamente, Microsoft está integrando el paquete de software AI Enterprise de Nvidia, herramientas de desarrollo, marcos y modelos preentrenados en Azure Machine Learning, creando lo que Tina Manghnani, gerente de producto para la plataforma en la nube de aprendizaje automático, denominó "el primer extremo seguro, listo para la empresa". plataforma en la nube de extremo a extremo para que los desarrolladores construyan, implementen y administren aplicaciones de IA, incluidos modelos personalizados de lenguaje grande”.

El mismo día, Microsoft hizo Azure Machine Learning registros – una plataforma para hospedar y compartir bloques de construcción de aprendizaje automático como contenedores, modelos y datos y una herramienta para integrar AI Enterprise en Azure – disponible de forma general. AI Enterprise en Azure Machine Learning también está disponible en versión preliminar técnica limitada.

“Lo que esto significa es que para los clientes que tienen compromisos y relaciones existentes con Azure, pueden usar esas relaciones (pueden consumir de los contratos en la nube que ya tienen) para obtener Nvidia AI Enterprise y usarla dentro de Azure ML para obtener esto. experiencia perfecta de nivel empresarial o por separado en las instancias que elijan”, dijo a los periodistas Manuvir Das, vicepresidente de informática empresarial de Nvidia, unos días antes de que abriera Build.

Aislamiento de redes para proteger los datos de IA

Las empresas que ejecutan operaciones de IA en la nube quieren asegurarse de que sus datos no queden expuestos a otras empresas, y el aislamiento de la red es una herramienta clave. Microsoft tiene características como el espacio de trabajo de enlace privado y la protección contra la filtración de datos, pero no tiene una opción de IP pública para los recursos informáticos de las empresas que entrenan modelos de IA. En Build, el vendedor anunció aislamiento de red administrado en Azure Machine Learning para elegir el modo de aislamiento que mejor se adapte a las políticas de seguridad de una empresa.

No te pierdas nuestra cobertura Build 2023

Como era de esperar, las herramientas de código abierto están llegando cada vez más al espacio de la IA. El año pasado, Microsoft se asoció con Hugging Face para traer puntos finales de Azure Machine Learning con la tecnología de la compañía de código abierto. En Build, el par de organizaciones expandido su relación.

Hugging Face ya ofrece una conjunto curado de herramientas y APIs, así como un gran centro de modelos ML para descargar y usar. Ahora aparecerá una colección de miles de estos modelos en el catálogo de Azure Machine Learning de Redmond para que los clientes puedan acceder a ellos e implementarlos en puntos finales administrados en la nube de Microsoft.

Más opciones de modelo de base

Redmond también está haciendo modelos de cimientos en Azure Machine Learning disponible en versión preliminar pública. Los modelos básicos son modelos preentrenados potentes y de gran capacidad que las organizaciones pueden personalizar con sus propios datos para sus propios fines e implementar según sea necesario.

Modelos de cimentación se están volviendo muy importantes, ya que pueden ayudar a las organizaciones a crear aplicaciones basadas en ML no triviales, adaptadas a sus requisitos específicos, sin tener que gastar cientos de millones de dólares entrenando los modelos desde cero o descargando el procesamiento y los datos confidenciales de los clientes a la nube.

Nvidia lanzó un nemo marco que puede ser útil en esta área, y este mes ha asociado con ServiceNow y, esta semana, Dell en Proyecto Helix Entre esas líneas.

“Como hemos trabajado con empresas empresariales en IA generativa en los últimos meses, hemos aprendido que hay una gran cantidad de empresas a las que les gustaría aprovechar el poder de la IA generativa, pero hacerlo en sus propios centros de datos. o hacerlo fuera de la nube pública”, dijo Das de Nvidia.

Los recursos como los modelos básicos y de código abierto prometen reducir la complejidad y los costos para permitir que más organizaciones accedan a la IA generativa. ®

Sello de tiempo:

Mas de El registro