Alimente el fuego de la IA con la centralización PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Alimente el fuego de la IA con la centralización

Característica patrocinada Un flujo constante de tecnologías y descubrimientos revolucionarios (el fuego, la agricultura, la rueda, la imprenta e Internet, por nombrar solo algunos) han moldeado profundamente el desarrollo humano y la civilización. Y ese ciclo de innovación continúa con la Inteligencia Artificial (IA). 

La firma de investigación IDC ha llegado a la conclusión de que la IA es realmente la respuesta a casi "todo". Rasmus Andsbjerg, vicepresidente asociado de datos y análisis de IDC dice: “La realidad es que la IA ofrece soluciones para todo lo que enfrentamos en este momento. La IA puede ser una fuente para acelerar los viajes de transformación digital, permitir el ahorro de costos en tiempos de tasas de inflación asombrosas y respaldar los esfuerzos de automatización en tiempos de escasez de mano de obra”.

Ciertamente, y en todas las industrias y funciones, las organizaciones de usuarios finales están comenzando a descubrir los beneficios de la IA, a medida que surgen algoritmos cada vez más poderosos e infraestructura subyacente para permitir una mejor toma de decisiones y una mayor productividad. 

Los ingresos mundiales para el mercado de la inteligencia artificial (IA), incluido el software, el hardware y los servicios asociados para aplicaciones centradas y no centradas en la IA, totalizaron $ 383.3 mil millones en 2021. Eso fue un 20.7% más que el año anterior, según la mayoría reciente Rastreador de inteligencia artificial semestral mundial de International Data Corporation (IDC).

De manera similar, la implementación de software de IA en la nube continúa mostrando un crecimiento constante. IDC espera que las versiones en la nube del software de IA recién adquirido superen las implementaciones locales en 2022.

El cielo es el límite para la IA

El Dr. Ronen Dar, director de tecnología del especialista en IA Run:ai, que ha creado una plataforma de gestión de cómputo para IA, cree que el cielo es el límite para el naciente sector de IA empresarial. 

“IA es un mercado que vemos que está creciendo muy rápidamente. Y en términos de empresas, vemos demanda y adopción de aprendizaje automático e IA. Y creo que ahora mismo hay una nueva tecnología aquí que está trayendo nuevas capacidades que van a cambiar el mundo; que van a revolucionar los negocios”, señala Dar. 

También hay una comprensión cada vez más clara de la necesidad de comenzar a explorar y experimentar con la IA y comprender cómo integrar la IA en los modelos comerciales.

Dar cree que la IA puede brindar "beneficios sorprendentes" para mejorar los procesos comerciales empresariales existentes: "En términos de optimizar y probar el negocio actual, vemos muchos casos de uso en torno a la IA y el aprendizaje automático que está mejorando las operaciones y cómo se toman las decisiones. en torno a la oferta y la demanda”.

Señala que los nuevos modelos de aprendizaje profundo basados ​​en redes neuronales pueden mejorar los procesos, la toma de decisiones y la precisión de los procesos comerciales críticos, como la detección de fraudes en la industria de servicios financieros. El cuidado de la salud es otro sector donde el potencial de la IA es "enorme", particularmente en términos de ayudar a los médicos a tomar mejores decisiones clínicas y ayudar a descubrir y desarrollar nuevos medicamentos. 

Y, mirando más adelante, Dar predice que la tecnología de IA ayudará a brindar nuevas oportunidades comerciales que actualmente no existen en sectores como los vehículos autónomos y los juegos inmersivos. 

Obstáculos de infraestructura a superar

A pesar del potencial obvio de la IA y el aprendizaje automático en la empresa, Dar reconoce que la implementación comercial de la IA se ve frenada por problemas relacionados con la provisión de infraestructura. Aconseja que las empresas deben analizar la forma en que la IA ingresa a una organización en primer lugar.

Por lo general, esto implica un proceso descoordinado de departamento por departamento en el que diferentes equipos aprovisionan tecnología y recursos de forma independiente, lo que lleva a implementaciones en silos. TI no puede controlar de manera efectiva estos proyectos ad hoc y no tiene visibilidad de lo que está sucediendo. Y esto hace que sea difícil, si no imposible, calcular el ROI del gasto en infraestructura de IA. 

“Es el problema clásico: antes era TI en la sombra y ahora es IA en la sombra”, dice Dar. 

Además, la infraestructura de última generación necesaria para AI/ML es una inversión, ya que las empresas necesitan un potente hardware informático acelerado por GPU para procesar datos muy complejos y entrenar modelos. 

“Los equipos de IA necesitan mucha potencia de cómputo para entrenar modelos, generalmente usando GPU, que son recursos premium del centro de datos que pueden aislarse y no usarse de manera eficiente”, dice Dar. "Puede resultar en una gran cantidad de dinero que se desperdicia con seguridad". 

Esa infraestructura aislada puede dar como resultado niveles de utilización de menos del 10 %, por ejemplo.

Según la encuesta Run:ai, Encuesta sobre el estado de la infraestructura de IA de 2021, publicado en octubre de 2021, el 87 % de los encuestados dijeron que experimentaron algún nivel de problemas de asignación de recursos informáticos/GPU, y el 12 % dijo que esto sucede con frecuencia. Como resultado, el 83 por ciento de las empresas encuestadas informaron que no estaban utilizando completamente su GPU y su hardware de IA. De hecho, casi dos tercios (61 por ciento) indicaron que su GPU y hardware de IA se encuentran principalmente en niveles "moderados" de utilización.

La centralización de la IA

Para resolver estos problemas, Dar aboga por centralizar la provisión de recursos de IA. Run:AI ha desarrollado una plataforma de administración de cómputo para IA que hace exactamente esto, centralizando y virtualizando el recurso de cómputo de la GPU. Al agrupar las GPU en una sola capa virtual y automatizar la programación de la carga de trabajo para una utilización del 100 %, este enfoque ofrece ventajas en comparación con los sistemas aislados a nivel departamental. 

La centralización de la infraestructura devuelve el control y la visibilidad, al tiempo que libera a los científicos de datos de la sobrecarga de la gestión de la infraestructura. Los equipos de IA comparten un recurso de cómputo de IA universal que se puede marcar hacia arriba y hacia abajo dinámicamente a medida que la demanda aumenta o disminuye, eliminando los cuellos de botella de la demanda y los períodos de infrautilización. 

Este enfoque, argumenta Dar, puede ayudar a las organizaciones a aprovechar al máximo su hardware y liberar a los científicos de datos de las limitaciones de recursos subyacentes. Todo lo cual significa que pueden ejecutar más trabajos y poner en producción más modelos de IA. 

Se proporciona un ejemplo del London Medical Imaging & Artificial Intelligence Center for Value Based Healthcare, dirigido por King's College London y con sede en St. Thomas' Hospital. Utiliza imágenes médicas y datos electrónicos de atención médica para entrenar sofisticados algoritmos de aprendizaje profundo para la visión por computadora y el procesamiento del lenguaje natural. Estos algoritmos se utilizan para crear nuevas herramientas para una detección eficaz, un diagnóstico más rápido y terapias personalizadas.

El Centro se dio cuenta de que su infraestructura de IA heredada sufría problemas de eficiencia: la utilización total de GPU estaba por debajo del 30 por ciento con períodos de inactividad "significativos" para algunos componentes. Después de pasar a abordar estos problemas mediante la adopción de un modelo de aprovisionamiento de cómputo de IA centralizado basado en la plataforma de Run:ai, su uso de GPU aumentó en un 110 por ciento, con mejoras paralelas en la velocidad del experimento y la eficiencia general de la investigación.

“Nuestros experimentos pueden tomar días o minutos, usando un poco de poder de cómputo o un clúster completo”, dice el Dr. M. Jorge Cardoso, profesor asociado y profesor titular de IA en King's College London y CTO del Centro de IA. "Reducir el tiempo para obtener resultados garantiza que podamos hacer y responder preguntas más críticas sobre la salud y la vida de las personas". 

La centralización de los recursos de GPU de IA también generó valiosos beneficios comerciales para Wayve, una empresa con sede en Londres que desarrolla software de IA para automóviles autónomos. Su tecnología está diseñada para no depender de la detección, sino que se enfoca en una mayor inteligencia, para una mejor conducción autónoma en áreas urbanas densas.

El ciclo de aprendizaje de la flota de Wayve implica un ciclo continuo de recopilación de datos, curación, capacitación de modelos, resimulación y modelos de licencia antes de la implementación en la flota. El principal consumo de cómputo de la GPU de la compañía proviene de la capacitación en producción de Fleet Learning Loop. Entrena la línea de base del producto con el conjunto de datos completo y vuelve a entrenar continuamente para recopilar nuevos datos a través de iteraciones del ciclo de aprendizaje de la flota.

La empresa comenzó a darse cuenta de que sufría un "horror" de programación de GPU: aunque casi el 100 % de sus recursos de GPU disponibles se asignaron a los investigadores, menos del 45 % se utilizó cuando se realizaron las pruebas inicialmente. 

“Debido a que las GPU se asignaban estáticamente a los investigadores, cuando los investigadores no usaban sus GPU asignadas, otros no podían acceder a ellas, lo que creaba la ilusión de que las GPU para el entrenamiento de modelos estaban en su capacidad incluso cuando muchas GPU estaban inactivas”, señala Wayve. 

Trabajar con Run:ai abordó este problema eliminando los silos y eliminando la asignación estática de recursos. Se crearon grupos de GPU compartidas que permitieron a los equipos acceder a más GPU y ejecutar más cargas de trabajo, lo que llevó a una mejora del 35 % en su utilización. 

Mejoras en la eficiencia de la CPU espejo

Reflejando la forma en que VMware ha aportado mejoras sustanciales de eficiencia en la forma en que las CPU del servidor se utilizan a su máxima capacidad en los últimos años, ahora se están implementando nuevas innovaciones para optimizar la eficiencia de la utilización de GPU para las cargas de trabajo de cómputo de IA. 

“Si piensa en la pila de software que se ejecuta sobre las CPU, se construyó con mucho VMware y virtualización”, explica Dar. “Las GPU son relativamente nuevas en el centro de datos y el software para inteligencia artificial y virtualización, como NVIDIA IA empresarial – también es un desarrollo reciente”. 

“Traemos tecnología avanzada en esa área con capacidades como GPU fraccional, intercambio de trabajos y. permitiendo que las cargas de trabajo compartan GPU de manera eficiente”, dice Dar, y agrega que se están planificando más mejoras.

Run:ai trabaja en estrecha colaboración con NVIDIA para mejorar y simplificar el uso de las GPU en la empresa. La colaboración más reciente incluye la habilitación de la flexibilidad de GPU multinube para las empresas que usan GPU en la nube y la integración con Servidor de inferencia NVIDIA Triton software para simplificar el proceso de implementación de modelos en producción.

De la misma manera que las principales innovaciones a lo largo de la historia han tenido un impacto profundo en la raza humana y el mundo, Dar señala que el poder de la IA deberá aprovecharse con cuidado para maximizar sus beneficios potenciales, al tiempo que se gestionan las posibles desventajas. Compara la IA con la innovación más primigenia de todas: el fuego. 

“Es como el fuego que trajo muchas cosas maravillosas y cambió vidas humanas. El fuego también traía peligro. Entonces los seres humanos entendieron cómo vivir con el fuego”, dice Dar. “Creo que esto también está aquí en la IA en estos días”. 

Patrocinado por Run:ai.

Sello de tiempo:

Mas de El registro