Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Servicios web de Amazon

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Servicios web de Amazon

A medida que las organizaciones implementan modelos en producción, buscan constantemente formas de optimizar el rendimiento de sus modelos básicos (FM) que se ejecutan en los aceleradores más recientes, como Inferencia de AWS y GPU, para que puedan reducir sus costos y disminuir la latencia de respuesta para brindar la mejor experiencia a los usuarios finales. Sin embargo, algunos FM no utilizan completamente los aceleradores disponibles en las instancias en las que están implementados, lo que genera un uso ineficiente de los recursos de hardware. Algunas organizaciones implementan varios FM en la misma instancia para utilizar mejor todos los aceleradores disponibles, pero esto requiere una orquestación de infraestructura compleja que requiere mucho tiempo y es difícil de administrar. Cuando varios FM comparten la misma instancia, cada FM tiene sus propias necesidades de escalado y patrones de uso, lo que dificulta predecir cuándo es necesario agregar o eliminar instancias. Por ejemplo, un modelo puede usarse para impulsar una aplicación de usuario donde el uso puede aumentar durante ciertas horas, mientras que otro modelo puede tener un patrón de uso más consistente. Además de optimizar los costos, los clientes quieren brindar la mejor experiencia al usuario final reduciendo la latencia. Para hacer esto, a menudo implementan múltiples copias de un FM para atender las solicitudes de los usuarios en paralelo. Debido a que los resultados de FM pueden variar desde una sola oración hasta varios párrafos, el tiempo que lleva completar la solicitud de inferencia varía significativamente, lo que genera picos impredecibles en la latencia si las solicitudes se enrutan aleatoriamente entre instancias. Amazon SageMaker ahora admite nuevas capacidades de inferencia que le ayudan a reducir los costos de implementación y la latencia.

Ahora puede crear puntos finales basados ​​en componentes de inferencia e implementar modelos de aprendizaje automático (ML) en un punto final de SageMaker. Un componente de inferencia (IC) abstrae su modelo de ML y le permite asignar CPU, GPU o AWS neurona aceleradores y políticas de escalado por modelo. Los componentes de inferencia ofrecen los siguientes beneficios:

  • SageMaker colocará y empaquetará modelos de manera óptima en instancias de ML para maximizar la utilización, lo que generará ahorros de costos.
  • SageMaker ampliará y reducirá cada modelo según su configuración para cumplir con los requisitos de su aplicación de aprendizaje automático.
  • SageMaker escalará para agregar y eliminar instancias dinámicamente para garantizar que haya capacidad disponible y al mismo tiempo mantener la computación inactiva al mínimo.
  • Puede reducir la escala a cero copias de un modelo para liberar recursos para otros modelos. También puede especificar mantener los modelos importantes siempre cargados y listos para atender el tráfico.

Con estas capacidades, puede reducir los costos de implementación del modelo en un 50 % en promedio. Los ahorros de costos variarán según su carga de trabajo y patrones de tráfico. Tomemos un ejemplo simple para ilustrar cómo empaquetar varios modelos en un único punto final puede maximizar la utilización y ahorrar costos. Supongamos que tiene una aplicación de chat que ayuda a los turistas a comprender las costumbres locales y las mejores prácticas creadas utilizando dos variantes de Llama 2: una adaptada para los visitantes europeos y la otra adaptada para los visitantes estadounidenses. Esperamos tráfico para el modelo europeo entre las 00:01 y las 11:59 UTC y para el modelo americano entre las 12:00 y las 23:59 UTC. En lugar de implementar estos modelos en sus propias instancias dedicadas, donde permanecerán inactivos la mitad del tiempo, ahora puede implementarlos en un único punto final para ahorrar costos. Puede reducir el modelo americano a cero cuando no sea necesario para liberar capacidad para el modelo europeo y viceversa. Esto le permite utilizar su hardware de manera eficiente y evitar desperdicios. Este es un ejemplo simple que utiliza dos modelos, pero puede ampliar fácilmente esta idea para empaquetar cientos de modelos en un único punto final que aumenta y disminuye automáticamente con su carga de trabajo.

En esta publicación, le mostramos las nuevas capacidades de los puntos finales de SageMaker basados ​​en IC. También lo guiaremos en la implementación de múltiples modelos utilizando componentes de inferencia y API. Por último, detallamos algunas de las nuevas capacidades de observabilidad y cómo configurar políticas de escalado automático para sus modelos y administrar el escalado de instancias para sus puntos finales. También puede implementar modelos a través de nuestra nueva experiencia de usuario interactiva y simplificada. También admitimos capacidades de enrutamiento avanzadas para optimizar la latencia y el rendimiento de sus cargas de trabajo de inferencia.

Bloques de construcción

Echemos un vistazo más profundo y comprendamos cómo funcionan estas nuevas capacidades. La siguiente es una terminología nueva para el alojamiento de SageMaker:

  • Componente de inferencia – Un objeto de alojamiento de SageMaker que puede utilizar para implementar un modelo en un punto final. Puede crear un componente de inferencia proporcionando lo siguiente:
    • El modelo de SageMaker o la especificación de una imagen y artefactos del modelo compatibles con SageMaker.
    • Calcule los requisitos de recursos, que especifican las necesidades de cada copia de su modelo, incluidos los núcleos de CPU, la memoria del host y la cantidad de aceleradores.
  • copia modelo – Una copia en tiempo de ejecución de un componente de inferencia que es capaz de atender solicitudes.
  • Escalado automático de instancias administradas – Una capacidad de alojamiento de SageMaker para aumentar o reducir la cantidad de instancias informáticas utilizadas para un punto final. El escalado de instancias reacciona al escalado de los componentes de inferencia.

Para crear un nuevo componente de inferencia, puede especificar una imagen de contenedor y un artefacto de modelo, o puede usar modelos de SageMaker que quizás ya haya creado. También debe especificar los requisitos de recursos informáticos, como la cantidad de núcleos de CPU del host, la memoria del host o la cantidad de aceleradores que su modelo necesita para ejecutarse.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Cuando implementa un componente de inferencia, puede especificar MinCopies para garantizar que el modelo ya esté cargado en la cantidad que necesita, listo para atender las solicitudes.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

También tiene la opción de configurar sus políticas para que las copias del componente de inferencia se escalen a cero. Por ejemplo, si no tiene ninguna carga ejecutándose en un IC, se descargará la copia del modelo. Esto puede liberar recursos que pueden ser reemplazados por cargas de trabajo activas para optimizar la utilización y la eficiencia de su punto final.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

A medida que las solicitudes de inferencia aumentan o disminuyen, la cantidad de copias de sus circuitos integrados también puede aumentar o reducir según sus políticas de escalado automático. SageMaker se encargará de la ubicación para optimizar el embalaje de sus modelos en términos de disponibilidad y costo.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Además, si habilita el escalado automático de instancias administradas, SageMaker escalará las instancias informáticas de acuerdo con la cantidad de componentes de inferencia que deben cargarse en un momento determinado para atender el tráfico. SageMaker ampliará las instancias y empaquetará sus instancias y componentes de inferencia para optimizar los costos y preservar el rendimiento del modelo. Aunque recomendamos el uso del escalado de instancias administradas, también tiene la opción de administrar el escalado usted mismo, si así lo desea, a través del escalado automático de aplicaciones.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

SageMaker reequilibrará los componentes de inferencia y reducirá las instancias si los componentes de inferencia ya no las necesitan y le ahorrará costos.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Tutorial de las API

SageMaker ha introducido una nueva entidad llamada InferenceComponent. Esto desacopla los detalles de alojar el modelo ML del propio punto final. El InferenceComponent le permite especificar propiedades clave para alojar el modelo, como el modelo de SageMaker que desea utilizar o los detalles del contenedor y los artefactos del modelo. También especifica la cantidad de copias de los componentes que se implementarán y la cantidad de aceleradores (aceleradores GPU, Inf o Trn) o CPU (vCPU) necesarios. Esto le proporciona más flexibilidad para utilizar un único punto final para cualquier cantidad de modelos que planee implementar en él en el futuro.

Veamos las llamadas a la API de Boto3 para crear un punto final con un componente de inferencia. Tenga en cuenta que hay algunos parámetros que abordamos más adelante en esta publicación.

El siguiente es un código de ejemplo para CreateEndpointConfig:

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

El siguiente es un código de ejemplo para CreateEndpoint:

sagemaker_client.create_endpoint( EndpointName=endpoint_name, EndpointConfigName=endpoint_config_name,
)

El siguiente es un código de ejemplo para CreateInferenceComponent:

sm_client.create_inference_component( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, VariantName=variant_name, Specification={ "Container": { "Image": inference_image_uri, "ArtifactUrl": s3_code_artifact, }, "StartupParameters": { "ModelDataDownloadTimeoutInSeconds": 300, "ContainerStartupHealthCheckTimeoutInSeconds": 600, }, "ComputeResourceRequirements": {"NumberOfAcceleratorDevicesRequired": 1, "MinMemoryRequiredInMb": 1024} }, RuntimeConfig={"CopyCount": 1},
)

Este desacoplamiento de InferenceComponent a un punto final proporciona flexibilidad. Puede alojar varios modelos en la misma infraestructura, agregándolos o eliminándolos a medida que cambien sus requisitos. Cada modelo se puede actualizar de forma independiente según sea necesario. Además, puede escalar modelos según las necesidades de su negocio. InferenceComponent También permite controlar la capacidad por modelo. En otras palabras, puede determinar cuántas copias de cada modelo desea alojar. Esta escala predecible le ayuda a cumplir con los requisitos de latencia específicos de cada modelo. En general, InferenceComponent le brinda mucho más control sobre sus modelos alojados.

En la siguiente tabla, mostramos una comparación lado a lado del enfoque de alto nivel para crear e invocar un punto final sin InferenceComponent y con InferenceComponent. Tenga en cuenta que CreateModel() ahora es opcional para puntos finales basados ​​en IC.

paso Puntos finales basados ​​en modelos Puntos finales basados ​​en componentes de inferencia
1 Crear modelo(…) CrearEndpointConfig(…)
2 CrearEndpointConfig(…) Crear punto final(...)
3 Crear punto final(...) Crear componente de inferencia (...)
4 Invocar punto final(…) InvokeEndpoint(InferneceComponentName='valor'…)

La introducción de InferenceComponent le permite escalar a nivel de modelo. Ver Profundice en el escalado automático de instancias y IC para obtener más detalles sobre cómo InferenceComponent Funciona con escalado automático.

Al invocar el punto final de SageMaker, ahora puede especificar el nuevo parámetro InferenceComponentName para alcanzar el deseado InferenceComponentName. SageMaker se encargará de enrutar la solicitud a la instancia que aloja la solicitud. InferenceComponentName. Ver el siguiente código:

smr_client = boto3.client("sagemaker-runtime") response_model = smr_client.invoke_endpoint( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, Body=payload, ContentType="application/json", )

De forma predeterminada, SageMaker utiliza el enrutamiento aleatorio de las solicitudes a las instancias que respaldan su punto final. Si desea habilitar el enrutamiento de solicitudes menos pendientes, puede configurar la estrategia de enrutamiento en la configuración del punto final. RoutingConfig:

sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, ... 'RoutingConfig': { 'RoutingStrategy': 'LEAST_OUTSTANDING_REQUESTS' } }],
)

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Las solicitudes menos pendientes enrutan rutas a las instancias específicas que tienen más capacidad para procesar solicitudes. Esto proporcionará un equilibrio de carga y una utilización de recursos más uniformes.

Además de nuestras localidaded en CreateInferenceComponent, las siguientes API ahora están disponibles:

  • DescribeInferenceComponent
  • DeleteInferenceComponent
  • UpdateInferenceComponent
  • ListInferenceComponents

Registros y métricas de InferenceComponent

InferenceComponent los registros se encuentran en /aws/sagemaker/InferenceComponents/<InferenceComponentName>. Todos los registros enviados a stderr y stdout en el contenedor se envían a estos registros en Reloj en la nube de Amazon.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Con la introducción de puntos finales basados ​​en IC, ahora tiene la capacidad de ver métricas de instancia adicionales, métricas de componentes de inferencia y métricas de invocación.

Para instancias de SageMaker, ahora puede realizar un seguimiento de las GPUReservation y CPUReservation métricas para ver los recursos reservados para un punto final en función de los componentes de inferencia que haya implementado. Estas métricas pueden ayudarle a dimensionar sus políticas de endpoint y de escalado automático. También puede ver las métricas agregadas asociadas con todos los modelos implementados en un punto final.

SageMaker también expone métricas a nivel de componente de inferencia, lo que puede mostrar una vista más granular de la utilización de recursos para los componentes de inferencia que ha implementado. Esto le permite obtener una vista de cuánta utilización de recursos agregados, como GPUUtilizationNormalized y GPUMemoryUtilizationNormalized para cada componente de inferencia que haya implementado y que pueda tener cero o muchas copias.

Por último, SageMaker proporciona métricas de invocación, que ahora rastrean las invocaciones de componentes de inferencia de forma agregada (Invocations) o por copia instanciada (InvocationsPerCopy)

Para obtener una lista completa de métricas, consulte Métricas de invocación de puntos finales de SageMaker.

Escalado automático a nivel de modelo

Para implementar el comportamiento de escalado automático que describimos, al crear la configuración del punto final de SageMaker y el componente de inferencia, usted define el recuento de instancias inicial y el recuento de copias del modelo inicial, respectivamente. Después de crear el punto final y los IC correspondientes, para aplicar el escalado automático en el nivel de IC, primero debe registrar el objetivo de escalado y luego asociar la política de escalado al IC.

Al implementar la política de escalamiento, utilizamos SageMakerInferenceComponentInvocationsPerCopy, que es una nueva métrica introducida por SageMaker. Captura el número promedio de invocaciones por copia de modelo por minuto.

aas_client.put_scaling_policy( PolicyName=endpoint_name, PolicyType='TargetTrackingScaling', ServiceNamespace=service_namespace, ResourceId=resource_id, ScalableDimension=scalable_dimension, TargetTrackingScalingPolicyConfiguration={ "PredefinedMetricSpecification": { "PredefinedMetricType": "SageMakerInferenceComponentInvocationsPerCopy", }, "TargetValue": autoscaling_target_value, "ScaleInCooldown": 300, # default "ScaleOutCooldown": 300, # default },
)

Después de configurar la política de escalado, SageMaker crea dos alarmas de CloudWatch para cada objetivo de escalado automático: una para activar el escalado horizontal si hay alarma durante 3 minutos (tres puntos de datos de 1 minuto) y otra para activar el escalamiento horizontal si hay alarma durante 15 minutos. (15 puntos de datos de 1 minuto), como se muestra en la siguiente captura de pantalla. El tiempo para activar la acción de escalado suele ser entre 1 y 2 minutos más que esos minutos porque el punto final necesita tiempo para publicar métricas en CloudWatch y también lleva tiempo para AutoScaling reaccionar. El período de recuperación es la cantidad de tiempo, en segundos, que transcurre después de que se completa una actividad de ampliación o ampliación antes de que pueda comenzar otra actividad de ampliación. Si el tiempo de recuperación de escalamiento horizontal es más corto que el tiempo de actualización del punto final, entonces no tiene ningún efecto, porque no es posible actualizar un punto final de SageMaker cuando está en Actualización de de estado.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Tenga en cuenta que, al configurar el escalado automático de nivel IC, debe asegurarse de que MaxInstanceCount El parámetro es igual o menor que el número máximo de circuitos integrados que este punto final puede manejar. Por ejemplo, si su punto final solo está configurado para tener una instancia en la configuración del punto final y esta instancia solo puede alojar un máximo de cuatro copias del modelo, entonces el MaxInstanceCount debe ser igual o menor que 4. Sin embargo, también puede utilizar la capacidad de escalado automático administrado proporcionada por SageMaker para escalar automáticamente el recuento de instancias en función del número de copias del modelo requerido para satisfacer la necesidad de más recursos informáticos. El siguiente fragmento de código demuestra cómo configurar el escalado de instancias administradas durante la creación de la configuración del punto final. De esta manera, cuando el escalado automático a nivel de IC requiere más recuento de instancias para alojar las copias del modelo, SageMaker escalará automáticamente el número de instancia para permitir que el escalado a nivel de IC sea exitoso.

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Puede aplicar varias políticas de escalado automático en el mismo punto final, lo que significa que podrá aplicar la política de escalado automático tradicional a los puntos finales creados con circuitos integrados y escalar hacia arriba y hacia abajo según las otras métricas de los puntos finales. Para obtener más información, consulte Optimice sus implementaciones de aprendizaje automático con escalado automático en Amazon SageMaker. Sin embargo, aunque esto es posible, recomendamos utilizar el escalado de instancias administradas en lugar de administrar el escalado usted mismo.

Conclusión

En esta publicación, presentamos una nueva característica en la inferencia de SageMaker que lo ayudará a maximizar la utilización de instancias informáticas, escalar a cientos de modelos y optimizar costos, al mismo tiempo que brinda un rendimiento predecible. Además, proporcionamos un tutorial de las API y le mostramos cómo configurar e implementar componentes de inferencia para sus cargas de trabajo.

También apoyamos capacidades de enrutamiento avanzadas para optimizar la latencia y el rendimiento de sus cargas de trabajo de inferencia. SageMaker puede ayudarlo a optimizar sus cargas de trabajo de inferencia en términos de costo y rendimiento y brindarle granularidad a nivel de modelo para la administración. Hemos creado un conjunto de cuadernos que le mostrará cómo implementar tres modelos diferentes, utilizando diferentes contenedores y aplicando políticas de escalado automático en GitHub. ¡Lo alentamos a comenzar con el cuaderno 1 y ponerse manos a la obra con las nuevas capacidades de alojamiento de SageMaker hoy mismo!


Sobre los autores

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.James Park es arquitecto de soluciones en Amazon Web Services. Trabaja con Amazon.com para diseñar, construir e implementar soluciones tecnológicas en AWS y tiene un interés particular en la inteligencia artificial y el aprendizaje automático. En su tiempo libre le gusta buscar nuevas culturas, nuevas experiencias y mantenerse al día con las últimas tendencias tecnológicas. Puedes encontrarlo en Etiqueta LinkedIn.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.melanie li, PhD, es especialista sénior en AI/ML TAM en AWS con sede en Sídney, Australia. Ayuda a los clientes empresariales a crear soluciones utilizando herramientas de IA/ML de última generación en AWS y brinda orientación sobre la arquitectura y la implementación de soluciones de ML con las mejores prácticas. En su tiempo libre, le encanta explorar la naturaleza y pasar tiempo con su familia y amigos.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.marc karp es un Arquitecto de ML con el equipo de Servicio de Amazon SageMaker. Se enfoca en ayudar a los clientes a diseñar, implementar y administrar cargas de trabajo de ML a escala. En su tiempo libre le gusta viajar y explorar nuevos lugares.

alan bronceadoalan bronceado es gerente sénior de productos en SageMaker y lidera los esfuerzos en la inferencia de modelos grandes. Le apasiona aplicar el aprendizaje automático al área de análisis. Fuera del trabajo, disfruta del aire libre.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Raghu Ramesha es arquitecto sénior de soluciones de aprendizaje automático en el equipo de servicios de Amazon SageMaker. Se centra en ayudar a los clientes a crear, implementar y migrar cargas de trabajo de producción de aprendizaje automático a SageMaker a escala. Se especializa en los dominios de aprendizaje automático, inteligencia artificial y visión por computadora, y tiene una maestría en Ciencias de la Computación de UT Dallas. En su tiempo libre le gusta viajar y la fotografía.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Rupinder Grewal es un Arquitecto de Soluciones Sr. Ai/ML Especialista con AWS. Actualmente se enfoca en servir modelos y MLOps en SageMaker. Antes de este cargo, trabajó como ingeniero de aprendizaje automático creando y alojando modelos. Fuera del trabajo, le gusta jugar tenis y andar en bicicleta por senderos de montaña.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Patel Dhawal es Arquitecto Principal de Aprendizaje Automático en AWS. Ha trabajado con organizaciones que van desde grandes empresas hasta empresas emergentes medianas en problemas relacionados con la computación distribuida y la inteligencia artificial. Se enfoca en el aprendizaje profundo, incluidos los dominios de NLP y Computer Vision. Ayuda a los clientes a lograr una inferencia de modelos de alto rendimiento en SageMaker.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Saurabh Trikande es gerente sénior de productos para Amazon SageMaker Inference. Le apasiona trabajar con clientes y está motivado por el objetivo de democratizar el aprendizaje automático. Se enfoca en los desafíos principales relacionados con la implementación de aplicaciones de ML complejas, modelos de ML de múltiples inquilinos, optimizaciones de costos y hacer que la implementación de modelos de aprendizaje profundo sea más accesible. En su tiempo libre, a Saurabh le gusta caminar, aprender sobre tecnologías innovadoras, seguir TechCrunch y pasar tiempo con su familia.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Lakshmi Ramakrishnan es ingeniero principal en el equipo de la plataforma Amazon SageMaker Machine Learning (ML) en AWS, y proporciona liderazgo técnico para el producto. Ha trabajado en varios puestos de ingeniería en Amazon durante más de 9 años. Tiene una licenciatura en ingeniería en tecnología de la información del Instituto Nacional de Tecnología de Karnataka, India y una maestría en ciencias de la computación de la Universidad de Minnesota Twin Cities.

Reduzca los costos de implementación de modelos en un 50 % en promedio utilizando las funciones más recientes de Amazon SageMaker | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.david nigenda es ingeniero senior de desarrollo de software en el equipo de Amazon SageMaker y actualmente trabaja en la mejora de los flujos de trabajo de aprendizaje automático de producción, así como en el lanzamiento de nuevas funciones de inferencia. En su tiempo libre, intenta mantenerse al día con sus hijos.

Sello de tiempo:

Mas de Aprendizaje automático de AWS