Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Веб-сервіси Amazon

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Веб-сервіси Amazon

Оскільки організації розгортають моделі у виробництві, вони постійно шукають шляхи оптимізації продуктивності своїх базових моделей (FM), що працюють на найновіших прискорювачах, таких як AWS Inferentia і графічні процесори, щоб вони могли зменшити свої витрати та зменшити затримку відповіді, щоб забезпечити найкращий досвід для кінцевих користувачів. Однак деякі FM не повністю використовують прискорювачі, доступні в інстансах, на яких вони розгорнуті, що призводить до неефективного використання апаратних ресурсів. Деякі організації розгортають кілька FM в одному екземплярі, щоб краще використовувати всі доступні прискорювачі, але для цього потрібна складна оркестровка інфраструктури, яка займає багато часу та важко керувати. Коли кілька FM використовують один і той самий екземпляр, кожен FM має власні потреби в масштабуванні та шаблони використання, тому важко передбачити, коли вам потрібно буде додати чи видалити екземпляри. Наприклад, одна модель може використовуватися для роботи програми користувача, де використання може різко підвищитися протягом певних годин, тоді як інша модель може мати більш послідовний шаблон використання. На додаток до оптимізації витрат, клієнти хочуть забезпечити найкращий досвід кінцевого користувача шляхом зменшення затримки. Для цього вони часто розгортають кілька копій FM паралельно до запитів користувачів. Оскільки вихідні дані FM можуть варіюватися від одного речення до кількох абзаців, час, потрібний для виконання запиту на висновок, значно відрізняється, що призводить до непередбачуваних стрибків затримки, якщо запити маршрутизуються випадковим чином між екземплярами. Amazon SageMaker тепер підтримує нові можливості висновків, які допомагають зменшити витрати на розгортання та затримку.

Тепер ви можете створювати кінцеві точки на основі компонентів висновку та розгортати моделі машинного навчання (ML) у кінцевій точці SageMaker. Компонент висновку (IC) абстрагує вашу модель ML і дає змогу призначати ЦП, ГП або AWS нейрон прискорювачі та політики масштабування для кожної моделі. Компоненти висновку пропонують такі переваги:

  • SageMaker оптимально розмістить і упакує моделі в екземпляри ML для максимального використання та економії коштів.
  • SageMaker збільшить і зменшить масштаб кожної моделі залежно від вашої конфігурації, щоб відповідати вимогам програми ML.
  • SageMaker буде масштабуватися, щоб динамічно додавати та видаляти екземпляри, щоб забезпечити доступність ємності, зводячи до мінімуму неактивні обчислення.
  • Ви можете зменшити масштаб до нуля копій моделі, щоб звільнити ресурси для інших моделей. Ви також можете вказати, щоб важливі моделі завжди були завантаженими та готовими до обслуговування трафіку.

Завдяки цим можливостям ви можете зменшити витрати на розгортання моделі в середньому на 50%. Економія витрат буде різною залежно від вашого робочого навантаження та моделей трафіку. Розглянемо простий приклад, щоб проілюструвати, як упаковка кількох моделей на одній кінцевій точці може максимально збільшити використання та заощадити кошти. Припустімо, у вас є програма для чату, яка допомагає туристам зрозуміти місцеві звичаї та найкращі практики, створена за допомогою двох варіантів Llama 2: одного, налаштованого для європейських відвідувачів, а іншого — для американських. Ми очікуємо трафік для європейської моделі між 00:01–11:59 UTC і американської моделі між 12:00–23:59 UTC. Замість того, щоб розгортати ці моделі на власних виділених екземплярах, де вони будуть простоювати половину часу, тепер ви можете розгорнути їх на одній кінцевій точці, щоб заощадити кошти. Ви можете зменшити масштаб американської моделі до нуля, якщо це не потрібно, щоб звільнити ємність для європейської моделі, і навпаки. Це дозволяє ефективно використовувати апаратне забезпечення та уникати відходів. Це простий приклад використання двох моделей, але ви можете легко розширити цю ідею, щоб упакувати сотні моделей в одну кінцеву точку, яка автоматично масштабується відповідно до вашого робочого навантаження.

У цій публікації ми покажемо вам нові можливості кінцевих точок SageMaker на основі IC. Ми також проведемо вас через розгортання кількох моделей за допомогою компонентів висновку та API. Нарешті, ми детально описуємо деякі нові можливості спостережуваності та те, як налаштувати політики автоматичного масштабування для ваших моделей і керувати масштабуванням екземплярів для ваших кінцевих точок. Ви також можете розгортати моделі через наш новий спрощений інтерактивний інтерфейс користувача. Ми також підтримуємо розширені можливості маршрутизації для оптимізації затримки та продуктивності ваших робочих навантажень.

Будівельні блоки

Давайте розглянемо глибше та зрозуміємо, як працюють ці нові можливості. Нижче наведено деякі нові терміни для хостингу SageMaker:

  • Компонент умовиводу – Об’єкт розміщення SageMaker, який можна використовувати для розгортання моделі на кінцевій точці. Ви можете створити компонент висновку, надавши наступне:
    • Модель SageMaker або специфікація SageMaker-сумісного зображення та артефактів моделі.
    • Вимоги до обчислювальних ресурсів, які визначають потреби кожної копії вашої моделі, включаючи ядра ЦП, пам’ять хоста та кількість прискорювачів.
  • Копія моделі – Виконувана копія компонента висновку, яка здатна обслуговувати запити.
  • Автоматичне масштабування керованого екземпляра – Можливість розміщення SageMaker для збільшення чи зменшення кількості обчислювальних екземплярів, які використовуються для кінцевої точки. Масштабування екземплярів реагує на масштабування компонентів висновку.

Щоб створити новий компонент висновку, ви можете вказати зображення контейнера та артефакт моделі або використати моделі SageMaker, які ви, можливо, вже створили. Вам також потрібно вказати вимоги до обчислювальних ресурсів, наприклад кількість ядер центрального процесора, пам’ять хоста або кількість прискорювачів, які потрібна для роботи вашої моделі.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Коли ви розгортаєте компонент висновку, ви можете вказати MinCopies щоб переконатися, що модель уже завантажено в потрібній вам кількості та готова обслуговувати запити.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

У вас також є можливість налаштувати свої політики так, щоб копії компонента висновку масштабувалися до нуля. Наприклад, якщо у вас немає навантаження на IC, копію моделі буде вивантажено. Це може звільнити ресурси, які можна замінити активними робочими навантаженнями для оптимізації використання та ефективності кінцевої точки.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

У міру того, як запити на висновок збільшуються або зменшуються, кількість копій ваших мікросхем також може збільшуватися або зменшуватися відповідно до ваших політик автоматичного масштабування. SageMaker виконає розміщення, щоб оптимізувати упаковку ваших моделей за доступністю та вартістю.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Крім того, якщо ви ввімкнете автоматичне масштабування керованого екземпляра, SageMaker масштабуватиме екземпляри обчислень відповідно до кількості компонентів висновку, які потрібно завантажити в певний час для обслуговування трафіку. SageMaker збільшить масштаб екземплярів і упакує ваші екземпляри та компоненти логічного висновку для оптимізації витрат, зберігаючи при цьому продуктивність моделі. Хоча ми рекомендуємо використовувати масштабування керованого екземпляра, ви також можете самостійно керувати масштабуванням за допомогою автоматичного масштабування програми.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

SageMaker перебалансує компоненти висновків і зменшить масштаб екземплярів, якщо вони більше не потрібні компонентам висновків, і заощадить ваші витрати.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Покрокове керівництво API

SageMaker представив нову сутність під назвою the InferenceComponent. Це відокремлює деталі розміщення моделі ML від самої кінцевої точки. The InferenceComponent дозволяє вказати ключові властивості для розміщення моделі, наприклад модель SageMaker, яку ви бажаєте використовувати, або деталі контейнера та артефакти моделі. Ви також вказуєте кількість копій самих компонентів для розгортання та кількість необхідних прискорювачів (GPU, Inf або Trn) або CPU (vCPU). Це забезпечує більшу гнучкість для використання однієї кінцевої точки для будь-якої кількості моделей, які ви плануєте розгорнути на ній у майбутньому.

Давайте розглянемо виклики API Boto3 для створення кінцевої точки з компонентом висновку. Зауважте, що є деякі параметри, які ми розглянемо пізніше в цій публікації.

Нижче наведено приклад коду для CreateEndpointConfig:

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Нижче наведено приклад коду для CreateEndpoint:

sagemaker_client.create_endpoint( EndpointName=endpoint_name, EndpointConfigName=endpoint_config_name,
)

Нижче наведено приклад коду для CreateInferenceComponent:

sm_client.create_inference_component( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, VariantName=variant_name, Specification={ "Container": { "Image": inference_image_uri, "ArtifactUrl": s3_code_artifact, }, "StartupParameters": { "ModelDataDownloadTimeoutInSeconds": 300, "ContainerStartupHealthCheckTimeoutInSeconds": 600, }, "ComputeResourceRequirements": {"NumberOfAcceleratorDevicesRequired": 1, "MinMemoryRequiredInMb": 1024} }, RuntimeConfig={"CopyCount": 1},
)

Це роз'єднання InferenceComponent до кінцевої точки забезпечує гнучкість. Ви можете розмістити кілька моделей в одній інфраструктурі, додаючи або видаляючи їх у міру зміни ваших вимог. Кожну модель можна оновлювати незалежно за потреби. Крім того, ви можете масштабувати моделі відповідно до потреб свого бізнесу. InferenceComponent також дозволяє контролювати ємність кожної моделі. Іншими словами, ви можете визначити, скільки копій кожної моделі розмістити. Це передбачуване масштабування допомагає відповідати конкретним вимогам до затримки для кожної моделі. Загалом, InferenceComponent дає вам набагато більше контролю над розміщеними моделями.

У наступній таблиці ми показуємо паралельне порівняння підходу високого рівня до створення та виклику кінцевої точки без InferenceComponent і з InferenceComponent. Зауважте, що CreateModel() тепер необов’язковий для кінцевих точок на основі IC.

Крок Кінцеві точки на основі моделі Кінцеві точки на основі компонентів висновку
1 Створити модель(…) CreateEndpointConfig(…)
2 CreateEndpointConfig(…) Створити кінцеву точку (…)
3 Створити кінцеву точку (…) CreateInferenceComponent(…)
4 InvokeEndpoint(…) InvokeEndpoint(InferneceComponentName='value'…)

введення InferenceComponent дозволяє масштабувати на рівні моделі. Побачити Пориньте в автоматичне масштабування екземплярів і IC щоб дізнатися більше про те, як InferenceComponent працює з автоматичним масштабуванням.

Під час виклику кінцевої точки SageMaker тепер ви можете вказати новий параметр InferenceComponentName досягти бажаного InferenceComponentName. SageMaker обробить маршрутизацію запиту до екземпляра, на якому розміщено запрошений InferenceComponentName. Дивіться наступний код:

smr_client = boto3.client("sagemaker-runtime") response_model = smr_client.invoke_endpoint( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, Body=payload, ContentType="application/json", )

За замовчуванням SageMaker використовує випадкову маршрутизацію запитів до екземплярів, які підтримують вашу кінцеву точку. Якщо ви бажаєте ввімкнути маршрутизацію найменших запитів, ви можете встановити стратегію маршрутизації в конфігурації кінцевої точки RoutingConfig:

sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, ... 'RoutingConfig': { 'RoutingStrategy': 'LEAST_OUTSTANDING_REQUESTS' } }],
)

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Найменш нерозглянуті запити маршрутизують до конкретних примірників, які мають більше можливостей для обробки запитів. Це забезпечить більш рівномірний розподіл навантаження та використання ресурсів.

На додаток до CreateInferenceComponent, тепер доступні такі API:

  • DescribeInferenceComponent
  • DeleteInferenceComponent
  • UpdateInferenceComponent
  • ListInferenceComponents

Журнали та метрики InferenceComponent

InferenceComponent журнали розташовані в /aws/sagemaker/InferenceComponents/<InferenceComponentName>. Усі журнали, надіслані до stderr і stdout у контейнері, надсилаються до цих журналів Amazon CloudWatch.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

З появою кінцевих точок на основі IC тепер у вас є можливість переглядати додаткові метрики екземплярів, метрики компонентів висновку та метрики виклику.

Для екземплярів SageMaker тепер ви можете відстежувати GPUReservation та CPUReservation метрики, щоб побачити ресурси, зарезервовані для кінцевої точки, на основі компонентів висновку, які ви розгорнули. Ці показники можуть допомогти вам визначити кінцеву точку та політику автоматичного масштабування. Ви також можете переглядати сукупні показники, пов’язані з усіма моделями, розгорнутими на кінцевій точці.

SageMaker також надає метрики на рівні компонентів висновку, які можуть показати більш детальне уявлення про використання ресурсів для компонентів висновку, які ви розгорнули. Це дозволяє отримати уявлення про те, наскільки сукупне використання ресурсів, наприклад GPUUtilizationNormalized та GPUMemoryUtilizationNormalized для кожного розгорнутого вами компонента висновку, який може мати нуль або багато копій.

Нарешті, SageMaker надає метрику викликів, яка тепер сукупно відстежує виклики для компонентів висновку (Invocations) або за екземпляр копії (InvocationsPerCopy)

Повний список показників див Метрики виклику кінцевої точки SageMaker.

Автоматичне масштабування на рівні моделі

Щоб реалізувати описану нами поведінку автоматичного масштабування, під час створення конфігурації кінцевої точки SageMaker і компонента висновку ви визначаєте початкову кількість екземплярів і початкову кількість копій моделі відповідно. Після створення кінцевої точки та відповідних IC, щоб застосувати автоматичне масштабування на рівні IC, вам потрібно спочатку зареєструвати ціль масштабування, а потім пов’язати політику масштабування з IC.

При реалізації політики масштабування ми використовуємо SageMakerInferenceComponentInvocationsPerCopy, який є новим показником, представленим SageMaker. Він фіксує середню кількість звернень на одну копію моделі за хвилину.

aas_client.put_scaling_policy( PolicyName=endpoint_name, PolicyType='TargetTrackingScaling', ServiceNamespace=service_namespace, ResourceId=resource_id, ScalableDimension=scalable_dimension, TargetTrackingScalingPolicyConfiguration={ "PredefinedMetricSpecification": { "PredefinedMetricType": "SageMakerInferenceComponentInvocationsPerCopy", }, "TargetValue": autoscaling_target_value, "ScaleInCooldown": 300, # default "ScaleOutCooldown": 300, # default },
)

Після того як ви налаштуєте політику масштабування, SageMaker створює два нагадування CloudWatch для кожної цілі автомасштабування: один для ініціювання масштабування, якщо тривога триватиме 3 хвилини (три точки даних по 1 хвилині), і один, щоб запускати масштабування, якщо тривога триватиме 15 хвилин. (15 точок даних за 1 хвилину), як показано на наступному знімку екрана. Час для запуску дії масштабування зазвичай на 1–2 хвилини довший, ніж ці хвилини, оскільки кінцевій точці потрібен час для публікації метрик у CloudWatch, а також для AutoScaling реагувати. Період охолодження — це проміжок часу в секундах після завершення масштабування або масштабування, перш ніж можна буде розпочати іншу масштабування. Якщо масштабне охолодження коротше, ніж час оновлення кінцевої точки, воно не матиме ефекту, оскільки неможливо оновити кінцеву точку SageMaker, коли вона знаходиться в стані Оновлення Статус.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Зауважте, що під час налаштування автоматичного масштабування на рівні IC необхідно переконатися, що MaxInstanceCount параметр дорівнює або менший за максимальну кількість IC, яку може обробляти ця кінцева точка. Наприклад, якщо ваша кінцева точка налаштована на наявність лише одного екземпляра в конфігурації кінцевої точки, і цей екземпляр може розміщувати максимум чотири копії моделі, тоді MaxInstanceCount має дорівнювати або бути меншим за 4. Однак ви також можете використовувати можливість керованого автоматичного масштабування, надану SageMaker, щоб автоматично масштабувати кількість екземплярів на основі необхідної кількості копій моделі, щоб задовольнити потребу в додаткових обчислювальних ресурсах. Наведений нижче фрагмент коду демонструє, як налаштувати масштабування керованого екземпляра під час створення конфігурації кінцевої точки. Таким чином, коли для автоматичного масштабування на рівні IC потрібна більша кількість екземплярів для розміщення копій моделі, SageMaker автоматично масштабує номер екземпляра, щоб забезпечити успішне масштабування на рівні IC.

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Ви можете застосувати кілька політик автоматичного масштабування до однієї кінцевої точки, що означає, що ви зможете застосувати традиційну політику автоматичного масштабування до кінцевих точок, створених за допомогою IC, і масштабувати вгору та вниз на основі інших показників кінцевої точки. Для отримання додаткової інформації див Оптимізуйте розгортання машинного навчання за допомогою автоматичного масштабування на Amazon SageMaker. Однак, незважаючи на те, що це можливо, ми все ж рекомендуємо використовувати кероване масштабування екземпляра, а не самостійно керувати масштабуванням.

Висновок

У цьому дописі ми представили нову функцію в SageMaker inference, яка допоможе вам максимізувати використання обчислювальних екземплярів, масштабувати до сотень моделей і оптимізувати витрати, забезпечуючи передбачувану продуктивність. Крім того, ми надали покрокове керівництво по API і показали вам, як налаштувати та розгорнути компоненти висновку для ваших робочих навантажень.

Ми також підтримуємо розширені можливості маршрутизації щоб оптимізувати затримку та продуктивність ваших робочих навантажень. SageMaker може допомогти вам оптимізувати робочі навантаження для висновків щодо вартості та продуктивності та надати деталізацію рівня моделі для керування. Ми створили a набір зошитів який покаже вам, як розгорнути три різні моделі, використовуючи різні контейнери та застосовуючи політики автоматичного масштабування в GitHub. Ми заохочуємо вас почати з ноутбука 1 і почати користуватися новими можливостями хостингу SageMaker вже сьогодні!


Про авторів

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Джеймс Парк є архітектором рішень в Amazon Web Services. Він працює з Amazon.com над проектуванням, створенням і розгортанням технологічних рішень на AWS, і особливо цікавиться ШІ та машинним навчанням. У вільний час він любить шукати нові культури, нові враження та бути в курсі останніх технологічних тенденцій. Ви можете знайти його на LinkedIn.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Мелані Лі, PhD, є старшим спеціалістом зі штучного інтелекту та ML в AWS у Сіднеї, Австралія. Вона допомагає корпоративним клієнтам створювати рішення за допомогою найсучасніших інструментів AI/ML на AWS і надає вказівки щодо архітектури та впровадження рішень ML із передовими практиками. У вільний час вона любить досліджувати природу та проводити час із родиною та друзями.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Марк Карп є архітектором ML у команді Amazon SageMaker Service. Він зосереджується на допомозі клієнтам проектувати, розгортати та керувати робочими навантаженнями ML у масштабі. У вільний час він любить подорожувати та досліджувати нові місця.

Алан ТанАлан Тан є старшим менеджером із продуктів у SageMaker, керуючи зусиллями з виведення великих моделей. Він захоплений застосуванням машинного навчання в галузі аналітики. Поза роботою він любить прогулянки на природі.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Рагу Рамеша є старшим архітектором рішень ML у команді Amazon SageMaker Service. Він зосереджується на допомозі клієнтам створювати, розгортати та переносити робочі навантаження ML на SageMaker у великих масштабах. Він спеціалізується на машинному навчанні, штучному інтелекті та комп’ютерному зорі, а також має ступінь магістра комп’ютерних наук в UT Dallas. У вільний час захоплюється подорожами та фотографією.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Рупіндер Гревал є старшим архітектором рішень Ai/ML в AWS. Зараз він зосереджується на обслуговуванні моделей і MLO на SageMaker. До цієї посади він працював інженером машинного навчання, створюючи та розміщуючи моделі. Поза роботою він любить грати в теніс і їздити на велосипеді гірськими стежками.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Дхавал Патель є головним архітектором машинного навчання в AWS. Він працював з організаціями, починаючи від великих підприємств і закінчуючи стартапами середнього розміру, над проблемами, пов’язаними з розподіленими обчисленнями та штучним інтелектом. Він зосереджується на глибокому навчанні, включаючи домени НЛП та комп’ютерного зору. Він допомагає клієнтам досягти високопродуктивної моделі висновку на SageMaker.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Саураб Тріканде є старшим менеджером із продуктів Amazon SageMaker Inference. Він захоплений роботою з клієнтами та мотивований метою демократизації машинного навчання. Він зосереджується на основних проблемах, пов’язаних із розгортанням складних програм ML, моделями ML з кількома клієнтами, оптимізацією витрат і забезпеченням більшої доступності розгортання моделей глибокого навчання. У вільний час Саураб любить піші прогулянки, вивчає інноваційні технології, стежить за TechCrunch і проводить час із сім’єю.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Лакшмі Рамакрішнан є головним інженером команди платформи Amazon SageMaker Machine Learning (ML) в AWS, забезпечує технічне керівництво продуктом. Він працював на кількох інженерних посадах в Amazon понад 9 років. Він має ступінь бакалавра інженерних наук у галузі інформаційних технологій у Національному технологічному інституті, штат Карнатака, Індія, і ступінь магістра наук у галузі комп’ютерних наук в Університеті міст-побратимів Міннесоти.

Зменшіть витрати на розгортання моделі в середньому на 50%, використовуючи новітні функції Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.Девід Нігенда є старшим інженером з розробки програмного забезпечення в команді Amazon SageMaker, зараз працює над удосконаленням робочих процесів машинного навчання виробництва, а також над запуском нових функцій висновків. У вільний час він намагається не відставати від своїх дітей.

Часова мітка:

Більше від AWS Машинне навчання