Создание платформы операций машинного обучения (MLOps) в быстро развивающейся среде искусственного интеллекта (ИИ) и машинного обучения (ML) для организаций имеет важное значение для плавного преодоления разрыва между экспериментами в области науки о данных и их развертыванием, одновременно удовлетворяя требованиям, касающимся производительности модели. безопасность и соблюдение требований.
Для выполнения нормативных и нормативных требований ключевыми требованиями при разработке такой платформы являются:
- Дрейф адресных данных
- Мониторинг производительности модели
- Упрощение автоматического переобучения модели
- Предоставить процесс утверждения модели
- Храните модели в безопасной среде
В этом посте мы покажем, как создать платформу MLOps для удовлетворения этих потребностей, используя комбинацию сервисов AWS и сторонних наборов инструментов. Решение предполагает настройку нескольких сред с автоматическим переобучением модели, пакетным выводом и мониторингом с помощью Монитор моделей Amazon SageMaker, версия модели с Реестр моделей SageMakerи конвейер CI/CD для облегчения продвижения кода и конвейеров машинного обучения в разных средах с помощью Создатель мудреца Амазонки, Amazon EventBridge, Amazon Простая служба уведомлений (Амазон С3), ХашиКорп Терраформ, GitHubи Дженкинс CI/CD. Мы создаем модель для прогнозирования тяжести (доброкачественная или злокачественная) маммографического образования, обученную с помощью Алгоритм XGBoost используя общедоступные UCI Маммография Масса набор данных и разверните его с помощью платформы MLOps. Полная инструкция с кодом доступна в Репозиторий GitHub.
Обзор решения
На следующей диаграмме архитектуры показан обзор инфраструктуры MLOps со следующими ключевыми компонентами:
- Стратегия с несколькими аккаунтами – Две разные среды (dev и prod) настраиваются в двух разных учетных записях AWS в соответствии с рекомендациями AWS Well-Architected, а третья учетная запись настраивается в центральном реестре моделей:
- Среда разработки – Где Домен Amazon SageMaker Studio настроен для разработки моделей, обучения моделей и тестирования конвейеров машинного обучения (обучение и вывод) до того, как модель будет готова к использованию в более высоких средах.
- Рабочая среда – Где конвейеры машинного обучения от разработки продвигаются в качестве первого шага, а также планируются и контролируются с течением времени.
- Центральный реестр моделей – Реестр моделей Amazon SageMaker настраивается в отдельной учетной записи AWS для отслеживания версий модели, созданных в средах разработки и рабочей среды.
- CI/CD и контроль версий – Развертывание конвейеров машинного обучения в средах осуществляется посредством CI/CD, настроенного с помощью Jenkins, а контроль версий осуществляется через GitHub. Изменения кода, объединенные с соответствующей веткой git среды, запускают рабочий процесс CI/CD для внесения соответствующих изменений в данную целевую среду.
- Пакетные прогнозы с мониторингом модели – Конвейер вывода, построенный с Конвейеры Amazon SageMaker запускается по расписанию для создания прогнозов вместе с мониторингом модели с помощью SageMaker Model Monitor для обнаружения отклонения данных.
- Автоматизированный механизм переобучения – Конвейер обучения, построенный с помощью SageMaker Pipelines, запускается всякий раз, когда в конвейере вывода обнаруживается отклонение данных. После обучения модель регистрируется в центральном реестре моделей для утверждения утверждающим лицом. После утверждения обновленная версия модели используется для создания прогнозов через конвейер вывода.
- Инфраструктура как код – Инфраструктура как код (IaC), созданная с использованием ХашиКорп Терраформ, поддерживает планирование конвейера вывода с помощью EventBridge, запуск конвейера поездов на основе Правило EventBridge и отправка уведомлений с помощью Amazon Простая служба уведомлений (Амазон соцсети) Темы.
Рабочий процесс MLOps включает в себя следующие шаги:
- Получите доступ к домену SageMaker Studio в учетной записи разработчика, клонируйте репозиторий GitHub, пройдите процесс разработки модели, используя предоставленный образец модели, и сгенерируйте конвейеры обучения и вывода.
- Запустите конвейер обучения в учетной записи разработчика, который генерирует артефакты модели для версии обученной модели и регистрирует модель в реестре моделей SageMaker в центральной учетной записи реестра моделей.
- Утвердите модель в реестре моделей SageMaker в учетной записи центрального реестра моделей.
- Отправьте код (конвейеры обучения и вывода, а также код Terraform IaC для создания расписания EventBridge, правила EventBridge и темы SNS) в ветку функций репозитория GitHub. Создайте запрос на включение, чтобы объединить код с основной веткой репозитория GitHub.
- Запустите конвейер Jenkins CI/CD, который настроен с помощью репозитория GitHub. Конвейер CI/CD развертывает код в учетной записи prod для создания конвейеров обучения и вывода вместе с кодом Terraform для подготовки расписания EventBridge, правила EventBridge и темы SNS.
- Конвейер вывода планируется запускать ежедневно, тогда как конвейер поездов настроен на запуск всякий раз, когда обнаруживается отклонение данных из конвейера вывода.
- Уведомления отправляются через тему SNS при возникновении сбоя в поезде или конвейере вывода.
Предпосылки
Для этого решения у вас должны быть следующие предпосылки:
- Три учетные записи AWS (учетные записи разработчиков, продуктов и центрального реестра моделей)
- Домен SageMaker Studio, настроенный в каждой из трех учетных записей AWS (см. На борту Amazon SageMaker Studio или посмотрите видео Быстрое подключение к Amazon SageMaker Studio инструкции по настройке)
- Jenkins (мы используем Jenkins 2.401.1) с правами администратора, установленный на AWS.
- Terraform версии 1.5.5 или более поздней версии, установленной на сервере Jenkins.
Для этого поста мы работаем в us-east-1
Регион для развертывания решения.
Предоставление ключей KMS в учетных записях разработчиков и продуктов.
Наш первый шаг — создать Служба управления ключами AWS (AWS KMS) в учетных записях разработчиков и продуктов.
Создайте ключ KMS в учетной записи разработчика и предоставьте доступ к учетной записи prod.
Выполните следующие шаги, чтобы создать ключ KMS в учетной записи разработчика:
- В консоли AWS KMS выберите Ключи, управляемые клиентом в навигационной панели.
- Выберите Создать ключ.
- Что касается Тип ключа, наведите на симметричный.
- Что касается Использование ключа, наведите на Зашифровать и расшифровать.
- Выберите Следующая.
- Введите номер рабочей учетной записи, чтобы предоставить рабочей учетной записи доступ к ключу KMS, предоставленному в учетной записи разработчика. Это обязательный шаг, поскольку при первом обучении модели в учетной записи разработчика артефакты модели шифруются с помощью ключа KMS перед записью в корзину S3 в учетной записи центрального реестра модели. Рабочей учетной записи необходим доступ к ключу KMS для расшифровки артефактов модели и запуска конвейера вывода.
- Выберите Следующая и завершите создание ключа.
После предоставления ключа он должен появиться на консоли AWS KMS.
Создайте ключ KMS в учетной записи prod.
Выполните те же действия, что и в предыдущем разделе, чтобы создать ключ KMS, управляемый клиентом, в рабочей учетной записи. Вы можете пропустить этот шаг, чтобы поделиться ключом KMS с другой учетной записью.
Настройте корзину S3 артефактов модели в учетной записи центрального реестра моделей.
Создайте корзину S3 по вашему выбору с помощью строки sagemaker
в соглашении об именах как часть имени корзины в учетной записи центрального реестра модели и обновите политику корзины в корзине S3, чтобы предоставить разрешения как учетным записям разработчиков, так и учетным записям prod на чтение и запись артефактов модели в корзину S3.
Следующий код представляет собой политику корзины, которая будет обновлена в корзине S3:
Настройте роли IAM в своих учетных записях AWS
Следующим шагом является настройка Управление идентификацией и доступом AWS (IAM) роли в ваших учетных записях AWS с разрешениями для AWS Lambda, SageMaker и Дженкинс.
Роль выполнения лямбда
Создавать Роли выполнения Lambda в учетных записях dev и prod, которые будут использоваться функцией Lambda, запускаемой как часть Шаг SageMaker Pipelines Lambda. Этот шаг будет выполняться из конвейера вывода для получения последней утвержденной модели, с использованием которой генерируются выводы. Создайте роли IAM в учетных записях разработчиков и продуктов, используя соглашение об именах. arn:aws:iam::<account-id>:role/lambda-sagemaker-role
и прикрепите следующие политики IAM:
- Политика 1 – Создайте встроенную политику с именем
cross-account-model-registry-access
, который предоставляет доступ к пакету модели, настроенному в реестре модели в центральной учетной записи: - Политика 2 - Прикреплять AmazonSageMakerFullAccess, который является Политика, управляемая AWS который предоставляет полный доступ к SageMaker. Он также обеспечивает выборочный доступ к сопутствующим услугам, таким как Автоматическое масштабирование приложений AWS, Амазон S3, Реестр Amazon Elastic Container (Amazon ECR) и Журналы Amazon CloudWatch.
- Политика 3 - Прикреплять AWSLambda_FullAccess, которая представляет собой политику, управляемую AWS, которая предоставляет полный доступ к Lambda, функциям консоли Lambda и другим связанным сервисам AWS.
- Политика 4 – Используйте следующую политику доверия IAM для роли IAM:
Исполнительная роль SageMaker
Домены SageMaker Studio, настроенные в учетных записях dev и prod, должны иметь связанную с ними роль исполнения, которую можно найти на странице настройки домена на странице сведений о домене, как показано на следующем снимке экрана. Эта роль используется для запуска заданий обучения, обработки и т. д. в домене SageMaker Studio.
Добавьте следующие политики к роли выполнения SageMaker в обеих учетных записях:
- Политика 1 – Создайте встроенную политику с именем
cross-account-model-artifacts-s3-bucket-access
, который предоставляет доступ к корзине S3 в учетной записи центрального реестра модели, в которой хранятся артефакты модели: - Политика 2 – Создайте встроенную политику с именем
cross-account-model-registry-access
, который предоставляет доступ к пакету модели в реестре моделей в учетной записи центрального реестра моделей: - Политика 3 – Создайте встроенную политику с именем
kms-key-access-policy
, который предоставляет доступ к ключу KMS, созданному на предыдущем шаге. Укажите идентификатор учетной записи, в которой создается политика, и идентификатор ключа KMS, созданный в этой учетной записи. - Политика 4 - Прикреплять AmazonSageMakerFullAccess, который является Политика, управляемая AWS который предоставляет полный доступ к SageMaker и выборочный доступ к соответствующим службам.
- Политика 5 - Прикреплять AWSLambda_FullAccess, которая представляет собой политику, управляемую AWS, которая предоставляет полный доступ к Lambda, функциям консоли Lambda и другим связанным сервисам AWS.
- Политика 6 - Прикреплять CloudWatchEventsFullAccess, которая представляет собой политику, управляемую AWS, которая предоставляет полный доступ к CloudWatch Events.
- Политика 7 – Добавьте следующую политику доверия IAM для роли IAM выполнения SageMaker:
- Политика 8 (относится к роли выполнения SageMaker в учетной записи prod) – Создайте встроенную политику с именем
cross-account-kms-key-access-policy
, который предоставляет доступ к ключу KMS, созданному в учетной записи разработчика. Это необходимо, чтобы конвейер вывода мог считывать артефакты модели, хранящиеся в учетной записи центрального реестра модели, где артефакты модели шифруются с помощью ключа KMS из учетной записи разработчика, когда первая версия модели создается из учетной записи разработчика.
Роль Дженкинса для нескольких аккаунтов
Настройте роль IAM под названием cross-account-jenkins-role
в рабочей учетной записи, которую Дженкинс возьмет на себя для развертывания конвейеров машинного обучения и соответствующей инфраструктуры в рабочей учетной записи.
Добавьте в роль следующие управляемые политики IAM:
CloudWatchFullAccess
AmazonS3FullAccess
AmazonSNSFullAccess
AmazonSageMakerFullAccess
AmazonEventBridgeFullAccess
AWSLambda_FullAccess
Обновите доверительные отношения для роли, чтобы предоставить разрешения учетной записи AWS, на которой размещен сервер Jenkins:
Обновление разрешений для роли IAM, связанной с сервером Jenkins.
Предполагая, что Jenkins настроен на AWS, обновите роль IAM, связанную с Jenkins, добавив следующие политики, которые предоставят Jenkins доступ для развертывания ресурсов в учетной записи prod:
- Политика 1 – Создайте следующую встроенную политику с именем
assume-production-role-policy
: - Политика 2 – Прикрепите
CloudWatchFullAccess
управляемая политика IAM.
Настройте группу пакетов модели в учетной записи центрального реестра моделей.
В домене SageMaker Studio в учетной записи центрального реестра модели создайте группу пакетов модели с именем mammo-severity-model-package
используя следующий фрагмент кода (который можно запустить с помощью блокнота Jupyter):
Настройте доступ к пакету модели для ролей IAM в учетных записях dev и prod.
Предоставьте доступ к ролям выполнения SageMaker, созданным в учетных записях dev и prod, чтобы вы могли регистрировать версии модели в пакете модели. mammo-severity-model-package
в центральном реестре моделей из обеих учетных записей. Из домена SageMaker Studio в учетной записи центрального реестра модели запустите следующий код в блокноте Jupyter:
Настройка Дженкинса
В этом разделе мы настраиваем Jenkins для создания конвейеров ML и соответствующей инфраструктуры Terraform в учетной записи prod через конвейер Jenkins CI/CD.
- В консоли CloudWatch создайте группу журналов с именем
jenkins-log
внутри учетной записи prod, в которую Jenkins будет отправлять журналы из конвейера CI/CD. Группа журналов должна быть создана в том же регионе, где настроен сервер Jenkins. - Установите следующие плагины на вашем сервере Jenkins:
- Настройте учетные данные AWS в Jenkins, используя роль IAM для нескольких учетных записей (
cross-account-jenkins-role
), предоставленный в учетной записи prod. - Что касается Конфигурация системы, выберите AWS.
- Укажите учетные данные и группу журналов CloudWatch, которую вы создали ранее.
- Настройте учетные данные GitHub в Jenkins.
- Создайте новый проект в Jenkins.
- Введите название проекта и выберите Трубопровод.
- На Общие вкладка, выберите Проект GitHub и войдите в развилку Репозиторий GitHub URL.
- Выберите Этот проект параметризован.
- На Добавить параметр Меню, выберите Строковый параметр.
- Что касается Имя, войти
prodAccount
. - Что касается Значение по умолчанию, введите идентификатор рабочей учетной записи.
- Под Расширенные параметры проекта, Для Определение, наведите на Скрипт пайплайна от SCM.
- Что касается SCM, выберите идти.
- Что касается URL-адрес репозитория, войдите в раздвоение Репозиторий GitHub URL.
- Что касается Полномочия, введите учетные данные GitHub, сохраненные в Jenkins.
- Enter
main
в Филиалы для строительства раздел, на основании которого будет запускаться конвейер CI/CD. - Что касается Путь сценария, войти
Jenkinsfile
. - Выберите Сохранить.
Конвейер Jenkins должен быть создан и виден на вашей информационной панели.
Предоставление сегментов S3, сбор и подготовка данных
Выполните следующие шаги, чтобы настроить сегменты и данные S3:
- Создайте корзину S3 по вашему выбору с помощью строки
sagemaker
в соглашении об именах как часть имени сегмента в учетных записях разработчиков и продуктов для хранения наборов данных и артефактов модели. - Настройте корзину S3 для поддержания состояния Terraform в учетной записи продукта.
- Загрузите и сохраните общедоступный UCI Маммография Масса набор данных в корзину S3, созданную ранее в учетной записи разработчика.
- Форкнуть и клонировать Репозиторий GitHub в домене SageMaker Studio в учетной записи разработчика. Репо имеет следующую структуру папок:
- /environments — скрипт конфигурации для среды prod.
- /mlops-инфра – Код для развертывания сервисов AWS с использованием кода Terraform.
- /трубопроводы – Код для компонентов пайплайна SageMaker
- Дженкинсфайл – Скрипт для развертывания через конвейер Jenkins CI/CD.
- setup.py – Необходимо установить необходимые модули Python и создать команду run-pipeline.
- маммография-тяжесть-modeling.ipynb – Позволяет создавать и запускать рабочий процесс ML
- Создайте папку data в папке клонированного репозитория GitHub и сохраните копию общедоступной папки. UCI Маммография Масса набор данных.
- Следуйте блокноту Jupyter
mammography-severity-modeling.ipynb
. - Запустите следующий код в блокноте, чтобы предварительно обработать набор данных и загрузить его в корзину S3 в учетной записи разработчика:
Код сгенерирует следующие наборы данных:
-
- данные/mammo-train-dataset-part1.csv – Будет использоваться для обучения первой версии модели.
- данные/mammo-train-dataset-part2.csv – Будет использоваться для обучения второй версии модели вместе с набором данных mammo-train-dataset-part1.csv.
- данные/mammo-batch-dataset.csv – Будет использоваться для формирования выводов.
- данные/mammo-batch-dataset-outliers.csv – В набор данных будут внесены выбросы, чтобы вывести из строя конвейер вывода. Это позволит нам протестировать шаблон, чтобы запустить автоматическое переобучение модели.
- Загрузите набор данных
mammo-train-dataset-part1.csv
под приставкойmammography-severity-model/train-dataset
и загрузите наборы данныхmammo-batch-dataset.csv
иmammo-batch-dataset-outliers.csv
к префиксуmammography-severity-model/batch-dataset
корзины S3, созданной в учетной записи разработчика: - Загрузите наборы данных
mammo-train-dataset-part1.csv
иmammo-train-dataset-part2.csv
под приставкойmammography-severity-model/train-dataset
в корзину S3, созданную в учетной записи prod, через консоль Amazon S3. - Загрузите наборы данных
mammo-batch-dataset.csv
иmammo-batch-dataset-outliers.csv
к префиксуmammography-severity-model/batch-dataset
корзины S3 в учетной записи prod.
Запустить железнодорожный конвейер
Под <project-name>/pipelines/train
, вы можете увидеть следующие скрипты Python:
- скрипты/raw_preprocess.py – Интегрируется с SageMaker Processing для разработки функций.
- скрипты/evaluate_model.py – В данном случае позволяет рассчитывать метрики модели.
auc_score
- train_pipeline.py – Содержит код для конвейера обучения модели.
Выполните следующие шаги:
- Загрузите сценарии в Amazon S3:
- Получите экземпляр конвейера поезда:
- Отправьте конвейер поезда и запустите его:
На следующем рисунке показан успешный запуск конвейера обучения. На последнем этапе конвейера модель регистрируется в учетной записи центрального реестра моделей.
Утвердите модель в центральном реестре моделей.
Войдите в учетную запись центрального реестра моделей и получите доступ к реестру моделей SageMaker в домене SageMaker Studio. Измените статус версии модели на «Утверждено».
После утверждения статус должен быть изменен в версии модели.
Запустите конвейер вывода (необязательно)
Этот шаг не является обязательным, но вы все равно можете запустить конвейер вывода для создания прогнозов в учетной записи разработчика.
Под <project-name>/pipelines/inference
, вы можете увидеть следующие скрипты Python:
- скрипты/lambda_helper.py – Извлекает последнюю утвержденную версию модели из учетной записи центрального реестра моделей с помощью шага SageMaker Pipelines Lambda.
- inference_pipeline.py – Содержит код для конвейера вывода модели.
Выполните следующие шаги:
- Загрузите скрипт в корзину S3:
- Получите экземпляр конвейера вывода, используя обычный пакетный набор данных:
- Отправьте конвейер вывода и запустите его:
На следующем рисунке показан успешный запуск конвейера вывода. Последний шаг конвейера генерирует прогнозы и сохраняет их в корзине S3. Мы используем Мониторбачтрансформстепп для мониторинга входных данных в задание пакетного преобразования. Если есть какие-либо выбросы, конвейер вывода переходит в состояние сбоя.
Запустите конвейер Jenkins
Ассоциация environment/
Папка в репозитории GitHub содержит сценарий конфигурации для учетной записи prod. Выполните следующие шаги, чтобы запустить конвейер Jenkins:
- Обновите скрипт конфигурации
prod.tfvars.json
на основе ресурсов, созданных на предыдущих шагах: - После обновления поместите код в разветвленный репозиторий GitHub и объедините его с основной веткой.
- Перейдите в пользовательский интерфейс Jenkins, выберите Сборка с параметрамии запустите конвейер CI/CD, созданный на предыдущих шагах.
Когда сборка будет завершена и успешна, вы сможете войти в учетную запись prod и просмотреть конвейеры обучения и вывода в домене SageMaker Studio.
Кроме того, вы увидите три правила EventBridge на консоли EventBridge в учетной записи prod:
- Запланируйте конвейер вывода
- Отправить уведомление о сбое в трубопроводе поезда
- Если конвейер вывода не может запустить конвейер поезда, отправьте уведомление.
Наконец, вы увидите тему уведомлений SNS на консоли Amazon SNS, которая отправляет уведомления по электронной почте. Вы получите электронное письмо с просьбой подтвердить принятие этих уведомлений по электронной почте.
Протестируйте конвейер вывода, используя пакетный набор данных без выбросов.
Чтобы проверить, работает ли конвейер вывода в учетной записи продукта должным образом, мы можем войти в учетную запись продукта и запустить конвейер вывода, используя пакетный набор данных без выбросов.
Запустите конвейер через консоль SageMaker Pipelines в домене SageMaker Studio учетной записи prod, где transform_input
будет URI S3 набора данных без выбросов (s3://<s3-bucket-in-prod-account>/mammography-severity-model/data/mammo-batch-dataset.csv
).
Конвейер вывода завершается успешно и записывает прогнозы обратно в корзину S3.
Протестируйте конвейер вывода, используя пакетный набор данных с выбросами.
Вы можете запустить конвейер вывода, используя пакетный набор данных с выбросами, чтобы проверить, работает ли механизм автоматического переобучения должным образом.
Запустите конвейер через консоль SageMaker Pipelines в домене SageMaker Studio учетной записи prod, где transform_input
будет URI S3 набора данных с выбросами (s3://<s3-bucket-in-prod-account>/mammography-severity-model/data/mammo-batch-dataset-outliers.csv
).
Конвейер вывода завершается сбоем, как и ожидалось, что активирует правило EventBridge, которое, в свою очередь, запускает конвейер поезда.
Через несколько секунд вы должны увидеть новый запуск конвейера поездов на консоли SageMaker Pipelines, который собирает два разных набора данных поездов (mammo-train-dataset-part1.csv
и mammo-train-dataset-part2.csv
) загружен в корзину S3 для повторного обучения модели.
Вы также увидите уведомление, отправленное на адрес электронной почты, подписанный на тему SNS.
Чтобы использовать обновленную версию модели, войдите в учетную запись центрального реестра модели и подтвердите версию модели, которая будет выбрана во время следующего запуска конвейера вывода, запускаемого с помощью запланированного правила EventBridge.
Хотя конвейеры обучения и вывода используют статический URL-адрес набора данных, вы можете передать URL-адрес набора данных в конвейеры обучения и вывода в качестве динамических переменных, чтобы использовать обновленные наборы данных для повторного обучения модели и создания прогнозов в реальном сценарии.
Убирать
Чтобы избежать дополнительных расходов в будущем, выполните следующие действия:
- Удалите домен SageMaker Studio из всех учетных записей AWS.
- Удалите все ресурсы, созданные вне SageMaker, включая сегменты S3, роли IAM, правила EventBridge и тему SNS, настроенную через Terraform в учетной записи prod.
- Удалите конвейеры SageMaker, созданные между учетными записями, с помощью команды Интерфейс командной строки AWS (Интерфейс командной строки AWS).
Заключение
Организациям часто необходимо использовать общекорпоративные наборы инструментов, чтобы обеспечить совместную работу между различными функциональными областями и командами. Такое сотрудничество гарантирует, что ваша платформа MLOps сможет адаптироваться к меняющимся потребностям бизнеса, и ускоряет внедрение машинного обучения в командах. В этом посте объясняется, как создать платформу MLOps в конфигурации с несколькими средами, чтобы обеспечить автоматическое переобучение модели, пакетный вывод и мониторинг с помощью Amazon SageMaker Model Monitor, управление версиями модели с помощью SageMaker Model Registry, а также продвижение кода и конвейеров машинного обучения в разных средах с помощью Конвейер CI/CD. Мы продемонстрировали это решение, используя комбинацию сервисов AWS и сторонних наборов инструментов. Инструкции по реализации этого решения см. Репозиторий GitHub. Вы также можете расширить это решение, добавив свои собственные источники данных и платформы моделирования.
Об авторах
Гаятри Ганакота — старший инженер по машинному обучению в AWS Professional Services. Она увлечена разработкой, развертыванием и объяснением решений AI/ML в различных областях. До этой должности она руководила несколькими инициативами в качестве специалиста по данным и инженера по машинному обучению в ведущих мировых компаниях в сфере финансов и розничной торговли. Она имеет степень магистра компьютерных наук, специализирующуюся на науке о данных, полученную в Колорадском университете в Боулдере.
Сунита Коппар — старший архитектор озера данных в AWS Professional Services. Она с энтузиазмом занимается решением проблем клиентов, обрабатывая большие данные и предоставляя долгосрочные масштабируемые решения. До этой должности она разрабатывала продукты в сфере Интернета, телекоммуникаций и автомобилестроения, а также была клиентом AWS. Она имеет степень магистра в области науки о данных Калифорнийского университета в Риверсайде.
Сасвата Дэш — консультант DevOps в AWS Professional Services. Она работала с клиентами в сфере здравоохранения и биологических наук, авиации и производства. Она увлечена всем, что связано с автоматизацией, и имеет обширный опыт проектирования и создания корпоративных клиентских решений в AWS. Вне работы она занимается фотографией и ловлей восходов солнца.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://aws.amazon.com/blogs/machine-learning/promote-pipelines-in-a-multi-environment-setup-using-amazon-sagemaker-model-registry-hashicorp-terraform-github-and-jenkins-ci-cd/
- :имеет
- :является
- :нет
- :куда
- $UP
- 1
- 10
- 100
- 12
- 13
- 14
- 16
- 17
- 19
- 23
- 27
- 31
- 320
- 7
- 8
- 9
- a
- О нас
- ускоряет
- принятие
- доступ
- Учетная запись
- Учетные записи
- через
- Действие
- приспосабливать
- Добавить
- адрес
- административный
- Принятие
- После
- возраст
- AI
- выравнивать
- Все
- позволять
- позволяет
- вдоль
- причислены
- Amazon
- Создатель мудреца Амазонки
- Amazon Web Services
- an
- и
- Другой
- любой
- Применение
- соответствующий
- утвердить
- утвержденный
- архитектура
- МЫ
- области
- около
- искусственный
- искусственный интеллект
- Искусственный интеллект (AI)
- AS
- спрашивающий
- связанный
- предполагать
- прикреплять
- автоматический
- Автоматизированный
- Автоматический
- автоматизация
- автомобильный
- доступен
- авиация
- избежать
- AWS
- Клиент AWS
- Профессиональные услуги AWS
- назад
- основанный
- основа
- BE
- , так как:
- было
- до
- не являетесь
- ЛУЧШЕЕ
- лучшие практики
- между
- большой
- Big Data
- изоферменты печени
- Филиал
- шунтирование
- Приведение
- строить
- Строительство
- построенный
- бизнес
- но
- by
- расчет
- Калифорния
- под названием
- CAN
- случаев
- центральный
- изменение
- менялась
- изменения
- расходы
- проверка
- выбор
- Выберите
- код
- сотрудничество
- собирать
- Колорадо
- Column
- Колонки
- COM
- сочетание
- полный
- Соответствие закону
- компоненты
- комплексный
- компьютер
- Информатика
- состояние
- Конфигурация
- подтвердить
- Консоли
- консультант
- Container
- содержит
- контроль
- Соглашение
- конвертировать
- соответствующий
- Создайте
- создали
- Создающий
- Полномочия
- Пересекать
- клиент
- Решения для клиентов
- Клиенты
- ежедневно
- приборная панель
- данным
- Озеро данных
- наука о данных
- ученый данных
- Наборы данных
- Decrypt
- По умолчанию
- Степень
- развертывание
- развертывание
- развертывание
- развертывает
- проектирование
- подробнее
- обнаруживать
- обнаруженный
- Дев
- развитый
- развивающийся
- Развитие
- ДИКТ
- различный
- домен
- доменов
- в течение
- динамический
- каждый
- Ранее
- эффект
- или
- Писем
- включить
- зашифрованный
- инженер
- обеспечивает
- Enter
- Окружающая среда
- средах
- существенный
- События
- развивается
- выполнение
- ожидаемый
- опыт
- объяснены
- объясняя
- продлить
- содействовал
- FAIL
- Oшибка
- не удается
- Ошибка
- Особенность
- Особенности
- несколько
- фигура
- Файл
- окончательный
- финансовый
- окончание
- Компаний
- Во-первых,
- Впервые
- после
- Что касается
- найденный
- Рамки
- каркасы
- от
- Выполнять
- полный
- функция
- функциональная
- будущее
- разрыв
- порождать
- генерируется
- генерирует
- получить
- идти
- GitHub
- Дайте
- данный
- дает
- Глобальный
- Go
- идет
- гранты
- группы
- Есть
- здравоохранение
- ее
- высший
- имеет
- хостинг
- Как
- How To
- HTML
- HTTP
- HTTPS
- ID
- Личность
- if
- Осуществляющий
- Импортировать
- in
- включает в себя
- В том числе
- индекс
- Инфраструктура
- первоначально
- инициативы
- затраты
- устанавливать
- установлен
- пример
- инструкции
- Интегрируется
- Интеллекта
- Интернет
- в
- вводить
- IT
- работа
- Джобс
- JPG
- JSON
- Основные
- ключи
- этикетка
- озеро
- пейзаж
- новее
- последний
- изучение
- привело
- заемные средства
- ЖИЗНЬЮ
- Медико-биологическая промышленность
- линия
- журнал
- долгосрочный
- машина
- обучение с помощью машины
- Главная
- поддерживать
- сделать
- управляемого
- управление
- производство
- Маржа
- Масса
- магистра
- механизм
- заседания
- Меню
- идти
- Метрика
- отсутствующий
- ML
- млн операций в секунду
- модель
- моделирование
- Модели
- изменять
- Модули
- Моменты
- монитор
- контролируемый
- Мониторинг
- БОЛЕЕ
- с разными
- имя
- Названный
- именования
- Навигация
- Необходимость
- необходимый
- потребности
- Новые
- следующий
- "обычные"
- ноутбук
- уведомление
- Уведомления
- номер
- NumPy
- of
- .
- on
- ONE
- Операционный отдел
- or
- заказ
- организации
- Другое
- внешний
- внешнюю
- за
- обзор
- собственный
- пакет
- страница
- боль
- панд
- хлеб
- часть
- части
- Прошло
- страсть
- страстный
- шаблон
- производительность
- Разрешения
- фотография
- взял
- Выборы
- трубопровод
- Платформа
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- пунктов
- сборах
- политика
- После
- практиками
- предсказывать
- Predictions
- Подготовить
- предпосылки
- предыдущий
- Основной
- Предварительный
- привилегии
- процесс
- обработка
- Производство
- Продукция
- профессиональный
- Проект
- продвижении
- Повышен
- продвижение
- обеспечивать
- при условии
- приводит
- обеспечение
- обеспечение
- публично
- Тянет
- преследует
- Push
- Питон
- быстро
- быстро
- Сырье
- Читать
- готовый
- реальный мир
- область
- зарегистрироваться
- зарегистрированный
- регистры
- реестра
- регуляторы
- Связанный
- отношения
- удаление
- хранилище
- запросить
- обязательный
- Требования
- ресурс
- Полезные ресурсы
- ответ
- розничный
- возвращают
- Прибрежный
- Роли
- роли
- корень
- Правило
- условиями,
- Run
- работает
- sagemaker
- Конвейеры SageMaker
- то же
- Сохранить
- сохраняются
- масштабируемые
- сценарий
- график
- считаться
- планирование
- Наука
- НАУКА
- Ученый
- скрипт
- скрипты
- легко
- Во-вторых
- Раздел
- безопасный
- безопасность
- посмотреть
- Отправить
- отправка
- посылает
- послать
- отдельный
- сервер
- обслуживание
- Услуги
- набор
- настройки
- установка
- Форма
- Поделиться
- она
- должен
- показывать
- продемонстрированы
- показанный
- Шоу
- просто
- отрывок
- So
- Решение
- Решения
- Решение
- Источник
- Источники
- Space
- специализированный
- конкретный
- раскол
- Область
- заявление
- статический
- Статус:
- Шаг
- Шаги
- По-прежнему
- магазин
- хранить
- магазины
- строка
- Структура
- студия
- успешный
- такие
- Поддержка
- цель
- команды
- телеком
- Terraform
- тестXNUMX
- Тестирование
- который
- Ассоциация
- Их
- тогда
- Там.
- Эти
- вещи
- В третьих
- сторонние
- этой
- три
- Через
- время
- в
- наборы инструментов
- топ
- тема
- трек
- Train
- специалистов
- Обучение
- Transform
- вызвать
- срабатывает
- срабатывание
- правда
- Доверие
- ОЧЕРЕДЬ
- два
- ui
- под
- Университет
- Университет Калифорнии
- Обновление ПО
- обновление
- загружено
- URL
- us
- использование
- используемый
- через
- утилита
- Наши ценности
- различный
- версия
- версии
- с помощью
- Видео
- видимый
- Смотреть
- we
- Web
- веб-сервисы
- когда
- когда бы ни
- в то время как
- который
- в то время как
- будете
- в
- без
- Работа
- работавший
- рабочий
- работает
- работает
- записывать
- письменный
- Ты
- ВАШЕ
- YouTube
- зефирнет