Создатель мудреца Амазонки — это полностью управляемый сервис, который позволяет разработчикам и специалистам по обработке данных быстро и легко создавать, обучать и развертывать модели машинного обучения (ML) в любом масштабе. SageMaker упрощает развертывание моделей в рабочей среде напрямую через API-вызовы сервиса. Модели упаковываются в контейнеры для надежного и масштабируемого развертывания. Хотя он предоставляет различные точки входа, такие как SageMaker Python SDK, AWS SDK, консоль SageMaker и Студия Amazon SageMaker ноутбуков, чтобы упростить процесс обучения и развертывания моделей машинного обучения в большом масштабе, клиенты по-прежнему ищут лучшие способы развертывания своих моделей для тестирования на игровой площадке и оптимизации производственного развертывания.
Мы запускаем два новых способа упростить процесс упаковки и развертывания моделей с помощью SageMaker.
В этом посте мы представляем новый SDK SageMaker Python. ModelBuilder
опыт, который направлен на то, чтобы свести к минимуму время обучения для новых пользователей SageMaker, таких как специалисты по обработке данных, а также помочь опытным инженерам MLOps максимально эффективно использовать услуги хостинга SageMaker. Он упрощает первоначальную настройку и развертывание, а также предоставляет рекомендации по использованию всех возможностей SageMaker. Мы предоставляем подробную информацию и примеры GitHub для этой новой возможности SageMaker.
Еще одним нововведением является использование нового интерактивного опыта развертывания в SageMaker Studio. Мы обсуждаем это во второй части.
Развертывание моделей на конечной точке SageMaker включает в себя ряд шагов по подготовке модели к размещению на конечной точке SageMaker. Это включает в себя получение артефактов модели в правильном формате и структуре, создание кода вывода и указание важных деталей, таких как URL-адрес изображения модели. Простой сервис хранения Amazon (Amazon S3) расположение артефактов модели, этапы сериализации и десериализации и необходимые Управление идентификацией и доступом AWS (IAM) для обеспечения соответствующих разрешений доступа. После этого конфигурация конечной точки требует определения типа вывода и настройки соответствующих параметров, таких как типы экземпляров, количество и распределение трафика между вариантами модели.
Чтобы еще больше помочь нашим клиентам при использовании хостинга SageMaker, мы представили новый ModelBuilder
в SageMaker Python SDK, который обеспечивает следующие ключевые преимущества при развертывании моделей на конечных точках SageMaker:
- Унифицирует процесс развертывания в разных платформах. – Новый опыт обеспечивает согласованный рабочий процесс для развертывания моделей, созданных с использованием различных платформ, таких как PyTorch, TensorFlow и XGBoost. Это упрощает процесс развертывания.
- Автоматизирует развертывание модели – Такие задачи, как выбор подходящих контейнеров, захват зависимостей и обработка сериализации/десериализации, автоматизированы, что сокращает количество ручных усилий, необходимых для развертывания.
- Обеспечивает плавный переход от локальной конечной точки к размещенной в SageMaker. – При минимальных изменениях кода модели можно легко перевести из локального тестирования в развертывание на конечной точке SageMaker. Живые журналы упрощают отладку.
В целом, SageMaker ModelBuilder
упрощает и оптимизирует процесс упаковки модели для вывода SageMaker за счет обработки деталей низкого уровня и предоставляет инструменты для тестирования, проверки и оптимизации конечных точек. Это повышает производительность разработчиков и уменьшает количество ошибок.
В следующих разделах мы подробно углубимся в детали этой новой функции. Мы также обсудим, как развертывать модели на хостинге SageMaker с помощью ModelBuilder
, что упрощает процесс. Затем мы познакомим вас с несколькими примерами различных платформ для развертывания как традиционных моделей машинного обучения, так и базовых моделей, обеспечивающих сценарии использования генерирующего искусственного интеллекта.
Знакомство с SageMaker ModelBuilder
Новый ModelBuilder
— это класс Python, ориентированный на использование моделей машинного обучения, созданных с использованием таких платформ, как XGBoost или PyTorch, и преобразование их в модели, готовые к развертыванию в SageMaker. ModelBuilder
обеспечивает build()
функция, которая генерирует артефакты в соответствии с модельным сервером, и deploy()
функция для развертывания локально или на конечной точке SageMaker. Внедрение этой функции упрощает интеграцию моделей со средой SageMaker, оптимизируя их производительность и масштабируемость. На следующей диаграмме показано, как ModelBuilder
работает на высоком уровне.
Класс ModelBuilder
Ассоциация Модельстроитель class предоставляет различные варианты настройки. Однако для развертывания модели платформы построитель модели просто ожидает модель, входные данные, выходные данные и роль:
Строитель схем
Ассоциация Строитель схем class позволяет вам определить входные и выходные данные для вашей конечной точки. Это позволяет разработчику схемы генерировать соответствующие функции маршалинга для сериализации и десериализации входных и выходных данных. Следующий файл класса предоставляет все возможности настройки:
Однако в большинстве случаев сработает только выборочный ввод и вывод. Например:
Предоставляя образец ввода и вывода, SchemaBuilder
может автоматически определять необходимые преобразования, делая процесс интеграции более простым. Для более сложных случаев использования существует возможность предоставления пользовательских функций перевода как для ввода, так и для вывода, гарантируя, что более сложные структуры данных также могут эффективно обрабатываться. Мы продемонстрируем это в следующих разделах, развертывая различные модели с различными платформами, используя ModelBuilder
.
Опыт локального режима
В этом примере мы используем ModelBuilder
для локального развертывания модели XGBoost. Вы можете использовать режим для переключения между локальным тестированием и развертыванием на конечной точке SageMaker. Сначала мы обучаем модель XGBoost (локально или в SageMaker) и сохраняем артефакты модели в рабочем каталоге:
Затем мы создаем объект ModelBuilder, передавая фактический объект модели, SchemaBuilder
который использует образцы тестовых входных и выходных объектов (те же входные и выходные данные, которые мы использовали при обучении и тестировании модели) для вывода необходимой сериализации. Обратите внимание, что мы используем Mode.LOCAL_CONTAINER
чтобы указать локальное развертывание. После этого мы вызываем строить функция для автоматического определения поддерживаемого образа контейнера платформы, а также сканирования зависимостей. См. следующий код:
Наконец, мы можем назвать deploy
функция в объекте модели, которая также обеспечивает ведение журнала в реальном времени для упрощения отладки. Вам не нужно указывать тип или количество экземпляров, поскольку модель будет развернута локально. Если вы предоставили эти параметры, они будут проигнорированы. Эта функция вернет объект-предиктор, который мы можем использовать для прогнозирования на основе тестовых данных:
При желании вы также можете управлять загрузкой модели, предварительной и постобработкой, используя InferenceSpec
. Более подробную информацию мы предоставим позже в этом посте. С использованием LOCAL_CONTAINER
— отличный способ протестировать ваш скрипт локально перед его развертыванием на конечной точке SageMaker.
См. модель-строитель-xgboost.ipynb пример для проверки развертывания как локально, так и на конечной точке SageMaker, используя ModelBuilder
.
Развертывание традиционных моделей на конечных точках SageMaker
В следующих примерах мы покажем, как использовать ModelBuilder
для развертывания традиционных моделей машинного обучения.
Модели XGBoost
Как и в предыдущем разделе, вы можете развернуть модель XGBoost на конечной точке SageMaker, изменив mode
параметр при создании ModelBuilder
объект:
Обратите внимание: при развертывании на конечных точках SageMaker вам необходимо указать тип и количество экземпляров при вызове deploy
функции.
См. модель-строитель-xgboost.ipynb пример развертывания модели XGBoost.
Модели Тритона
Вы можете использовать ModelBuilder
для обслуживания моделей PyTorch на Сервер вывода Triton. Для этого вам необходимо указать model_server
параметр как ModelServer.TRITON
, передать модель и получить SchemaBuilder
объект, для которого требуются образцы входных и выходных данных модели. ModelBuilder позаботится обо всем остальном за вас.
Обратитесь к строитель-модель-triton.ipynb развернуть модель с помощью Triton.
Модели с обнимающими лицами
В этом примере мы покажем вам, как развернуть предварительно обученную модель трансформера, предоставленную Hugging Face, в SageMaker. Мы хотим использовать обнимающее лицо pipeline
для загрузки модели, поэтому мы создаем специальную спецификацию вывода для ModelBuilder
:
Мы также определяем ввод и вывод рабочей нагрузки вывода, определяя SchemaBuilder
объект на основе ввода и вывода модели:
Затем мы создаем ModelBuilder
объект и разверните модель на конечной точке SageMaker, следуя той же логике, что показано в другом примере:
Обратитесь к модель-строитель-huggingface.ipynb для развертывания модели конвейера Hugging Face.
Развертывание базовых моделей на конечных точках SageMaker
В следующих примерах мы покажем, как использовать ModelBuilder
для развертывания моделей фундамента. Как и в случае с моделями, упомянутыми ранее, все, что требуется, — это идентификатор модели.
Обниматься Face Hub
Если вы хотите развернуть базовую модель из Обниматься Face Hub, все, что вам нужно сделать, это передать предварительно обученный идентификатор модели. Например, следующий фрагмент кода развертывает мета-лама/Ллама-2-7b-hf моделировать локально. Вы можете изменить режим на Mode.SAGEMAKER_ENDPOINT
для развертывания на конечных точках SageMaker.
Для закрытых моделей в Hugging Face Hub вам необходимо запросить доступ через Hugging Face Hub и использовать связанный ключ, передав его в качестве переменной среды. HUGGING_FACE_HUB_TOKEN
. Некоторые модели Hugging Face могут требовать доверия к удаленному коду. Его также можно установить как переменную среды, используя HF_TRUST_REMOTE_CODE
, По умолчанию, ModelBuilder
будет использовать вывод генерации текста обнимающего лица (TGI) в качестве базового контейнера для моделей Hugging Face. Если вы хотите использовать вывод больших моделей AWS (LMI) контейнеры, вы можете настроить model_server
параметр как ModelServer.DJL_SERVING
когда вы настраиваете ModelBuilder
объект.
Изящная особенность ModelBuilder
это возможность запускать локальную настройку параметров контейнера при использовании LOCAL_CONTAINER
режим. Эту функцию можно использовать, просто запустив tuned_model = model.tune()
.
Обратитесь к демо-модель-строитель-обнимающее лицо-llama2.ipynb для развертывания модели Hugging Face Hub.
SageMaker JumpStart
Amazon SageMaker JumpStart также предлагает ряд предварительно обученных базовых моделей. Как и при развертывании модели из Hugging Face Hub, требуется идентификатор модели. Развертывание модели SageMaker JumpStart на конечной точке SageMaker так же просто, как запуск следующего кода:
Информацию обо всех доступных идентификаторах моделей SageMaker JumpStart см. Встроенные алгоритмы с предварительно обученной таблицей моделей, Ссылаться на модель-строитель-джампстарт-falcon.ipynb для развертывания модели SageMaker JumpStart.
Компонент вывода
ModelBulder
позволяет использовать новую возможность компонента вывода в SageMaker для развертывания моделей. Дополнительную информацию о компонентах вывода см. Сократите затраты на развертывание модели в среднем на 50 %, используя новейшие функции SageMaker. Вы можете использовать компоненты вывода для развертывания с помощью ModelBuilder
указав endpoint_type=EndpointType.INFERENCE_COMPONENT_BASED
в deploy()
метод. Вы также можете использовать tune()
метод, который выбирает оптимальное количество ускорителей и модифицирует его при необходимости.
Обратитесь к модель-строитель-вывод-компонент.ipynb развернуть модель в качестве компонента вывода.
Настройка класса ModelBuilder
Ассоциация ModelBuilder
класс позволяет вам настроить загрузку модели, используя InferenceSpec
.
Кроме того, вы можете управлять сериализацией и десериализацией полезных данных и ответов, а также настраивать предварительную и постобработку с помощью CustomPayloadTranslator
. Кроме того, если вам нужно расширить наши готовые контейнеры для развертывания модели в SageMaker, вы можете использовать ModelBuilder
управлять процессом упаковки модели. В следующем разделе мы предоставим более подробную информацию об этих возможностях.
Спецификация вывода
Спецификация вывода предлагает дополнительный уровень настройки. Это позволяет вам определить, как загружается модель и как она будет обрабатывать входящие запросы на вывод. Через InferenceSpec
, вы можете определить собственные процедуры загрузки для своих моделей, минуя механизмы загрузки по умолчанию. Эта гибкость особенно полезна при работе с нестандартными моделями или пользовательскими конвейерами вывода. Метод вызова можно настроить, что дает вам возможность настроить обработку входящих запросов моделью (предварительная и постобработка). Эта настройка может быть важна для обеспечения соответствия процесса вывода конкретным потребностям модели. См. следующий код:
Следующий код показывает пример использования этого класса:
CustomPayloadTranslator
При вызове конечных точек SageMaker данные отправляются через полезные данные HTTP с различными типами MIME. Например, изображение, отправленное в конечную точку для вывода, необходимо преобразовать в байты на стороне клиента и отправить через полезную нагрузку HTTP в конечную точку. Когда конечная точка получает полезную нагрузку, ей необходимо десериализовать строку байтов обратно к типу данных, ожидаемому моделью (также известному как десериализация на стороне сервера). После того как модель завершит прогнозирование, результаты необходимо сериализовать в байты, которые можно будет отправить обратно через полезную нагрузку HTTP пользователю или клиенту. Когда клиент получает байтовые данные ответа, ему необходимо выполнить десериализацию на стороне клиента, чтобы преобразовать байтовые данные обратно в ожидаемый формат данных, например JSON. Минимум, вам необходимо преобразовать данные для следующих (как пронумеровано на следующей схеме):
- Сериализация запроса на вывод (обрабатывается клиентом)
- Десериализация запроса вывода (обрабатывается сервером или алгоритмом)
- Вызов модели для полезной нагрузки
- Отправка полезных данных ответа обратно
- Сериализация ответа на вывод (обслуживается сервером или алгоритмом)
- Десериализация ответа на вывод (осуществляется клиентом)
На следующей диаграмме показан процесс сериализации и десериализации во время процесса вызова.
В следующем фрагменте кода мы покажем пример CustomPayloadTranslator
когда необходима дополнительная настройка для обработки сериализации и десериализации на стороне клиента и сервера соответственно:
В демо-модель-строитель-pytorch.ipynb блокноте мы демонстрируем, как легко развернуть модель PyTorch на конечной точке SageMaker с помощью ModelBuilder
с CustomPayloadTranslator
и InferenceSpec
класса.
Этапная модель для развертывания
Если вы хотите подготовить модель для вывода или в реестре модели, вы можете использовать model.create()
or model.register()
. Включенная модель создается в службе, а затем ее можно развернуть позже. См. следующий код:
Используйте пользовательские контейнеры
SageMaker предоставляет готовые образы Docker за встроенные алгоритмы и поддерживаемые структуры глубокого обучения, используемые для обучения и вывода. Если готовый контейнер SageMaker не соответствует всем вашим требованиям, вы можете расширить существующий образ в соответствии со своими потребностями. Расширяя предварительно созданный образ, вы можете использовать включенные библиотеки и настройки глубокого обучения без необходимости создавать образ с нуля. Дополнительные сведения о расширении готовых контейнеров см. в документе SageMaker. ModelBuilder
поддерживает варианты использования при использовании собственных контейнеров, расширенных из наших готовых контейнеров Docker.
Чтобы использовать собственный образ контейнера в этом случае, вам необходимо задать поля image_uri
и model_server
при определении ModelBuilder
:
Здесь image_uri
будет образ контейнера ARN, который хранится в вашей учетной записи. Реестр Amazon Elastic Container (Amazon ECR). Репозиторий. Один из примеров показан следующим образом:
Когда image_uri
устанавливается, во время ModelBuilder
В процессе сборки он пропустит автоматическое обнаружение изображения, поскольку указан URI изображения. Если model_server
не установлен в ModelBuilder, вы получите сообщение об ошибке проверки, например:
На момент публикации этого поста ModelBuilder
поддерживает доставку собственных контейнеров, расширенных из наших готовые образы контейнеров DLC или контейнеры, созданные с использованием серверов моделей, например Библиотека Deep Java (DJL), Вывод генерации текста (TGI), ФакелСервироватьи Сервер вывода Triton.
Пользовательские зависимости
При запуске ModelBuilder.build()
, по умолчанию он автоматически записывает вашу среду Python в requirements.txt
файл и устанавливает ту же зависимость в контейнер. Однако иногда ваша локальная среда Python будет конфликтовать со средой в контейнере. ModelBuilder
предоставляет вам простой способ изменить захваченные зависимости для устранения таких конфликтов зависимостей, позволяя вам предоставлять свои собственные конфигурации в ModelBuilder
. Обратите внимание, что это касается только TorchServe и Triton с InferenceSpec
. Например, вы можете указать зависимости входных параметров, которые представляют собой словарь Python, в ModelBuilder следующим образом:
Мы определяем следующие поля:
- автоматический – Стоит ли пытаться автоматически фиксировать зависимости в вашей среде.
- большого города, — Строка пути к своему
requirements.txt
файл. (Это необязательно.) - изготовленный на заказ – Список любых других пользовательских зависимостей, которые вы хотите добавить или изменить. (Это необязательно.)
Если один и тот же модуль указан в нескольких местах, custom
будет иметь наивысший приоритет, тогда requirements
и auto
будет иметь наименьший приоритет. Например, предположим, что во время автоопределения ModelBuilder
детектирует numpy==1.25
И requirements.txt
предоставляется файл, который определяет numpy>=1.24,<1.26
. Кроме того, существует пользовательская зависимость: custom = ["numpy==1.26.1"]
, В этом случае, numpy==1.26.1
будет выбран, когда мы установим зависимости в контейнер.
Убирать
Когда вы закончите тестирование моделей, рекомендуется удалить конечную точку, чтобы сэкономить средства, если конечная точка больше не требуется. Вы можете следить за Убирать раздел в каждой демонстрационной записной книжке или используйте следующий код, чтобы удалить модель и конечную точку, созданную демонстрацией:
Заключение
Новая возможность SageMaker ModelBuilder упрощает процесс развертывания моделей машинного обучения в рабочей среде SageMaker. Обрабатывая многие сложные детали за кулисами, ModelBuilder сокращает время обучения для новых пользователей и максимально повышает эффективность использования для опытных пользователей. Всего с помощью нескольких строк кода вы можете развернуть модели со встроенными платформами, такими как XGBoost, PyTorch, Triton и Hugging Face, а также модели, предоставленные SageMaker JumpStart, в надежные, масштабируемые конечные точки в SageMaker.
Мы призываем всех пользователей SageMaker опробовать эту новую возможность, обратившись к Модельстроитель страница документации. ModelBuilder теперь доступен всем пользователям SageMaker без дополнительной оплаты. Воспользуйтесь преимуществами этого упрощенного рабочего процесса, чтобы ускорить развертывание ваших моделей. Мы с нетерпением ждем возможности услышать, как ModelBuilder ускоряет жизненный цикл разработки вашей модели!
Особая благодарность Сирише Упадхьяяле, Раймонду Лю, Гэри Вангу, Дхавалу Пателю, Дипаку Гаргу и Раму Вегираджу.
Об авторах
Мелани Ли, доктор философии, является старшим специалистом по искусственному интеллекту и машинному обучению TAM в AWS, базирующейся в Сиднее, Австралия. Она помогает корпоративным клиентам создавать решения с использованием передовых инструментов искусственного интеллекта и машинного обучения в AWS, а также предоставляет рекомендации по разработке и внедрению решений машинного обучения с учетом передового опыта. В свободное время она любит исследовать природу и проводить время с семьей и друзьями.
Марк Карп является архитектором машинного обучения в команде Amazon SageMaker Service. Он фокусируется на помощи клиентам в проектировании, развертывании и управлении рабочими нагрузками машинного обучения в любом масштабе. В свободное время он любит путешествовать и исследовать новые места.
Сэм Эдвардс— облачный инженер (AI/ML) в AWS Sydney, специализирующийся на машинном обучении и Amazon SageMaker. Он с энтузиазмом помогает клиентам решать проблемы, связанные с рабочими процессами машинного обучения, и создавать для них новые решения. Вне работы он любит заниматься ракетным спортом и путешествовать.
Рагху Рамеша — старший архитектор решений машинного обучения в сервисной команде Amazon SageMaker. Он специализируется на оказании помощи клиентам в создании, развертывании и переносе рабочих нагрузок машинного обучения на SageMaker в любом масштабе. Он специализируется на машинном обучении, искусственном интеллекте и компьютерном зрении и имеет степень магистра компьютерных наук в Университете Техаса в Далласе. В свободное время увлекается путешествиями и фотографией.
Шива Радж Котини работает главным менеджером по продукту в портфеле продуктов логического вывода Amazon SageMaker. Он занимается развертыванием моделей, настройкой производительности и оптимизацией в SageMaker для получения логических выводов.
Мохан Ганди является старшим инженером-программистом в AWS. Он работает с AWS последние 10 лет и работал над различными сервисами AWS, такими как EMR, EFA и RDS. В настоящее время он сосредоточен на улучшении SageMaker Inference Experience. В свободное время любит пешие прогулки и марафоны.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://aws.amazon.com/blogs/machine-learning/package-and-deploy-classical-ml-and-llms-easily-with-amazon-sagemaker-part-1-pysdk-improvements/
- :имеет
- :является
- :нет
- :куда
- $UP
- 1
- 10
- 100
- 11
- 114
- 12
- 125
- 13
- 14
- 15%
- 16
- 17
- 20
- 24
- 26%
- 7
- 8
- 9
- a
- азбука
- способность
- О нас
- ускоряет
- ускорители
- доступ
- вмещать
- По
- через
- фактического соединения
- Добавить
- дополнение
- дополнительный
- Дополнительно
- продвинутый
- плюс
- После
- против
- AI
- варианты использования ИИ
- AI / ML
- Цель
- алгоритм
- алгоритмы
- Выравнивает
- Все
- Позволяющий
- позволяет
- причислены
- Несмотря на то, что
- Amazon
- Создатель мудреца Амазонки
- Amazon Web Services
- среди
- an
- и
- любой
- API
- соответствующий
- МЫ
- AS
- связанный
- At
- Австралия
- автоматический
- Автоматизированный
- автоматически
- доступен
- в среднем
- AWS
- назад
- основанный
- BE
- , так как:
- было
- до
- за
- за кулисами
- полезный
- Преимущества
- ЛУЧШЕЕ
- лучшие практики
- Лучшая
- между
- изоферменты печени
- Приведение
- Приносит
- строить
- строитель
- построенный
- встроенный
- by
- призывают
- вызова
- Объявления
- CAN
- возможности
- возможности
- захватить
- захваченный
- перехватывает
- Захват
- заботится
- случаев
- случаев
- изменение
- изменения
- изменения
- заряд
- выбор
- класс
- клиент
- облако
- код
- комментарий
- комплекс
- сложность
- компонент
- компоненты
- компьютер
- Информатика
- Компьютерное зрение
- Конфигурация
- настройка
- конфликт
- конфликты
- последовательный
- Консоли
- Container
- Контейнеры
- контроль
- конвертировать
- переделанный
- преобразование
- исправить
- соответствующий
- Расходы
- Создайте
- создали
- Создающий
- В настоящее время
- кривая
- изготовленный на заказ
- Клиенты
- настройка
- настроить
- подгонянный
- Dallas
- данным
- глубоко
- глубокое погружение
- глубокое обучение
- Дипак
- По умолчанию
- определять
- Определяет
- определяющий
- Степень
- демонстрация
- демонстрировать
- Зависимости
- Зависимость
- развертывание
- развернуть
- развертывание
- развертывание
- развертывания
- развертывает
- Проект
- подробный
- подробнее
- обнаружение
- Определять
- определения
- Застройщик
- застройщиков
- Развитие
- различный
- непосредственно
- обсуждать
- распределение
- погружение
- do
- Docker
- документ
- документации
- не
- доменов
- сделанный
- Dont
- в течение
- каждый
- Ранее
- легче
- легко
- эффективно
- усилие
- легко
- включен
- позволяет
- поощрять
- Конечная точка
- инженер
- Инженеры
- обеспечивать
- обеспечение
- Предприятие
- запись
- Окружающая среда
- ошибка
- ошибки
- существенный
- пример
- Примеры
- существующий
- ожидаемый
- надеется
- опыт
- опытные
- Больше
- Исследование
- продлить
- простирающийся
- Face
- содействовал
- семья
- быстрее
- Особенность
- несколько
- Поля
- Файл
- Во-первых,
- фиксированный
- Трансформируемость
- внимание
- фокусируется
- следовать
- после
- следующим образом
- Что касается
- формат
- вперед
- Год основания
- Рамки
- каркасы
- Бесплатно
- друзья
- от
- Выполнять
- полный
- полностью
- функция
- Функции
- далее
- Garg
- Гэри
- Гэри Ван
- коттеджный
- порождать
- генерирует
- поколение
- генеративный
- Генеративный ИИ
- получить
- получающий
- GitHub
- будет
- большой
- руководство
- обрабатывать
- Управляемость
- происходит
- Есть
- имеющий
- he
- слух
- помощь
- помощь
- помогает
- ее
- на высшем уровне
- наивысший
- его
- имеет
- состоялся
- хостинг
- услуги хостинга
- Как
- How To
- Однако
- HTML
- HTTP
- HTTPS
- хаб
- ID
- определения
- Личность
- идентификаторы
- if
- изображение
- Осуществляющий
- Импортировать
- улучшение
- улучшается
- улучшение
- in
- включены
- Входящий
- информация
- начальный
- вход
- затраты
- устанавливать
- пример
- интеграции.
- интерактивный
- в
- вводить
- выпустили
- Введение
- вызывается
- вопросы
- IT
- ЕГО
- Java
- JPG
- JSON
- всего
- Основные
- Знать
- известный
- большой
- Фамилия
- новее
- последний
- запуск
- запуск
- слой
- изучение
- библиотеки
- Библиотека
- такое как
- линий
- Список
- жить
- Лама
- загрузка
- погрузка
- локальным
- в местном масштабе
- расположение
- каротаж
- логика
- дольше
- посмотреть
- искать
- любит
- низший
- машина
- обучение с помощью машины
- сделать
- ДЕЛАЕТ
- Создание
- управлять
- управляемого
- менеджер
- руководство
- многих
- магистра
- Максимизировать
- максимизирует
- Май..
- механизмы
- Память
- упомянутый
- сообщение
- метод
- мигрировать
- минимальный
- минимальный
- ML
- млн операций в секунду
- режим
- модель
- Модели
- изменять
- Модули
- БОЛЕЕ
- самых
- с разными
- должен
- природа
- необходимо
- Необходимость
- необходимый
- потребности
- Новые
- новые пользователи
- нет
- Ничто
- в своих размышлениях
- ноутбук
- сейчас
- номер
- нумерованный
- объект
- объекты
- of
- Предложения
- on
- ONE
- только
- на
- оптимальный
- оптимизация
- Оптимизировать
- оптимизирующий
- Опции
- or
- Другое
- наши
- внешний
- выходной
- выходы
- внешнюю
- собственный
- пакет
- в упаковке
- коробок
- страница
- параметр
- параметры
- часть
- особенно
- pass
- Прохождение
- страстный
- путь
- Выполнять
- производительность
- Разрешения
- личного
- кандидат наук
- фотография
- взял
- трубопровод
- Мест
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- детская площадка
- игры
- пунктов
- «портфель»
- После
- мощностью
- практика
- практиками
- предсказывать
- прогноз
- Predictor
- предыдущий
- Основной
- приоритет
- Процедуры
- процесс
- Процессы
- Продукт
- Менеджер по продукции
- Производство
- производительность
- обеспечивать
- при условии
- приводит
- обеспечение
- Публикация
- толкнул
- Питон
- pytorch
- быстро
- Оперативная память
- готовый
- Получать
- получает
- снижает
- снижение
- относиться
- реестра
- Связанный
- удаленные
- хранилище
- запросить
- Запросы
- требовать
- обязательный
- Требования
- требуется
- те
- соответственно
- ответ
- ОТДЫХ
- Итоги
- возвращают
- надежный
- Роли
- роли
- Run
- Бег
- sagemaker
- Вывод SageMaker
- то же
- Сохранить
- сохраняются
- сообщили
- Масштабируемость
- масштабируемые
- Шкала
- сканирование
- Сцены
- Наука
- Ученые
- поцарапать
- скрипт
- SDK
- SDKS
- бесшовные
- Раздел
- разделах
- посмотреть
- выберите
- выбор
- SELF
- старший
- послать
- Серии
- служить
- сервер
- Серверы
- обслуживание
- Услуги
- набор
- настройки
- установка
- она
- показывать
- демонстрации
- показанный
- Шоу
- сторона
- просто
- упрощенный
- упрощает
- упростить
- просто
- сгладить
- отрывок
- So
- Software
- Инженер-программист
- Решения
- РЕШАТЬ
- некоторые
- иногда
- специалист
- специализированный
- специализируется
- конкретный
- указанный
- тратить
- Спорт
- Этап
- современное состояние
- Шаги
- По-прежнему
- диск
- магазин
- хранить
- простой
- поток
- тока
- строка
- Структура
- структур
- студия
- такие
- Поддержанный
- Поддержка
- Коммутатор
- Сидней
- портной
- взять
- с
- задачи
- команда
- tensorflow
- тестXNUMX
- Тестирование
- текст
- Спасибо
- который
- Ассоциация
- их
- Их
- тогда
- Там.
- Эти
- они
- этой
- Через
- время
- в
- знак
- инструменты
- традиционный
- трафик
- Train
- Обучение
- преобразований
- трансформатор
- переход
- переход
- Переводы
- Путешествие
- Тритон
- правда
- доверие
- стараться
- настройка
- два
- напишите
- Типы
- лежащий в основе
- URL
- использование
- используемый
- Информация о пользователе
- пользователей
- использования
- через
- Проверка
- ценностное
- переменная
- различный
- с помощью
- видение
- от
- хотеть
- Путь..
- способы
- we
- Web
- веб-сервисы
- ЧТО Ж
- когда
- будь то
- который
- в то время как
- будете
- без
- Работа
- работавший
- рабочий
- Рабочие процессы
- работает
- работает
- бы
- XGBoost
- лет
- Ты
- ВАШЕ
- зефирнет