PyTorch — это платформа машинного обучения (ML), которая широко используется клиентами AWS для различных приложений, таких как компьютерное зрение, обработка естественного языка, создание контента и многое другое. Благодаря недавнему выпуску PyTorch 2.0 клиенты AWS теперь могут делать то же самое, что и с PyTorch 1.x, но быстрее и масштабируемее благодаря повышенной скорости обучения, меньшему использованию памяти и расширенным распределенным возможностям. В выпуск PyTorch2.0 было включено несколько новых технологий, включая torch.compile, TorchDynamo, AOTAutograd, PrimTorch и TorchInductor. Ссылаться на PyTorch 2.0: наш выпуск следующего поколения, который быстрее, более Pythonic и динамичнее, чем когда-либо. для получения информации.
В этом посте демонстрируется производительность и простота выполнения крупномасштабного высокопроизводительного обучения и развертывания модели распределенного машинного обучения с использованием PyTorch 2.0 на AWS. В этом посте далее рассматривается пошаговая реализация тонкой настройки модели RoBERTa (надежно оптимизированный подход к предварительному обучению BERT) для анализа настроений с использованием AMI для глубокого обучения AWS (АВС ДЛАМИ) и Контейнеры глубокого обучения AWS (DLC) на Эластичное вычислительное облако Amazon (Amazon EC2 p4d.24xlarge) с наблюдаемым ускорением на 42% при использовании с PyTorch 2.0 torch.compile + bf16 + fused AdamW. Затем отлаженная модель развертывается на АМС Гравитонэкземпляр C7g EC2 на базе Создатель мудреца Амазонки с наблюдаемым ускорением на 10% по сравнению с PyTorch 1.13.
На следующем рисунке показан тест производительности тонкой настройки модели RoBERTa на Amazon EC2 p4d.24xlarge с AWS PyTorch 2.0 DLAMI + DLC.
Обратитесь к Оптимизированный логический вывод PyTorch 2.0 с процессорами AWS Graviton для получения подробной информации об эталонных тестах производительности инстансов на основе AWS Graviton для PyTorch 2.0.
Поддержка PyTorch 2.0 на AWS
Поддержка PyTorch2.0 не ограничивается службами и вычислениями, показанными в примере использования в этом посте; он распространяется на многие другие на AWS, которые мы обсуждаем в этом разделе.
Деловое требование
Многие клиенты AWS в самых разных отраслях трансформируют свой бизнес с помощью искусственного интеллекта (ИИ), особенно в области генеративного ИИ и больших языковых моделей (LLM), предназначенных для создания текста, похожего на человеческий. Это в основном большие модели, основанные на методах глубокого обучения, которые обучаются сотням миллиардов параметров. Рост размеров моделей увеличивает время обучения с дней до недель, а в некоторых случаях даже месяцев. Это приводит к экспоненциальному увеличению затрат на обучение и логические выводы, что требует более чем когда-либо такой платформы, как PyTorch 2.0 со встроенной поддержкой ускоренного обучения моделей и оптимизированной инфраструктуры AWS, адаптированной к конкретным рабочим нагрузкам и потребностям в производительности.
Выбор вычислений
AWS предоставляет поддержку PyTorch 2.0 с широчайшим выбором мощных вычислительных ресурсов, высокоскоростных сетей и масштабируемых высокопроизводительных хранилищ, которые можно использовать для любого проекта или приложения машинного обучения и настраивать в соответствии с требованиями к производительности и бюджету. Это показано на диаграмме в следующем разделе; на нижнем уровне мы предоставляем широкий выбор вычислительных инстансов на базе процессоров AWS Graviton, Nvidia, AMD и Intel.
Для развертывания модели вы можете использовать процессоры на базе ARM, такие как недавно анонсированный экземпляр на базе AWS Graviton, который обеспечивает производительность логического вывода для PyTorch 2.0 со скоростью до 3.5 раз выше для Resnet50 по сравнению с предыдущим выпуском PyTorch и до 1.4 раза выше. скорость для BERT, что делает инстансы на базе AWS Graviton самыми быстрыми инстансами, оптимизированными для вычислений, на AWS для решений логического вывода моделей на базе ЦП.
Выбор ML-сервисов
Чтобы использовать вычисления AWS, вы можете выбрать из широкого набора глобальных облачных сервисов для разработки машинного обучения, вычислений и оркестровки рабочих процессов. Этот выбор позволяет вам согласовать свои бизнес-стратегии и облачные стратегии и выполнять задания PyTorch 2.0 на платформе по вашему выбору. Например, если у вас есть локальные ограничения или инвестиции в продукты с открытым исходным кодом, вы можете использовать Amazon EC2, Параллельный кластер AWSили Ультракластер AWS для запуска распределенных учебных рабочих нагрузок на основе самоуправляемого подхода. Вы также можете использовать полностью управляемый сервис, такой как SageMaker, для оптимизированной по стоимости, полностью управляемой и масштабируемой инфраструктуры обучения. SageMaker также интегрируется с различными инструментами MLOps, что позволяет масштабировать развертывание модели, снижать затраты на логические выводы, более эффективно управлять моделями в производстве и снижать эксплуатационную нагрузку.
Точно так же, если у вас уже есть инвестиции в Kubernetes, вы также можете использовать Амазон Эластик Кубернетес Сервис (Амазон ЭКС) и Kubeflow на AWS реализовать конвейер машинного обучения для распределенного обучения или использовать встроенный в AWS сервис оркестровки контейнеров, например Amazon Elastic Контейнерный Сервис (Amazon ECS) для обучения и развертывания моделей. Варианты создания вашей платформы машинного обучения не ограничиваются этими услугами; вы можете выбирать в зависимости от ваших организационных требований для ваших заданий PyTorch 2.0.
Включение PyTorch 2.0 с помощью AWS DLAMI и AWS DLC
Чтобы использовать вышеупомянутый стек сервисов AWS и мощные вычислительные ресурсы, вам необходимо установить оптимизированную скомпилированную версию платформы PyTorch2.0 и ее необходимых зависимостей, многие из которых являются независимыми проектами, и протестировать их от начала до конца. Вам также могут понадобиться библиотеки, специфичные для процессора, для ускоренных математических процедур, библиотеки, специфичные для графического процессора, для ускоренных математических операций и процедур связи между графическими процессорами, а также драйверы графического процессора, которые необходимо согласовать с компилятором графического процессора, используемым для компиляции библиотек графического процессора. Если ваша работа требует крупномасштабного многоузлового обучения, вам нужна оптимизированная сеть, обеспечивающая минимальную задержку и максимальную пропускную способность. После того, как вы создадите свой стек, вам необходимо регулярно сканировать и исправлять уязвимости безопасности, а также перестраивать и повторно тестировать стек после каждого обновления версии фреймворка.
AWS помогает облегчить эту тяжелую работу, предлагая проверенный и безопасный набор платформ, зависимостей и инструментов для ускорения глубокого обучения в облаке. DLAMI AWS и Дополнения AWS. Эти предварительно созданные и протестированные образы машин и контейнеры оптимизированы для глубокого изучения типов экземпляров EC2 Accelerated Computing, что позволяет более эффективно и легко выполнять масштабирование до нескольких узлов для распределенных рабочих нагрузок. Он включает в себя предварительно построенный Эластичный тканевый адаптер (EFA), стек Nvidia GPU и множество сред глубокого обучения (TensorFlow, MXNet и PyTorch с последней версией 2.0) для высокопроизводительного распределенного обучения глубокому обучению. Вам не нужно тратить время на установку и устранение неполадок программного обеспечения и драйверов для глубокого обучения или создание инфраструктуры машинного обучения, а также вам не нужно нести текущие расходы на исправление этих образов для устранения уязвимостей в системе безопасности или повторное создание образов после каждого обновления новой версии платформы. Вместо этого вы можете сосредоточиться на дополнительных усилиях по обучению заданий в масштабе за более короткий промежуток времени и более быстрому повторению своих моделей машинного обучения.
Обзор решения
Учитывая, что обучение на GPU и вывод на CPU — популярный вариант использования для клиентов AWS, мы включили в этот пост пошаговую реализацию гибридной архитектуры (как показано на следующей диаграмме). Мы изучим искусство возможного и используем экземпляр P4 EC2 с поддержкой BF16, инициализированный с DLAMI базового графического процессора, включая драйверы NVIDIA, CUDA, NCCL, стек EFA и DLC PyTorch2.0 для точной настройки модели анализа настроений RoBERTa. это дает вам контроль и гибкость для использования любых библиотек с открытым исходным кодом или проприетарных библиотек. Затем мы используем SageMaker для полностью управляемой инфраструктуры размещения моделей, чтобы разместить нашу модель на платформе AWS Graviton3. Экземпляры C7g. Мы выбрали C7g для SageMaker, потому что доказано, что он снижает затраты на логические выводы до 50 % по сравнению с сопоставимыми инстансами EC2 для вывод в реальном времени на Sage Maker. Следующая диаграмма иллюстрирует эту архитектуру.
Обучение и размещение модели в этом варианте использования состоит из следующих шагов:
- Запустите инстанс EC2 Ubuntu на базе графического процессора DLAMI в своем VPC и подключитесь к инстансу с помощью SSH.
- После входа в инстанс EC2 загрузите загружаемый контент AWS PyTorch 2.0.
- Запустите контейнер DLC со сценарием обучения модели, чтобы точно настроить модель RoBERTa.
- После завершения обучения модели упакуйте сохраненную модель, сценарии вывода и несколько файлов метаданных в tar-файл, который можно использовать для вывода SageMaker, и загрузите пакет модели в Простой сервис хранения Amazon (Amazon S3) ведро.
- Разверните модель с помощью SageMaker и создайте конечную точку вывода HTTPS. Конечная точка вывода SageMaker содержит балансировщик нагрузки и один или несколько экземпляров контейнера вывода в разных зонах доступности. Вы можете развернуть как несколько версий одной и той же модели, так и совершенно разные модели за этой единственной конечной точкой. В этом примере мы размещаем одну модель.
- Вызовите конечную точку модели, отправив ей тестовые данные и проверив выходные данные.
В следующих разделах мы продемонстрируем тонкую настройку модели RoBERTa для анализа настроений. RoBERTa разработан Facebook AI, улучшая популярную модель BERT путем изменения ключевых гиперпараметров и предварительного обучения на более крупном корпусе. Это приводит к повышению производительности по сравнению с ванильным BERT.
Мы используем трансформеры библиотека от Hugging Face, чтобы предварительно обучить модель RoBERTa примерно на 124 миллионах твитов, и мы настраиваем ее на наборе данных Twitter для анализа настроений.
Предпосылки
Убедитесь, что вы соответствуете следующим требованиям:
- У вас есть Аккаунт AWS.
- Убедитесь, что вы в
us-west-2
Регион для запуска этого примера. (Этот пример проверен вus-west-2
; однако вы можете участвовать в любом другом регионе.) - Создать роль с именем
sagemakerrole
. Добавить управляемые политикиAmazonSageMakerFullAccess
иAmazonS3FullAccess
чтобы предоставить SageMaker доступ к корзинам S3. - Создайте роль EC2 с именем
ec2_role
. Используйте следующую политику разрешений:
1. Запустите свой экземпляр разработки
Мы создаем экземпляр p4d.24xlarge, который предлагает 8 графических процессоров NVIDIA A100 с тензорными ядрами в us-west-2
:
При выборе AMI следуйте выпуск для запуска этой команды с помощью Интерфейс командной строки AWS (AWS CLI), чтобы найти идентификатор AMI для использования в us-west-2
:
Убедитесь, что размер корневого тома gp3 составляет 200 ГБ.
Шифрование тома EBS не включено по умолчанию. Подумайте об изменении этого при переносе этого решения в рабочую среду.
2. Загрузите контейнер для глубокого обучения
Дополнения AWS доступны в виде образов Docker в Общедоступный реестр эластичных контейнеров Amazon, безопасный, масштабируемый и надежный управляемый сервис реестра образов контейнеров AWS. Каждый образ Docker создан для обучения или получения выводов по конкретной версии платформы глубокого обучения, версии Python с поддержкой ЦП или ГП. Выберите фреймворк PyTorch 2.0 из списка доступных Образы контейнеров глубокого обучения.
Выполните следующие шаги, чтобы загрузить DLC:
а. SSH к экземпляру. По умолчанию группа безопасности, используемая с EC2, открывает порт SSH для всех. Учтите это, если вы перемещаете это решение в производство:
По умолчанию группа безопасности, используемая с Amazon EC2, открывает порт SSH для всех. Рассмотрите возможность изменения этого параметра, если вы перемещаете это решение в рабочую среду.
б. Установите переменные среды, необходимые для выполнения оставшихся шагов этой реализации:
Amazon ECR поддерживает общедоступные репозитории образов с разрешениями на основе ресурсов, используя Управление идентификацией и доступом AWS (IAM), чтобы определенные пользователи или службы могли получать доступ к изображениям.
в. Войдите в реестр DLC:
д. Получите последний контейнер PyTorch 2.0 с поддержкой графического процессора в us-west-2
Если вы получаете сообщение об ошибке «Нет свободного места на устройстве», убедитесь, что вы недавнее увеличение том EC2 EBS до 200 ГиБ, а затем продлить файловая система Линукс.
3. Клонируйте последние скрипты, адаптированные к PyTorch 2.0.
Клонируйте скрипты со следующим кодом:
Поскольку мы используем API-интерфейс трансформеров Hugging Face с последней версией 4.28.1, в нем уже включена поддержка PyTorch 2.0. Мы добавили следующий аргумент в API тренера в train_sentiment.py
чтобы включить новые функции PyTorch 2.0:
- Сборка факела - Испытайте ускорение в среднем на 43% на графических процессорах Nvidia A100 с одной строкой изменений.
- Тип данных BF16 - Поддержка нового типа данных (Brain Floating Point) для Ampere или более новых графических процессоров.
- Плавленый оптимизатор AdamW - Реализация слитого AdamW для дальнейшего ускорения обучения. Этот метод стохастической оптимизации изменяет типичную реализацию уменьшения веса в Адаме, отделяя уменьшение веса от обновления градиента.
4. Создайте новый образ Docker с зависимостями
Мы расширяем предварительно созданный образ PyTorch 2.0 DLC, чтобы установить преобразователь Hugging Face и другие библиотеки, которые нам нужны для точной настройки нашей модели. Это позволяет вам использовать включенные протестированные и оптимизированные библиотеки и настройки глубокого обучения без необходимости создавать образ с нуля. См. следующий код:
5. Начните тренироваться с контейнером
Запустите следующую команду Docker, чтобы начать точную настройку модели на tweet_eval
набор данных о настроениях. Мы используем аргументы контейнера Docker (размер общей памяти, максимальный объем заблокированной памяти и размер стека). рекомендует Nvidia для рабочих нагрузок глубокого обучения.
Вы должны ожидать следующий вывод. Скрипт сначала загружает набор данных TweetEval, который состоит из семи разнородных задач в Твиттере, и все они оформлены как мультиклассовая классификация твитов. Задания включают иронию, ненависть, оскорбление, позицию, смайлики, эмоции и чувства.
Затем скрипт загружает базовую модель и запускает процесс тонкой настройки. Показатели обучения и оценки сообщаются в конце каждой эпохи.
Статистика производительности
С PyTorch 2.0 и новейшей библиотекой преобразователей Hugging Face 4.28.1 мы наблюдали ускорение на 42 % на одном экземпляре p4d.24xlarge с 8 графическими процессорами A100 40 ГБ. Повышение производительности достигается за счет комбинации torch.compile, типа данных BF16 и объединенного оптимизатора AdamW. Следующий код является окончательным результатом двух тренировочных прогонов с новыми функциями и без них:
6. Протестируйте обученную модель локально перед подготовкой к выводу SageMaker.
Вы можете найти следующие файлы в разделе $ml_working_dir/saved_model/
после тренировки:
Прежде чем готовиться к выводу SageMaker, убедитесь, что мы можем запустить логический вывод локально. Мы можем загрузить сохраненную модель и выполнить вывод локально, используя test_trained_model.py
сценарий:
Вы должны ожидать следующий вывод с вводом «Случаи Covid быстро растут!»:
7. Подготовьте архив модели для вывода SageMaker.
В каталоге, где находится модель, создайте новый каталог с именем code
:
В новом каталоге создайте файл inference.py
и добавьте к нему следующее:
В итоге у вас должна получиться следующая структура папок:
Модель готова к упаковке и загрузке в Amazon S3 для использования с выводом SageMaker:
8. Разверните модель на экземпляре SageMaker AWS Graviton.
ЦП нового поколения предлагают значительное повышение производительности при выводе ML благодаря специализированным встроенным инструкциям. В этом случае мы используем полностью управляемую инфраструктуру хостинга SageMaker с экземплярами C3g на базе AWS Graviton7. AWS также зафиксировала экономию до 50 % на инференсе PyTorch с инстансами EC3 C2g на базе AWS Graviton7 в Torch Hub ResNet50 и несколькими моделями Hugging Face по сравнению с сопоставимыми инстансами EC2.
Для развертывания моделей в инстансах AWS Graviton мы используем DLC AWS, которые обеспечивают поддержку PyTorch 2.0 и TorchServe 0.8.0, или вы можете привозите свои контейнеры которые совместимы с архитектурой ARMv8.2.
Мы используем модель, которую мы обучили ранее: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Если вы еще не использовали SageMaker, ознакомьтесь с Начать работу с Amazon SageMaker.
Для начала убедитесь, что пакет SageMaker обновлен:
Поскольку это пример, создайте файл с именем start_endpoint.py
и добавьте следующий код. Это будет скрипт Python для запуска конечной точки вывода SageMaker с режимом:
Мы используем ml.c7g.4xlarge для экземпляра и получаем PT 2.0 с областью изображения. inference_graviton
. Это наш экземпляр AWS Graviton3.
Затем мы создаем файл, который запускает прогноз. Мы делаем это как отдельные сценарии, чтобы мы могли запускать прогнозы столько раз, сколько захотим. Создавать predict.py
со следующим кодом:
Теперь, когда сгенерированы сценарии, мы можем запустить конечную точку, делать прогнозы относительно конечной точки и очищать, когда закончим:
9. Очистить
Наконец, мы хотим очистить этот пример. Создайте cleanup.py и добавьте следующий код:
Заключение
DLAMI и DLC AWS стали стандартом для запуска рабочих нагрузок глубокого обучения на широком спектре вычислительных и машинных сервисов в AWS. Помимо использования DLC для конкретных платформ в сервисах AWS ML, вы также можете использовать единую платформу в Amazon EC2, что избавляет разработчиков от тяжелой работы, необходимой для создания и поддержки приложений глубокого обучения. Ссылаться на Примечания к выпуску для DLAMI и Доступные образы контейнеров глубокого обучения чтобы начать работу.
В этом посте показана одна из многих возможностей для обучения и обслуживания вашей следующей модели на AWS, а также обсуждено несколько форматов, которые вы можете использовать для достижения своих бизнес-целей. Попробуйте этот пример или воспользуйтесь другими нашими сервисами AWS ML, чтобы повысить производительность данных для вашего бизнеса. Мы включили простую задачу анализа настроений, чтобы клиенты, не знакомые с ML, могли понять, насколько просто начать работу с PyTorch 2.0 на AWS. В следующих сообщениях блога мы расскажем о более продвинутых вариантах использования, моделях и технологиях AWS.
Об авторах
Канвалджит Хурми является главным архитектором решений в Amazon Web Services. Он работает с клиентами AWS, предоставляя рекомендации и техническую помощь, помогая им повысить ценность своих решений при использовании AWS. Kanwaljit специализируется на помощи клиентам с контейнерными приложениями и приложениями машинного обучения.
Майк Шнайдер является системным разработчиком из Феникса, Аризона. Он является членом контейнеров Deep Learning, поддерживающих различные образы контейнеров Framework, включая Graviton Inference. Он занимается вопросами эффективности и стабильности инфраструктуры.
Лай Вэй является старшим инженером-программистом в Amazon Web Services. Он сосредоточен на создании простых в использовании, высокопроизводительных и масштабируемых сред глубокого обучения для ускорения обучения распределенных моделей. Вне работы он любит проводить время со своей семьей, ходить в походы и кататься на лыжах.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- ПлатонАйСтрим. Анализ данных Web3. Расширение знаний. Доступ здесь.
- Чеканка будущего с Эдриенн Эшли. Доступ здесь.
- Покупайте и продавайте акции компаний PREIPO® с помощью PREIPO®. Доступ здесь.
- Источник: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :имеет
- :является
- :нет
- :куда
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- ускорять
- ускоренный
- ускоряющий
- Принять
- доступ
- через
- Действие
- Адам
- Добавить
- добавленный
- принять
- продвинутый
- После
- против
- AI
- выравнивать
- выровненный
- Все
- позволять
- Позволяющий
- позволяет
- вдоль
- уже
- причислены
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- количество
- an
- анализ
- анализировать
- и
- объявило
- Другой
- любой
- API
- Применение
- Приложения
- подхода
- примерно
- архитектура
- МЫ
- ПЛОЩАДЬ
- аргумент
- Аргументы
- искусственный
- искусственный интеллект
- Искусственный интеллект (AI)
- AS
- Помощь
- At
- свободных мест
- доступен
- в среднем
- AWS
- стабилизатор
- Использование темпера с изогнутым основанием
- основанный
- в основном
- BE
- , так как:
- становиться
- было
- до
- начинать
- за
- эталонный тест
- тесты
- большой
- миллиарды
- BIN
- Блог
- Сообщения в блоге
- тело
- Дно
- Мозг
- широкий
- бюджет
- строить
- Строительство
- построенный
- встроенный
- бремя
- бизнес
- бизнес
- но
- by
- призывают
- под названием
- вызова
- CAN
- возможности
- случаев
- случаев
- CD
- изменение
- изменения
- выбор
- Выберите
- классификация
- клиент
- облако
- код
- COM
- сочетание
- выходит
- Связь
- сравнимый
- сравненный
- совместим
- полный
- Вычисление
- компьютер
- Компьютерное зрение
- вычисление
- Свяжитесь
- Рассматривать
- состоит
- Консоли
- Container
- Контейнеры
- содержание
- контентного создание
- контроль
- Основные
- Цена
- экономия на издержках
- Расходы
- может
- покрытие
- Создайте
- создали
- создание
- Полномочия
- Куратор
- Текущий
- Клиенты
- настроить
- данным
- Время
- Дней
- преданный
- глубоко
- глубокое обучение
- По умолчанию
- демонстрирует
- в зависимости
- развертывание
- развернуть
- развертывание
- развертывания
- предназначенный
- подробнее
- развитый
- Застройщик
- застройщиков
- Развитие
- различный
- Digest
- обсуждать
- обсуждается
- распределенный
- распределенное обучение
- Разное
- do
- Docker
- сделанный
- Dont
- скачать
- загрузок
- водитель
- драйверы
- вождение
- два
- динамический
- каждый
- Ранее
- простота
- легко
- легко
- эффект
- фактически
- затрат
- эффективно
- усилие
- или
- включить
- включен
- шифрование
- конец
- Конечная точка
- инженер
- расширение
- полностью
- Окружающая среда
- эпоха
- ошибка
- оценивать
- оценка
- Даже
- НИКОГДА
- Каждая
- пример
- существующий
- Расширьте
- ожидать
- опыт
- Больше
- экспоненциальный
- экспорт
- продлить
- продолжается
- ткань
- Face
- что его цель
- семья
- быстрее
- быстрый
- Особенности
- несколько
- фигура
- Файл
- Файлы
- окончательный
- Найдите
- Во-первых,
- соответствовать
- Трансформируемость
- плавающий
- Фокус
- фокусировка
- следовать
- после
- Что касается
- Рамки
- каркасы
- от
- полностью
- далее
- порождать
- генерируется
- поколение
- поколения
- генеративный
- Генеративный ИИ
- получить
- идти
- GitHub
- Дайте
- дает
- Глобальный
- GPU / ГРАФИЧЕСКИЙ ПРОЦЕССОР
- Графические процессоры
- группы
- Рост
- руководство
- Есть
- имеющий
- he
- тяжелый
- тяжелая атлетика
- помощь
- помогает
- высокая производительность
- высший
- наивысший
- его
- имеет
- кашель
- хостинг
- Как
- Однако
- HTML
- HTTP
- HTTPS
- хаб
- Сотни
- Гибридный
- ID
- Личность
- if
- иллюстрирует
- изображение
- изображений
- осуществлять
- реализация
- Импортировать
- улучшать
- улучшенный
- улучшение
- улучшение
- улучшение
- in
- включают
- включены
- включает в себя
- В том числе
- Увеличение
- повышение
- независимые
- промышленности
- Инфраструктура
- вход
- устанавливать
- установлен
- Установка
- пример
- вместо
- инструкции
- Интегрируется
- Intel
- Интеллекта
- в
- Вложения
- IP
- Ирония
- IT
- ЕГО
- Джобс
- JPG
- JSON
- Основные
- этикетка
- язык
- большой
- крупномасштабный
- больше
- Задержка
- последний
- последний релиз
- запуск
- Лиды
- изучение
- оставил
- библиотеки
- Библиотека
- Подтяжка лица
- такое как
- Ограниченный
- линия
- Linux
- Список
- загрузка
- в местном масштабе
- расположенный
- запертый
- журнал
- Войти
- от
- ниже
- низший
- машина
- обучение с помощью машины
- поддерживать
- сделать
- Создание
- управлять
- управляемого
- многих
- математике
- Макс
- Май..
- Встречайте
- член
- Память
- слияния
- Метаданные
- метод
- Метрика
- миллиона
- ML
- млн операций в секунду
- режим
- модель
- Модели
- Модули
- месяцев
- БОЛЕЕ
- перемещение
- с разными
- имя
- натуральный
- Обработка естественного языка
- необходимо
- Необходимость
- необходимый
- потребности
- отрицательный
- сеть
- сетей
- Нейтральные
- Новые
- Новые функции
- Новые технологии
- следующий
- узлы
- Заметки
- Уведомление..
- сейчас
- Nvidia
- целей
- of
- наступление
- предлагают
- предлагающий
- Предложения
- on
- ONE
- с открытым исходным кодом
- Откроется
- оперативный
- оптимизация
- оптимизированный
- Опции
- or
- оркестровка
- организационной
- OS
- Другое
- Другое
- наши
- внешний
- выходной
- внешнюю
- собственный
- пакет
- в упаковке
- параметры
- часть
- Патчи
- Заделка
- производительность
- разрешение
- Разрешения
- феникс
- выбирать
- взял
- трубопровод
- Платформа
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- пожалуйста
- Точка
- сборах
- политика
- Популярное
- возможности,
- После
- Блог
- Питание
- мощный
- предсказывать
- прогноз
- Predictions
- Подготовить
- подготовка
- предпосылки
- предыдущий
- Основной
- Проблема
- процесс
- обработка
- процессоры
- Производство
- производительность
- Продукция
- Проект
- проектов
- ( изучите наши патенты),
- доказанный
- обеспечивать
- приводит
- что такое варган?
- положил
- Питон
- pytorch
- готовый
- последний
- недавно
- повторяющихся
- уменьшить
- область
- реестра
- регулярно
- относительный
- освободить
- складская
- осталось
- Сообщается
- требовать
- обязательный
- Требования
- требуется
- ресурс
- ответ
- Ограничения
- результат
- возвращают
- обзоре
- Роли
- корень
- Run
- Бег
- sagemaker
- Вывод SageMaker
- то же
- экономия
- масштабируемые
- Шкала
- сканирование
- scikit учиться
- сфера
- Гол
- поцарапать
- скрипты
- Раздел
- разделах
- безопасный
- безопасность
- посмотреть
- выбор
- выбор
- отправка
- старший
- настроение
- отдельный
- служить
- обслуживание
- Услуги
- Сессия
- набор
- настройки
- установка
- семь
- несколько
- SHA256
- общие
- должен
- демонстрации
- показал
- показанный
- Шоу
- значительный
- просто
- одинарной
- Размер
- Размеры
- So
- Software
- Инженер-программист
- Решение
- Решения
- некоторые
- Space
- специализированный
- специализируется
- конкретный
- конкретно
- скорость
- скорость
- тратить
- Расходы
- Стабильность
- стек
- стандарт
- Начало
- и политические лидеры
- начинается
- заявление
- статистике
- Шаг
- Шаги
- диск
- варианты хранения
- стратегий
- Структура
- такие
- поддержка
- Поддержанный
- поддержки
- Поддержка
- система
- системы
- с учетом
- задачи
- Технический
- снижения вреда
- технологии
- tensorflow
- тестXNUMX
- проверенный
- чем
- который
- Ассоциация
- Местоположение
- их
- Их
- тогда
- Эти
- они
- вещи
- этой
- хоть?
- Через
- пропускная способность
- ярус
- время
- раз
- в
- инструменты
- факел
- Train
- специалистов
- Обучение
- трансформатор
- трансформеры
- превращение
- стараться
- Tweet
- чириканье
- два
- напишите
- Типы
- типичный
- Ubuntu
- под
- понимать
- Предстоящие
- Обновление ПО
- обновление
- модернизация
- загружено
- Применение
- использование
- прецедент
- используемый
- пользователей
- через
- утилита
- ценностное
- разнообразие
- различный
- проверить
- версия
- видение
- объем
- Уязвимости
- хотеть
- we
- Web
- веб-сервисы
- Недели
- вес
- добро пожаловать
- когда
- , которые
- широко
- будете
- без
- Работа
- рабочий
- работает
- записывать
- письмо
- X
- Ты
- ВАШЕ
- зефирнет
- зоны