PyTorch — це платформа машинного навчання (ML), яка широко використовується клієнтами AWS для різноманітних додатків, таких як комп’ютерне бачення, обробка природної мови, створення контенту тощо. З нещодавнім випуском PyTorch 2.0 клієнти AWS тепер можуть робити те саме, що й PyTorch 1.x, але швидше та в масштабі з покращеною швидкістю навчання, меншим використанням пам’яті та розширеними розподіленими можливостями. Кілька нових технологій, зокрема torch.compile, TorchDynamo, AOTAutograd, PrimTorch і TorchInductor, були включені у випуск PyTorch2.0. Відноситься до PyTorch 2.0: наш випуск наступного покоління, який, як ніколи, є швидшим, більш пітонічним і динамічним for details.
Ця публікація демонструє продуктивність і легкість запуску великомасштабного, високопродуктивного розподіленого навчання моделі машинного навчання та розгортання за допомогою PyTorch 2.0 на AWS. У цьому дописі далі описано покрокове впровадження моделі RoBERTa (надійно оптимізований підхід попереднього навчання BERT) для аналізу настроїв за допомогою AMI для глибокого навчання AWS (AWS DLAMI) і Контейнери глибокого навчання AWS (DLC) увімкнено Обчислювальна хмара Amazon Elastic (Amazon EC2 p4d.24xlarge) зі спостережуваним прискоренням на 42% при використанні з PyTorch 2.0 torch.compile + bf16 + злитий AdamW. Потім розгортається налаштована модель AWS Гравітонекземпляр C7g EC2 на основі Amazon SageMaker із спостережуваним 10% прискоренням порівняно з PyTorch 1.13.
На наступному малюнку показано тест продуктивності тонкого налаштування моделі RoBERTa на Amazon EC2 p4d.24xlarge за допомогою AWS PyTorch 2.0 DLAMI + DLC.
Відноситься до Оптимізований висновок PyTorch 2.0 із процесорами AWS Graviton для детальної інформації про контрольні показники продуктивності інстанції на основі AWS Graviton для PyTorch 2.0.
Підтримка PyTorch 2.0 на AWS
Підтримка PyTorch2.0 не обмежується службами та обчисленнями, показаними в прикладі використання в цій публікації; він поширюється на багато інших на AWS, які ми обговорюємо в цьому розділі.
Ділова вимога
Багато клієнтів AWS у різноманітних галузях трансформують свій бізнес за допомогою штучного інтелекту (ШІ), зокрема в області генеративного ШІ та великих мовних моделей (LLM), які створюють текст, схожий на людину. По суті, це великі моделі, засновані на методах глибокого навчання, які навчаються сотням мільярдів параметрів. Зростання розмірів моделей збільшує час навчання з днів до тижнів, а в деяких випадках навіть місяців. Це призводить до експоненціального зростання витрат на навчання та логічні висновки, для чого, як ніколи, потрібна така структура, як PyTorch 2.0 із вбудованою підтримкою прискореного навчання моделі та оптимізованою інфраструктурою AWS, адаптованою до конкретних робочих навантажень і потреб у продуктивності.
Вибір комп'ютера
AWS надає підтримку PyTorch 2.0 для найширшого вибору потужних обчислень, високошвидкісної мережі та масштабованих опцій високопродуктивного зберігання, які ви можете використовувати для будь-якого проекту або програми ML і налаштувати відповідно до своїх вимог до продуктивності та бюджету. Це показано на діаграмі в наступному розділі; на нижньому рівні ми пропонуємо широкий вибір обчислювальних екземплярів на базі процесорів AWS Graviton, Nvidia, AMD і Intel.
Для розгортання моделей ви можете використовувати процесори на основі ARM, наприклад нещодавно анонсований екземпляр на базі AWS Graviton, який забезпечує продуктивність логічного висновку для PyTorch 2.0 зі швидкістю до 3.5 разів у порівнянні з попередньою версією PyTorch у Resnet50 і до 1.4 разів швидше. швидкість для BERT, що робить екземпляри на основі AWS Graviton найшвидшими екземплярами, оптимізованими для обчислень на AWS для рішень моделювання на основі ЦП.
Вибір послуг ML
Щоб використовувати обчислення AWS, ви можете вибрати з широкого набору глобальних хмарних служб для розробки ML, обчислень і оркестровки робочого процесу. Цей вибір дає змогу узгодити ваші бізнес-стратегії та хмарні стратегії та запускати завдання PyTorch 2.0 на платформі за вашим вибором. Наприклад, якщо у вас є локальні обмеження або наявні інвестиції в продукти з відкритим кодом, ви можете використовувати Amazon EC2, AWS ParallelClusterабо AWS UltraCluster виконувати розподілене навчальне навантаження на основі самокерованого підходу. Ви також можете використовувати повністю керовану службу, як-от SageMaker, для оптимізованої за витратами, повністю керованої та виробничої інфраструктури навчання. SageMaker також інтегрується з різними інструментами MLOps, що дозволяє масштабувати розгортання моделі, зменшувати витрати на висновки, ефективніше керувати моделями у виробництві та зменшувати операційне навантаження.
Так само, якщо у вас є інвестиції в Kubernetes, ви також можете використовувати Послуга Amazon Elastic Kubernetes (Amazon EKS) і Kubeflow на AWS реалізувати конвеєр ML для розподіленого навчання або використовувати рідну службу оркестровки контейнерів AWS, наприклад Служба еластичних контейнерів Amazon (Amazon ECS) для навчання моделі та розгортання. Варіанти створення вашої платформи машинного навчання не обмежуються цими послугами; ви можете вибирати залежно від організаційних вимог для своїх завдань PyTorch 2.0.
Увімкнення PyTorch 2.0 з AWS DLAMI та AWS DLC
Щоб використовувати вищезгаданий стек служб AWS і потужні обчислення, вам потрібно встановити оптимізовану скомпільовану версію фреймворку PyTorch2.0 і її необхідні залежності, багато з яких є незалежними проектами, і перевірити їх від кінця до кінця. Вам також можуть знадобитися спеціальні бібліотеки ЦП для прискорених математичних процедур, спеціальні бібліотеки графічного процесора для прискорених математичних процедур і процедур зв’язку між графічним процесором, а також драйвери графічного процесора, які мають бути узгоджені з компілятором графічного процесора, який використовується для компіляції бібліотек графічного процесора. Якщо ваші роботи вимагають масштабного навчання з кількома вузлами, вам потрібна оптимізована мережа, яка може забезпечити найменшу затримку та найвищу пропускну здатність. Після того, як ви побудуєте свій стек, вам потрібно регулярно сканувати його та виправляти його на наявність вразливостей у безпеці, а також перебудовувати та повторно тестувати стек після кожного оновлення версії фреймворку.
AWS допомагає зменшити цю важку роботу, пропонуючи підібраний і безпечний набір фреймворків, залежностей та інструментів для прискорення глибокого навчання в хмарі. AWS DLAMIs та AWS DLC. Ці попередньо зібрані та перевірені машинні образи та контейнери оптимізовані для глибокого навчання на типах екземплярів прискорених обчислень EC2, що дозволяє масштабувати до кількох вузлів для більш ефективного та легкого розподілу робочих навантажень. Він включає в себе попередньо побудований Адаптер з еластичної тканини (EFA), графічний стек Nvidia та багато фреймворків глибокого навчання (TensorFlow, MXNet і PyTorch з останньою версією 2.0) для високопродуктивного розподіленого глибокого навчання. Вам не потрібно витрачати час на встановлення та усунення несправностей програмного забезпечення для глибокого навчання та драйверів або створення інфраструктури машинного навчання, а також вам не доведеться брати на себе регулярні витрати на виправлення цих образів для виявлення вразливостей у безпеці чи повторне створення образів після кожного оновлення версії фреймворку. Замість цього ви можете зосередитися на більшій доданій вартості, навчаючи завдання в масштабі за менший проміжок часу та швидше повторюючи свої моделі ML.
Огляд рішення
Враховуючи те, що навчання графічному процесору та висновку щодо центрального процесора є популярним варіантом використання для клієнтів AWS, ми включили до цієї публікації покрокову реалізацію гібридної архітектури (як показано на наступній діаграмі). Ми дослідимо можливе мистецтво та використаємо екземпляр P4 EC2 із підтримкою BF16, ініціалізований за допомогою Base GPU DLAMI, включаючи драйвери NVIDIA, CUDA, NCCL, стек EFA та PyTorch2.0 DLC для точного налаштування моделі аналізу настроїв RoBERTa що надає вам контроль і гнучкість у використанні будь-яких бібліотек з відкритим кодом або пропрієтарних бібліотек. Потім ми використовуємо SageMaker для повністю керованої інфраструктури розміщення моделі для розміщення нашої моделі на базі AWS Graviton3 Примірники C7g. Ми вибрали C7g на SageMaker, оскільки доведено, що він зменшує витрати на логічні висновки до 50% порівняно з порівнянними екземплярами EC2 для висновок у реальному часі на SageMaker. Наступна діаграма ілюструє цю архітектуру.
Навчання моделі та розміщення в цьому випадку використання складаються з таких кроків:
- Запустіть екземпляр EC2 Ubuntu на основі GPU DLAMI у своєму VPC та підключіться до свого екземпляра за допомогою SSH.
- Увійшовши у свій екземпляр EC2, завантажте DLC AWS PyTorch 2.0.
- Запустіть свій контейнер DLC зі сценарієм навчання моделі, щоб точно налаштувати модель RoBERTa.
- Після завершення навчання моделі запакуйте збережену модель, сценарії висновків і декілька файлів метаданих у файл tar, який SageMaker може використовувати для висновків, і завантажте пакет моделі до Служба простого зберігання Amazon (Amazon S3) відро.
- Розгорніть модель за допомогою SageMaker і створіть кінцеву точку висновку HTTPS. Кінцева точка висновку SageMaker містить балансир навантаження та один або кілька екземплярів вашого контейнера висновків у різних зонах доступності. Ви можете розгорнути або кілька версій однієї моделі, або зовсім різні моделі за цією єдиною кінцевою точкою. У цьому прикладі ми розміщуємо одну модель.
- Викличте кінцеву точку моделі, надіславши їй тестові дані, і перевірте вихідні дані.
У наступних розділах ми демонструємо точне налаштування моделі RoBERTa для аналізу настроїв. RoBERTa розроблено Facebook AI, покращуючи популярну модель BERT шляхом зміни ключових гіперпараметрів і попереднього навчання на більшому корпусі. Це призводить до кращої продуктивності порівняно з ванільним BERT.
Ми використовуємо Трансформатори бібліотеку Hugging Face, щоб модель RoBERTa була попередньо навчена на приблизно 124 мільйонах твітів, і ми налаштовуємо її на наборі даних Twitter для аналізу настроїв.
Передумови
Переконайтеся, що ви відповідаєте таким умовам:
- У вас є Обліковий запис AWS.
- Переконайтеся, що ви в
us-west-2
Регіон для запуску цього прикладу. (Цей приклад перевірено вus-west-2
; однак ви можете працювати в будь-якому іншому регіоні.) - Створіть роль з ім'ям
sagemakerrole
. Додайте керовані політикиAmazonSageMakerFullAccess
таAmazonS3FullAccess
щоб надати SageMaker доступ до сегментів S3. - Створіть роль EC2 з ім'ям
ec2_role
. Використовуйте таку політику дозволів:
1. Запустіть екземпляр розробки
Ми створюємо екземпляр p4d.24xlarge, який пропонує 8 графічних процесорів NVIDIA A100 Tensor Core у us-west-2
:
Вибираючи AMI, дотримуйтесь Примітки до випуску щоб запустити цю команду за допомогою Інтерфейс командного рядка AWS (AWS CLI), щоб знайти ідентифікатор AMI для використання us-west-2
:
Переконайтеся, що розмір кореневого тому gp3 становить 200 ГіБ.
Шифрування тому EBS не ввімкнено за замовчуванням. Подумайте про те, щоб змінити це під час переміщення цього рішення у виробництво.
2. Завантажте контейнер глибокого навчання
AWS DLC доступні як образи Docker у Загальнодоступний реєстр Amazon Elastic Container, керована служба реєстру зображень контейнерів AWS, яка є безпечною, масштабованою та надійною. Кожне зображення Docker створено для навчання або висновків на певній версії фреймворку глибокого навчання, версії Python, з підтримкою CPU або GPU. Виберіть структуру PyTorch 2.0 зі списку доступних Зображення контейнерів глибокого навчання.
Щоб завантажити DLC, виконайте такі дії:
a. SSH до примірника. За умовчанням група безпеки, яка використовується з EC2, відкриває порт SSH для всіх. Будь ласка, врахуйте це, якщо ви переносите це рішення на виробництво:
За умовчанням група безпеки, яка використовується з Amazon EC2, відкриває порт SSH для всіх. Подумайте про те, щоб змінити це, якщо ви переміщуєте це рішення у виробництво.
b. Встановіть змінні середовища, необхідні для виконання решти кроків цієї реалізації:
Amazon ECR підтримує загальнодоступні сховища зображень із використанням дозволів на основі ресурсів Управління ідентифікацією та доступом AWS (IAM), щоб певні користувачі або служби мали доступ до зображень.
в. Увійдіть до реєстру DLC:
d. Встановіть останній контейнер PyTorch 2.0 із підтримкою GPU us-west-2
Якщо ви отримуєте повідомлення про помилку «немає місця на пристрої», переконайтеся, що ви збільшити обсяг EC2 EBS до 200 ГіБ, а потім продовжити файлова система Linux.
3. Клонуйте останні скрипти, адаптовані до PyTorch 2.0
Клонуйте сценарії за допомогою такого коду:
Оскільки ми використовуємо API трансформаторів Hugging Face з останньою версією 4.28.1, він уже ввімкнув підтримку PyTorch 2.0. Ми додали наступний аргумент до API тренера в train_sentiment.py
щоб увімкнути нові функції PyTorch 2.0:
- Смолоскип компіляції – Отримайте в середньому 43% прискорення графічних процесорів Nvidia A100 за допомогою однієї лінії зміни.
- Тип даних BF16 – Підтримка нового типу даних (Brain Floating Point) для Ampere або новіших GPU.
- Злитий оптимізатор AdamW – Об’єднана реалізація AdamW для подальшого прискорення навчання. Цей метод стохастичної оптимізації змінює типову реалізацію розпаду ваги в Адамі, відокремлюючи розпад ваги від оновлення градієнта.
4. Створіть новий образ Docker із залежностями
Ми розширюємо попередньо зібраний образ PyTorch 2.0 DLC, щоб установити трансформатор Hugging Face та інші бібліотеки, необхідні для точного налаштування нашої моделі. Це дає змогу використовувати включені перевірені та оптимізовані бібліотеки глибокого навчання та налаштування без необхідності створювати зображення з нуля. Перегляньте наступний код:
5. Почніть навчання з використанням контейнера
Виконайте наступну команду Docker, щоб почати точне налаштування моделі на tweet_eval
набір даних настроїв. Ми використовуємо аргументи контейнера Docker (розмір спільної пам’яті, максимальна заблокована пам’ять і розмір стека) рекомендує Nvidia для глибокого навчання.
Ви повинні очікувати наступного результату. Сценарій спочатку завантажує набір даних TweetEval, який складається із семи різнорідних завдань у Twitter, усі оформлені як багатокласова класифікація твітів. Завдання включають іронію, ненависть, образливість, позицію, емодзі, емоції та настрої.
Потім сценарій завантажує базову модель і починає процес тонкого налаштування. Метрики навчання та оцінювання повідомляються в кінці кожної епохи.
Статистика продуктивності
З PyTorch 2.0 і найновішою бібліотекою трансформаторів Hugging Face 4.28.1 ми спостерігали прискорення на 42% на одному екземплярі p4d.24xlarge із 8 графічним процесором A100 40 ГБ. Покращення продуктивності відбувається завдяки поєднанню torch.compile, типу даних BF16 і злитого оптимізатора AdamW. Наступний код є кінцевим результатом двох тренувань із новими функціями та без них:
6. Перевірте навчену модель локально перед підготовкою до висновку SageMaker
Ви можете знайти наступні файли під $ml_working_dir/saved_model/
після тренування:
Давайте переконаємося, що ми можемо запустити локальний висновок перед підготовкою до висновку SageMaker. Ми можемо завантажити збережену модель і виконати логічний висновок локально за допомогою test_trained_model.py
сценарій:
Ви маєте очікувати наступного результату з введенням «Випадки захворювання на COVID-XNUMX швидко зростають!»:
7. Підготуйте архів моделі для висновку SageMaker
У каталозі, де знаходиться модель, створіть новий каталог під назвою code
:
У новому каталозі створіть файл inference.py
і додайте до нього наступне:
Зрештою, ви повинні отримати таку структуру папок:
Модель готова до упаковки та завантаження в Amazon S3 для використання з висновками SageMaker:
8. Розгорніть модель на екземплярі SageMaker AWS Graviton
Нові покоління процесорів пропонують значне покращення продуктивності в ML завдяки спеціальним вбудованим інструкціям. У цьому випадку використання ми використовуємо повністю керовану інфраструктуру хостингу SageMaker з примірниками C3g на базі AWS Graviton7. AWS також виміряла до 50% економії витрат на висновки PyTorch за допомогою екземплярів EC3 C2g на базі AWS Graviton7 у Torch Hub ResNet50 і кількох моделей Hugging Face порівняно з порівнянними екземплярами EC2.
Щоб розгорнути моделі в екземплярах AWS Graviton, ми використовуємо AWS DLC, які забезпечують підтримку PyTorch 2.0 і TorchServe 0.8.0, або ви можете приносити свої контейнери які сумісні з архітектурою ARMv8.2.
Ми використовуємо модель, яку навчили раніше: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Якщо ви раніше не користувалися SageMaker, перегляньте Почніть роботу з Amazon SageMaker.
Для початку переконайтеся, що пакет SageMaker оновлений:
Оскільки це приклад, створіть файл під назвою start_endpoint.py
і додайте наступний код. Це буде сценарій Python для запуску кінцевої точки висновку SageMaker із режимом:
Ми використовуємо ml.c7g.4xlarge для екземпляра та отримуємо PT 2.0 із областю зображення inference_graviton
. Це наш екземпляр AWS Graviton3.
Далі ми створюємо файл, який виконує прогноз. Ми робимо це як окремі сценарії, щоб ми могли запускати прогнози скільки завгодно разів. Створити predict.py
з таким кодом:
За допомогою створених сценаріїв тепер ми можемо запускати кінцеву точку, робити прогнози щодо кінцевої точки та очищати, коли закінчимо:
9. Прибрати
Нарешті, ми хочемо очистити цей приклад. Створіть cleanup.py і додайте такий код:
Висновок
AWS DLAMI та DLC стали основним стандартом для виконання робочих навантажень глибокого навчання на широкому наборі обчислювальних і ML-сервісів на AWS. Разом із використанням DLC для певних фреймворків у сервісах AWS ML ви також можете використовувати єдиний фреймворк на Amazon EC2, що позбавляє розробників важкої роботи, необхідної для створення та підтримки програм глибокого навчання. Відноситься до Примітки до випуску для DLAMI та Доступні зображення контейнерів глибокого навчання щоб розпочати роботу.
Ця публікація показала одну з багатьох можливостей навчання та обслуговування вашої наступної моделі на AWS і обговорила кілька форматів, які ви можете прийняти для досягнення своїх бізнес-цілей. Спробуйте цей приклад або скористайтеся іншими нашими послугами AWS ML, щоб збільшити продуктивність даних для вашого бізнесу. Ми включили просту задачу аналізу настроїв, щоб клієнти, які не знайомі з машинним навчанням, могли зрозуміти, наскільки просто розпочати роботу з PyTorch 2.0 на AWS. У наступних публікаціях блогу ми розглянемо більш просунуті варіанти використання, моделі та технології AWS.
Про авторів
Канвалджит Хурмі є головним архітектором рішень в Amazon Web Services. Він працює з клієнтами AWS, щоб надати вказівки та технічну допомогу, допомагаючи їм підвищити цінність їхніх рішень при використанні AWS. Kanwaljit спеціалізується на допомозі клієнтам із контейнерними програмами та програмами машинного навчання.
Майк Шнайдер є розробником систем, що базується у Фініксі, Аризона. Він є учасником контейнерів Deep Learning, підтримуючи різні образи контейнерів Framework, включаючи Graviton Inference. Він відданий ефективності та стабільності інфраструктури.
Лай Вей є старшим інженером-програмістом Amazon Web Services. Він зосереджується на створенні простих у використанні, високопродуктивних і масштабованих інфраструктур глибокого навчання для прискорення навчання розподілених моделей. Поза роботою він любить проводити час із сім’єю, гуляти в походах і кататися на лижах.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoAiStream. Web3 Data Intelligence. Розширення знань. Доступ тут.
- Карбування майбутнього з Адріенн Ешлі. Доступ тут.
- Купуйте та продавайте акції компаній, які вийшли на IPO, за допомогою PREIPO®. Доступ тут.
- джерело: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- : має
- :є
- : ні
- :де
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- прискорювати
- прискорений
- прискорення
- Прийняти
- доступ
- через
- дію
- Адам
- додавати
- доданий
- прийняти
- просунутий
- після
- проти
- AI
- вирівнювати
- вирівняні
- ВСІ
- дозволяти
- Дозволити
- дозволяє
- по
- вже
- Також
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- кількість
- an
- аналіз
- аналізувати
- та
- оголошений
- Інший
- будь-який
- API
- додаток
- застосування
- підхід
- приблизно
- архітектура
- ЕСТЬ
- ПЛОЩА
- аргумент
- аргументація
- штучний
- штучний інтелект
- Штучний інтелект (AI)
- AS
- Допомога
- At
- наявність
- доступний
- середній
- AWS
- свінг
- база
- заснований
- В основному
- BE
- оскільки
- ставати
- було
- перед тим
- починати
- за
- еталонний тест
- тести
- Великий
- мільярди
- BIN
- Блог
- Повідомлення в блозі
- тіло
- дно
- Brain
- широкий
- бюджет
- будувати
- Створюємо
- побудований
- вбудований
- тягар
- бізнес
- підприємства
- але
- by
- call
- званий
- покликання
- CAN
- можливості
- випадок
- випадків
- CD
- зміна
- заміна
- вибір
- Вибирати
- класифікація
- клієнт
- хмара
- код
- COM
- поєднання
- приходить
- Комунікація
- порівнянний
- порівняний
- сумісний
- повний
- обчислення
- комп'ютер
- Комп'ютерне бачення
- обчислення
- З'єднуватися
- Вважати
- складається
- Консоль
- Контейнер
- Контейнери
- зміст
- контент-створення
- контроль
- Core
- Коштувати
- економія на витратах
- витрати
- може
- покриття
- створювати
- створений
- створення
- Повноваження
- Куратор
- Поточний
- Клієнти
- налаштувати
- дані
- Дата
- Днів
- присвячених
- глибокий
- глибоке навчання
- дефолт
- демонструє
- Залежно
- розгортання
- розгорнути
- розгортання
- розгортання
- призначений
- деталі
- розвиненою
- Розробник
- розробників
- розробка
- різний
- Digest
- обговорювати
- обговорювалися
- розподілений
- розподілене навчання
- Різне
- do
- Docker
- зроблений
- Не знаю
- скачати
- завантажень
- водій
- драйвери
- водіння
- два
- динамічний
- кожен
- Раніше
- простота
- легко
- легко
- ефект
- фактично
- ефективність
- продуктивно
- зусилля
- або
- включіть
- включений
- шифрування
- кінець
- Кінцева точка
- інженер
- підвищена
- повністю
- Навколишнє середовище
- епоха
- помилка
- оцінювати
- оцінка
- Навіть
- НІКОЛИ
- Кожен
- приклад
- існуючий
- Розширювати
- очікувати
- досвід
- дослідити
- експонентний
- експорт
- продовжити
- продовжується
- тканину
- Face
- сім'я
- швидше
- швидкий
- риси
- кілька
- Рисунок
- філе
- Файли
- остаточний
- знайти
- Перший
- відповідати
- Гнучкість
- плаваючий
- Сфокусувати
- фокусування
- стежити
- після
- для
- Рамки
- каркаси
- від
- повністю
- далі
- породжувати
- генерується
- покоління
- покоління
- генеративний
- Генеративний ШІ
- отримати
- Git
- GitHub
- Давати
- дає
- Глобальний
- GPU
- Графічні процесори
- Group
- Зростання
- керівництво
- Мати
- має
- he
- важкий
- важкий підйом
- допомогу
- допомагає
- висока продуктивність
- вище
- найвищий
- його
- тримає
- господар
- хостинг
- Як
- Однак
- HTML
- HTTP
- HTTPS
- Концентратор
- Сотні
- гібрид
- ID
- Особистість
- if
- ілюструє
- зображення
- зображень
- здійснювати
- реалізація
- імпорт
- удосконалювати
- поліпшений
- поліпшення
- поліпшення
- поліпшення
- in
- включати
- включені
- includes
- У тому числі
- Augmenter
- зростаючий
- незалежний
- промисловості
- Інфраструктура
- вхід
- встановлювати
- встановлений
- установка
- екземпляр
- замість
- інструкції
- Інтеграція
- Intel
- Інтелект
- в
- інвестиції
- IP
- іронія
- IT
- ЙОГО
- Джобс
- JPG
- json
- ключ
- етикетка
- мова
- великий
- масштабний
- більше
- Затримка
- останній
- останній випуск
- запуск
- Веде за собою
- вивчення
- залишити
- libraries
- бібліотека
- підйомний
- як
- обмеженою
- Лінія
- Linux
- список
- загрузка
- локально
- розташований
- замкнений
- журнал
- Логін
- від
- знизити
- найнижчий
- машина
- навчання за допомогою машини
- підтримувати
- зробити
- Робить
- управляти
- вдалося
- багато
- математики
- Макс
- Може..
- Зустрічатися
- член
- пам'ять
- зливається
- метадані
- метод
- Метрика
- мільйона
- ML
- MLOps
- режим
- модель
- Моделі
- Модулі
- місяців
- більше
- переміщення
- множинний
- ім'я
- Природний
- Обробка природних мов
- необхідно
- Необхідність
- необхідний
- потреби
- негативний
- мережу
- мережа
- Нейтральний
- Нові
- Нові можливості
- Нові технології
- наступний
- вузли
- примітки
- Зверніть увагу..
- зараз
- Nvidia
- цілей
- of
- наступ
- пропонувати
- пропонує
- Пропозиції
- on
- ONE
- з відкритим вихідним кодом
- Відкриється
- оперативний
- оптимізація
- оптимізований
- Опції
- or
- оркестровка
- організаційної
- OS
- Інше
- інші
- наші
- з
- вихід
- поза
- власний
- пакет
- упаковані
- параметри
- частина
- пластир
- Виправлення
- продуктивність
- дозвіл
- Дозволи
- фенікс
- вибирати
- підібраний
- трубопровід
- платформа
- plato
- Інформація про дані Платона
- PlatoData
- будь ласка
- точка
- Політика
- політика
- популярний
- можливостей
- пошта
- Пости
- Харчування
- потужний
- передбачати
- прогноз
- Прогнози
- Готувати
- підготовка
- передумови
- попередній
- Головний
- Проблема
- процес
- обробка
- процесори
- Production
- продуктивність
- Продукти
- проект
- проектів
- власником
- доведений
- забезпечувати
- забезпечує
- громадськість
- put
- Python
- піторх
- готовий
- останній
- нещодавно
- повторювані
- зменшити
- регіон
- реєстру
- регулярно
- відносний
- звільнити
- надійний
- решті
- Повідомляється
- вимагати
- вимагається
- Вимога
- Вимагається
- ресурс
- відповідь
- Обмеження
- результат
- повертати
- огляд
- Роль
- корінь
- прогін
- біг
- мудрець
- Висновок SageMaker
- то ж
- Економія
- масштабовані
- шкала
- сканування
- scikit-вчитися
- сфера
- рахунок
- подряпати
- scripts
- розділ
- розділам
- безпечний
- безпеку
- побачити
- вибирає
- вибір
- відправка
- старший
- настрій
- окремий
- служити
- обслуговування
- Послуги
- Сесія
- комплект
- налаштування
- установка
- сім
- кілька
- SHA256
- загальні
- Повинен
- демонстрації
- показав
- показаний
- Шоу
- значний
- простий
- один
- Розмір
- розміри
- So
- Софтвер
- Інженер-програміст
- рішення
- Рішення
- деякі
- Простір
- спеціалізований
- спеціалізується
- конкретний
- конкретно
- швидкість
- швидкість
- витрачати
- Витрати
- Стабільність
- стек
- standard
- старт
- почалася
- починається
- Заява
- статистика
- Крок
- заходи
- зберігання
- варіанти зберігання
- стратегії
- структура
- такі
- підтримка
- Підтриманий
- Підтримуючий
- Опори
- система
- Systems
- з урахуванням
- завдання
- технічний
- методи
- Технології
- тензорний потік
- тест
- перевірений
- ніж
- Що
- Команда
- Площа
- їх
- Їх
- потім
- Ці
- вони
- речі
- це
- хоча?
- через
- пропускна здатність
- ярус
- час
- times
- до
- інструменти
- факел
- поїзд
- навчений
- Навчання
- трансформатор
- Трансформатори
- перетворення
- намагатися
- чірікать
- твітів
- два
- тип
- Типи
- типовий
- Ubuntu
- при
- розуміти
- Майбутні
- Оновити
- оновлений
- модернізація
- завантажено
- Використання
- використання
- використання випадку
- використовуваний
- користувачі
- використання
- утиліта
- значення
- різноманітність
- різний
- перевірити
- версія
- бачення
- обсяг
- Уразливості
- хотіти
- we
- Web
- веб-сервіси
- тижня
- вага
- ласкаво просимо
- коли
- який
- широко
- волі
- з
- без
- Work
- робочий
- працює
- запис
- лист
- X
- Ти
- вашу
- зефірнет
- зони