Зі швидким впровадженням генеративних додатків штучного інтелекту існує потреба в тому, щоб ці додатки реагували вчасно, щоб зменшити очікувану затримку з більшою пропускною здатністю. Основні моделі (FM) часто попередньо тренуються на величезних масивах даних із параметрами, що варіюються в масштабах від мільйонів до мільярдів і більше. Великі мовні моделі (LLM) — це тип FM, які генерують текст як відповідь на висновки користувача. Виведення цих моделей із різними конфігураціями параметрів логічного висновку може призвести до непослідовних затримок. Невідповідність може бути через різну кількість маркерів відповіді, які ви очікуєте від моделі, або через тип прискорювача, на якому розгорнуто модель.
У будь-якому випадку, замість того, щоб чекати повної відповіді, ви можете застосувати підхід потокової передачі відповіді для ваших висновків, який надсилає назад порції інформації, щойно вони генеруються. Це створює інтерактивний досвід, дозволяючи вам бачити часткові відповіді, що транслюються в реальному часі, замість відкладеної повної відповіді.
З офіційним повідомленням про те Висновок у реальному часі Amazon SageMaker тепер підтримує потокове передавання відповідей, тепер ви можете безперервно передавати клієнтові відповіді на висновки під час використання Amazon SageMaker висновок у реальному часі з потоковою відповіддю. Це рішення допоможе вам створити інтерактивний досвід для різноманітних генеративних програм AI, таких як чат-боти, віртуальні помічники та музичні генератори. У цьому дописі показано, як реалізувати швидший час відповіді у формі часу до першого байта (TTFB) і зменшити загальну очікувану затримку під час визначення моделей Llama 2.
Щоб реалізувати рішення, ми використовуємо SageMaker, повністю керований сервіс для підготовки даних і створення, навчання та розгортання моделей машинного навчання (ML) для будь-яких варіантів використання з повністю керованою інфраструктурою, інструментами та робочими процесами. Додаткову інформацію про різні варіанти розгортання, які надає SageMaker, див Поширені запитання про хостинг моделі Amazon SageMaker. Давайте зрозуміємо, як ми можемо вирішити проблеми із затримкою, використовуючи висновок у реальному часі з потоковою передачею відповіді.
Огляд рішення
Оскільки ми хочемо розглянути вищезазначені затримки, пов’язані з висновком у реальному часі за допомогою LLM, давайте спочатку зрозуміємо, як ми можемо використовувати підтримку потокової відповіді для логічного висновку в реальному часі для Llama 2. Однак будь-який LLM може скористатися підтримкою потокової відповіді з реальним - часовий висновок.
Llama 2 — це набір попередньо підготовлених і точно налаштованих генеративних текстових моделей із масштабом від 7 до 70 мільярдів параметрів. Моделі Llama 2 — це авторегресійні моделі з архітектурою лише декодера. Коли моделі Llama 2 забезпечені підказкою та параметрами висновку, вони здатні генерувати текстові відповіді. Ці моделі можна використовувати для перекладу, конспектування, відповідей на запитання та спілкування.
Для цієї публікації ми розгортаємо модель Llama 2 Chat meta-llama/Llama-2-13b-chat-hf
на SageMaker для висновків у реальному часі з потоковою відповіддю.
Коли справа доходить до розгортання моделей на кінцевих точках SageMaker, ви можете контейнеризувати моделі за допомогою спеціалізованих Контейнер глибокого навчання AWS (DLC) доступні зображення для популярних бібліотек з відкритим кодом. Моделі Llama 2 — це моделі генерації тексту; ви можете використовувати або Контейнери висновків Hugging Face LLM на SageMaker на основі Hugging Face Висновок про створення тексту (TGI) або AWS DLC для Висновок великої моделі (LMI).
У цій публікації ми розгортаємо модель Llama 2 13B Chat за допомогою DLC на SageMaker Hosting для висновків у реальному часі на базі G5. Екземпляри G5 — це високопродуктивні екземпляри на базі графічного процесора для додатків із інтенсивною графікою та ML. Ви також можете використовувати підтримувані типи екземплярів p4d, p3, g5 та g4dn із відповідними змінами відповідно до конфігурації екземпляра.
Передумови
Щоб реалізувати це рішення, ви повинні мати наступне:
- Обліковий запис AWS із Управління ідентифікацією та доступом AWS (IAM) роль із дозволами на керування ресурсами, створеними як частина рішення.
- Якщо ви вперше працюєте з Студія Amazon SageMaker, спочатку потрібно створити a Домен SageMaker.
- Акаунт Hugging Face. Зареєструватися з вашою електронною поштою, якщо у вас ще немає облікового запису.
- Для безперебійного доступу до моделей, доступних на Hugging Face, особливо до моделей із закритим доступом, таких як Llama, для точного налаштування та висновків, ви повинні мати обліковий запис Hugging Face, щоб отримати маркер доступу для читання. Після того як ви зареєструєте обліковий запис Hugging Face, увійдіть відвідувати https://huggingface.co/settings/tokens щоб створити маркер доступу для читання.
- Доступ до Llama 2, використовуючи той самий ідентифікатор електронної пошти, який ви використовували для реєстрації в Hugging Face.
- Моделі Llama 2, доступні через Hugging Face, є закритими моделями. Використання моделі Llama регулюється ліцензією Meta. Щоб завантажити вагові коефіцієнти моделі та токенізатор, запросити доступ до Llama і прийняти їх ліцензію.
- Після того як вам буде надано доступ (зазвичай через кілька днів), ви отримаєте підтвердження електронною поштою. Для цього прикладу ми використовуємо модель
Llama-2-13b-chat-hf
, але ви також повинні мати доступ до інших варіантів.
Підхід 1: Обіймати обличчя TGI
У цьому розділі ми покажемо вам, як розгорнути meta-llama/Llama-2-13b-chat-hf
моделювати до кінцевої точки SageMaker у реальному часі з потоковою передачею відповіді за допомогою Hugging Face TGI. У наведеній нижче таблиці наведено специфікації для цього розгортання.
Специфікація | значення |
Контейнер | Обіймати обличчя TGI |
Назва моделі | meta-llama/Llama-2-13b-chat-hf |
Екземпляр ML | мл.g5.12xвеликий |
Висновок | У режимі реального часу з потоковою відповіддю |
Розгортання моделі
Спочатку ви отримуєте базовий образ для LLM, який потрібно розгорнути. Потім ви будуєте модель на базовому зображенні. Нарешті, ви розгортаєте модель в екземплярі ML для SageMaker Hosting для висновків у реальному часі.
Давайте розглянемо, як досягти розгортання програмним шляхом. Для стислості в цьому розділі обговорюється лише код, який допомагає виконати кроки розгортання. Повний вихідний код для розгортання доступний у блокноті llama-2-hf-tgi/llama-2-13b-chat-hf/1-deploy-llama-2-13b-chat-hf-tgi-sagemaker.ipynb.
Отримайте найновіший DLC Hugging Face LLM на базі TGI через попередньо зібрану версію DLC SageMaker. Ви використовуєте це зображення для розгортання meta-llama/Llama-2-13b-chat-hf
модель на SageMaker. Перегляньте наступний код:
Визначте середовище для моделі з параметрами конфігурації, визначеними таким чином:
заміщати <YOUR_HUGGING_FACE_READ_ACCESS_TOKEN>
для параметра конфігурації HUGGING_FACE_HUB_TOKEN
зі значенням токена, отриманого з вашого профілю Hugging Face, як описано в розділі попередніх умов цієї публікації. У конфігурації ви визначаєте кількість графічних процесорів, які використовуються на репліку моделі, як 4 для SM_NUM_GPUS
. Тоді ви можете розгортати meta-llama/Llama-2-13b-chat-hf
модель на примірнику ml.g5.12xlarge, який постачається з 4 графічними процесорами.
Тепер ви можете створити екземпляр HuggingFaceModel
із згаданою вище конфігурацією середовища:
Нарешті, розгорніть модель, надавши аргументи для методу розгортання, доступного в моделі, з різними значеннями параметрів, такими як endpoint_name
, initial_instance_count
та instance_type
:
Виконайте умовивід
Hugging Face TGI DLC має можливість транслювати відповіді без будь-яких налаштувань або змін коду моделі. Ви можете використовувати invoke_endpoint_with_response_stream якщо ви використовуєте Boto3 або InvokeEndpointWithResponseStream під час програмування за допомогою SDK SageMaker Python.
Команда InvokeEndpointWithResponseStream
API SageMaker дозволяє розробникам потоково передавати відповіді з моделей SageMaker, що може допомогти підвищити задоволеність клієнтів шляхом зменшення сприйнятої затримки. Це особливо важливо для додатків, створених за допомогою генеративних моделей ШІ, де негайна обробка важливіша, ніж очікування повної відповіді.
У цьому прикладі ми використовуємо Boto3 для виведення моделі та використовуємо API SageMaker invoke_endpoint_with_response_stream
наступним чином:
Аргумент CustomAttributes
встановлено значення accept_eula=false
. Команда accept_eula
параметр повинен бути встановлений на true
щоб успішно отримати відповідь від моделей Llama 2. Після успішного виклику за допомогою invoke_endpoint_with_response_stream
, метод поверне потік байтів відповіді.
Наступна діаграма ілюструє цей робочий процес.
Вам потрібен ітератор, який циклично обходить потік байтів і аналізує їх до читабельного тексту. The LineIterator
реалізацію можна знайти за адресою llama-2-hf-tgi/llama-2-13b-chat-hf/utils/LineIterator.py. Тепер ви готові підготувати підказку та інструкції, щоб використовувати їх як корисне навантаження під час виведення моделі.
Підготуйте підказку та інструкцію
На цьому кроці ви підготуєте підказку та інструкції для свого LLM. Щоб підказати Llama 2, ви повинні мати наступний шаблон підказки:
Ви створюєте шаблон підказки, програмно визначений у методі build_llama2_prompt
, який узгоджується з вищезгаданим шаблоном запиту. Потім ви визначаєте інструкції відповідно до випадку використання. У цьому випадку ми наказуємо моделі створити електронний лист для маркетингової кампанії, як описано в get_instructions
метод. Код цих методів знаходиться в llama-2-hf-tgi/llama-2-13b-chat-hf/2-sagemaker-realtime-inference-llama-2-13b-chat-hf-tgi-streaming-response.ipynb блокнот. Створіть інструкцію разом із завданням, яке потрібно виконати, як описано в user_ask_1
наступним чином:
Ми передаємо інструкції зі створення підказки відповідно до шаблону підказки, згенерованого build_llama2_prompt.
Ми об’єднуємо параметри висновку разом із підказкою з ключем stream
зі значенням True
для формування остаточного корисного навантаження. Надіслати корисне навантаження до get_realtime_response_stream
, який використовуватиметься для виклику кінцевої точки з потоковою відповіддю:
Згенерований текст із LLM буде передано на вихід, як показано на наступній анімації.
Підхід 2: LMI з обслуговуванням DJL
У цьому розділі ми демонструємо, як розгорнути meta-llama/Llama-2-13b-chat-hf
моделювати до кінцевої точки реального часу SageMaker із потоковим передаванням відповідей за допомогою LMI з обслуговуванням DJL. У наведеній нижче таблиці наведено специфікації для цього розгортання.
Специфікація | значення |
Контейнер | Зображення контейнера LMI із обслуговуванням DJL |
Назва моделі | meta-llama/Llama-2-13b-chat-hf |
Екземпляр ML | мл.g5.12xвеликий |
Висновок | У режимі реального часу з потоковою відповіддю |
Ви спочатку завантажуєте модель і зберігаєте її Служба простого зберігання Amazon (Amazon S3). Потім ви вказуєте URI S3, що вказує префікс S3 моделі в serving.properties
файл. Далі ви отримуєте базовий образ для LLM, який потрібно розгорнути. Потім ви будуєте модель на базовому зображенні. Нарешті, ви розгортаєте модель в екземплярі ML для SageMaker Hosting для висновків у реальному часі.
Давайте розглянемо, як виконати вищезазначені кроки розгортання програмним шляхом. Для стислості в цьому розділі детально описано лише код, який допомагає виконати кроки розгортання. Повний вихідний код для цього розгортання доступний у блокноті llama-2-lmi/llama-2-13b-chat/1-deploy-llama-2-13b-chat-lmi-response-streaming.ipynb.
Завантажте знімок моделі з Hugging Face і завантажте артефакти моделі на Amazon S3
Виконавши вищезазначені передумови, завантажте модель на екземпляр ноутбука SageMaker, а потім завантажте її в сегмент S3 для подальшого розгортання:
Зауважте, що навіть якщо ви не надасте дійсний маркер доступу, модель завантажиться. Але коли ви розгортаєте таку модель, її обслуговування не вдасться. Тому рекомендується замінити <YOUR_HUGGING_FACE_READ_ACCESS_TOKEN>
для аргументу token
зі значенням токена, отриманого з вашого профілю Hugging Face, як зазначено в попередніх умовах. Для цього допису ми вказуємо офіційну назву моделі для Llama 2, яка позначена на Hugging Face зі значенням meta-llama/Llama-2-13b-chat-hf
. Нестиснуту модель буде завантажено в local_model_path
в результаті виконання вищезгаданого коду.
Завантажте файли в Amazon S3 і отримайте URI, який пізніше буде використано в serving.properties
.
Ви будете пакувати meta-llama/Llama-2-13b-chat-hf
модель на зображенні контейнера LMI з обслуговуванням DJL, використовуючи конфігурацію, указану через serving.properties
. Потім ви розгортаєте модель разом із артефактами моделі, упакованими в образ контейнера, на примірнику SageMaker ML ml.g5.12xlarge. Потім ви використовуєте цей екземпляр ML для SageMaker Hosting для висновків у реальному часі.
Підготуйте артефакти моделі для обслуговування DJL
Підготуйте артефакти своєї моделі, створивши a serving.properties
файл конфігурації:
У цьому конфігураційному файлі ми використовуємо такі налаштування:
- двигун – Це вказує механізм виконання для DJL. Можливі значення включають
Python
,DeepSpeed
,FasterTransformer
таMPI
. У цьому випадку ми встановлюємо значенняMPI
. Розпаралелювання та висновок моделі (MPI) полегшує розподіл моделі між усіма доступними графічним процесором і, отже, прискорює логічний висновок. - option.entryPoint – Цей параметр визначає, який обробник, запропонований DJL Serving, ви б хотіли використовувати. Можливі значення є
djl_python.huggingface
,djl_python.deepspeed
таdjl_python.stable-diffusion
. Ми використовуємоdjl_python.huggingface
для Hugging Face Accelerate. - option.tensor_parallel_degree – Ця опція вказує кількість тензорних паралельних секцій, виконаних на моделі. Ви можете встановити кількість пристроїв GPU, на які Accelerate потрібно розділити модель. Цей параметр також контролює кількість робітників на модель, яка буде запущена під час запуску служби DJL. Наприклад, якщо у нас є машина з 4 графічними процесорами, і ми створюємо чотири розділи, тоді у нас буде один працівник на кожну модель для обслуговування запитів.
- option.low_cpu_mem_usage – Це зменшує використання пам’яті ЦП під час завантаження моделей. Ми рекомендуємо вам встановити це значення
TRUE
. - option.rolling_batch – Це дозволяє пакетування на рівні ітерації за допомогою однієї з підтримуваних стратегій. Цінності включають
auto
,scheduler
таlmi-dist
. Ми використовуємоlmi-dist
для ввімкнення безперервного дозування для Llama 2. - option.max_rolling_batch_size – Це обмежує кількість одночасних запитів у безперервному пакеті. Значення за умовчанням дорівнює 32.
- option.model_id – Ви повинні замінити
{{model_id}}
з ідентифікатором моделі попередньо навченої моделі, розміщеної всередині a сховище моделей на Hugging Face або шлях S3 до артефактів моделі.
Більше параметрів конфігурації можна знайти в Конфігурації та налаштування.
Оскільки DJL Serving очікує, що артефакти моделі будуть упаковані та відформатовані у файлі .tar, запустіть такий фрагмент коду, щоб стиснути та завантажити файл .tar в Amazon S3:
Отримайте останній образ контейнера LMI за допомогою служби DJL
Далі ви використовуєте DLC, доступні з SageMaker для LMI, щоб розгорнути модель. Отримайте URI зображення SageMaker для djl-deepspeed
контейнер програмно за допомогою такого коду:
Ви можете використовувати вищезгадане зображення для розгортання meta-llama/Llama-2-13b-chat-hf
модель на SageMaker. Тепер можна переходити до створення моделі.
Створіть модель
Ви можете створити модель, контейнер якої побудовано за допомогою inference_image_uri
і код обслуговування моделі, розташований за URI S3, позначений s3_code_artifact:
Тепер ви можете створити конфігурацію моделі з усіма деталями для конфігурації кінцевої точки.
Створіть конфігурацію моделі
Використовуйте наведений нижче код, щоб створити конфігурацію моделі для моделі, ідентифікованої за model_name
:
Конфігурацію моделі визначено для ProductionVariants
параметр InstanceType
для екземпляра ML ml.g5.12xlarge. Ви також надаєте ModelName
використовуючи те саме ім’я, яке ви використовували для створення моделі на попередньому кроці, тим самим встановлюючи зв’язок між моделлю та конфігурацією кінцевої точки.
Тепер, коли ви визначили модель і конфігурацію моделі, ви можете створити кінцеву точку SageMaker.
Створіть кінцеву точку SageMaker
Створіть кінцеву точку для розгортання моделі за допомогою такого фрагмента коду:
Перебіг розгортання можна переглянути за допомогою такого фрагмента коду:
Після успішного розгортання стан кінцевої точки буде InService
. Тепер, коли кінцева точка готова, давайте виконаємо висновок із потоковою передачею відповіді.
Висновок у реальному часі з потоковою відповіддю
Як ми розглядали в попередньому підході для Hugging Face TGI, ви можете використовувати той самий метод get_realtime_response_stream
щоб викликати потокову передачу відповіді з кінцевої точки SageMaker. Код для логічного висновку з використанням підходу LMI знаходиться в llama-2-lmi/llama-2-13b-chat/2-inference-llama-2-13b-chat-lmi-response-streaming.ipynb блокнот. The LineIterator
впровадження знаходиться в llama-2-lmi/utils/LineIterator.py. Зауважимо, що LineIterator
для моделі Llama 2 Chat, розгорнутої в контейнері LMI, відрізняється від LineIterator
згадується в розділі Hugging Face TGI. The LineIterator
перебирає потік байтів з моделей Llama 2 Chat, отриманих за допомогою контейнера LMI з djl-deepspeed
версія 0.25.0. Наступна допоміжна функція аналізуватиме потік відповіді, отриманий із запиту на висновок, зробленого через invoke_endpoint_with_response_stream
API:
Попередній метод друкує потік даних, прочитаних LineIterator
у зручному для читання форматі.
Давайте дослідимо, як підготувати підказку та інструкції, щоб використовувати їх як корисне навантаження під час висновку моделі.
Оскільки ви використовуєте ту саму модель як у Hugging Face TGI, так і в LMI, процес підготовки підказки та інструкцій однаковий. Тому можна використовувати методи get_instructions
та build_llama2_prompt
для висновків.
Команда get_instructions
метод повертає інструкції. Створіть інструкції разом із завданням, яке потрібно виконати, як описано в user_ask_2
наступним чином:
Передайте інструкції для створення підказки відповідно до шаблону підказки, створеного build_llama2_prompt:
Ми об’єднуємо параметри висновку разом із підказкою для формування остаточного корисного навантаження. Потім ви надсилаєте корисне навантаження до get_realtime_response_stream,
який використовується для виклику кінцевої точки з потоковою відповіддю:
Згенерований текст із LLM буде передано на вихід, як показано на наступній анімації.
Прибирати
Щоб уникнути непотрібних витрат, використовуйте Консоль управління AWS щоб видалити кінцеві точки та пов’язані з ними ресурси, які були створені під час виконання підходів, згаданих у публікації. Для обох підходів до розгортання виконайте наступну процедуру очищення:
заміщати <SageMaker_Real-time_Endpoint_Name>
для змінної endpoint_name
з фактичною кінцевою точкою.
Для другого підходу ми зберегли артефакти моделі та коду на Amazon S3. Ви можете очистити відро S3 за допомогою такого коду:
Висновок
У цьому дописі ми обговорювали, як змінна кількість токенів відповідей або інший набір параметрів висновку може вплинути на затримки, пов’язані з LLM. Ми показали, як вирішити проблему за допомогою потокової передачі відповідей. Потім ми визначили два підходи до розгортання та створення моделей Llama 2 Chat за допомогою AWS DLC — LMI та Hugging Face TGI.
Тепер ви маєте зрозуміти важливість потокової відповіді та те, як вона може зменшити очікувану затримку. Потокова відповідь може покращити взаємодію з користувачем, яка інакше змусить вас чекати, поки LLM створить повну відповідь. Крім того, розгортання моделей Llama 2 Chat із потоковою передачею відповідей покращує взаємодію з користувачем і робить ваших клієнтів щасливими.
Ви можете звернутися до офіційних aws-зразків amazon-sagemaker-llama2-response-streaming-recipes який охоплює розгортання для інших варіантів моделі Llama 2.
посилання
Про авторів
Паван Кумар Рао Навуле є архітектором рішень в Amazon Web Services. Він працює з незалежними постачальниками програмного забезпечення в Індії, щоб допомогти їм впроваджувати інновації в AWS. Він є автором опублікованої книги «Початок роботи з програмуванням на V». Він здобув ступінь магістра технічних наук у галузі даних в Індійському технологічному інституті (IIT), Гайдарабад. Він також отримав ступінь Executive MBA зі спеціалізації ІТ в Індійській школі бізнес-менеджменту та адміністрування та має ступінь бакалавра технічних технологій у галузі електроніки та комунікаційної техніки в Інституті технологій і науки Ваагдеві. Паван є сертифікованим професіоналом архітектора рішень AWS і має інші сертифікати, такі як сертифікований спеціаліст з машинного навчання AWS, сертифікований професіонал Microsoft (MCP) і сертифікований спеціаліст з технологій Microsoft (MCTS). Він також є ентузіастом відкритого коду. У вільний час він любить слухати чудові чарівні голоси Сії та Ріанни.
Sudhanshu Hate є головним фахівцем зі штучного інтелекту/ML в AWS і працює з клієнтами, щоб консультувати їх щодо їх MLOps і генеративного штучного інтелекту. У своїй попередній посаді до Amazon він концептуалізував, створив і керував командами для створення базових платформ штучного інтелекту та гейміфікації на основі відкритого коду та успішно комерціалізував їх із понад 100 клієнтами. Судханшу має кілька патентів, написав дві книги, кілька статей і блогів, а також висловлював свою точку зору на різних технічних форумах. Він був лідером думок і спікером і працює в галузі майже 25 років. Він працював з клієнтами зі списку Fortune 1000 по всьому світу, а останнім часом працював із клієнтами цифрового походження в Індії.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://aws.amazon.com/blogs/machine-learning/inference-llama-2-models-with-real-time-response-streaming-using-amazon-sagemaker/
- : має
- :є
- :де
- $UP
- 1
- 10
- 100
- 11
- 12
- 14
- 15%
- 150
- 16
- 19
- 1st
- 25
- 32
- 385
- 50
- 7
- 70
- 8
- 9
- a
- здатність
- Здатний
- МЕНЮ
- прискорювати
- прискорюється
- прискорювач
- Прийняти
- доступ
- рахунки
- Achieve
- через
- дію
- фактичний
- Додатково
- адреса
- адміністрація
- прийняти
- Прийняття
- Перевага
- радити
- впливати
- після
- AI
- Моделі AI
- AI / ML
- Аліса
- Вирівнює
- ВСІ
- Дозволити
- дозволяє
- по
- вже
- Також
- Amazon
- Amazon SageMaker
- Amazon Web Services
- an
- та
- анімація
- оголошений
- Оголошення
- будь-який
- API
- застосування
- підхід
- підходи
- відповідний
- архітектурний
- архітектура
- ЕСТЬ
- аргумент
- аргументація
- AS
- помічники
- асоційований
- At
- автор
- доступний
- уникнути
- AWS
- назад
- база
- дозування
- BE
- оскільки
- було
- перед тим
- між
- За
- Мільярд
- мільярди
- BIN
- блоги
- тіло
- книга
- книги
- обидва
- будувати
- Будує
- побудований
- бізнес
- але
- by
- call
- Кампанія
- CAN
- здатний
- випадок
- сертифікати
- Сертифікований
- Зміни
- вантажі
- чат
- chatbots
- очистити
- клієнт
- клієнтів
- клуб
- код
- збір
- COM
- комбінований
- приходить
- Комунікація
- одночасно
- конфігурація
- підтвердження
- Контейнер
- Контейнери
- безперервний
- постійно
- управління
- може
- Пара
- купон
- покритий
- Обкладинки
- створювати
- створений
- створює
- створення
- кредит
- клієнт
- Задоволеність клієнтів
- Клієнти
- дані
- наука про дані
- Днів
- глибокий
- глибоке навчання
- за замовчуванням
- визначати
- певний
- Затримується
- демонструвати
- розгортання
- розгорнути
- розгортання
- розгортання
- докладно
- деталі
- розробників
- прилади
- різний
- цифровий
- обговорювалися
- Не знаю
- скачати
- під час
- Раніше
- або
- електроніка
- дозволяє
- Кінцева точка
- двигун
- Машинобудування
- ентузіаст
- Весь
- Навколишнє середовище
- особливо
- налагодження
- Навіть
- приклад
- виконавчий
- очікував
- чекає
- досвід
- Досліди
- дослідити
- Face
- полегшує
- false
- швидше
- філе
- Файли
- остаточний
- в кінці кінців
- Перший
- перший раз
- після
- слідує
- для
- форма
- формат
- стан
- форуми
- знайдений
- фонд
- чотири
- Безкоштовна
- від
- Повний
- повністю
- функція
- далі
- Гейміфікація
- ворота
- породжувати
- генерується
- породжує
- покоління
- генеративний
- Генеративний ШІ
- генератори
- отримати
- GIF
- земну кулю
- Go
- управляється
- GPU
- Графічні процесори
- надається
- великий
- щасливий
- ненавидіти
- Мати
- he
- допомога
- допомагає
- висока продуктивність
- вище
- його
- тримає
- відбувся
- хостинг
- Як
- How To
- Однак
- HTML
- HTTP
- HTTPS
- HuggingFace
- читається людиною
- ID
- ідентифікований
- Особистість
- if
- ілюструє
- зображення
- зображень
- Негайний
- здійснювати
- реалізація
- імпорт
- значення
- важливо
- удосконалювати
- поліпшується
- in
- включати
- У тому числі
- Індію
- індійський
- зазначений
- промисловість
- інформація
- Інфраструктура
- оновлювати
- вхід
- витрати
- всередині
- екземпляр
- замість
- Інститут
- інструкції
- інтерактивний
- інтернет
- питання
- IT
- ЙОГО
- подорож
- json
- ключ
- Кумар
- мова
- великий
- Затримка
- проблеми з затримкою
- пізніше
- останній
- запуск
- вести
- лідер
- вивчення
- Led
- довжина
- libraries
- ліцензія
- як
- рамки
- Лінія
- слухати
- Лама
- LLM
- погрузка
- розташований
- любить
- машина
- навчання за допомогою машини
- made
- зробити
- РОБОТИ
- управляти
- вдалося
- управління
- Маркетинг
- Макс
- Може..
- МСР
- пам'ять
- згаданий
- Meta
- метод
- методика
- Microsoft
- мільйони
- ML
- MLOps
- модель
- Моделі
- місяців
- більше
- найбільш
- музика
- повинен
- ім'я
- Названий
- рідний
- майже
- Необхідність
- потреби
- Нові
- наступний
- увагу
- ноутбук
- зараз
- номер
- об'єкти
- спостерігати
- отримувати
- отриманий
- of
- запропонований
- офіційний
- часто
- on
- ONE
- тільки
- відкрити
- з відкритим вихідним кодом
- варіант
- Опції
- or
- Інше
- інакше
- контури
- вихід
- над
- загальний
- упаковані
- упаковка
- документи
- Паралельні
- параметр
- параметри
- частина
- проходити
- Патенти
- шлях
- для
- сприймається
- Виконувати
- виконується
- Дозволи
- Платформи
- plato
- Інформація про дані Платона
- PlatoData
- точок
- популярний
- це можливо
- пошта
- Харчування
- попередній
- Готувати
- підготовка
- передумови
- представлений
- попередній
- Головний
- друк
- Проблема
- продовжити
- процес
- Оброблено
- обробка
- Product
- запуск продукта
- професійний
- профіль
- Програмування
- прогрес
- властивості
- забезпечувати
- за умови
- забезпечує
- забезпечення
- опублікований
- цілей
- Python
- піторх
- питання
- ранжування
- швидко
- швидше
- Читати
- готовий
- реальний
- реального часу
- реалізувати
- отримати
- отримано
- нещодавно
- рекомендувати
- рекомендований
- зменшити
- знижує
- зниження
- послатися
- зв'язок
- замінювати
- відповідь
- Сховище
- запросити
- запитів
- ресурси
- Реагувати
- відповідь
- відповіді
- результат
- повертати
- Умови повернення
- Роль
- рутина
- прогін
- біг
- пробіжки
- час виконання
- мудрець
- то ж
- задоволення
- шкала
- Школа
- наука
- Sdk
- безшовні
- другий
- розділ
- побачити
- послати
- посилає
- служити
- обслуговування
- Послуги
- виступаючої
- комплект
- налаштування
- кілька
- Короткий
- Повинен
- Показувати
- показав
- показаний
- Шоу
- підпис
- простий
- Знімок
- уривок
- рішення
- Рішення
- скоро
- Source
- вихідні
- Гучномовець
- спеціаліст
- спеціалізований
- Спеціальність
- специфікації
- зазначений
- почалася
- Статус
- Крок
- заходи
- Стоп
- зберігання
- зберігати
- зберігати
- стратегії
- потік
- потоковий
- потоковий
- Потокове сервіс
- процвітати
- успішний
- Успішно
- такі
- підтримка
- Підтриманий
- Опори
- таблиця
- Приймати
- Завдання
- команди
- технології
- технічний
- Технологія
- шаблон
- текст
- ніж
- Що
- Команда
- їх
- Їх
- потім
- Там.
- тим самим
- отже
- Ці
- вони
- це
- хоча?
- думка
- пропускна здатність
- час
- times
- до
- знак
- Жетони
- інструменти
- поїзд
- Переклад
- правда
- Поворот
- два
- тип
- Типи
- типово
- розуміти
- непотрібний
- до
- Використання
- використання
- використання випадку
- використовуваний
- користувач
- User Experience
- використання
- дійсний
- значення
- Цінності
- змінна
- різний
- різний
- величезний
- версія
- через
- вид
- Віртуальний
- візит
- ГОЛОСИ
- чекати
- Очікування
- хотіти
- we
- Web
- веб-сервіси
- ДОБРЕ
- були
- коли
- який
- в той час як
- всі
- чий
- волі
- з
- в
- без
- працював
- робочий
- робочі
- робочий
- Робочі процеси
- робочий
- працює
- б
- запис
- письмовий
- років
- Ти
- вашу
- зефірнет