Оскільки клієнти прискорюють перехід до хмари та трансформують свій бізнес, деякі опиняються в ситуації, коли їм доводиться керувати ІТ-операціями в багатохмарному середовищі. Наприклад, ви могли придбати компанію, яка вже працює в іншому хмарному провайдері, або у вас може бути робоче навантаження, яке створює цінність завдяки унікальним можливостям, наданим AWS. Іншим прикладом є незалежні постачальники програмного забезпечення (ISV), які роблять свої продукти та послуги доступними на різних хмарних платформах на користь своїх кінцевих клієнтів. Або організація може працювати в Регіоні, де основний хмарний постачальник недоступний, і щоб відповідати суверенітету даних або вимогам щодо постійності даних, вони можуть використовувати вторинного хмарного постачальника.
У цих сценаріях, коли ви починаєте використовувати генеративний штучний інтелект, великі мовні моделі (LLM) і технології машинного навчання (ML) як основну частину свого бізнесу, ви можете шукати варіанти, щоб скористатися перевагами AWS AI та ML можливості за межами AWS у багатохмарному середовищі. Наприклад, ви можете скористатися Amazon SageMaker для створення та навчання моделі ML або використання Amazon SageMaker Jumpstart для розгортання попередньо створеної основи або сторонніх моделей машинного навчання, які можна розгорнути, натиснувши кілька кнопок. Або ви можете скористатися Amazon Bedrock створювати та масштабувати генеративні програми AI, або ви можете використовувати Попередньо навчені служби ШІ AWS, які не вимагають від вас навичок машинного навчання. AWS надає підтримку для сценаріїв, де цього хочуть організації представити власну модель в Amazon SageMaker or в Amazon SageMaker Canvas для прогнозів.
У цій публікації ми демонструємо один із багатьох варіантів, які ви маєте, щоб скористатися перевагами найширшого та найглибшого набору можливостей AI/ML AWS у багатохмарному середовищі. Ми показуємо, як ви можете створити та навчити модель ML в AWS і розгорнути модель на іншій платформі. Ми навчаємо модель за допомогою Amazon SageMaker, зберігаємо артефакти моделі Служба простого зберігання Amazon (Amazon S3), а також розгорнути та запустити модель в Azure. Цей підхід корисний, якщо ви використовуєте служби AWS для ML для найповнішого набору функцій, але вам потрібно запустити свою модель в іншому хмарному провайдері в одній із ситуацій, які ми обговорювали.
Ключові поняття
Студія Amazon SageMaker це веб-інтегроване середовище розробки (IDE) для машинного навчання. SageMaker Studio дозволяє дослідникам даних, інженерам ML та інженерам обробки даних готувати дані, створювати, навчати та розгортати моделі ML в одному веб-інтерфейсі. За допомогою SageMaker Studio ви можете отримати доступ до спеціально створених інструментів для кожного етапу життєвого циклу розробки ML, від підготовки даних до створення, навчання та розгортання ваших моделей ML, підвищуючи продуктивність команди з обробки даних до десяти разів. Блокноти SageMaker Studio це блокноти для швидкого запуску для спільної роботи, які інтегруються зі спеціально розробленими інструментами ML у SageMaker та інших службах AWS.
SageMaker — це комплексна послуга ML, яка дозволяє бізнес-аналітикам, науковцям із обробки даних та інженерам MLOps створювати, навчати та розгортати моделі ML для будь-яких випадків використання, незалежно від досвіду ML.
AWS надає Контейнери глибокого навчання (DLC) для популярних фреймворків ML, таких як PyTorch, TensorFlow і Apache MXNet, які ви можете використовувати з SageMaker для навчання та висновків. DLC доступні як зображення Docker у Реєстр контейнерів Amazon Elastic (Amazon ECR). Образи Docker попередньо встановлені та протестовані з останніми версіями популярних фреймворків глибокого навчання, а також іншими залежностями, необхідними для навчання та висновків. Щоб отримати повний список попередньо зібраних образів Docker, якими керує SageMaker, див Шляхи реєстру Docker і приклад коду. Amazon ECR підтримує сканування безпеки та інтегровано з Амазонський інспектор Служба керування вразливостями, щоб відповідати вимогам безпеки вашої організації щодо відповідності зображень, а також автоматизувати сканування оцінки вразливостей. Організації також можуть використовувати AWS Trainium та AWS Inferentia для кращого співвідношення ціна-ефективність для виконання навчальних завдань або висновків з ML.
Огляд рішення
У цьому розділі ми описуємо, як створити та навчити модель за допомогою SageMaker і розгорнути модель у функціях Azure. Ми використовуємо блокнот SageMaker Studio для створення, навчання та розгортання моделі. Ми навчаємо модель у SageMaker, використовуючи попередньо створений образ Docker для PyTorch. Хоча в цьому випадку ми розгортаємо навчену модель в Azure, ви можете використати той самий підхід для розгортання моделі на інших платформах, наприклад на локальних або інших хмарних платформах.
Коли ми створюємо навчальне завдання, SageMaker запускає екземпляри ML compute і використовує наш навчальний код і навчальний набір даних для навчання моделі. Він зберігає отримані артефакти моделі та інші вихідні дані у сегменті S3, який ми вказуємо як вхідні дані для навчального завдання. Коли навчання моделі завершено, ми використовуємо Відкрита біржа нейронних мереж (ONNX) для експорту моделі PyTorch як моделі ONNX.
Нарешті, ми розгортаємо модель ONNX разом із спеціальним кодом висновку, написаним на Python, до функцій Azure за допомогою Azure CLI. ONNX підтримує більшість широко використовувані фреймворки та інструменти ML. Варто зауважити, що конвертувати модель ML у ONNX корисно, якщо ви хочете використовувати іншу цільову структуру розгортання, наприклад PyTorch у TensorFlow. Якщо ви використовуєте ту саму структуру як у джерелі, так і в цільовому, вам не потрібно перетворювати модель у формат ONNX.
Наступна діаграма ілюструє архітектуру цього підходу.
Ми використовуємо блокнот SageMaker Studio разом із SageMaker Python SDK для створення та навчання нашої моделі. SageMaker Python SDK — це бібліотека з відкритим кодом для навчання та розгортання моделей ML на SageMaker. Для отримання додаткової інформації див Створіть або відкрийте блокнот Amazon SageMaker Studio.
Фрагменти коду в наступних розділах протестовано в середовищі ноутбука SageMaker Studio з використанням образу Data Science 3.0 і ядра Python 3.0.
У цьому рішенні ми демонструємо наступні кроки:
- Навчання моделі PyTorch.
- Експортуйте модель PyTorch як модель ONNX.
- Упакуйте модель і код висновку.
- Розгорніть модель у функціях Azure.
Передумови
Ви повинні мати такі передумови:
- Обліковий запис AWS.
- Домен SageMaker і користувач SageMaker Studio. Інструкції щодо їх створення див Підключення до домену Amazon SageMaker за допомогою швидкого налаштування.
- Azure CLI.
- Доступ до Azure та облікові дані для принципала служби, який має дозволи на створення та керування функціями Azure.
Навчіть модель за допомогою PyTorch
У цьому розділі ми детально описуємо кроки для навчання моделі PyTorch.
Встановити залежностей
Встановіть бібліотеки, щоб виконати кроки, необхідні для навчання моделі та розгортання моделі:
pip install torchvision onnx onnxruntime
Завершіть початкове налаштування
Ми починаємо з імпорту AWS SDK для Python (Boto3) і SageMaker Python SDK. У рамках налаштування ми визначаємо наступне:
- Об’єкт сеансу, який надає зручні методи в контексті SageMaker і нашого власного облікового запису.
- ARN ролі SageMaker, яка використовується для делегування дозволів службі навчання та хостингу. Це нам потрібно, щоб ці служби мали доступ до сегментів S3, де зберігаються наші дані та модель. Інструкції щодо створення ролі, яка відповідає потребам вашого бізнесу, див Ролі SageMaker. Для цієї публікації ми використовуємо ту саму роль виконання, що й наш екземпляр блокнота Studio. Ми отримуємо цю роль, викликаючи
sagemaker.get_execution_role()
. - Регіон за замовчуванням, де виконуватиметься наша навчальна робота.
- Відро за замовчуванням і префікс, який ми використовуємо для зберігання результату моделі.
Дивіться наступний код:
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
Створіть навчальний набір даних
Ми використовуємо набір даних, доступний у загальнодоступному сегменті sagemaker-example-files-prod-{region}
. Набір даних містить такі файли:
- train-images-idx3-ubyte.gz – Містить зображення навчального набору
- train-labels-idx1-ubyte.gz – Містить етикетки для навчальних наборів
- t10k-images-idx3-ubyte.gz – Містить зображення тестового набору
- t10k-labels-idx1-ubyte.gz – Містить мітки тестового набору
Ми використовуємоtorchvision.datasets
модуль для локального завантаження даних із загальнодоступного сегмента, перш ніж завантажувати їх у наш сегмент навчальних даних. Ми передаємо це розташування відра як вхідні дані для навчального завдання SageMaker. Наш сценарій навчання використовує це місце для завантаження та підготовки даних навчання, а потім навчання моделі. Перегляньте наступний код:
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
Створіть сценарій навчання
За допомогою SageMaker ви можете створювати власну модель за допомогою сценарій. У режимі сценарію ви можете використовувати попередньо зібрані контейнери SageMaker і надати власний навчальний сценарій, який містить визначення моделі, а також будь-які спеціальні бібліотеки та залежності. The SageMaker Python SDK передає наш сценарій як entry_point
до контейнера, який завантажує та запускає функцію навчання з наданого сценарію для навчання нашої моделі.
Після завершення навчання SageMaker зберігає вихідні дані моделі в сегменті S3, який ми надали як параметр для завдання навчання.
Наш навчальний код адаптовано з наступного Приклад сценарію PyTorch. У наступному фрагменті коду показано визначення моделі та функцію поїзда:
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
Тренуйте модель
Тепер, коли ми налаштували наше середовище та створили наш вхідний набір даних і спеціальний сценарій навчання, ми можемо почати навчання моделі за допомогою SageMaker. Ми використовуємо оцінювач PyTorch у SageMaker Python SDK, щоб почати навчальну роботу на SageMaker. Ми передаємо потрібні параметри в оцінювач і викликаємо метод підгонки. Коли ми викликаємо підгонку в оцінювачі PyTorch, SageMaker починає навчальну роботу, використовуючи наш сценарій як навчальний код:
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
Експортуйте навчену модель як модель ONNX
Після завершення навчання та збереження нашої моделі у попередньо визначеному місці в Amazon S3 ми експортуємо модель у модель ONNX за допомогою середовища виконання ONNX.
Ми включаємо код для експорту нашої моделі в ONNX у наш сценарій навчання, який буде запущено після завершення навчання.
PyTorch експортує модель до ONNX, запускаючи модель, використовуючи наші вхідні дані, і записуючи трасування операторів, які використовуються для обчислення результату. Ми використовуємо випадковий вхід правильного типу з PyTorch torch.onnx.export
для експорту моделі в ONNX. Ми також визначаємо перший вимір у наших вхідних даних як динамічний, щоб наша модель приймала змінну batch_size
вхідних даних під час висновку.
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX — це відкритий стандартний формат для моделей глибокого навчання, який забезпечує взаємодію між фреймворками глибокого навчання, такими як PyTorch, Microsoft Cognitive Toolkit (CNTK) тощо. Це означає, що ви можете використовувати будь-який із цих фреймворків для навчання моделі та згодом експортувати попередньо навчені моделі у формат ONNX. Експортуючи модель до ONNX, ви отримуєте перевагу ширшого вибору пристроїв і платформ для розгортання.
Завантажте та розпакуйте артефакти моделі
Модель ONNX, збережену нашим навчальним сценарієм, була скопійована SageMaker до Amazon S3 у вихідному місці, яке ми вказали під час початку навчального завдання. Артефакти моделі зберігаються у вигляді стисненого архівного файлу під назвою model.tar.gz
. Ми завантажуємо цей архівний файл у локальний каталог нашого екземпляра блокнота Studio та витягуємо артефакти моделі, а саме модель ONNX.
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
Перевірте модель ONNX
Модель ONNX експортується у файл з іменем mnist-pytorch.onnx
за нашим сценарієм навчання. Після того, як ми завантажили та розпакували цей файл, ми можемо додатково перевірити модель ONNX за допомогою onnx.checker
модуль. Файл check_model
функція в цьому модулі перевіряє узгодженість моделі. Виняток виникає, якщо тест проходить невдало.
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
Упакуйте модель і код висновку
Для цієї публікації ми використовуємо розгортання .zip для функцій Azure. У цьому методі ми пакуємо нашу модель, супровідний код і параметри функцій Azure у файл .zip і публікуємо його у функціях Azure. Наступний код показує структуру каталогів нашого пакета розгортання:
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
Список залежностей
Ми перераховуємо залежності для нашого коду висновку в requirements.txt
файл у корені нашого пакета. Цей файл використовується для створення середовища функцій Azure, коли ми публікуємо пакет.
azure-functions
numpy
onnxruntime
Напишіть код висновку
Ми використовуємо Python для написання наступного коду висновку, використовуючи бібліотеку середовища виконання ONNX для завантаження нашої моделі та запуску висновку. Це вказує програмі Azure Functions зробити кінцеву точку доступною в /classify
відносний шлях.
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
Розгорніть модель у функціях Azure
Тепер, коли у нас є код, упакований у потрібний формат .zip, ми готові опублікувати його в Azure Functions. Ми робимо це за допомогою Azure CLI, утиліти командного рядка для створення та керування ресурсами Azure. Установіть Azure CLI за допомогою такого коду:
!pip install -q azure-cli
Потім виконайте наступні кроки:
- Увійдіть в Azure:
!az login
- Налаштуйте параметри створення ресурсу:
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- Використовуйте такі команди, щоб створити програму Azure Functions разом із необхідними ресурсами:
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Налаштуйте функції Azure так, щоб, коли ми розгортаємо пакет функцій,
requirements.txt
файл використовується для створення залежностей нашої програми:!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Налаштуйте програму Functions для запуску моделі Python v2 і побудуйте код, який вона отримує після розгортання .zip:
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- Коли у нас є група ресурсів, контейнер для зберігання та програма Functions із правильною конфігурацією, опублікуйте код у програмі Functions:
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
Випробуйте модель
Ми розгорнули модель ML у функціях Azure як HTTP-тригер, що означає, що ми можемо використовувати URL-адресу програми Functions для надсилання HTTP-запиту до функції для виклику функції та запуску моделі.
Щоб підготувати вхідні дані, завантажте файли тестових зображень із файлів прикладів SageMaker і підготуйте набір зразків у форматі, який вимагає модель:
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
Використовуйте бібліотеку запитів, щоб надіслати запит на публікацію до кінцевої точки висновку із зразками вхідних даних. Кінцева точка висновку приймає формат, як показано в наступному коді:
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
Прибирати
Завершивши тестування моделі, видаліть групу ресурсів разом із ресурсами, що містяться, включно з контейнером для зберігання та програмою Functions:
!az group delete --name {resource_group_name} --yes
Крім того, для зменшення витрат рекомендується вимкнути неактивні ресурси в SageMaker Studio. Для отримання додаткової інформації див Заощаджуйте витрати шляхом автоматичного вимкнення простоїв ресурсів у Amazon SageMaker Studio.
Висновок
У цій публікації ми показали, як ви можете створити та навчити модель ML за допомогою SageMaker і розгорнути її в іншому хмарному провайдері. У рішенні ми використовували блокнот SageMaker Studio, але для виробничих навантажень ми рекомендуємо використовувати MLOps створити повторювані навчальні робочі процеси для прискорення розробки та розгортання моделі.
У цій публікації не показано всі можливі способи розгортання та запуску моделі в багатохмарному середовищі. Наприклад, ви також можете запакувати свою модель в образ контейнера разом із кодом висновку та бібліотеками залежностей, щоб запустити модель як контейнерну програму на будь-якій платформі. Додаткову інформацію про цей підхід див Розгортайте програми-контейнери в багатохмарному середовищі за допомогою Amazon CodeCatalyst. Мета публікації — показати, як організації можуть використовувати можливості AWS AI/ML у багатохмарному середовищі.
Про авторів
Раджа Вайдянатан є архітектором рішень в AWS, який підтримує глобальних клієнтів фінансових послуг. Раджа працює з клієнтами, щоб розробити рішення для складних проблем із довгостроковим позитивним впливом на їхній бізнес. Він є сильним інженером, який має навички в ІТ-стратегії, управлінні корпоративними даними та архітектурі додатків, особливо цікавиться аналітикою та машинним навчанням.
Амандіп Баджва є старшим архітектором рішень в AWS, що підтримує фінансові послуги. Він допомагає організаціям досягати бізнес-результатів, визначаючи відповідну стратегію трансформації хмари на основі галузевих тенденцій і організаційних пріоритетів. Деякі з сфер, у яких Amandeep консультує, це хмарна міграція, хмарна стратегія (включаючи гібридні та багатохмарні), цифрова трансформація, дані та аналітика, а також технології в цілому.
Према Ієр є старшим технічним менеджером з обслуговування клієнтів AWS Enterprise Support. Вона працює із зовнішніми клієнтами над різними проектами, допомагаючи їм підвищити цінність їхніх рішень при використанні AWS.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- : має
- :є
- : ні
- :де
- $UP
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- МЕНЮ
- прискорювати
- Приймає
- доступ
- рахунки
- Achieve
- придбаний
- Перевага
- після
- AI
- AI / ML
- ВСІ
- дозволяє
- по
- вже
- Також
- хоча
- Amazon
- Amazon SageMaker
- Canvas Amazon SageMaker
- Студія Amazon SageMaker
- Amazon Web Services
- an
- аналітики
- аналітика
- та
- анонімний
- Інший
- будь-який
- Apache
- додаток
- додаток
- застосування
- підхід
- відповідний
- архітектура
- архів
- ЕСТЬ
- області
- AS
- оцінка
- At
- автоматизувати
- автоматично
- доступний
- AWS
- Оси
- Лазурний
- заснований
- BE
- було
- перед тим
- починати
- корисний
- користь
- Краще
- між
- обидва
- приносити
- ширше
- будувати
- Створюємо
- бізнес
- але
- by
- call
- званий
- покликання
- CAN
- полотно
- можливості
- нести
- випадок
- Перевірки
- клас
- Класифікувати
- клацання
- хмара
- код
- пізнавальний
- спільний
- компанія
- повний
- комплекс
- дотримання
- всеосяжний
- обчислення
- конфігурація
- містяться
- Контейнер
- Контейнери
- містить
- контекст
- зручність
- конвертувати
- перетворення
- Core
- витрати
- може
- створювати
- створений
- створення
- створення
- Повноваження
- виготовлений на замовлення
- Клієнти
- дані
- управління даними
- Підготовка даних
- наука про дані
- набори даних
- глибокий
- глибоке навчання
- найглибший
- дефолт
- визначати
- визначення
- демонструвати
- залежно
- Залежність
- розгортання
- розгорнути
- розгортання
- розгортання
- описувати
- деталь
- деталі
- розробка
- пристрій
- прилади
- різний
- цифровий
- цифрове перетворення
- цифр
- Розмір
- обговорювалися
- do
- Docker
- домен
- зроблений
- Не знаю
- вниз
- скачати
- під час
- динамічний
- e
- ще
- обійняти
- дозволяє
- дозволяє
- кінець
- Кінцева точка
- Машинобудування
- Інженери
- підприємство
- підприємств
- Навколишнє середовище
- епоха
- епохи
- Кожен
- приклад
- Крім
- виняток
- виконання
- експертиза
- експорт
- експорт
- зовнішній
- витяг
- зазнає невдачі
- риси
- кілька
- філе
- Файли
- фінансовий
- фінансові послуги
- знайти
- Перший
- відповідати
- після
- для
- формат
- фонд
- Рамки
- каркаси
- від
- функція
- Функції
- Загальне
- генерує
- генеративний
- Генеративний ШІ
- отримати
- Глобальний
- глобальні фінансові
- Group
- Мати
- he
- допомогу
- допомагає
- хостинг
- Як
- How To
- HTML
- HTTP
- HTTPS
- гібрид
- ID
- ідентифікує
- Idle
- if
- ілюструє
- зображення
- зображень
- Impact
- імпорт
- імпорт
- удосконалювати
- поліпшення
- in
- включати
- У тому числі
- незалежний
- промисловість
- інформація
- початковий
- вхід
- витрати
- встановлювати
- екземпляр
- інструкції
- інтегрувати
- інтегрований
- намір
- інтереси
- інтерфейс
- Взаємодія
- в
- IT
- ЙОГО
- робота
- Джобс
- JPG
- json
- мова
- великий
- останній
- запуски
- УЧИТЬСЯ
- вивчення
- довжина
- Важіль
- libraries
- бібліотека
- Життєвий цикл
- Лінія
- Linux
- список
- загрузка
- вантажі
- місцевий
- локально
- розташування
- каротаж
- довгостроковий
- шукати
- від
- машина
- навчання за допомогою машини
- зробити
- управляти
- вдалося
- управління
- менеджер
- багато
- карта
- matplotlib
- Може..
- засоби
- Зустрічатися
- відповідає
- метод
- методика
- Microsoft
- може бути
- міграція
- ML
- MLOps
- режим
- модель
- Моделі
- Модулі
- більше
- найбільш
- ім'я
- Названий
- а саме
- Необхідність
- необхідний
- потреби
- мережу
- мережу
- нервовий
- нейронної мережі
- ноутбук
- нумпі
- об'єкт
- of
- on
- ONE
- відкрити
- з відкритим вихідним кодом
- операційний
- операції
- Оператори
- Опції
- or
- порядок
- організація
- організаційної
- організації
- OS
- Інше
- наші
- з
- Результати
- вихід
- поза
- власний
- пакет
- упаковані
- параметр
- параметри
- частина
- приватність
- партія
- проходити
- проходить
- шлях
- Виконувати
- Дозволи
- платформа
- Платформи
- plato
- Інформація про дані Платона
- PlatoData
- популярний
- позитивний
- це можливо
- пошта
- Прогнози
- підготовка
- Готувати
- передумови
- первинний
- Головний
- проблеми
- Оброблено
- Production
- продуктивність
- Продукти
- професійний
- проектів
- забезпечувати
- за умови
- Постачальник
- забезпечує
- громадськість
- публікувати
- Python
- піторх
- Швидко
- піднятий
- випадковий
- готовий
- отримує
- рекомендований
- запис
- зменшити
- послатися
- Незалежно
- регіон
- реєстру
- відносний
- повторюваний
- запросити
- запитів
- вимагати
- вимагається
- Вимога
- ресурс
- ресурси
- відповідь
- результат
- в результаті
- повертати
- право
- Роль
- корінь
- прогін
- біг
- пробіжки
- мудрець
- то ж
- зберігаються
- шкала
- сканування
- сценарії
- наука
- Вчені
- сценарій
- Sdk
- вторинний
- розділ
- розділам
- безпеку
- побачити
- вибір
- SELF
- послати
- старший
- обслуговування
- Послуги
- Сесія
- комплект
- налаштування
- установка
- Форма
- вона
- Повинен
- Показувати
- показав
- показаний
- Шоу
- Вимикати
- закриття
- простий
- ситуацій
- кваліфікований
- навички
- So
- Софтвер
- рішення
- Рішення
- деякі
- Source
- суверенітет
- зазначений
- Стажування
- standard
- старт
- почалася
- починається
- заходи
- зберігання
- зберігати
- зберігати
- Стратегія
- рядок
- сильний
- структура
- студія
- Згодом
- Успішно
- такі
- підтримка
- Підтримуючий
- Опори
- Приймати
- приймає
- Мета
- команда
- технічний
- Технології
- Технологія
- десять
- тензорний потік
- тест
- перевірений
- Тестування
- текст
- Що
- Команда
- Джерело
- їх
- Їх
- самі
- потім
- Ці
- вони
- річ
- третій
- це
- times
- до
- Інструментарій
- інструменти
- факел
- Torchvision
- Трасування
- поїзд
- навчений
- Навчання
- Перетворення
- Перетворення
- Стратегія трансформації
- перетворення
- Тенденції
- викликати
- спрацьовує
- правда
- намагатися
- тип
- створеного
- завантажено
- Завантаження
- URL
- використання
- використання випадку
- використовуваний
- користувач
- використовує
- використання
- утиліта
- ПЕРЕВІР
- значення
- змінна
- різноманітність
- постачальники
- версії
- вразливість
- хотіти
- було
- способи
- we
- Web
- веб-сервіси
- Web-Based
- ДОБРЕ
- коли
- який
- волі
- з
- в
- Робочі процеси
- працює
- запис
- письмовий
- X
- ще
- Ти
- вашу
- зефірнет
- Zip