По мере того как клиенты ускоряют миграцию в облако и трансформируют свой бизнес, некоторые из них оказываются в ситуациях, когда им приходится управлять ИТ-операциями в мультиоблачной среде. Например, вы могли приобрести компанию, которая уже работала у другого поставщика облачных услуг, или у вас может быть рабочая нагрузка, которая генерирует ценность за счет уникальных возможностей, предоставляемых AWS. Другим примером являются независимые поставщики программного обеспечения (ISV), которые делают свои продукты и услуги доступными на различных облачных платформах, чтобы принести пользу своим конечным клиентам. Или организация может работать в регионе, где основной поставщик облачных услуг недоступен, и для удовлетворения требований суверенитета или резидентности данных она может использовать вторичного поставщика облачных услуг.
В этих сценариях, когда вы начнете использовать генеративный искусственный интеллект, большие языковые модели (LLM) и технологии машинного обучения (ML) в качестве основной части вашего бизнеса, вы можете искать варианты, которыми можно воспользоваться. AWS ИИ и машинное обучение возможности за пределами AWS в мультиоблачной среде. Например, вы можете захотеть использовать Создатель мудреца Амазонки построить и обучить модель ML или использовать Быстрый запуск Amazon SageMaker для развертывания предварительно созданной основы или сторонних моделей машинного обучения, которые можно развернуть одним нажатием нескольких кнопок. Или вы можете воспользоваться Коренная порода Амазонки для создания и масштабирования генеративных приложений искусственного интеллекта или вы можете использовать Предварительно обученные сервисы искусственного интеллекта AWS, которые не требуют от вас изучения навыков машинного обучения. AWS обеспечивает поддержку сценариев, в которых организации хотят перенести свою собственную модель в Amazon SageMaker or в Amazon SageMaker Canvas для прогнозов.
В этом посте мы демонстрируем один из многих вариантов использования широчайшего и глубокого набора возможностей AWS в области искусственного интеллекта и машинного обучения в мультиоблачной среде. Мы покажем, как можно создать и обучить модель машинного обучения в AWS и развернуть ее на другой платформе. Обучаем модель с помощью Amazon SageMaker, сохраняем артефакты модели в Простой сервис хранения Amazon (Amazon S3), а также разверните и запустите модель в Azure. Этот подход выгоден, если вы используете сервисы AWS для машинного обучения из-за его наиболее полного набора функций, но в одной из ситуаций, которые мы обсуждали, вам необходимо запустить свою модель у другого поставщика облачных услуг.
Ключевые идеи
Студия Amazon SageMaker — это веб-интегрированная среда разработки (IDE) для машинного обучения. SageMaker Studio позволяет специалистам по данным, инженерам машинного обучения и инженерам данных готовить данные, создавать, обучать и развертывать модели машинного обучения в одном веб-интерфейсе. С помощью SageMaker Studio вы можете получить доступ к специально созданным инструментам для каждого этапа жизненного цикла разработки ML, от подготовки данных до построения, обучения и развертывания моделей ML, что повышает производительность команды по обработке данных до десяти раз. Блокноты SageMaker Studio — это блокноты для быстрого запуска, предназначенные для совместной работы, которые интегрируются со специальными инструментами машинного обучения в SageMaker и других сервисах AWS.
SageMaker — это комплексный сервис машинного обучения, позволяющий бизнес-аналитикам, специалистам по обработке данных и инженерам MLOps создавать, обучать и развертывать модели машинного обучения для любого варианта использования, независимо от опыта машинного обучения.
AWS предоставляет Контейнеры глубокого обучения (DLC) для популярных платформ машинного обучения, таких как PyTorch, TensorFlow и Apache MXNet, которые вы можете использовать с SageMaker для обучения и вывода. DLC доступны в виде образов Docker в Реестр Amazon Elastic Container (Амазонка ECR). Образы Docker предварительно установлены и протестированы с использованием последних версий популярных сред глубокого обучения, а также других зависимостей, необходимых для обучения и вывода. Полный список готовых образов Docker, управляемых SageMaker, см. Пути реестра Docker и пример кода. Amazon ECR поддерживает сканирование безопасности и интегрирован с Амазонка инспектор Служба управления уязвимостями для удовлетворения требований безопасности вашей организации к соответствию образам и для автоматизации сканирования оценки уязвимостей. Организации также могут использовать AWS Трениум и Вывод AWS для лучшего соотношения цены и качества при выполнении заданий по обучению или выводам ML.
Обзор решения
В этом разделе мы опишем, как создать и обучить модель с помощью SageMaker и развернуть ее в функциях Azure. Мы используем блокнот SageMaker Studio для создания, обучения и развертывания модели. Мы обучаем модель в SageMaker, используя готовый образ Docker для PyTorch. Хотя в данном случае мы развертываем обученную модель в Azure, вы можете использовать тот же подход для развертывания модели на других платформах, например локально или других облачных платформах.
Когда мы создаем задание обучения, SageMaker запускает экземпляры вычислений ML и использует наш обучающий код и набор обучающих данных для обучения модели. Он сохраняет результирующие артефакты модели и другие выходные данные в сегменте S3, который мы указываем в качестве входных данных для задания обучения. Когда обучение модели завершено, мы используем метод Открытая нейросетевая биржа (ONNX) для экспорта модели PyTorch как модели ONNX.
Наконец, мы развертываем модель ONNX вместе с пользовательским кодом вывода, написанным на Python, в функциях Azure с помощью Azure CLI. ONNX поддерживает большинство часто используемые платформы и инструменты машинного обучения. Следует отметить, что преобразование модели ML в ONNX полезно, если вы хотите использовать другую целевую среду развертывания, например PyTorch в TensorFlow. Если вы используете одну и ту же платформу как в исходном, так и в целевом формате, вам не нужно преобразовывать модель в формат ONNX.
На следующей диаграмме показана архитектура этого подхода.
Мы используем блокнот SageMaker Studio вместе с SDK для SageMaker Python построить и обучить нашу модель. SageMaker Python SDK — это библиотека с открытым исходным кодом для обучения и развертывания моделей машинного обучения в SageMaker. Для получения более подробной информации см. Создайте или откройте блокнот Amazon SageMaker Studio..
Фрагменты кода в следующих разделах были протестированы в среде блокнота SageMaker Studio с использованием образа Data Science 3.0 и ядра Python 3.0.
В этом решении мы демонстрируем следующие шаги:
- Обучите модель PyTorch.
- Экспортируйте модель PyTorch как модель ONNX.
- Упакуйте модель и код вывода.
- Разверните модель в функциях Azure.
Предпосылки
У вас должны быть следующие предпосылки:
- Аккаунт AWS.
- Домен SageMaker и пользователь SageMaker Studio. Инструкции по их созданию см. Подключение к домену Amazon SageMaker с помощью быстрой настройки.
- Azure CLI.
- Доступ к Azure и учетные данные для субъекта-службы, у которого есть разрешения на создание функций Azure и управление ими.
Обучение модели с помощью PyTorch
В этом разделе мы подробно описываем шаги по обучению модели PyTorch.
Установить зависимости
Установите библиотеки, чтобы выполнить шаги, необходимые для обучения и развертывания модели:
pip install torchvision onnx onnxruntime
Завершить первоначальную настройку
Начнем с импорта AWS SDK для Python (Boto3) и SDK для SageMaker Python. В рамках настройки мы определяем следующее:
- Объект сеанса, предоставляющий удобные методы в контексте SageMaker и нашей собственной учетной записи.
- Роль SageMaker ARN, используемая для делегирования разрешений службе обучения и хостинга. Нам это нужно, чтобы эти сервисы могли получить доступ к корзинам S3, где хранятся наши данные и модель. Инструкции по созданию роли, соответствующей потребностям вашего бизнеса, см. Роли SageMaker. В этом посте мы используем ту же роль выполнения, что и наш экземпляр блокнота Studio. Мы получаем эту роль, вызывая
sagemaker.get_execution_role()
. - Регион по умолчанию, в котором будет выполняться наше задание по обучению.
- Корзина по умолчанию и префикс, которые мы используем для хранения выходных данных модели.
Смотрите следующий код:
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
Создайте набор обучающих данных
Мы используем набор данных, доступный в публичном ведре. sagemaker-example-files-prod-{region}
. Набор данных содержит следующие файлы:
- поезд-изображения-idx3-ubite.gz – Содержит изображения обучающего набора
- поезд-метки-idx1-ubite.gz – Содержит метки обучающих наборов
- t10k-images-idx3-ubyte.gz – Содержит изображения тестового набора
- t10k-labels-idx1-ubyte.gz – Содержит этикетки наборов тестов
Мы используемtorchvision.datasets
модуль для локальной загрузки данных из общедоступной корзины перед их загрузкой в нашу корзину обучающих данных. Мы передаем это местоположение сегмента в качестве входных данных для задания обучения SageMaker. Наш сценарий обучения использует это место для загрузки и подготовки данных обучения, а затем обучения модели. См. следующий код:
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
Создайте сценарий обучения
С помощью SageMaker вы можете создать свою собственную модель, используя режим сценария. В режиме сценария вы можете использовать предварительно созданные контейнеры SageMaker и предоставить собственный сценарий обучения, содержащий определение модели, а также любые пользовательские библиотеки и зависимости. SDK для SageMaker Python передает наш скрипт как entry_point
в контейнер, который загружает и запускает функцию обучения из предоставленного скрипта для обучения нашей модели.
По завершении обучения SageMaker сохраняет выходные данные модели в корзине S3, которые мы предоставили в качестве параметра задания обучения.
Наш обучающий код адаптирован из следующего Пример скрипта PyTorch. Следующий отрывок из кода показывает определение модели и функцию поезда:
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
Тренируй модель
Теперь, когда мы настроили нашу среду и создали входной набор данных и собственный сценарий обучения, мы можем начать обучение модели с помощью SageMaker. Мы используем оценщик PyTorch в SageMaker Python SDK, чтобы начать обучение в SageMaker. Мы передаем необходимые параметры оценщику и вызываем метод подгонки. Когда мы вызываем функцию fit в оценщике PyTorch, SageMaker запускает задание обучения, используя наш скрипт в качестве обучающего кода:
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
Экспортируйте обученную модель как модель ONNX.
После завершения обучения и сохранения нашей модели в предопределенном месте в Amazon S3 мы экспортируем модель в модель ONNX, используя среду выполнения ONNX.
Мы включаем код для экспорта нашей модели в ONNX в наш сценарий обучения, который будет запускаться после завершения обучения.
PyTorch экспортирует модель в ONNX, запуская модель с использованием наших входных данных и записывая трассировку операторов, используемых для вычисления выходных данных. Мы используем случайный ввод правильного типа с PyTorch. torch.onnx.export
функция для экспорта модели в ONNX. Мы также указываем первое измерение во входных данных как динамическое, чтобы наша модель принимала переменную. batch_size
входных данных во время вывода.
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX — это открытый стандартный формат для моделей глубокого обучения, который обеспечивает взаимодействие между платформами глубокого обучения, такими как PyTorch, Microsoft Cognitive Toolkit (CNTK) и другими. Это означает, что вы можете использовать любую из этих платформ для обучения модели и последующего экспорта предварительно обученных моделей в формат ONNX. Экспортируя модель в ONNX, вы получаете более широкий выбор устройств и платформ для развертывания.
Загрузите и извлеките артефакты модели.
Модель ONNX, которую сохранил наш сценарий обучения, была скопирована SageMaker в Amazon S3 в выходное расположение, которое мы указали при запуске задания обучения. Артефакты модели хранятся в виде сжатого архивного файла с именем model.tar.gz
. Мы загружаем этот архивный файл в локальный каталог нашего экземпляра блокнота Studio и извлекаем артефакты модели, а именно модель ONNX.
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
Проверка модели ONNX
Модель ONNX экспортируется в файл с именем mnist-pytorch.onnx
по нашему сценарию обучения. После того, как мы загрузили и извлекли этот файл, мы можем дополнительно проверить модель ONNX, используя команду onnx.checker
модуль. check_model
Функция в этом модуле проверяет согласованность модели. Исключение возникает, если тест не пройден.
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
Упакуйте модель и код вывода
В этом посте мы используем развертывание .zip для функций Azure. В этом методе мы упаковываем нашу модель, сопутствующий код и параметры функций Azure в ZIP-файл и публикуем его в функциях Azure. Следующий код показывает структуру каталогов нашего пакета развертывания:
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
Список зависимостей
Мы перечисляем зависимости для нашего кода вывода в файле requirements.txt
файл в корне нашего пакета. Этот файл используется для создания среды функций Azure при публикации пакета.
azure-functions
numpy
onnxruntime
Напишите код вывода
Мы используем Python для написания следующего кода вывода, используя библиотеку времени выполнения ONNX для загрузки нашей модели и запуска вывода. Это дает указание приложению «Функции Azure» сделать конечную точку доступной на /classify
относительный путь.
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
Развертывание модели в функциях Azure.
Теперь, когда у нас есть код, упакованный в необходимый формат ZIP, мы готовы опубликовать его в функциях Azure. Мы делаем это с помощью Azure CLI — утилиты командной строки для создания ресурсов Azure и управления ими. Установите Azure CLI с помощью следующего кода:
!pip install -q azure-cli
Затем выполните следующие действия:
- Войдите в Azure:
!az login
- Настройте параметры создания ресурса:
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- Используйте следующие команды, чтобы создать приложение «Функции Azure» вместе с необходимыми ресурсами:
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Настройте Функции Azure, чтобы при развертывании пакета Функций
requirements.txt
файл используется для построения зависимостей нашего приложения:!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Настройте приложение «Функции» для запуска модели Python v2 и выполнения сборки на основе кода, полученного после развертывания ZIP-файла:
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- После того как у нас есть группа ресурсов, контейнер хранилища и приложение «Функции» с правильной конфигурацией, опубликуйте код в приложении «Функции»:
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
Протестируйте модель
Мы развернули модель машинного обучения в функциях Azure в качестве триггера HTTP. Это означает, что мы можем использовать URL-адрес приложения функций для отправки HTTP-запроса функции для вызова функции и запуска модели.
Чтобы подготовить входные данные, загрузите файлы тестовых изображений из корзины файлов примеров SageMaker и подготовьте набор образцов в формате, требуемом моделью:
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
Используйте библиотеку запросов, чтобы отправить запрос на отправку в конечную точку вывода с примерами входных данных. Конечная точка вывода принимает формат, показанный в следующем коде:
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
Убирать
Завершив тестирование модели, удалите группу ресурсов вместе с содержащимися в ней ресурсами, включая контейнер хранилища и приложение «Функции».
!az group delete --name {resource_group_name} --yes
Кроме того, для снижения затрат рекомендуется отключать простаивающие ресурсы в SageMaker Studio. Для получения дополнительной информации см. Сэкономьте за счет автоматического отключения неиспользуемых ресурсов в Amazon SageMaker Studio..
Заключение
В этом посте мы показали, как можно создать и обучить модель машинного обучения с помощью SageMaker и развернуть ее у другого облачного провайдера. В решении мы использовали блокнот SageMaker Studio, но для производственных задач мы рекомендовали использовать млн операций в секунду создать повторяемые рабочие процессы обучения для ускорения разработки и развертывания моделей.
В этом посте не показаны все возможные способы развертывания и запуска модели в мультиоблачной среде. Например, вы также можете упаковать свою модель в образ контейнера вместе с кодом вывода и библиотеками зависимостей, чтобы запустить модель как контейнерное приложение на любой платформе. Дополнительную информацию об этом подходе см. Развертывайте контейнерные приложения в мультиоблачной среде с помощью Amazon CodeCatalyst.. Цель публикации — показать, как организации могут использовать возможности AWS AI/ML в мультиоблачной среде.
Об авторах
Раджа Вайдьянатан — архитектор решений в AWS, занимающийся поддержкой клиентов финансовых услуг по всему миру. Раджа работает с клиентами над разработкой решений сложных проблем, оказывающих долгосрочное положительное влияние на их бизнес. Он сильный инженер-профессионал, обладающий знаниями в области ИТ-стратегии, управления корпоративными данными и архитектуры приложений, с особым интересом к аналитике и машинному обучению.
Амандип Баджва — старший архитектор решений в AWS, поддерживающий предприятия финансовых услуг. Он помогает организациям достичь бизнес-результатов, определяя подходящую стратегию облачной трансформации на основе отраслевых тенденций и приоритетов организации. Некоторые из областей, по которым консультируется Амандип, — это миграция в облако, облачная стратегия (включая гибридные и мультиоблачные), цифровая трансформация, данные и аналитика, а также технологии в целом.
Према Айер является старшим техническим менеджером службы поддержки AWS Enterprise. Она работает с внешними клиентами над различными проектами, помогая им повысить ценность своих решений при использовании AWS.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- :имеет
- :является
- :нет
- :куда
- $UP
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- О нас
- ускорять
- Принимает
- доступ
- Учетная запись
- Достигать
- приобретенный
- плюс
- После
- AI
- AI / ML
- Все
- позволяет
- вдоль
- уже
- причислены
- Несмотря на то, что
- Amazon
- Создатель мудреца Амазонки
- Холст Amazon SageMaker
- Студия Amazon SageMaker
- Amazon Web Services
- an
- Аналитики
- аналитика
- и
- Anonymous
- Другой
- любой
- апаш
- приложение
- Применение
- Приложения
- подхода
- соответствующий
- архитектура
- архив
- МЫ
- области
- AS
- оценки;
- At
- автоматизировать
- автоматически
- доступен
- AWS
- ОСИ
- Лазурный
- основанный
- BE
- было
- до
- начинать
- полезный
- польза
- Лучшая
- между
- изоферменты печени
- приносить
- шире
- строить
- Строительство
- бизнес
- но
- by
- призывают
- под названием
- вызова
- CAN
- холст
- возможности
- нести
- случаев
- Проверки
- класс
- классифицировать
- нажмите на
- облако
- код
- познавательный
- совместный
- Компания
- полный
- комплекс
- Соответствие закону
- комплексный
- Вычисление
- Конфигурация
- содержащегося
- Container
- Контейнеры
- содержит
- контекст
- удобство
- конвертировать
- преобразование
- Основные
- Расходы
- может
- Создайте
- создали
- Создающий
- создание
- Полномочия
- изготовленный на заказ
- Клиенты
- данным
- управление данными
- Подготовка данных
- наука о данных
- Наборы данных
- глубоко
- глубокое обучение
- глубоком
- По умолчанию
- определять
- определение
- демонстрировать
- Зависимости
- Зависимость
- развертывание
- развернуть
- развертывание
- развертывание
- описывать
- подробность
- подробнее
- Развитие
- устройство
- Устройства
- различный
- Интернет
- цифровое преобразование
- цифры
- Размеры
- обсуждается
- do
- Docker
- домен
- сделанный
- Dont
- вниз
- скачать
- в течение
- динамический
- e
- еще
- обниматься
- позволяет
- позволяет
- конец
- Конечная точка
- Проект и
- Инженеры
- Предприятие
- предприятий
- Окружающая среда
- эпоха
- эпохи
- Каждая
- пример
- Кроме
- исключение
- выполнение
- опыта
- экспорт
- Izvoz,en
- и, что лучший способ
- извлечение
- не удается
- Особенности
- несколько
- Файл
- Файлы
- финансовый
- финансовые услуги
- Найдите
- Во-первых,
- соответствовать
- после
- Что касается
- формат
- Год основания
- Рамки
- каркасы
- от
- функция
- Функции
- Общие
- генерирует
- генеративный
- Генеративный ИИ
- получить
- Глобальный
- глобальный финансовый
- группы
- Есть
- he
- помощь
- помогает
- хостинг
- Как
- How To
- HTML
- HTTP
- HTTPS
- Гибридный
- ID
- идентифицирующий
- Idle
- if
- иллюстрирует
- изображение
- изображений
- Влияние
- Импортировать
- импортирующий
- улучшать
- улучшение
- in
- включают
- В том числе
- независимые
- промышленность
- информация
- начальный
- вход
- затраты
- устанавливать
- пример
- инструкции
- интегрировать
- интегрированный
- намерение
- интересы
- Интерфейс
- Взаимодействие
- в
- IT
- ЕГО
- работа
- Джобс
- JPG
- JSON
- язык
- большой
- последний
- запускает
- УЧИТЬСЯ
- изучение
- Длина
- Кредитное плечо
- библиотеки
- Библиотека
- Жизненный цикл
- линия
- Linux
- Список
- загрузка
- грузы
- локальным
- в местном масштабе
- расположение
- каротаж
- долгосрочный
- искать
- от
- машина
- обучение с помощью машины
- сделать
- управлять
- управляемого
- управление
- менеджер
- многих
- карта
- Matplotlib
- Май..
- означает
- Встречайте
- Соответствует
- метод
- методы
- Microsoft
- может быть
- миграция
- ML
- млн операций в секунду
- режим
- модель
- Модели
- Модули
- БОЛЕЕ
- самых
- имя
- Названный
- а именно
- Необходимость
- необходимый
- потребности
- сеть
- сеть
- нервный
- нейронной сети
- ноутбук
- NumPy
- объект
- of
- on
- ONE
- открытый
- с открытым исходным кодом
- операционный
- Операционный отдел
- Операторы
- Опции
- or
- заказ
- организация
- организационной
- организации
- OS
- Другое
- наши
- внешний
- Результаты
- выходной
- внешнюю
- собственный
- пакет
- в упаковке
- параметр
- параметры
- часть
- особый
- вечеринка
- pass
- проходит
- путь
- Выполнять
- Разрешения
- Платформа
- Платформы
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- Популярное
- положительный
- возможное
- После
- Predictions
- подготовка
- Подготовить
- предпосылки
- первичный
- Основной
- проблемам
- Обработанный
- Производство
- производительность
- Продукция
- профессиональный
- проектов
- обеспечивать
- при условии
- Недвижимости
- приводит
- что такое варган?
- публиковать
- Питон
- pytorch
- САЙТ
- поднятый
- случайный
- готовый
- получает
- Управление по борьбе с наркотиками (DEA)
- запись
- уменьшить
- относиться
- Несмотря на
- область
- реестра
- относительный
- повторяемый
- запросить
- Запросы
- требовать
- обязательный
- Требования
- ресурс
- Полезные ресурсы
- ответ
- результат
- в результате
- возвращают
- правую
- Роли
- корень
- Run
- Бег
- работает
- sagemaker
- то же
- сохраняются
- Шкала
- сканирование
- Сценарии
- Наука
- Ученые
- скрипт
- SDK
- вторичный
- Раздел
- разделах
- безопасность
- посмотреть
- выбор
- SELF
- Отправить
- старший
- обслуживание
- Услуги
- Сессия
- набор
- настройки
- установка
- Форма
- она
- должен
- показывать
- показал
- показанный
- Шоу
- выключать
- закрытие
- просто
- обстоятельства
- квалифицированный
- навыки
- So
- Software
- Решение
- Решения
- некоторые
- Источник
- суверенитет
- указанный
- Этап
- стандарт
- Начало
- и политические лидеры
- начинается
- Шаги
- диск
- магазин
- хранить
- Стратегия
- строка
- сильный
- Структура
- студия
- впоследствии
- Успешно
- такие
- поддержка
- поддержки
- Поддержка
- взять
- принимает
- цель
- команда
- Технический
- технологии
- Технологии
- 10
- tensorflow
- тестXNUMX
- проверенный
- Тестирование
- текст
- который
- Ассоциация
- Источник
- их
- Их
- сами
- тогда
- Эти
- они
- задача
- В третьих
- этой
- раз
- в
- Инструментарий
- инструменты
- факел
- Торчвидение
- Прослеживать
- Train
- специалистов
- Обучение
- Transform
- трансформация
- Стратегия трансформации
- прообразы
- Тенденции
- вызвать
- срабатывает
- правда
- стараться
- напишите
- созданного
- загружено
- Загрузка
- URL
- использование
- прецедент
- используемый
- Информация о пользователе
- использования
- через
- утилита
- VALIDATE
- ценностное
- переменная
- разнообразие
- поставщики
- версии
- уязвимость
- хотеть
- законопроект
- способы
- we
- Web
- веб-сервисы
- Web-Based
- ЧТО Ж
- когда
- который
- будете
- в
- Рабочие процессы
- работает
- записывать
- письменный
- X
- еще
- Ты
- ВАШЕ
- зефирнет
- ZIP