Pe măsură ce clienții își accelerează migrarea către cloud și își transformă afacerea, unii se află în situații în care trebuie să gestioneze operațiunile IT într-un mediu multicloud. De exemplu, este posibil să fi achiziționat o companie care rula deja pe un alt furnizor de cloud sau este posibil să aveți o sarcină de lucru care generează valoare din capabilitățile unice oferite de AWS. Un alt exemplu îl reprezintă furnizorii independenți de software (ISV) care își pun produsele și serviciile disponibile pe diferite platforme cloud pentru a beneficia clienții finali. Sau o organizație poate opera într-o regiune în care un furnizor de cloud principal nu este disponibil și, pentru a îndeplini cerințele de suveranitate a datelor sau de rezidență a datelor, poate utiliza un furnizor de cloud secundar.
În aceste scenarii, pe măsură ce începeți să îmbrățișați AI generativă, modelele de limbaj mari (LLM) și tehnologiile de învățare automată (ML) ca parte esențială a afacerii dvs., este posibil să căutați opțiuni de care să profitați de AWS AI și ML capabilități în afara AWS într-un mediu multicloud. De exemplu, poate doriți să utilizați Amazon SageMaker pentru a construi și a antrena modelul ML sau a utiliza Amazon SageMaker Jumpstart pentru a implementa modele de fundație prefabricate sau modele ML terțe, pe care le puteți implementa cu un clic pe câteva butoane. Sau poate doriți să profitați Amazon Bedrock pentru a construi și scala aplicații AI generative sau puteți profita Serviciile AI pre-instruite ale AWS, care nu necesită să înveți abilități de învățare automată. AWS oferă suport pentru scenarii în care organizațiile doresc aduc propriul model pe Amazon SageMaker or în Amazon SageMaker Canvas pentru predicții.
În această postare, demonstrăm una dintre numeroasele opțiuni pe care le aveți pentru a profita de cel mai larg și mai profund set de capabilități AI/ML al AWS într-un mediu multicloud. Vă arătăm cum puteți construi și antrena un model ML în AWS și implementați modelul pe o altă platformă. Antrenăm modelul folosind Amazon SageMaker, stocăm artefactele modelului în Serviciul Amazon de stocare simplă (Amazon S3) și implementați și rulați modelul în Azure. Această abordare este benefică dacă utilizați serviciile AWS pentru ML pentru cel mai cuprinzător set de caracteristici, dar trebuie să vă rulați modelul într-un alt furnizor de cloud într-una dintre situațiile pe care le-am discutat.
Concepte cheie
Amazon SageMaker Studio este un mediu de dezvoltare integrat (IDE) bazat pe web pentru învățarea automată. SageMaker Studio permite oamenilor de știință de date, inginerilor ML și inginerilor de date să pregătească date, să construiască, să antreneze și să implementeze modele ML pe o singură interfață web. Cu SageMaker Studio, puteți accesa instrumente create special pentru fiecare etapă a ciclului de viață al dezvoltării ML, de la pregătirea datelor până la construirea, instruirea și implementarea modelelor dvs. ML, îmbunătățind productivitatea echipei de știință a datelor de până la zece ori. Notebook-uri SageMaker Studio sunt notebook-uri cu pornire rapidă, colaborative, care se integrează cu instrumente ML create special în SageMaker și alte servicii AWS.
SageMaker este un serviciu ML cuprinzător care le permite analiștilor de afaceri, cercetătorilor de date și inginerilor MLOps să construiască, să antreneze și să implementeze modele ML pentru orice caz de utilizare, indiferent de expertiza ML.
AWS oferă Containere de învățare profundă (DLC-uri) pentru cadrele ML populare, cum ar fi PyTorch, TensorFlow și Apache MXNet, pe care le puteți utiliza cu SageMaker pentru instruire și inferență. DLC-urile sunt disponibile ca imagini Docker în Registrul Amazon de containere elastice (Amazon ECR). Imaginile Docker sunt preinstalate și testate cu cele mai recente versiuni ale cadrelor populare de învățare profundă, precum și alte dependențe necesare pentru instruire și inferență. Pentru o listă completă a imaginilor Docker prefabricate gestionate de SageMaker, consultați Căile de registru Docker și codul exemplu. Amazon ECR acceptă scanarea de securitate și este integrat cu Inspector Amazon serviciu de gestionare a vulnerabilităților pentru a îndeplini cerințele de securitate a conformității imaginii ale organizației dvs. și pentru a automatiza scanarea de evaluare a vulnerabilităților. De asemenea, organizațiile pot utiliza AWS Trainium și Inferentia AWS pentru un preț-performanță mai bun pentru rularea joburilor de antrenament ML sau a inferenței.
Prezentare generală a soluțiilor
În această secțiune, descriem cum să construiți și să antrenați un model folosind SageMaker și să implementăm modelul în Azure Functions. Folosim un notebook SageMaker Studio pentru a construi, antrena și implementa modelul. Antrenăm modelul în SageMaker folosind o imagine Docker pre-construită pentru PyTorch. Deși implementăm modelul antrenat în Azure în acest caz, puteți folosi aceeași abordare pentru a implementa modelul pe alte platforme, cum ar fi la sediul sau alte platforme cloud.
Când creăm un job de antrenament, SageMaker lansează instanțele de calcul ML și folosește codul nostru de antrenament și setul de date de antrenament pentru a antrena modelul. Salvează artefactele modelului rezultate și alte rezultate într-o găleată S3 pe care o specificăm ca intrare pentru jobul de antrenament. Când antrenamentul de model este complet, folosim Deschideți Neural Network Exchange (ONNX) pentru a exporta modelul PyTorch ca model ONNX.
În cele din urmă, implementăm modelul ONNX împreună cu un cod de inferență personalizat scris în Python în Azure Functions folosind Azure CLI. ONNX acceptă majoritatea cadre și instrumente ML utilizate în mod obișnuit. Un lucru de reținut este că conversia unui model ML în ONNX este utilă dacă doriți să utilizați un cadru de implementare țintă diferit, cum ar fi PyTorch în TensorFlow. Dacă utilizați același cadru atât pe sursă, cât și pe țintă, nu trebuie să convertiți modelul în format ONNX.
Următoarea diagramă ilustrează arhitectura pentru această abordare.
Folosim un notebook SageMaker Studio împreună cu SageMaker Python SDK să construim și să antrenăm modelul nostru. SageMaker Python SDK este o bibliotecă open-source pentru instruirea și implementarea modelelor ML pe SageMaker. Pentru mai multe detalii, consultați Creați sau deschideți un blocnotes Amazon SageMaker Studio.
Fragmentele de cod din secțiunile următoare au fost testate în mediul notebook SageMaker Studio folosind imaginea Data Science 3.0 și kernel-ul Python 3.0.
În această soluție, demonstrăm următorii pași:
- Antrenează un model PyTorch.
- Exportați modelul PyTorch ca model ONNX.
- Pachetați modelul și codul de inferență.
- Implementați modelul în Azure Functions.
Cerințe preliminare
Ar trebui să aveți următoarele condiții preliminare:
- Un cont AWS.
- Un domeniu SageMaker și utilizator SageMaker Studio. Pentru instrucțiuni pentru crearea acestora, consultați Accesați domeniul Amazon SageMaker folosind Configurare rapidă.
- CLI Azure.
- Acces la Azure și acreditări pentru un principal de serviciu care are permisiuni pentru a crea și gestiona Funcții Azure.
Antrenează un model cu PyTorch
În această secțiune, detaliem pașii pentru a antrena un model PyTorch.
Instalați dependențe
Instalați bibliotecile pentru a efectua pașii necesari pentru formarea modelului și implementarea modelului:
pip install torchvision onnx onnxruntime
Finalizați configurarea inițială
Începem prin a importa SDK AWS pentru Python (Boto3) si SageMaker Python SDK. Ca parte a configurației, definim următoarele:
- Un obiect de sesiune care oferă metode convenabile în contextul SageMaker și al propriului nostru cont.
- Un ARN de rol SageMaker folosit pentru a delega permisiunile serviciului de instruire și găzduire. Avem nevoie de acest lucru pentru ca aceste servicii să poată accesa compartimentele S3 în care sunt stocate datele și modelul nostru. Pentru instrucțiuni despre crearea unui rol care să răspundă nevoilor dvs. de afaceri, consultați Roluri SageMaker. Pentru această postare, folosim același rol de execuție ca și instanța noastră de notebook Studio. Obținem acest rol sunând
sagemaker.get_execution_role()
. - Regiunea implicită în care se va desfășura munca noastră de formare.
- Bucket-ul implicit și prefixul pe care le folosim pentru a stoca rezultatul modelului.
Consultați următorul cod:
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
Creați setul de date de antrenament
Utilizăm setul de date disponibil în compartimentul public sagemaker-example-files-prod-{region}
. Setul de date conține următoarele fișiere:
- tren-imagini-idx3-ubyte.gz – Conține imagini set de antrenament
- tren-labels-idx1-ubyte.gz – Conține etichete set de antrenament
- t10k-images-idx3-ubyte.gz – Conține imagini set de testare
- t10k-labels-idx1-ubyte.gz – Conține etichete set de testare
Noi folosimtorchvision.datasets
modul pentru a descărca local datele din compartimentul public înainte de a le încărca în compartimentul nostru de date de antrenament. Transmitem această locație a găleții ca o intrare pentru munca de formare SageMaker. Scriptul nostru de antrenament folosește această locație pentru a descărca și pregăti datele de antrenament, apoi pentru a antrena modelul. Vezi următorul cod:
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
Creați scriptul de antrenament
Cu SageMaker, vă puteți aduce propriul model folosind modul script. Cu modul script, puteți utiliza containerele SageMaker pre-construite și puteți furniza propriul script de antrenament, care are definiția modelului, împreună cu orice biblioteci și dependențe personalizate. The SageMaker Python SDK trece scenariul nostru ca un entry_point
la container, care încarcă și rulează funcția de tren din scriptul furnizat pentru a antrena modelul nostru.
Când antrenamentul este finalizat, SageMaker salvează rezultatul modelului în bucket-ul S3 pe care l-am furnizat ca parametru pentru jobul de antrenament.
Codul nostru de instruire este adaptat din următoarele Exemplu de script PyTorch. Următorul fragment din cod arată definiția modelului și funcția trenului:
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
Antrenează modelul
Acum că ne-am configurat mediul și am creat setul de date de intrare și scriptul de antrenament personalizat, putem începe antrenamentul modelului folosind SageMaker. Folosim estimatorul PyTorch din SDK-ul SageMaker Python pentru a începe un job de instruire pe SageMaker. Trecem parametrii necesari la estimator și apelăm metoda de potrivire. Când apelăm fit pe estimatorul PyTorch, SageMaker începe un job de instruire folosind scriptul nostru ca cod de antrenament:
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
Exportați modelul antrenat ca model ONNX
După ce antrenamentul este finalizat și modelul nostru este salvat în locația predefinită în Amazon S3, exportăm modelul într-un model ONNX utilizând timpul de execuție ONNX.
Includem codul pentru a exporta modelul nostru la ONNX în scriptul nostru de antrenament pentru a rula după finalizarea antrenamentului.
PyTorch exportă modelul în ONNX rulând modelul folosind intrarea noastră și înregistrând o urmă de operatori utilizați pentru a calcula rezultatul. Folosim o intrare aleatorie de tipul potrivit cu PyTorch torch.onnx.export
pentru a exporta modelul pe ONNX. De asemenea, specificăm prima dimensiune din intrarea noastră ca fiind dinamică, astfel încât modelul nostru să accepte o variabilă batch_size
a intrărilor în timpul inferenței.
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX este un format standard deschis pentru modelele de învățare profundă care permite interoperabilitatea între cadrele de învățare profundă, cum ar fi PyTorch, Microsoft Cognitive Toolkit (CNTK) și multe altele. Aceasta înseamnă că puteți utiliza oricare dintre aceste cadre pentru a antrena modelul și, ulterior, a exporta modelele pre-antrenate în format ONNX. Exportând modelul în ONNX, beneficiați de o selecție mai largă de dispozitive și platforme de implementare.
Descărcați și extrageți artefactele modelului
Modelul ONNX pe care l-a salvat scriptul nostru de antrenament a fost copiat de SageMaker pe Amazon S3 în locația de ieșire pe care am specificat-o când am început jobul de antrenament. Artefactele modelului sunt stocate ca un fișier de arhivă comprimat numit model.tar.gz
. Descărcăm acest fișier de arhivă într-un director local din instanța noastră de notebook Studio și extragem artefactele modelului, și anume modelul ONNX.
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
Validați modelul ONNX
Modelul ONNX este exportat într-un fișier numit mnist-pytorch.onnx
prin scenariul nostru de antrenament. După ce am descărcat și extras acest fișier, putem valida opțional modelul ONNX folosind onnx.checker
modul. The check_model
funcția din acest modul verifică consistența unui model. Se ridică o excepție dacă testul eșuează.
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
Pachetați modelul și codul de inferență
Pentru această postare, folosim implementarea .zip pentru Azure Functions. În această metodă, ne ambalăm modelul, codul însoțitor și setările Azure Functions într-un fișier .zip și le publicăm în Azure Functions. Următorul cod arată structura de directoare a pachetului nostru de implementare:
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
Listează dependențe
Enumerăm dependențele pentru codul nostru de inferență în requirements.txt
fișier la rădăcina pachetului nostru. Acest fișier este folosit pentru a construi mediul Azure Functions atunci când publicăm pachetul.
azure-functions
numpy
onnxruntime
Scrieți codul de inferență
Folosim Python pentru a scrie următorul cod de inferență, folosind biblioteca ONNX Runtime pentru a încărca modelul nostru și a rula inferența. Acest lucru indică aplicației Azure Functions să facă punctul final disponibil la /classify
cale relativă.
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
Implementați modelul în Azure Functions
Acum că avem codul împachetat în formatul .zip necesar, suntem gata să-l publicăm în Azure Functions. Facem asta folosind Azure CLI, un utilitar de linie de comandă pentru a crea și gestiona resursele Azure. Instalați Azure CLI cu următorul cod:
!pip install -q azure-cli
Apoi parcurgeți următorii pași:
- Conectați-vă la Azure:
!az login
- Configurați parametrii de creare a resurselor:
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- Utilizați următoarele comenzi pentru a crea aplicația Azure Functions împreună cu resursele necesare:
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Configurați Azure Functions astfel încât atunci când implementăm pachetul Functions,
requirements.txt
fișierul este folosit pentru a construi dependențele aplicației noastre:!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Configurați aplicația Functions pentru a rula modelul Python v2 și pentru a realiza o construcție pe codul pe care îl primește după implementarea .zip:
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- După ce avem grupul de resurse, containerul de stocare și aplicația Functions cu configurația corectă, publicăm codul în aplicația Functions:
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
Testați modelul
Am implementat modelul ML în Azure Functions ca declanșator HTTP, ceea ce înseamnă că putem folosi adresa URL a aplicației Functions pentru a trimite o solicitare HTTP funcției pentru a invoca funcția și a rula modelul.
Pentru a pregăti intrarea, descărcați fișierele cu imagini de testare din pachetul de fișiere exemplu SageMaker și pregătiți un set de mostre în formatul cerut de model:
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
Utilizați biblioteca de solicitări pentru a trimite o cerere de postare la punctul final de inferență cu intrările eșantion. Punctul final de inferență are formatul prezentat în următorul cod:
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
A curăța
Când ați terminat de testat modelul, ștergeți grupul de resurse împreună cu resursele conținute, inclusiv containerul de stocare și aplicația Funcții:
!az group delete --name {resource_group_name} --yes
În plus, se recomandă închiderea resurselor inactive din SageMaker Studio pentru a reduce costurile. Pentru mai multe informații, consultați Economisiți costurile oprind automat resursele inactive în cadrul Amazon SageMaker Studio.
Concluzie
În această postare, am arătat cum puteți construi și antrena un model ML cu SageMaker și îl puteți implementa la alt furnizor de cloud. În soluție, am folosit un notebook SageMaker Studio, dar pentru sarcinile de producție, am recomandat utilizarea MLOps pentru a crea fluxuri de lucru de formare repetabile pentru a accelera dezvoltarea și implementarea modelului.
Această postare nu a arătat toate modalitățile posibile de a implementa și de a rula un model într-un mediu multicloud. De exemplu, puteți, de asemenea, să vă împachetați modelul într-o imagine de container împreună cu codul de inferență și biblioteci de dependențe pentru a rula modelul ca o aplicație containerizată pe orice platformă. Pentru mai multe informații despre această abordare, consultați Implementați aplicații container într-un mediu multicloud folosind Amazon CodeCatalyst. Intenția postării este de a arăta modul în care organizațiile pot folosi capabilitățile AWS AI/ML într-un mediu multicloud.
Despre autori
Raja Vaidyanathan este arhitect de soluții la AWS, care sprijină clienții de servicii financiare globale. Raja lucrează cu clienții pentru a proiecta soluții la probleme complexe cu impact pozitiv pe termen lung asupra afacerii lor. Este un profesionist puternic în inginerie, calificat în strategia IT, managementul datelor de întreprindere și arhitectura aplicațiilor, cu interese deosebite în analiză și învățarea automată.
Amandeep Bajwa este arhitect senior de soluții la AWS, care sprijină întreprinderile de servicii financiare. El ajută organizațiile să-și atingă rezultatele de afaceri prin identificarea strategiei adecvate de transformare a cloud-ului pe baza tendințelor din industrie și a priorităților organizaționale. Unele dintre domeniile pe care Amandeep se consultă sunt migrarea în cloud, strategia cloud (inclusiv hibrid și multicloud), transformarea digitală, datele și analiza și tehnologia în general.
Prema Iyer este Senior Technical Account Manager pentru AWS Enterprise Support. Ea lucrează cu clienți externi la o varietate de proiecte, ajutându-i să-și îmbunătățească valoarea soluțiilor atunci când folosesc AWS.
- Distribuție de conținut bazat pe SEO și PR. Amplifică-te astăzi.
- PlatoData.Network Vertical Generative Ai. Împuterniciți-vă. Accesați Aici.
- PlatoAiStream. Web3 Intelligence. Cunoștințe amplificate. Accesați Aici.
- PlatoESG. carbon, CleanTech, Energie, Mediu inconjurator, Solar, Managementul deșeurilor. Accesați Aici.
- PlatoHealth. Biotehnologie și Inteligență pentru studii clinice. Accesați Aici.
- Sursa: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- :are
- :este
- :nu
- :Unde
- $UP
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- Despre Noi
- accelera
- acceptă
- acces
- Cont
- Obține
- dobândite
- Avantaj
- După
- AI
- AI / ML
- TOATE
- permite
- de-a lungul
- deja
- de asemenea
- Cu toate ca
- Amazon
- Amazon SageMaker
- Amazon SageMaker Canvas
- Amazon SageMaker Studio
- Amazon Web Services
- an
- analiști
- Google Analytics
- și
- Anonim
- O alta
- Orice
- Apache
- aplicaţia
- aplicație
- aplicatii
- abordare
- adecvat
- arhitectură
- arhivă
- SUNT
- domenii
- AS
- evaluare
- At
- automatizarea
- în mod automat
- disponibil
- AWS
- AXE
- Azuriu
- bazat
- BE
- fost
- înainte
- începe
- benefică
- beneficia
- Mai bine
- între
- atât
- aduce
- mai larg
- construi
- Clădire
- afaceri
- dar
- by
- apel
- denumit
- apel
- CAN
- pânză
- capacități
- transporta
- caz
- Verificări
- clasă
- Clasifica
- clic
- Cloud
- cod
- cognitive
- colaborativ
- companie
- Completă
- complex
- conformitate
- cuprinzător
- Calcula
- Configuraţie
- conținute
- Recipient
- Containere
- conține
- context
- comoditate
- converti
- de conversie a
- Nucleu
- Cheltuieli
- ar putea
- crea
- a creat
- Crearea
- creaţie
- scrisori de acreditare
- personalizat
- clienţii care
- de date
- management de date
- Pregătirea datelor
- știința datelor
- seturi de date
- adânc
- învățare profundă
- cea mai adâncă
- Mod implicit
- defini
- definiție
- demonstra
- dependențe
- Dependenţă
- implementa
- dislocate
- Implementarea
- desfășurarea
- descrie
- detaliu
- detalii
- Dezvoltare
- dispozitiv
- Dispozitive
- diferit
- digital
- Transformarea digitală
- cifre
- Dimensiune
- discutat
- do
- Docher
- domeniu
- făcut
- Dont
- jos
- Descarca
- în timpul
- dinamic
- e
- altfel
- îmbrăţişare
- permite
- permițând
- capăt
- Punct final
- Inginerie
- inginerii
- Afacere
- Companii
- Mediu inconjurator
- epocă
- epoci
- Fiecare
- exemplu
- Cu excepția
- excepție
- execuție
- expertiză
- exporturile
- exporturile
- extern
- extrage
- eșuează
- DESCRIERE
- puțini
- Fișier
- Fişiere
- financiar
- Servicii financiare
- Găsi
- First
- potrivi
- următor
- Pentru
- format
- Fundație
- Cadru
- cadre
- din
- funcţie
- funcții
- General
- generează
- generativ
- AI generativă
- obține
- Caritate
- financiar global
- grup
- Avea
- he
- ajutor
- ajută
- găzduire
- Cum
- Cum Pentru a
- HTML
- http
- HTTPS
- Hibrid
- ID
- identificarea
- Idle
- if
- ilustrează
- imagine
- imagini
- Impactul
- import
- importatoare
- îmbunătăţi
- îmbunătățirea
- in
- include
- Inclusiv
- independent
- industrie
- informații
- inițială
- intrare
- intrări
- instala
- instanță
- instrucțiuni
- integra
- integrate
- scop
- interese
- interfaţă
- Interoperabilitate
- în
- IT
- ESTE
- Loc de munca
- Locuri de munca
- jpg
- JSON
- limbă
- mare
- Ultimele
- lansează
- AFLAȚI
- învăţare
- Lungime
- Pârghie
- biblioteci
- Bibliotecă
- ciclu de viață
- Linie
- linux
- Listă
- încărca
- loturile
- local
- la nivel local
- locaţie
- logare
- pe termen lung
- cautati
- de pe
- maşină
- masina de învățare
- face
- administra
- gestionate
- administrare
- manager
- multe
- Hartă
- matplotlib
- Mai..
- mijloace
- Întâlni
- se intalneste
- metodă
- Metode
- Microsoft
- ar putea
- migrațiune
- ML
- MLOps
- mod
- model
- Modele
- Module
- mai mult
- cele mai multe
- nume
- Numit
- și anume
- Nevoie
- necesar
- nevoilor
- net
- reţea
- neural
- rețele neuronale
- caiet
- NumPy
- obiect
- of
- on
- ONE
- deschide
- open-source
- de operare
- Operațiuni
- Operatorii
- Opţiuni
- or
- comandă
- organizație
- de organizare
- organizații
- OS
- Altele
- al nostru
- afară
- rezultate
- producție
- exterior
- propriu
- pachet
- ambalate
- parametru
- parametrii
- parte
- special
- parte
- trece
- trece
- cale
- Efectua
- permisiuni
- platformă
- Platforme
- Plato
- Informații despre date Platon
- PlatoData
- Popular
- pozitiv
- posibil
- Post
- Predictii
- pregătire
- Pregăti
- premise
- primar
- Principal
- probleme
- Procesat
- producere
- productivitate
- Produse
- profesional
- Proiecte
- furniza
- prevăzut
- furnizorul
- furnizează
- public
- publica
- Piton
- pirtorh
- Rapid
- ridicat
- aleator
- gata
- primește
- recomandat
- înregistrare
- reduce
- trimite
- Fără deosebire
- regiune
- registru
- relativ
- repetabil
- solicita
- cereri de
- necesita
- necesar
- Cerinţe
- resursă
- Resurse
- răspuns
- rezultat
- rezultând
- reveni
- dreapta
- Rol
- rădăcină
- Alerga
- funcţionare
- ruleaza
- sagemaker
- acelaşi
- salvate
- Scară
- scanare
- scenarii
- Ştiinţă
- oamenii de stiinta
- scenariu
- sdk
- secundar
- Secțiune
- secțiuni
- securitate
- vedea
- selecţie
- SELF
- trimite
- senior
- serviciu
- Servicii
- sesiune
- set
- setări
- configurarea
- Modela
- ea
- să
- Arăta
- a arătat
- indicat
- Emisiuni
- Închide
- închide
- simplu
- situații
- calificat
- aptitudini
- So
- Software
- soluţie
- soluţii
- unele
- Sursă
- suveranitate
- specificată
- Etapă
- standard
- Începe
- început
- începe
- paşi
- depozitare
- stoca
- stocate
- Strategie
- Şir
- puternic
- structura
- studio
- Ulterior
- Reușit
- astfel de
- a sustine
- De sprijin
- Sprijină
- Lua
- ia
- Ţintă
- echipă
- Tehnic
- Tehnologii
- Tehnologia
- zece
- tensorflow
- test
- testat
- Testarea
- a) Sport and Nutrition Awareness Day in Manasia Around XNUMX people from the rural commune Manasia have participated in a sports and healthy nutrition oriented activity in one of the community’s sports ready yards. This activity was meant to gather, mainly, middle-aged people from a Romanian rural community and teach them about the benefits that sports have on both their mental and physical health and on how sporting activities can be used to bring people from a community closer together. Three trainers were made available for this event, so that the participants would get the best possible experience physically and so that they could have the best access possible to correct information and good sports/nutrition practices. b) Sports Awareness Day in Poiana Țapului A group of young participants have taken part in sporting activities meant to teach them about sporting conduct, fairplay, and safe physical activities. The day culminated with a football match.
- acea
- Sursa
- lor
- Lor
- se
- apoi
- Acestea
- ei
- lucru
- Al treilea
- acest
- ori
- la
- Toolkit
- Unelte
- lanternă
- Torchvision
- Urmă
- Tren
- dresat
- Pregătire
- Transforma
- Transformare
- Strategia de transformare
- transformatele
- Tendinţe
- declanşa
- a declanșat
- adevărat
- încerca
- tip
- unic
- încărcat
- Se încarcă
- URL-ul
- utilizare
- carcasa de utilizare
- utilizat
- Utilizator
- utilizări
- folosind
- utilitate
- VALIDA
- valoare
- variabil
- varietate
- furnizori
- Versiunile
- vulnerabilitate
- vrea
- a fost
- modalități de
- we
- web
- servicii web
- bazat pe web
- BINE
- cand
- care
- voi
- cu
- în
- fluxuri de lucru
- fabrică
- scrie
- scris
- X
- încă
- Tu
- Ta
- zephyrnet
- Zip