Medtem ko stranke pospešeno selijo v oblak in preoblikujejo svoje poslovanje, se nekatere znajdejo v situacijah, ko morajo upravljati operacije IT v okolju z več oblaki. Na primer, morda ste pridobili podjetje, ki je že delovalo pri drugem ponudniku v oblaku, ali pa imate delovno obremenitev, ki ustvarja vrednost iz edinstvenih zmogljivosti, ki jih zagotavlja AWS. Drug primer so neodvisni prodajalci programske opreme (ISV), ki dajejo svoje izdelke in storitve na voljo v različnih platformah v oblaku v korist svojih končnih strank. Ali pa organizacija deluje v regiji, kjer primarni ponudnik oblaka ni na voljo, in da lahko izpolni zahteve glede suverenosti podatkov ali rezidenčnosti podatkov, lahko uporabi sekundarnega ponudnika oblaka.
V teh scenarijih, ko začnete sprejemati generativno umetno inteligenco, velike jezikovne modele (LLM) in tehnologije strojnega učenja (ML) kot osrednji del svojega poslovanja, boste morda iskali možnosti, ki bi jih lahko izkoristili. AWS AI in ML zmogljivosti zunaj AWS v okolju z več oblaki. Na primer, morda boste želeli uporabiti Amazon SageMaker zgraditi in usposobiti model ML ali uporabiti Amazon SageMaker Jumpstart za uvajanje vnaprej izdelanih temeljev ali modelov ML tretjih oseb, ki jih lahko uvedete s klikom nekaj gumbov. Ali pa boste morda želeli izkoristiti Amazon Bedrock za izgradnjo in povečanje generativnih aplikacij AI ali pa izkoristite Vnaprej usposobljene storitve AI AWS, ki ne zahtevajo, da se naučite veščin strojnega učenja. AWS nudi podporo za scenarije, kjer organizacije to želijo prinesejo svoj model v Amazon SageMaker or v Amazon SageMaker Canvas za napovedi.
V tej objavi prikazujemo eno od mnogih možnosti, ki jih imate, da izkoristite najširši in najgloblji nabor zmogljivosti AI/ML AWS v okolju z več oblaki. Pokažemo, kako lahko zgradite in usposobite model ML v AWS ter uvedete model v drugo platformo. Model usposobimo s programom Amazon SageMaker, vanj shranimo artefakte modela Preprosta storitev shranjevanja Amazon (Amazon S3) ter razmestite in zaženite model v Azure. Ta pristop je koristen, če uporabljate storitve AWS za ML za njihov najobsežnejši nabor funkcij, vendar morate svoj model zagnati v drugem ponudniku oblaka v eni od situacij, o katerih smo razpravljali.
Ključni pojmi
Amazon SageMaker Studio je spletno integrirano razvojno okolje (IDE) za strojno učenje. SageMaker Studio omogoča podatkovnim znanstvenikom, inženirjem ML in podatkovnim inženirjem, da pripravijo podatke, zgradijo, učijo in uvedejo modele ML na enem spletnem vmesniku. S SageMaker Studio lahko dostopate do namensko izdelanih orodij za vsako stopnjo življenjskega cikla razvoja ML, od priprave podatkov do gradnje, usposabljanja in uvajanja vaših modelov ML, s čimer do desetkrat izboljšate produktivnost podatkovne ekipe. Prenosniki SageMaker Studio so sodelujoči prenosniki za hiter začetek, ki se integrirajo z namensko izdelanimi orodji ML v SageMaker in drugih storitvah AWS.
SageMaker je celovita storitev ML, ki poslovnim analitikom, podatkovnim znanstvenikom in inženirjem MLOps omogoča gradnjo, usposabljanje in uvajanje modelov ML za vse primere uporabe, ne glede na strokovnost ML.
AWS zagotavlja Vsebniki za globoko učenje (DLC) za priljubljena ogrodja ML, kot so PyTorch, TensorFlow in Apache MXNet, ki jih lahko uporabljate s SageMakerjem za usposabljanje in sklepanje. DLC-ji so na voljo kot slike Docker v Registar elastičnih zabojnikov Amazon (Amazon ECR). Slike Docker so vnaprej nameščene in preizkušene z najnovejšimi različicami priljubljenih ogrodij za globoko učenje ter drugimi odvisnostmi, potrebnimi za usposabljanje in sklepanje. Za popoln seznam vnaprej pripravljenih slik Docker, ki jih upravlja SageMaker, glejte Poti registra Docker in primer kode. Amazon ECR podpira varnostno skeniranje in je integriran z Amazonov inšpektor storitev upravljanja ranljivosti za izpolnjevanje varnostnih zahtev glede skladnosti slike vaše organizacije in avtomatiziranje skeniranja ocene ranljivosti. Organizacije lahko uporabljajo tudi AWS Trainium in Sklepanje AWS za boljše razmerje med ceno in zmogljivostjo za izvajanje izobraževalnih del ali sklepanja ML.
Pregled rešitev
V tem razdelku opisujemo, kako zgraditi in usposobiti model z uporabo SageMakerja ter uvesti model v funkcije Azure. Za izdelavo, usposabljanje in uvajanje modela uporabljamo prenosni računalnik SageMaker Studio. Model urimo v SageMakerju z uporabo vnaprej pripravljene slike Docker za PyTorch. Čeprav v tem primeru uvajamo usposobljeni model v Azure, lahko isti pristop uporabite za uvedbo modela na drugih platformah, na primer v prostorih ali drugih platformah v oblaku.
Ko ustvarimo opravilo za usposabljanje, SageMaker zažene primerke izračuna ML in uporabi našo kodo za usposabljanje in nabor podatkov za usposabljanje za usposabljanje modela. Nastale artefakte modela in druge izhodne podatke shrani v vedro S3, ki ga določimo kot vhod v opravilo usposabljanja. Ko je usposabljanje modela končano, uporabimo Odprite izmenjavo nevronskih omrežij (ONNX) knjižnica izvajalnega okolja za izvoz modela PyTorch kot modela ONNX.
Na koncu uvedemo model ONNX skupaj s kodo sklepanja po meri, napisano v Pythonu, v funkcije Azure z uporabo Azure CLI. ONNX podpira večino pogosto uporabljena ogrodja in orodja ML. Upoštevati je treba, da je pretvorba modela ML v ONNX uporabna, če želite uporabiti drugačno ciljno ogrodje za uvajanje, kot je PyTorch v TensorFlow. Če uporabljate isto ogrodje na viru in cilju, vam modela ni treba pretvoriti v format ONNX.
Naslednji diagram ponazarja arhitekturo za ta pristop.
Uporabljamo prenosni računalnik SageMaker Studio skupaj z SDK SageMaker Python zgraditi in usposobiti naš model. SDK SageMaker Python je odprtokodna knjižnica za usposabljanje in uvajanje modelov ML na SageMaker. Za več podrobnosti glejte Ustvarite ali odprite beležnico Amazon SageMaker Studio.
Delčki kode v naslednjih razdelkih so bili preizkušeni v okolju prenosnika SageMaker Studio z uporabo slike Data Science 3.0 in jedra Python 3.0.
V tej rešitvi prikazujemo naslednje korake:
- Usposobite model PyTorch.
- Izvozite model PyTorch kot model ONNX.
- Zapakirajte model in kodo sklepanja.
- Razmestite model v funkcije Azure.
Predpogoji
Morali bi imeti naslednje predpogoje:
- Račun AWS.
- Uporabnik domene SageMaker in SageMaker Studio. Za navodila za ustvarjanje teh glejte Vključite se v domeno Amazon SageMaker s hitro nastavitvijo.
- Azure CLI.
- Dostop do storitve Azure in poverilnic za principala storitve, ki ima dovoljenja za ustvarjanje in upravljanje funkcij Azure.
Usposobite model s PyTorch
V tem razdelku podrobno opisujemo korake za usposabljanje modela PyTorch.
Namestite odvisnosti
Namestite knjižnice za izvedbo korakov, potrebnih za usposabljanje modela in uvajanje modela:
pip install torchvision onnx onnxruntime
Dokončajte začetno nastavitev
Začnemo z uvozom AWS SDK za Python (Boto3) in SDK SageMaker Python. Kot del nastavitve definiramo naslednje:
- Objekt seje, ki ponuja priročne metode v kontekstu SageMakerja in našega lastnega računa.
- Vloga SageMaker ARN, ki se uporablja za delegiranje dovoljenj za storitev usposabljanja in gostovanja. To potrebujemo, da lahko te storitve dostopajo do veder S3, kjer so shranjeni naši podatki in model. Za navodila o ustvarjanju vloge, ki ustreza vašim poslovnim potrebam, glejte Vloge SageMaker. Za to objavo uporabljamo isto izvršilno vlogo kot naš primerek prenosnega računalnika Studio. To vlogo dobimo s klicem
sagemaker.get_execution_role()
. - Privzeta regija, kjer bo potekalo naše usposabljanje.
- Privzeto vedro in predpona, ki ju uporabljamo za shranjevanje izhoda modela.
Glej naslednjo kodo:
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
Ustvarite nabor podatkov za usposabljanje
Uporabljamo nabor podatkov, ki je na voljo v javnem vedru sagemaker-example-files-prod-{region}
. Nabor podatkov vsebuje naslednje datoteke:
- train-images-idx3-ubyte.gz – Vsebuje slike kompleta za usposabljanje
- train-labels-idx1-ubyte.gz – Vsebuje oznake vadbenih kompletov
- t10k-images-idx3-ubyte.gz – Vsebuje slike testnega niza
- t10k-labels-idx1-ubyte.gz – Vsebuje oznake testnega kompleta
Mi uporabljamotorchvision.datasets
modul za prenos podatkov iz javnega vedra lokalno, preden jih naložite v naše vedro podatkov o usposabljanju. To lokacijo vedra posredujemo kot vnos v opravilo usposabljanja SageMaker. Naš skript za usposabljanje uporablja to lokacijo za prenos in pripravo podatkov o usposabljanju ter nato za usposabljanje modela. Oglejte si naslednjo kodo:
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
Ustvarite skript za usposabljanje
S SageMakerjem lahko prinesete svoj model z uporabo način skripta. V načinu skripta lahko uporabite vnaprej zgrajene vsebnike SageMaker in zagotovite svoj lasten skript za usposabljanje, ki ima definicijo modela, skupaj s knjižnicami in odvisnostmi po meri. The SDK SageMaker Python prenaša naš scenarij kot entry_point
vsebniku, ki naloži in zažene funkcijo usposabljanja iz priloženega skripta za usposabljanje našega modela.
Ko je usposabljanje končano, SageMaker shrani izhod modela v vedro S3, ki smo ga zagotovili kot parameter za opravilo usposabljanja.
Naša koda usposabljanja je prilagojena iz naslednjega Primer skripta PyTorch. Naslednji odlomek iz kode prikazuje definicijo modela in funkcijo vlaka:
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
Trenirajte model
Zdaj, ko smo nastavili okolje in ustvarili nabor vhodnih podatkov in skript za usposabljanje po meri, lahko začnemo z usposabljanjem modela s SageMakerjem. Ocenjevalnik PyTorch uporabljamo v SDK-ju SageMaker Python, da začnemo z usposabljanjem na SageMakerju. Zahtevane parametre posredujemo cenilcu in pokličemo metodo prileganja. Ko na ocenjevalcu PyTorch pokličemo fit, SageMaker začne usposabljanje z uporabo našega skripta kot kode za usposabljanje:
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
Izvozite učeni model kot model ONNX
Ko je usposabljanje končano in je naš model shranjen na vnaprej določeno lokacijo v Amazon S3, izvozimo model v model ONNX z uporabo izvajalnega okolja ONNX.
Kodo za izvoz našega modela v ONNX vključimo v naš skript za usposabljanje, ki se izvaja po končanem usposabljanju.
PyTorch izvozi model v ONNX tako, da zažene model z uporabo našega vnosa in zabeleži sled operatorjev, uporabljenih za izračun izhoda. S PyTorch uporabljamo naključni vnos prave vrste torch.onnx.export
funkcijo za izvoz modela v ONNX. Prav tako določimo prvo dimenzijo v našem vnosu kot dinamično, tako da naš model sprejme spremenljivko batch_size
vnosov med sklepanjem.
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX je odprt standardni format za modele globokega učenja, ki omogoča interoperabilnost med ogrodji globokega učenja, kot so PyTorch, Microsoft Cognitive Toolkit (CNTK) in drugi. To pomeni, da lahko uporabite katero koli od teh ogrodij za usposabljanje modela in nato izvozite vnaprej pripravljene modele v formatu ONNX. Z izvozom modela v ONNX dobite prednost širšega izbora naprav in platform za uvajanje.
Prenesite in ekstrahirajte artefakte modela
Model ONNX, ki ga je shranil naš skript za usposabljanje, je SageMaker kopiral v Amazon S3 na izhodni lokaciji, ki smo jo določili, ko smo začeli z opravilom za usposabljanje. Artefakti modela so shranjeni kot stisnjena arhivska datoteka, imenovana model.tar.gz
. To arhivsko datoteko prenesemo v lokalni imenik v našem primerku prenosnika Studio in ekstrahiramo artefakte modela, in sicer model ONNX.
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
Potrdite model ONNX
Model ONNX se izvozi v datoteko z imenom mnist-pytorch.onnx
po našem scenariju usposabljanja. Ko prenesemo in ekstrahiramo to datoteko, lahko po želji potrdimo model ONNX z uporabo onnx.checker
modul. The check_model
funkcija v tem modulu preverja skladnost modela. Če test ne uspe, se sproži izjema.
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
Zapakirajte model in kodo sklepanja
Za to objavo uporabljamo uvajanje .zip za funkcije Azure. Pri tej metodi naš model, spremno kodo in nastavitve funkcij Azure zapakiramo v datoteko .zip in jo objavimo v funkcijah Azure. Naslednja koda prikazuje strukturo imenika našega paketa za uvajanje:
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
Seznam odvisnosti
Odvisnosti za našo kodo sklepanja navajamo v requirements.txt
datoteko v korenu našega paketa. Ta datoteka se uporablja za gradnjo okolja funkcij Azure, ko objavimo paket.
azure-functions
numpy
onnxruntime
Napišite sklepno kodo
Python uporabljamo za pisanje naslednje kode sklepanja, pri čemer uporabljamo knjižnico ONNX Runtime za nalaganje našega modela in izvajanje sklepanja. To naroči aplikaciji Azure Functions, naj naredi končno točko na voljo na /classify
relativna pot.
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
Razmestite model v funkcije Azure
Zdaj, ko imamo kodo zapakirano v zahtevani format .zip, smo jo pripravljeni objaviti v funkcijah Azure. To storimo z uporabo Azure CLI, pripomočka ukazne vrstice za ustvarjanje in upravljanje virov Azure. Namestite Azure CLI z naslednjo kodo:
!pip install -q azure-cli
Nato dokončajte naslednje korake:
- Prijavite se v Azure:
!az login
- Nastavite parametre za ustvarjanje vira:
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- Uporabite naslednje ukaze za ustvarjanje aplikacije Azure Functions skupaj s predpogojnimi viri:
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Nastavite funkcije Azure tako, da ko uvedemo paket funkcij,
requirements.txt
datoteka se uporablja za gradnjo naših odvisnosti aplikacije:!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Konfigurirajte aplikacijo Functions za zagon modela Python v2 in izvedbo gradnje kode, ki jo prejme po uvedbi .zip:
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- Ko imamo skupino virov, vsebnik za shranjevanje in aplikacijo Functions s pravo konfiguracijo, objavimo kodo v aplikaciji Functions:
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
Preizkusite model
Model ML smo uvedli v Azure Functions kot prožilec HTTP, kar pomeni, da lahko uporabimo URL aplikacije Functions za pošiljanje zahteve HTTP funkciji za priklic funkcije in zagon modela.
Za pripravo vnosa prenesite testne slikovne datoteke iz vedra s primeri datotek SageMaker in pripravite nabor vzorcev v formatu, ki ga zahteva model:
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
Uporabite knjižnico zahtev za pošiljanje zahteve za objavo končni točki sklepanja z vzorčnimi vnosi. Končna točka sklepanja ima obliko, kot je prikazana v naslednji kodi:
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
Čiščenje
Ko končate s preizkušanjem modela, izbrišite skupino virov skupaj z vsebovanimi viri, vključno s vsebnikom za shranjevanje in aplikacijo Functions:
!az group delete --name {resource_group_name} --yes
Poleg tega je priporočljivo zaustaviti nedejavne vire znotraj SageMaker Studio, da zmanjšate stroške. Za več informacij glejte Prihranite stroške s samodejnim izklopom nedejavnih virov v programu Amazon SageMaker Studio.
zaključek
V tej objavi smo pokazali, kako lahko zgradite in usposobite model ML s SageMakerjem ter ga uvedete pri drugem ponudniku oblaka. V rešitvi smo uporabili prenosni računalnik SageMaker Studio, za produkcijske delovne obremenitve pa priporočamo uporabo MLOps za ustvarjanje ponovljivih delovnih tokov usposabljanja za pospešitev razvoja in uvajanja modela.
Ta objava ni prikazala vseh možnih načinov uvajanja in izvajanja modela v okolju z več oblaki. Svoj model lahko na primer zapakirate tudi v sliko vsebnika skupaj s kodo sklepanja in knjižnicami odvisnosti, da zaženete model kot posodobljeno aplikacijo na kateri koli platformi. Za več informacij o tem pristopu glejte Razmestite vsebniške aplikacije v večoblačnem okolju z uporabo Amazon CodeCatalyst. Namen objave je pokazati, kako lahko organizacije uporabljajo zmogljivosti AWS AI/ML v okolju z več oblaki.
O avtorjih
Raja Vaidyanathan je arhitekt rešitev pri AWS, ki podpira stranke globalnih finančnih storitev. Raja sodeluje s strankami pri oblikovanju rešitev za kompleksne probleme z dolgoročnim pozitivnim vplivom na njihovo poslovanje. Je močan inženirski strokovnjak, usposobljen za IT strategijo, upravljanje podatkov podjetja in arhitekturo aplikacij, s posebnim zanimanjem za analitiko in strojno učenje.
Amandeep Bajwa je višji arhitekt rešitev pri AWS, ki podpira podjetja s finančnimi storitvami. Organizacijam pomaga pri doseganju njihovih poslovnih rezultatov z identifikacijo ustrezne strategije preobrazbe oblaka na podlagi trendov v panogi in organizacijskih prioritet. Nekatera izmed področij, o katerih se Amandeep posvetuje, so migracija v oblak, strategija v oblaku (vključno s hibridnimi in večoblačnimi), digitalna transformacija, podatki in analitika ter tehnologija na splošno.
Prema Iyer je višji tehnični vodja računa za AWS Enterprise Support. Sodeluje z zunanjimi strankami pri različnih projektih in jim pomaga izboljšati vrednost njihovih rešitev pri uporabi AWS.
- Distribucija vsebine in PR s pomočjo SEO. Okrepite se še danes.
- PlatoData.Network Vertical Generative Ai. Opolnomočite se. Dostopite tukaj.
- PlatoAiStream. Web3 Intelligence. Razširjeno znanje. Dostopite tukaj.
- PlatoESG. Ogljik, CleanTech, Energija, Okolje, sončna energija, Ravnanje z odpadki. Dostopite tukaj.
- PlatoHealth. Obveščanje o biotehnologiji in kliničnih preskušanjih. Dostopite tukaj.
- vir: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- :ima
- : je
- :ne
- :kje
- $GOR
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- O meni
- pospeši
- Sprejema
- dostop
- Račun
- Doseči
- pridobljenih
- Prednost
- po
- AI
- AI / ML
- vsi
- omogoča
- skupaj
- že
- Prav tako
- Čeprav
- Amazon
- Amazon SageMaker
- Amazon SageMaker Canvas
- Amazon SageMaker Studio
- Amazon Web Services
- an
- Analitiki
- analitika
- in
- anonimni
- Še ena
- kaj
- Apache
- aplikacija
- uporaba
- aplikacije
- pristop
- primerno
- Arhitektura
- Arhiv
- SE
- območja
- AS
- ocenjevanje
- At
- avtomatizirati
- samodejno
- Na voljo
- AWS
- OSI
- Azure
- temeljijo
- BE
- bilo
- pred
- začetek
- koristno
- koristi
- Boljše
- med
- tako
- prinašajo
- širši
- izgradnjo
- Building
- poslovni
- vendar
- by
- klic
- se imenuje
- kliče
- CAN
- platno
- Zmogljivosti
- opravlja
- primeru
- Pregledi
- razred
- Razvrsti
- klik
- Cloud
- Koda
- kognitivni
- sodelovanje
- podjetje
- dokončanje
- kompleksna
- skladnost
- celovito
- Izračunajte
- konfiguracija
- vseboval
- Posoda
- Zabojniki
- Vsebuje
- ozadje
- udobje
- pretvorbo
- pretvorbo
- Core
- stroški
- bi
- ustvarjajo
- ustvaril
- Ustvarjanje
- Oblikovanje
- Mandatno
- po meri
- Stranke, ki so
- datum
- Upravljanje podatkov
- Priprava podatkov
- znanost o podatkih
- nabor podatkov
- globoko
- globoko učenje
- najgloblje
- privzeto
- opredeliti
- opredelitev
- izkazati
- odvisnosti
- Odvisnost
- razporedi
- razporejeni
- uvajanja
- uvajanje
- opisati
- Podatki
- Podrobnosti
- Razvoj
- naprava
- naprave
- drugačen
- digitalni
- Digitalni Transformation
- števk
- Dimenzije
- razpravljali
- do
- Lučki delavec
- domena
- opravljeno
- dont
- navzdol
- prenesi
- med
- dinamično
- e
- ostalo
- objem
- omogoča
- omogočanje
- konec
- Končna točka
- Inženiring
- Inženirji
- Podjetje
- podjetja
- okolje
- epoha
- epohe
- Tudi vsak
- Primer
- Razen
- izjema
- izvedba
- strokovno znanje
- izvoz
- Izvoz
- zunanja
- ekstrakt
- ne uspe
- Lastnosti
- Nekaj
- file
- datoteke
- finančna
- finančne storitve
- Najdi
- prva
- fit
- po
- za
- format
- Fundacija
- Okvirni
- okviri
- iz
- funkcija
- funkcije
- splošno
- ustvarja
- generativno
- Generativna AI
- dobili
- Globalno
- svetovni finančni
- skupina
- Imajo
- he
- pomoč
- Pomaga
- gostovanje
- Kako
- Kako
- HTML
- http
- HTTPS
- Hybrid
- ID
- identifikacijo
- Mirovanje
- if
- ponazarja
- slika
- slike
- vpliv
- uvoz
- uvoz
- izboljšanje
- izboljšanju
- in
- vključujejo
- Vključno
- Neodvisni
- Industrija
- Podatki
- začetna
- vhod
- vhodi
- namestitev
- primer
- Navodila
- integrirati
- integrirana
- namen
- interesi
- vmesnik
- Interoperabilnost
- v
- IT
- ITS
- Job
- Delovna mesta
- jpg
- json
- jezik
- velika
- Zadnji
- izstrelki
- UČITE
- učenje
- dolžina
- Vzvod
- knjižnice
- Knjižnica
- življenski krog
- vrstica
- linux
- Seznam
- obremenitev
- obremenitve
- lokalna
- lokalno
- kraj aktivnosti
- sečnja
- dolgoročna
- si
- off
- stroj
- strojno učenje
- Znamka
- upravljanje
- upravlja
- upravljanje
- upravitelj
- več
- map
- matplotlib
- Maj ..
- pomeni
- Srečati
- ustreza
- Metoda
- Metode
- Microsoft
- morda
- migracije
- ML
- MLOps
- način
- Model
- modeli
- Moduli
- več
- Najbolj
- Ime
- Imenovan
- in sicer
- Nimate
- potrebna
- potrebe
- net
- mreža
- Živčne
- nevronska mreža
- prenosnik
- otopeli
- predmet
- of
- on
- ONE
- odprite
- open source
- deluje
- operacije
- operaterji
- možnosti
- or
- Da
- Organizacija
- organizacijsko
- organizacije
- OS
- Ostalo
- naši
- ven
- rezultatov
- izhod
- zunaj
- lastne
- paket
- pakirani
- parameter
- parametri
- del
- zlasti
- zabava
- mimo
- vozovnice
- pot
- Izvedite
- Dovoljenja
- platforma
- Platforme
- platon
- Platonova podatkovna inteligenca
- PlatoData
- Popular
- pozitiven
- mogoče
- Prispevek
- Napovedi
- Priprava
- Pripravimo
- predpogoji
- primarni
- , ravnateljica
- Težave
- Predelano
- proizvodnja
- produktivnost
- Izdelki
- strokovni
- projekti
- zagotavljajo
- če
- Ponudnik
- zagotavlja
- javnega
- objavijo
- Python
- pitorha
- Hitri
- postavljeno
- naključno
- pripravljen
- prejme
- priporočeno
- Snemanje
- zmanjša
- glejte
- Ne glede na to
- okolica
- registra
- relativna
- ponovljivo
- zahteva
- zahteva
- zahteva
- obvezna
- Zahteve
- vir
- viri
- Odgovor
- povzroči
- rezultat
- vrnitev
- Pravica
- vloga
- koren
- Run
- tek
- deluje
- sagemaker
- Enako
- shranjena
- Lestvica
- skeniranje
- scenariji
- Znanost
- Znanstveniki
- script
- SDK
- sekundarno
- Oddelek
- oddelki
- varnost
- glej
- izbor
- SAMO
- pošljite
- višji
- Storitev
- Storitve
- Zasedanje
- nastavite
- nastavitve
- nastavitev
- Oblikujte
- je
- shouldnt
- Prikaži
- je pokazala,
- pokazale
- Razstave
- Zaustavite
- ugašati
- Enostavno
- situacije
- spreten
- spretnosti
- So
- Software
- Rešitev
- rešitve
- nekaj
- vir
- suverenost
- določeno
- Stage
- standardna
- Začetek
- začel
- začne
- Koraki
- shranjevanje
- trgovina
- shranjeni
- Strategija
- String
- močna
- Struktura
- studio
- Kasneje
- Uspešno
- taka
- podpora
- Podpora
- Podpira
- Bodite
- meni
- ciljna
- skupina
- tehnični
- Tehnologije
- Tehnologija
- deset
- tensorflo
- Test
- Testiran
- Testiranje
- besedilo
- da
- O
- Vir
- njihove
- Njih
- sami
- POTEM
- te
- jih
- stvar
- tretja
- ta
- krat
- do
- Orodje
- orodja
- baklo
- Torchvision
- Trace
- Vlak
- usposobljeni
- usposabljanje
- Transform
- Preoblikovanje
- Strategija transformacije
- transformacije
- Trends
- sprožijo
- sprožilo
- Res
- poskusite
- tip
- edinstven
- naložili
- Prenos
- URL
- uporaba
- primeru uporabe
- Rabljeni
- uporabnik
- uporablja
- uporabo
- pripomoček
- POTRDI
- vrednost
- spremenljivka
- raznolikost
- prodajalci
- različice
- ranljivost
- želeli
- je
- načini
- we
- web
- spletne storitve
- Web-Based
- Dobro
- kdaj
- ki
- bo
- z
- v
- delovnih tokov
- deluje
- pisati
- pisni
- X
- še
- Vi
- Vaša rutina za
- zefirnet
- Zip