Kui kliendid kiirendavad pilvedesse üleminekut ja muudavad oma äritegevust, satuvad mõned olukordadesse, kus nad peavad IT-toiminguid haldama mitme pilvekeskkonnas. Näiteks võisite omandada ettevõtte, mis juba töötas mõnes muus pilveteenuse pakkujas, või teil võib olla töökoormus, mis loob väärtust AWS-i ainulaadsetest võimalustest. Teine näide on sõltumatud tarkvaramüüjad (ISV), kes teevad oma tooted ja teenused kättesaadavaks erinevatel pilveplatvormidel, et oma lõppklientidele kasu saada. Või võib organisatsioon tegutseda piirkonnas, kus esmane pilveteenuse pakkuja pole saadaval, ja andmete suveräänsuse või andmete asukoha nõuete täitmiseks võivad nad kasutada teisest pilveteenuse pakkujat.
Nende stsenaariumide korral, kui hakkate oma äritegevuse põhiosaks kasutama generatiivset tehisintellekti, suurte keelemudelite (LLM) ja masinõppe (ML) tehnoloogiaid, võite otsida võimalusi selle eeliste kasutamiseks. AWS AI ja ML võimalused väljaspool AWS-i mitme pilvekeskkonnas. Näiteks võite soovida kasutada Amazon SageMaker ML mudeli ehitamiseks ja treenimiseks või kasutamiseks Amazon SageMaker Kiirstart eelehitatud vundamendi või kolmanda osapoole ML-mudelite juurutamiseks, mida saate juurutada mõne nupuvajutusega. Või soovite ehk ära kasutada Amazonase aluspõhi generatiivsete AI-rakenduste loomiseks ja skaleerimiseks või saate seda kasutada AWS-i eelkoolitatud AI-teenused, mis ei nõua masinõppe oskuste omandamist. AWS pakub tuge stsenaariumide jaoks, kus organisatsioonid seda soovivad toovad oma mudeli Amazon SageMakerisse or ennustuste jaoks Amazon SageMaker Canvasesse.
Selles postituses demonstreerime ühte paljudest võimalustest, mille abil saate kasutada AWS-i kõige laiemat ja sügavaimat AI/ML-i võimaluste komplekti mitme pilvekeskkonnas. Näitame, kuidas saate luua ja koolitada ML-mudelit AWS-is ning juurutada mudelit teisel platvormil. Koolitame mudelit Amazon SageMakeri abil, salvestame mudeli artefakte Amazoni lihtne salvestusteenus (Amazon S3) ning juurutage ja käivitage mudel Azure'is. See lähenemine on kasulik, kui kasutate AWS-i teenuseid ML-i jaoks selle kõige laiaulatuslikuma funktsioonide komplekti jaoks, kuid peate mõnes käsitletud olukorras oma mudelit mõnes teises pilveteenuse pakkujas käivitama.
Põhimõisted
Amazon SageMaker Studio on veebipõhine integreeritud arenduskeskkond (IDE) masinõppe jaoks. SageMaker Studio võimaldab andmeteadlastel, ML-inseneridel ja andmeinseneridel andmeid ette valmistada, koostada, koolitada ja juurutada ML-mudeleid ühes veebiliideses. SageMaker Studio abil pääsete juurde spetsiaalselt loodud tööriistadele ML-i arenduse elutsükli iga etapi jaoks, alates andmete ettevalmistamisest kuni ML-mudelite loomise, koolituse ja juurutamiseni, parandades andmeteaduse meeskonna tootlikkust kuni kümme korda. SageMaker Studio märkmikud on kiirkäivitus, koostööks mõeldud märkmikud, mis integreeritakse SageMakeri ja teiste AWS-i teenuste sihipäraselt loodud ML-tööriistadega.
SageMaker on kõikehõlmav ML-teenus, mis võimaldab ärianalüütikutel, andmeteadlastel ja MLOpsi inseneridel ehitada, koolitada ja juurutada ML-mudeleid iga kasutusjuhtumi jaoks, sõltumata ML-i teadmistest.
AWS pakub Süvaõppe konteinerid (DLC-d) populaarsete ML-raamistike jaoks, nagu PyTorch, TensorFlow ja Apache MXNet, mida saate kasutada koos SageMakeriga treenimiseks ja järelduste tegemiseks. DLC-d on saadaval Dockeri piltidena Amazoni elastsete konteinerite register (Amazon ECR). Dockeri pildid on eelinstallitud ja testitud populaarsete süvaõppe raamistike uusimate versioonidega ning muude koolituseks ja järelduste tegemiseks vajalike sõltuvustega. SageMakeri hallatavate eelehitatud Dockeri piltide täieliku loendi leiate siit Dockeri registriteed ja näidiskood. Amazon ECR toetab turvaskaneerimist ja on sellega integreeritud Amazoni inspektor haavatavuse haldusteenus, et täita teie organisatsiooni kujutise vastavuse turbenõudeid ja automatiseerida haavatavuse hindamise skannimist. Organisatsioonid võivad samuti kasutada AWS Trainium ja AWS Inferentia ML-i koolitustööde või järelduste tegemiseks parema hinna ja kvaliteedi suhte saavutamiseks.
Lahenduse ülevaade
Selles jaotises kirjeldame, kuidas SageMakeri abil mudelit luua ja koolitada ning mudelit Azure Functionsis juurutada. Mudeli koostamiseks, koolitamiseks ja juurutamiseks kasutame SageMaker Studio sülearvutit. Koolitame mudelit SageMakeris, kasutades PyTorchi jaoks eelehitatud Dockeri pilti. Kuigi sel juhul juurutame koolitatud mudelit Azure'is, võite kasutada sama lähenemisviisi mudeli juurutamiseks teistele platvormidele, näiteks ruumides või muudel pilveplatvormidel.
Kui loome koolitustöö, käivitab SageMaker ML-i arvutuseksemplarid ja kasutab mudeli koolitamiseks meie koolituskoodi ja koolitusandmestikku. See salvestab saadud mudeli artefaktid ja muu väljundi S3 ämbrisse, mille määrame koolitustöö sisendiks. Kui mudelikoolitus on lõppenud, kasutame Avage Neural Network Exchange (ONNX) käitusaja teegi PyTorchi mudeli eksportimiseks ONNX-mudelina.
Lõpuks juurutame ONNX-i mudeli koos Pythonis kirjutatud kohandatud järelduskoodiga Azure'i funktsioonidesse Azure'i CLI abil. ONNX toetab enamikku tavaliselt kasutatavad ML raamistikud ja tööriistad. Üks asi, mida tuleb märkida, on see, et ML-mudeli teisendamine ONNX-iks on kasulik, kui soovite kasutada teistsugust sihtjuurutusraamistikku, näiteks PyTorchit TensorFlow'ks. Kui kasutate sama raamistikku nii allika kui ka sihtmärgi puhul, ei pea te mudelit ONNX-vormingusse teisendama.
Järgmine diagramm illustreerib selle lähenemisviisi arhitektuuri.
Kasutame koos SageMaker Studio sülearvutiga SageMaker Python SDK et ehitada ja koolitada meie mudel. SageMaker Python SDK on avatud lähtekoodiga teek ML-mudelite koolitamiseks ja juurutamiseks SageMakeris. Lisateabe saamiseks vaadake Looge või avage Amazon SageMaker Studio sülearvuti.
Järgmistes jaotistes olevaid koodilõike on testitud SageMaker Studio sülearvuti keskkonnas, kasutades Data Science 3.0 pilti ja Python 3.0 tuuma.
Selles lahenduses demonstreerime järgmisi samme:
- Treenige PyTorchi mudelit.
- Eksportige PyTorchi mudel ONNX-mudelina.
- Pakkige mudel ja järelduskood.
- Juurutage mudel teenusesse Azure Functions.
Eeldused
Teil peaksid olema järgmised eeltingimused:
- AWS-i konto.
- SageMakeri domeen ja SageMaker Studio kasutaja. Juhiste saamiseks nende loomiseks vt Kiirseadistuse abil Amazon SageMakeri domeenis.
- Azure CLI.
- Juurdepääs Azure'ile ja mandaadid teenusepõhimõttele, millel on õigused Azure'i funktsioonide loomiseks ja haldamiseks.
Treenige PyTorchiga mudelit
Selles jaotises kirjeldame üksikasjalikult PyTorchi mudeli treenimise samme.
Sõltuvuste installimine
Installige teegid, et viia läbi mudelikoolituse ja mudeli juurutamise jaoks vajalikud sammud:
pip install torchvision onnx onnxruntime
Viige algseadistus lõpule
Alustame importimisega AWS SDK Pythoni jaoks (Boto3) ja SageMaker Python SDK. Seadistuse osana määratleme järgmise:
- Seansiobjekt, mis pakub mugavaid meetodeid SageMakeri ja meie enda konto kontekstis.
- SageMakeri roll ARN, mida kasutati koolitus- ja hostimisteenuse õiguste delegeerimiseks. Vajame seda selleks, et need teenused pääseksid juurde S3 ämbritele, kus meie andmed ja mudel on salvestatud. Juhised teie ettevõtte vajadustele vastava rolli loomise kohta leiate aadressilt SageMakeri rollid. Selle postituse jaoks kasutame sama täitmisrolli kui meie Studio märkmiku eksemplar. Selle rolli saame helistades
sagemaker.get_execution_role()
. - Vaikimisi piirkond, kus meie koolitustöö toimub.
- Vaikimisi ämber ja eesliide, mida kasutame mudeli väljundi salvestamiseks.
Vaadake järgmist koodi:
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
Looge treeningu andmekogum
Kasutame avalikus ämbris saadaolevat andmekogumit sagemaker-example-files-prod-{region}
. Andmekogum sisaldab järgmisi faile:
- train-images-idx3-ubyte.gz – Sisaldab treeningkomplekti pilte
- train-labels-idx1-ubyte.gz – Sisaldab treeningkomplekti silte
- t10k-images-idx3-ubyte.gz – Sisaldab testkomplekti pilte
- t10k-labels-idx1-ubyte.gz – Sisaldab testikomplekti silte
Me kasutametorchvision.datasets
moodul, et laadida andmed alla avalikust ämbrist enne nende üleslaadimist meie treeningandmete ämbrisse. Anname selle ämbri asukoha sisendiks SageMakeri koolitustööle. Meie koolitusskript kasutab seda asukohta treeningandmete allalaadimiseks ja ettevalmistamiseks ning seejärel mudeli koolitamiseks. Vaadake järgmist koodi:
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
Looge treeningskript
SageMakeriga saate kaasa võtta oma mudeli skriptirežiim. Skriptirežiimiga saate kasutada eelehitatud SageMakeri konteinereid ja pakkuda oma koolitusskripti, millel on mudeli määratlus, koos kohandatud teekide ja sõltuvustega. The SageMaker Python SDK edastab meie skripti kui entry_point
konteinerisse, mis laadib ja käivitab meie mudeli koolitamiseks rongifunktsiooni pakutavast skriptist.
Kui koolitus on lõppenud, salvestab SageMaker mudeli väljundi S3 ämbrisse, mille andsime koolitustöö parameetrina.
Meie koolituskood on kohandatud järgmisest PyTorchi näidisskript. Järgmine koodi väljavõte näitab mudeli määratlust ja rongi funktsiooni:
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
Treeni modelli
Nüüd, kui oleme oma keskkonna seadistanud ja loonud oma sisendandmestiku ja kohandatud koolitusskripti, saame SageMakeri abil mudelitreeningut alustada. Kasutame SageMakeri Python SDK-s PyTorchi hindajat, et alustada SageMakeris koolitustööd. Edastame nõutud parameetrid hindajale ja kutsume välja sobivuse meetodi. Kui kutsume PyTorchi hinnangul sobivaks, alustab SageMaker treeningtööd, kasutades treeningkoodina meie skripti:
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
Eksportige treenitud mudel ONNX-mudelina
Kui koolitus on lõppenud ja meie mudel on salvestatud Amazon S3 eelmääratletud asukohta, ekspordime mudeli ONNX-i käitusaja abil ONNX-i mudelisse.
Lisame koodi meie mudeli eksportimiseks ONNX-i meie koolitusskripti, mida pärast koolituse lõppu käitada.
PyTorch ekspordib mudeli ONNX-i, käivitades mudeli meie sisendi abil ja salvestades väljundi arvutamiseks kasutatud operaatorite jälje. Kasutame PyTorchiga õiget tüüpi juhuslikku sisendit torch.onnx.export
funktsioon mudeli eksportimiseks ONNX-i. Samuti määrame oma sisendi esimese dimensiooni dünaamilisena, nii et meie mudel aktsepteerib muutujat batch_size
sisenditest järeldamise ajal.
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX on süvaõppemudelite avatud standardvorming, mis võimaldab koostalitlusvõimet süvaõppe raamistike, nagu PyTorch, Microsoft Cognitive Toolkit (CNTK) ja teiste vahel. See tähendab, et saate mudeli koolitamiseks ja seejärel eelkoolitatud mudelite ONNX-vormingus eksportimiseks kasutada mis tahes neist raamistikest. Mudeli ONNX-i eksportimisel saate kasu laiemast juurutusseadmete ja platvormide valikust.
Laadige alla ja ekstraheerige mudeli artefaktid
SageMaker kopeeris meie koolitusskripti salvestatud ONNX-i mudeli Amazon S3-sse väljundi asukohta, mille määrasime koolitustöö alustamisel. Mudeli artefaktid salvestatakse tihendatud arhiivifailina nimega model.tar.gz
. Laadime selle arhiivifaili alla oma Studio sülearvuti eksemplari kohalikku kataloogi ja ekstraheerime mudeli artefaktid, nimelt ONNX mudeli.
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
Kinnitage ONNX mudel
ONNX-mudel eksporditakse faili nimega mnist-pytorch.onnx
meie koolituse skripti järgi. Pärast selle faili allalaadimist ja ekstraktimist saame ONNX-i mudeli valikuliselt kinnitada, kasutades onnx.checker
moodul. The check_model
Selle mooduli funktsioon kontrollib mudeli järjepidevust. Kui test ebaõnnestub, tehakse erand.
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
Pakkige mudel ja järelduskood
Selle postituse jaoks kasutame Azure'i funktsioonide jaoks .zip juurutamist. Selle meetodi puhul pakendame oma mudeli, kaasneva koodi ja Azure Functionsi sätted ZIP-faili ning avaldame selle teenuses Azure Functions. Järgmine kood näitab meie juurutuspaketi kataloogistruktuuri:
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
Loetlege sõltuvused
Loetleme oma järelduskoodi sõltuvused failis requirements.txt
faili meie paketi juurtes. Seda faili kasutatakse paketi avaldamisel Azure Functionsi keskkonna loomiseks.
azure-functions
numpy
onnxruntime
Kirjutage järelduskood
Kasutame Pythonit järgmise järelduskoodi kirjutamiseks, kasutades mudeli laadimiseks ja järelduste käitamiseks ONNX Runtime teeki. See juhendab Azure'i funktsioonide rakendust tegema lõpp-punkti veebisaidil kättesaadavaks /classify
suhteline tee.
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
Juurutage mudel teenuses Azure Functions
Nüüd, kui meil on kood nõutavasse ZIP-vormingusse pakitud, oleme valmis selle Azure Functionsis avaldama. Teeme seda Azure'i CLI-ga, käsurea utiliitiga Azure'i ressursside loomiseks ja haldamiseks. Installige Azure CLI järgmise koodiga:
!pip install -q azure-cli
Seejärel tehke järgmised sammud.
- Logige Azure'i sisse:
!az login
- Seadistage ressursi loomise parameetrid:
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- Kasutage järgmisi käske, et luua rakendus Azure Functions koos eeltingimuste ressurssidega.
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Seadistage Azure'i funktsioonid nii, et funktsioonide paketi juurutamisel
requirements.txt
faili kasutatakse meie rakendussõltuvuste loomiseks:!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Konfigureerige rakendus Functions Python v2 mudeli käitamiseks ja pärast ZIP-faili juurutamist saadud koodile loomist.
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- Kui meil on õige konfiguratsiooniga ressursirühm, salvestuskonteiner ja funktsioonide rakendus, avaldage kood rakenduses Funktsioonid:
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
Testige mudelit
Oleme ML-mudeli juurutanud Azure Functionsis HTTP-päästikuna, mis tähendab, et saame kasutada funktsiooni Functions rakenduse URL-i, et saata funktsioonile HTTP-päring, et funktsioon käivitada ja mudel käitada.
Sisendi ettevalmistamiseks laadige SageMakeri näidisfailide ämbrist alla testpiltide failid ja valmistage ette näidiskomplekt mudeli poolt nõutavas vormingus:
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
Kasutage päringute teeki, et saata näidissisenditega järeldamis-punktile postitaotlus. Järeldus-punkt võtab järgmises koodis näidatud vormingu:
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
Koristage
Kui olete mudeli testimise lõpetanud, kustutage ressursirühm koos sisalduvate ressurssidega, sealhulgas salvestusmahuti ja funktsioonide rakendus.
!az group delete --name {resource_group_name} --yes
Lisaks on kulude vähendamiseks soovitatav sulgeda SageMaker Studio tegevusetud ressursid. Lisateabe saamiseks vaadake Säästke kulusid, lülitades Amazon SageMaker Studios automaatselt välja jõudeolevad ressursid.
Järeldus
Selles postituses näitasime, kuidas saate SageMakeriga luua ja treenida ML-mudelit ning juurutada see mõnele teisele pilveteenuse pakkujale. Lahenduses kasutasime SageMaker Studio sülearvutit, kuid tootmiskoormuste jaoks soovitasime kasutada MLOps luua korratavaid koolitustöövooge, et kiirendada mudeli väljatöötamist ja kasutuselevõttu.
See postitus ei näidanud kõiki võimalikke viise mudeli juurutamiseks ja käitamiseks mitme pilvekeskkonnas. Näiteks saate oma mudeli pakendada konteineri kujutisse koos järelduskoodi ja sõltuvusteekidega, et käitada mudelit konteinerrakendusena mis tahes platvormil. Selle lähenemisviisi kohta lisateabe saamiseks vaadake Juurutage konteinerrakendusi mitme pilvekeskkonnas, kasutades Amazon CodeCatalyst. Postituse eesmärk on näidata, kuidas organisatsioonid saavad kasutada AWS AI/ML-i võimalusi mitme pilvekeskkonnas.
Autoritest
Raja Vaidyanathan on AWS-i lahenduste arhitekt, kes toetab ülemaailmseid finantsteenuste kliente. Raja töötab koos klientidega, et leida lahendusi keerukatele probleemidele, millel on nende äritegevusele pikaajaline positiivne mõju. Ta on tugev insenerispetsialist, kes on kogenud IT-strateegia, ettevõtte andmehalduse ja rakendusarhitektuuri alal ning tunneb erilist huvi analüütika ja masinõppe vastu.
Amandeep Bajwa on AWS-i vanemlahenduste arhitekt, kes toetab finantsteenuste ettevõtteid. Ta aitab organisatsioonidel saavutada oma äritulemusi, määrates kindlaks sobiva pilve ümberkujundamise strateegia, mis põhineb valdkonna suundumustel ja organisatsiooni prioriteetidel. Mõned valdkonnad, mille osas Amandeep konsulteerib, on pilvemigratsioon, pilvestrateegia (sh hübriid- ja multicloud), digitaalne teisendus, andmed ja analüütika ning tehnoloogia üldiselt.
Prema Iyer on AWS-i ettevõtte tugiteenuste vanemtehniline kontohaldur. Ta töötab väliste klientidega mitmesuguste projektide kallal, aidates neil AWS-i kasutamisel oma lahenduste väärtust tõsta.
- SEO-põhise sisu ja PR-levi. Võimenduge juba täna.
- PlatoData.Network Vertikaalne generatiivne Ai. Jõustage ennast. Juurdepääs siia.
- PlatoAiStream. Web3 luure. Täiustatud teadmised. Juurdepääs siia.
- PlatoESG. Süsinik, CleanTech, Energia, Keskkond päikeseenergia, Jäätmekäitluse. Juurdepääs siia.
- PlatoTervis. Biotehnoloogia ja kliiniliste uuringute luureandmed. Juurdepääs siia.
- Allikas: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- :on
- :on
- :mitte
- : kus
- $ UP
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- MEIST
- kiirendama
- Nõustub
- juurdepääs
- konto
- Saavutada
- omandatud
- ADEelis
- pärast
- AI
- AI / ML
- Materjal: BPA ja flataatide vaba plastik
- võimaldab
- mööda
- juba
- Ka
- Kuigi
- Amazon
- Amazon SageMaker
- Amazon SageMakeri lõuend
- Amazon SageMaker Studio
- Amazon Web Services
- an
- Analüütikud
- analytics
- ja
- anonüümne
- Teine
- mistahes
- Apache
- app
- taotlus
- rakendused
- lähenemine
- asjakohane
- arhitektuur
- Arhiiv
- OLEME
- valdkondades
- AS
- hindamine
- At
- automatiseerima
- automaatselt
- saadaval
- AWS
- TELGED
- Taevasina
- põhineb
- BE
- olnud
- enne
- alustama
- kasulik
- kasu
- Parem
- vahel
- mõlemad
- tooma
- laiem
- ehitama
- Ehitus
- äri
- kuid
- by
- helistama
- kutsutud
- kutsudes
- CAN
- lõuend
- võimeid
- viima
- juhul
- Kontroll
- klass
- Klassifitseerige
- klõps
- Cloud
- kood
- tunnetuslik
- koostööl
- ettevõte
- täitma
- keeruline
- Vastavus
- terviklik
- Arvutama
- konfiguratsioon
- sisaldub
- Konteiner
- Konteinerid
- sisaldab
- kontekst
- mugavus
- muutma
- konverteeriva
- tuum
- kulud
- võiks
- looma
- loodud
- loomine
- loomine
- volikiri
- tava
- Kliendid
- andmed
- andmehaldus
- Andmete ettevalmistamine
- andmeteadus
- andmekogumid
- sügav
- sügav õpe
- sügavaim
- vaikimisi
- määratlema
- määratlus
- näitama
- sõltuvused
- Sõltuvus
- juurutada
- lähetatud
- juurutamine
- kasutuselevõtu
- kirjeldama
- detail
- detailid
- & Tarkvaraarendus
- seade
- seadmed
- erinev
- digitaalne
- Digitaalne Transformation
- numbrit
- mõõde
- arutatud
- do
- laevalaadija
- domeen
- tehtud
- Ära
- alla
- lae alla
- ajal
- dünaamiline
- e
- teine
- omaks võtma
- võimaldab
- võimaldades
- lõpp
- Lõpp-punkt
- Inseneriteadus
- Inseneride
- ettevõte
- ettevõtete
- keskkond
- epohh
- ajajärgud
- Iga
- näide
- Välja arvatud
- erand
- täitmine
- teadmised
- eksport
- ekspordi
- väline
- väljavõte
- ei
- FUNKTSIOONID
- vähe
- fail
- Faile
- finants-
- finantsteenused
- leidma
- esimene
- sobima
- Järel
- eest
- formaat
- Sihtasutus
- Raamistik
- raamistikud
- Alates
- funktsioon
- funktsioonid
- Üldine
- genereerib
- generatiivne
- Generatiivne AI
- saama
- Globaalne
- globaalne finants
- Grupp
- Olema
- he
- aidates
- aitab
- Hosting
- Kuidas
- Kuidas
- HTML
- http
- HTTPS
- hübriid
- ID
- identifitseerimiseks
- Idle
- if
- illustreerib
- pilt
- pildid
- mõju
- import
- importivate
- parandama
- Paranemist
- in
- sisaldama
- Kaasa arvatud
- sõltumatud
- tööstus
- info
- esialgne
- sisend
- sisendite
- paigaldama
- Näiteks
- juhised
- integreerima
- integreeritud
- tahtlus
- el
- Interface
- Koostalitlusvõime
- sisse
- IT
- ITS
- töö
- Tööturg
- jpg
- Json
- keel
- suur
- hiljemalt
- käivitab
- Õppida
- õppimine
- Pikkus
- Finantsvõimendus
- raamatukogud
- Raamatukogu
- eluring
- joon
- Linux
- nimekiri
- koormus
- saadetised
- kohalik
- kohapeal
- liising
- metsaraie
- pikaajaline
- otsin
- kaotus
- masin
- masinõpe
- tegema
- juhtima
- juhitud
- juhtimine
- juht
- palju
- kaart
- matplotlib
- mai..
- vahendid
- Vastama
- vastab
- meetod
- meetodid
- Microsoft
- võib
- ränne
- ML
- MLOps
- viis
- mudel
- mudelid
- moodulid
- rohkem
- kõige
- nimi
- Nimega
- nimelt
- Vajadus
- vaja
- vajadustele
- neto
- võrk
- närvi-
- Närvivõrgus
- märkmik
- tuim
- objekt
- of
- on
- ONE
- avatud
- avatud lähtekoodiga
- tegutsevad
- Operations
- ettevõtjad
- Valikud
- or
- et
- organisatsioon
- organisatsiooniline
- organisatsioonid
- OS
- Muu
- meie
- välja
- tulemusi
- väljund
- väljaspool
- enda
- pakend
- pakendatud
- parameeter
- parameetrid
- osa
- eriline
- partei
- sooritama
- möödub
- tee
- täitma
- Õigused
- inimesele
- Platvormid
- Platon
- Platoni andmete intelligentsus
- PlatoData
- populaarne
- positiivne
- võimalik
- post
- Ennustused
- ettevalmistamine
- Valmistama
- eeldused
- esmane
- Peamine
- probleeme
- Töödeldud
- Produktsioon
- tootlikkus
- Toodet
- professionaalne
- projektid
- anda
- tingimusel
- tarnija
- annab
- avalik
- avaldama
- Python
- pütorch
- Kiire
- tõstatatud
- juhuslik
- valmis
- saab
- soovitatav
- salvestamine
- vähendama
- viitama
- Sõltumata sellest
- piirkond
- registri
- suhteline
- korratav
- taotleda
- Taotlusi
- nõudma
- nõutav
- Nõuded
- ressurss
- Vahendid
- vastus
- kaasa
- tulemuseks
- tagasipöördumine
- õige
- Roll
- juur
- jooks
- jooksmine
- jookseb
- salveitegija
- sama
- salvestatud
- Skaala
- skaneerimine
- stsenaariumid
- teadus
- teadlased
- käsikiri
- SDK
- kesk-
- Osa
- lõigud
- turvalisus
- vaata
- valik
- SELF
- saatma
- vanem
- teenus
- Teenused
- istung
- komplekt
- seaded
- seade
- kuju
- ta
- peaks
- näitama
- näitas
- näidatud
- Näitused
- sulgema
- seiskamist
- lihtne
- olukordades
- osav
- oskused
- So
- tarkvara
- lahendus
- Lahendused
- mõned
- allikas
- suveräänsus
- määratletud
- Stage
- standard
- algus
- alustatud
- algab
- Sammud
- ladustamine
- salvestada
- ladustatud
- Strateegia
- nöör
- tugev
- struktuur
- stuudio
- Järgnevalt
- Edukalt
- selline
- toetama
- Toetamine
- Toetab
- Võtma
- võtab
- sihtmärk
- meeskond
- Tehniline
- Tehnoloogiad
- Tehnoloogia
- kümme
- tensorivool
- test
- katsetatud
- Testimine
- tekst
- et
- .
- Allikas
- oma
- Neile
- ennast
- SIIS
- Need
- nad
- asi
- Kolmas
- see
- korda
- et
- Käsiraamat
- töövahendid
- tõrvik
- Torchvision
- Jälg
- Rong
- koolitatud
- koolitus
- Muutma
- Transformation
- Ümberkujundamise strateegia
- muudab
- Trends
- vallandada
- vallandas
- tõsi
- püüdma
- tüüp
- ainulaadne
- laetud
- Üleslaadimine
- URL
- kasutama
- kasutage juhtumit
- Kasutatud
- Kasutaja
- kasutusalad
- kasutamine
- kasulikkus
- KINNITAGE
- väärtus
- muutuja
- sort
- müüjad
- versioonid
- haavatavus
- tahan
- oli
- kuidas
- we
- web
- veebiteenused
- Veebipõhine
- Hästi
- millal
- mis
- will
- koos
- jooksul
- Töövoogud
- töötab
- kirjutama
- kirjalik
- X
- veel
- sa
- Sinu
- sephyrnet
- Tõmblukk