Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimiga

Tugevate ja korduvkasutatavate masinõppe (ML) torujuhtmete loomine võib olla keeruline ja aeganõudev protsess. Arendajad testivad tavaliselt oma töötlemis- ja koolitusskripte kohapeal, kuid torujuhtmeid endid testitakse tavaliselt pilves. Täieliku konveieri loomine ja käitamine katsetamise ajal lisab arenduse elutsüklile soovimatuid üldkulusid ja kulusid. Selles postituses kirjeldame üksikasjalikult, kuidas saate seda kasutada Amazon SageMaker Pipelines kohalik režiim ML torujuhtmete lokaalseks käitamiseks, et vähendada nii konveieri arendust kui ka tööaega, vähendades samal ajal kulusid. Pärast torujuhtme täielikku kohapealset testimist saate selle hõlpsalt uuesti käivitada Amazon SageMaker hallatavad ressursid vaid mõne koodirea muutmisega.

ML elutsükli ülevaade

ML-i uute uuenduste ja rakenduste üks peamisi tõukejõude on andmete kättesaadavus ja hulk koos odavamate arvutusvõimalustega. Mitmes valdkonnas on ML osutunud suuteliseks lahendama probleeme, mida varem ei saanud lahendada klassikaliste suurandmete ja analüütiliste tehnikatega, ning nõudlus andmeteaduse ja ML-i praktikute järele kasvab pidevalt. Väga kõrgel tasemel koosneb ML elutsükkel paljudest erinevatest osadest, kuid ML mudeli koostamine koosneb tavaliselt järgmistest üldistest sammudest:

  1. Andmete puhastamine ja ettevalmistamine (funktsioonide projekteerimine)
  2. Modellikoolitus ja häälestamine
  3. Mudeli hindamine
  4. Mudeli juurutamine (või partii teisendamine)

Andmete ettevalmistamise etapis laaditakse andmed, masseeritakse ja teisendatakse seda tüüpi sisenditeks või funktsioonideks, mida ML-mudel eeldab. Skriptide kirjutamine andmete teisendamiseks on tavaliselt iteratiivne protsess, kus kiired tagasisideahelad on arenduse kiirendamiseks olulised. Tavaliselt ei ole funktsioonide inseneri skriptide testimisel vaja kasutada kogu andmestikku, mistõttu saate kasutada kohaliku režiimi funktsioon SageMakeri töötlemisest. See võimaldab teil töötada kohapeal ja värskendada koodi iteratiivselt, kasutades väiksemat andmekogumit. Kui lõplik kood on valmis, esitatakse see kaugtöötlustööle, mis kasutab kogu andmestikku ja töötab SageMakeri hallatud eksemplaridel.

Arendusprotsess sarnaneb andmete ettevalmistamise etapiga nii mudeli koolituse kui ka mudeli hindamise etappide jaoks. Andmeteadlased kasutavad kohaliku režiimi funktsioon SageMakeri koolitusest, et itereerida kiiresti väiksemate andmekogumitega kohapeal, enne kui kasutate kõiki andmeid SageMakeri hallatavas ML-optimeeritud eksemplaride klastris. See kiirendab arendusprotsessi ja välistab katsetamise ajal SageMakeri hallatavate ML-juhtumite käitamise kulud.

Kui organisatsiooni ML küpsus kasvab, saate kasutada Amazon SageMakeri torujuhtmed luua ML-konveierid, mis ühendavad need etapid kokku, luues keerukamaid ML-i töövooge, mis töötlevad, koolitavad ja hindavad ML-mudeleid. SageMaker Pipelines on täielikult hallatav teenus ML-i töövoo erinevate etappide automatiseerimiseks, sealhulgas andmete laadimine, andmete teisendamine, mudeli koolitus ja häälestamine ning mudeli juurutamine. Kuni viimase ajani saite oma skripte arendada ja testida kohapeal, kuid pidite oma ML-i konveieri pilves testima. See muutis ML-torujuhtmete voolu ja vormi kordamise aeglaseks ja kulukaks protsessiks. Nüüd saate SageMaker Pipelines'i lisatud kohaliku režiimi funktsiooniga itereerida ja testida oma ML-konveierid sarnaselt sellega, kuidas testite ja itereerite oma töötlemis- ja koolitusskripte. Saate käitada ja testida torujuhtmeid kohalikus masinas, kasutades konveieri süntaksi ja funktsioonide kinnitamiseks väikest andmete alamhulka.

SageMakeri torujuhtmed

SageMaker Pipelines pakub täielikult automatiseeritud viisi lihtsate või keerukate ML-töövoogude käitamiseks. SageMakeri torujuhtmete abil saate hõlpsasti kasutatava Pythoni SDK abil luua ML-i töövooge ning seejärel visualiseerida ja hallata oma töövooge, kasutades Amazon SageMaker Studio. Teie andmeteaduse meeskonnad võivad olla tõhusamad ja skaleeruda kiiremini, kui salvestate ja taaskasutage SageMaker Pipelinesis loodud töövoo etappe. Samuti saate oma ML-keskkonnas mudelite koostamiseks, testimiseks, registreerimiseks ja juurutamiseks kasutada eelehitatud malle, mis automatiseerivad infrastruktuuri ja hoidla loomist. Need mallid on teie organisatsioonile automaatselt saadaval ja need on ette nähtud kasutades AWS-i teenuste kataloog tooted.

SageMaker Pipelines toob ML-i pideva integreerimise ja pideva juurutamise (CI/CD) praktikad, nagu arendus- ja tootmiskeskkondade vahelise pariteedi säilitamine, versioonikontroll, tellitav testimine ja täielik automatiseerimine, mis aitab teil ML-i kogu oma töös skaleerida. organisatsioon. DevOpsi praktikud teavad, et CI/CD tehnikate kasutamise peamised eelised hõlmavad tootlikkuse suurenemist korduvkasutatavate komponentide kaudu ja kvaliteedi paranemist automatiseeritud testimise kaudu, mis toob kaasa teie ärieesmärkide kiirema investeeringutasuvuse. Need eelised on nüüd saadaval MLOps-i praktikutele, kasutades SageMakeri torujuhtmeid ML-mudelite koolituse, testimise ja juurutamise automatiseerimiseks. Kohaliku režiimiga saate nüüd palju kiiremini itereerida, arendades samal ajal skripte, mida kasutatakse konveier. Pange tähele, et kohalikke torujuhtme eksemplare ei saa Studio IDE-s vaadata ega käivitada. kohalike torujuhtmete jaoks on aga peagi saadaval täiendavad vaatamisvõimalused.

SageMaker SDK pakub üldist eesmärki kohaliku režiimi konfiguratsioon mis võimaldab arendajatel käitada ja testida toetatud protsessoreid ja hindajaid oma kohalikus keskkonnas. Saate kasutada kohaliku režiimi koolitust nii mitme AWS-i toetatud raamistiku kujutisega (TensorFlow, MXNet, Chainer, PyTorch ja Scikit-Learn) kui ka enda tarnitavate piltidega.

SageMaker Pipelines, mis koostab korraldatud töövoo etappidest suunatud atsüklilise graafiku (DAG), toetab paljusid tegevusi, mis on osa ML elutsüklist. Kohalikus režiimis toetatakse järgmisi samme:

  • Tööetappide töötlemine – Lihtsustatud ja hallatud kogemus SageMakeris andmetöötluse töökoormuse käitamiseks, nagu funktsioonide projekteerimine, andmete valideerimine, mudeli hindamine ja mudeli tõlgendamine
  • Koolituse tööetapid – Iteratiivne protsess, mis õpetab mudelit ennustusi tegema, esitades näiteid koolitusandmestikust
  • Hüperparameetrite häälestamise tööd – automatiseeritud viis kõige täpsema mudeli loomiseks vajalike hüperparameetrite hindamiseks ja valimiseks
  • Tingimuslikud jooksusammud – samm, mis tagab torujuhtme harude tingimusliku jooksmise
  • Mudeli samm – CreateModel argumentide abil saab selle sammuga luua mudeli, mida kasutatakse teisendusetappides või hilisemas lõpp-punktina juurutamisel.
  • Muutke tööetappe – partii teisendustöö, mis genereerib ennustusi suurtest andmekogumitest ja teeb järeldusi, kui püsivat lõpp-punkti pole vaja
  • Ebaõnnestunud sammud – samm, mis peatab konveieri töö ja märgib töö nurjunuks

Lahenduse ülevaade

Meie lahendus demonstreerib olulisi samme SageMakeri torujuhtmete loomiseks ja käitamiseks kohalikus režiimis, mis tähendab kohalike protsessori-, RAM-i ja kettaressursside kasutamist töövoo etappide laadimiseks ja käitamiseks. Teie kohalik keskkond võib töötada sülearvutis, kasutades populaarseid IDE-sid, nagu VSCode või PyCharm, või seda võib hostida SageMaker, kasutades klassikalisi sülearvuti eksemplare.

Kohalik režiim võimaldab andmeteadlastel ühendada etapid, mis võivad hõlmata töötlemis-, koolitus- ja hindamistöid, ning kogu töövoogu kohapeal käitada. Kui olete kohaliku testimise lõpetanud, saate torujuhtme uuesti käivitada SageMakeri hallatavas keskkonnas, asendades LocalPipelineSession objektiga PipelineSession, mis toob ML elutsüklisse järjepidevuse.

Selle sülearvuti näidise jaoks kasutame standardset avalikult kättesaadavat andmekogumit UCI masinõppe abalone andmestik. Eesmärgiks on treenida ML-mudelit, et määrata tema füüsiliste mõõtmiste põhjal leplikoo vanust. Põhimõtteliselt on see regressiooniprobleem.

Kogu selle sülearvuti näidise käitamiseks vajalik kood on saadaval GitHubis aadressil amazon-sagemaker-näited hoidla. Selles märkmiku näidises luuakse iga konveieri töövoo etapp eraldi ja ühendatakse seejärel konveieri loomiseks kokku. Loome järgmised sammud:

  • Töötlemise etapp (funktsioonide projekteerimine)
  • Koolituse samm (mudelkoolitus)
  • Töötlemise etapp (mudeli hindamine)
  • Tingimuse samm (mudeli täpsus)
  • Loo mudeli samm (mudel)
  • Teisenduse samm (partii teisendus)
  • Registreeri mudeli samm (mudelipakett)
  • Ebaõnnestunud samm (käivitamine ebaõnnestus)

Järgmine diagramm illustreerib meie torujuhet.

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.

Eeldused

Selle postituse jätkamiseks vajate järgmist.

Kui need eeltingimused on paigas, saate näidismärkmiku käitada, nagu on kirjeldatud järgmistes jaotistes.

Ehitage oma torujuhe

Selles märkmiku näidises kasutame SageMakeri skriptirežiim enamiku ML-protsesside jaoks, mis tähendab, et pakume tegevuse teostamiseks tegelikku Pythoni koodi (skripte) ja edastame sellele koodile viite. Skriptirežiim pakub suurt paindlikkust SageMakeri töötlemise käitumise juhtimiseks, võimaldades teil oma koodi kohandada, kasutades samal ajal ära SageMakeri eelehitatud konteinerid, nagu XGBoost või Scikit-Learn. Kohandatud kood kirjutatakse Pythoni skriptifaili, kasutades lahtreid, mis algavad magic-käsuga %%writefile, nagu järgmine:

%%writefile code/evaluation.py

Kohaliku režiimi peamine võimaldaja on LocalPipelineSession objekt, mis on loodud Pythoni SDK-st. Järgmised koodisegmendid näitavad, kuidas luua kohalikus režiimis SageMakeri torujuhet. Kuigi saate konfigureerida kohaliku andmetee paljude kohaliku konveieri etappide jaoks, on Amazon S3 vaikekoht teisendusega väljundandmete salvestamiseks. Uus LocalPipelineSession objekt edastatakse Pythoni SDK-le paljudes selles postituses kirjeldatud SageMakeri töövoo API kutsetes. Pange tähele, et saate kasutada local_pipeline_session muutuja viidete toomiseks S3 vaikesalbale ja praegusele piirkonna nimele.

from sagemaker.workflow.pipeline_context import LocalPipelineSession

# Create a `LocalPipelineSession` object so that each 
# pipeline step will run locally
# To run this pipeline in the cloud, you must change 
# the `LocalPipelineSession()` to `PipelineSession()`
local_pipeline_session = LocalPipelineSession()
region = local_pipeline_session.boto_region_name

default_bucket = local_pipeline_session.default_bucket()
prefix = "sagemaker-pipelines-local-mode-example"

Enne torujuhtme üksikute etappide loomist määrame mõned torujuhtme kasutatavad parameetrid. Mõned neist parameetritest on stringiliteraalid, teised aga luuakse SDK pakutavate spetsiaalsete loenditüüpidena. Loendatav tippimine tagab, et torujuhtmele antakse kehtivad sätted, nagu see, mis edastatakse ConditionLessThanOrEqualTo astuge allapoole:

mse_threshold = ParameterFloat(name="MseThreshold", default_value=7.0)

Andmetöötlusetapi loomiseks, mida kasutatakse siin funktsioonide projekteerimiseks, kasutame SKLearnProcessor andmestiku laadimiseks ja teisendamiseks. Me möödume local_pipeline_session muutuja klassi konstruktorile, mis käsib töövoo sammu käitada kohalikus režiimis:

from sagemaker.sklearn.processing import SKLearnProcessor

framework_version = "1.0-1"

sklearn_processor = SKLearnProcessor(
    framework_version=framework_version,
    instance_type=instance_type,
    instance_count=processing_instance_count,
    base_job_name="sklearn-abalone-process",
    role=role,
    sagemaker_session=local_pipeline_session,
)

Järgmisena loome oma esimese tegeliku torujuhtme etapi, a ProcessingStep objekt, mis on imporditud SageMakeri SDK-st. Protsessori argumendid tagastatakse kõnest aadressile SKLearnProcessor run() meetod. See töövoo etapp kombineeritakse teiste sammudega sülearvuti lõpu poole, et näidata tööjärjekorda konveieri sees.

from sagemaker.processing import ProcessingInput, ProcessingOutput
from sagemaker.workflow.steps import ProcessingStep

processor_args = sklearn_processor.run(
    inputs=[
        ProcessingInput(source=input_data, destination="/opt/ml/processing/input"),
    ],
    outputs=[
        ProcessingOutput(output_name="train", source="/opt/ml/processing/train"),
        ProcessingOutput(output_name="validation", source="/opt/ml/processing/validation"),
        ProcessingOutput(output_name="test", source="/opt/ml/processing/test"),
    ],
    code="code/preprocessing.py",
)

step_process = ProcessingStep(name="AbaloneProcess", step_args=processor_args)

Järgmisena pakume koodi koolitusetapi loomiseks, käivitades esmalt SageMakeri SDK abil standardse hinnangu. Me läbime sama local_pipeline_session hindaja muutuja nimega xgb_train sagemaker_session argument. Kuna soovime treenida XGBoosti mudelit, peame genereerima kehtiva pildi URI, määrates järgmised parameetrid, sealhulgas raamistiku ja mitmed versiooniparameetrid:

from sagemaker.estimator import Estimator
from sagemaker.inputs import TrainingInput

model_path = f"s3://{default_bucket}/{prefix}/model"
image_uri = sagemaker.image_uris.retrieve(
    framework="xgboost",
    region=region,
    version="1.5-1",
    py_version="py3",
    instance_type=instance_type,
)

xgb_train = Estimator(
    image_uri=image_uri,
    entry_point="code/abalone.py",
    instance_type=instance_type,
    instance_count=training_instance_count,
    output_path=model_path,
    role=role,
    sagemaker_session=local_pipeline_session,
)

Valikuliselt võime kutsuda näiteks täiendavaid hindamismeetodeid set_hyperparameters(), et pakkuda treeningtöö jaoks hüperparameetrite sätteid. Nüüd, kui hindaja on konfigureeritud, oleme valmis tegeliku koolitusetapi looma. Taas impordime TrainingStep klass SageMaker SDK teegist:

from sagemaker.workflow.steps import TrainingStep

step_train = TrainingStep(name="AbaloneTrain", step_args=train_args)

Järgmisena ehitame mudeli hindamiseks teise töötlemisetapi. Seda tehakse luues a ScriptProcessor näide ja läbides local_pipeline_session objekt parameetrina:

from sagemaker.processing import ScriptProcessor

script_eval = ScriptProcessor(
    image_uri=image_uri,
    command=["python3"],
    instance_type=instance_type,
    instance_count=processing_instance_count,
    base_job_name="script-abalone-eval",
    role=role,
    sagemaker_session=local_pipeline_session,
)

Koolitatud mudeli juurutamise võimaldamiseks kas a SageMakeri reaalajas lõpp-punkt või partii teisenduseks peame looma a Model objekti, edastades mudeli artefaktid, õige pildi URI ja valikuliselt meie kohandatud järelduskoodi. Seejärel läbime selle Model vastuväite a ModelStep, mis lisatakse kohalikku torujuhtmesse. Vaadake järgmist koodi:

from sagemaker.model import Model

model = Model(
    image_uri=image_uri,
    model_data=step_train.properties.ModelArtifacts.S3ModelArtifacts,
    source_dir="code",
    entry_point="inference.py",
    role=role,
    sagemaker_session=local_pipeline_session,
)

from sagemaker.workflow.model_step import ModelStep

step_create_model = ModelStep(name="AbaloneCreateModel", 
    step_args=model.create(instance_type=instance_type)
)

Järgmisena loome partii teisenduse etapi, kus esitame funktsioonivektorite komplekti ja teeme järeldused. Kõigepealt peame looma a Transformer objekti ja läbima local_pipeline_session parameeter sellele. Seejärel loome a TransformStep, edastades vajalikud argumendid ja lisage see konveieri määratlusesse:

from sagemaker.transformer import Transformer

transformer = Transformer(
    model_name=step_create_model.properties.ModelName,
    instance_type=instance_type,
    instance_count=transform_instance_count,
    output_path=f"s3://{default_bucket}/{prefix}/transform",
    sagemaker_session=local_pipeline_session,
)

from sagemaker.workflow.steps import TransformStep

transform_args = transformer.transform(transform_data, content_type="text/csv")

step_transform = TransformStep(name="AbaloneTransform", step_args=transform_args)

Lõpuks tahame lisada töövoogu haru tingimuse, nii et käivitaksime partii teisenduse ainult siis, kui mudeli hindamise tulemused vastavad meie kriteeriumidele. Seda tingimust saame näidata, lisades a ConditionStep teatud tingimuse tüübiga, nagu ConditionLessThanOrEqualTo. Seejärel loetleme kahe haru etapid, määratledes sisuliselt torujuhtme if/else või true/false harud. Kui_sammud on esitatud dokumendis ConditionStep (samm_loo_mudel, samm_teisendus) käivitatakse alati, kui tingimus on hinnatud True.

from sagemaker.workflow.conditions import ConditionLessThanOrEqualTo
from sagemaker.workflow.condition_step import ConditionStep
from sagemaker.workflow.functions import JsonGet

cond_lte = ConditionLessThanOrEqualTo(
    left=JsonGet(
        step_name=step_eval.name,
        property_file=evaluation_report,
        json_path="regression_metrics.mse.value",),
    right=mse_threshold,
)

step_cond = ConditionStep(
    name="AbaloneMSECond",
    conditions=[cond_lte],
    if_steps=[step_create_model, step_transform],
    else_steps=[step_fail],
)

Järgmine diagramm illustreerib seda tingimuslikku haru ja sellega seotud if/else samme. Käitatakse ainult ühte haru, mis põhineb mudeli hindamise etapi tulemusel võrreldes tingimuse etapis.

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.

Nüüd, kui oleme kõik sammud määratletud ja aluseks olevad klassieksemplarid loodud, saame need ühendada konveieriks. Pakume mõningaid parameetreid ja määrame tööjärjekorra, lihtsalt loetledes sammud soovitud järjekorras. Pange tähele, et TransformStep siin ei kuvata, kuna see on tingimusliku sammu sihtmärk ja see esitati sammuargumendina ConditionalStep varem.

from sagemaker.workflow.pipeline import Pipeline

pipeline_name = f"LocalModelPipeline"
pipeline = Pipeline(
    name=pipeline_name,
    parameters=[
        input_data,
        mse_threshold,
    ],
    steps=[step_process, step_train, step_eval, step_cond],
    sagemaker_session=local_pipeline_session,
)

Konveieri käivitamiseks peate kutsuma kahte meetodit: pipeline.upsert(), mis laadib torujuhtme üles aluseks olevasse teenusesse ja pipeline.start(), mis alustab torujuhtme käitamist. Käitusoleku uurimiseks, konveieri etappide loetlemiseks ja muuks saate kasutada mitmesuguseid muid meetodeid. Kuna kasutasime kohaliku režiimi konveieri seanssi, käitatakse neid samme teie protsessoris kohapeal. Käivitusmeetodi all olev lahtri väljund näitab konveieri väljundit:

pipeline.upsert(role_arn=role)
execution = pipeline.start()

Lahtri väljundi allosas peaksite nägema järgmisega sarnast teadet:

Pipeline execution d8c3e172-089e-4e7a-ad6d-6d76caf987b7 SUCCEEDED

Naaske hallatavate ressursside juurde

Kui oleme kinnitanud, et konveier töötab vigadeta ja oleme torujuhtme voolu ja vormiga rahul, saame torujuhtme uuesti luua, kuid SageMakeri hallatavate ressurssidega ja seda uuesti käivitada. Ainus vajalik muudatus on kasutada PipelineSession objekti asemel LocalPipelineSession:

Alates sagemaker.workflow.pipeline_context Import LocalPipelineSession
from sagemaker.workflow.pipeline_context import PipelineSession

local_pipeline_session = LocalPipelineSession()
pipeline_session = PipelineSession()

See teavitab teenust SageMakeri hallatavates ressurssides iga sellele seansiobjektile viitava sammu käivitamisest. Arvestades väikest muudatust, illustreerime ainult nõutavad koodimuudatused järgmises koodilahtris, kuid sama muudatus tuleks rakendada igas lahtris, kasutades local_pipeline_session objektiks. Muudatused on aga kõigis lahtrites identsed, kuna me asendame ainult local_pipeline_session objektiga pipeline_session objekt

from sagemaker.sklearn.processing import SKLearnProcessor

framework_version = "1.0-1"

sklearn_processor = SKLearnProcessor(
    framework_version=framework_version,
    instance_type=instance_type,
    instance_count=processing_instance_count,
    base_job_name="sklearn-abalone-process",
    role=role,
    sagemaker_session=pipeline_session,  # non-local session
)

Kui kohalik seansiobjekt on kõikjal asendatud, loome konveieri uuesti ja käivitame selle SageMakeri hallatavate ressurssidega:

from sagemaker.workflow.pipeline import Pipeline

pipeline_name = f"LocalModelPipeline"
pipeline = Pipeline(
    name=pipeline_name,
    parameters=[
        input_data,
        mse_threshold,
    ],
    steps=[step_process, step_train, step_eval, step_cond],
    sagemaker_session=pipeline_session, # non-local session
)

pipeline.upsert(role_arn=role)
execution = pipeline.start()

Koristage

Kui soovite Stuudio keskkonda korras hoida, saate SageMakeri konveieri ja mudeli kustutamiseks kasutada järgmisi meetodeid. Täieliku koodi leiate näidisest märkmik.

# delete models 
sm_client = boto3.client("sagemaker")
model_prefix="AbaloneCreateModel"
delete_models(sm_client, model_prefix)

# delete managed pipeline
pipeline_to_delete = 'SM-Managed-Pipeline'
delete_sagemaker_pipeline(sm_client, pipeline_to_delete)

Järeldus

Kuni viimase ajani võisite kasutada SageMaker Processing ja SageMaker Training kohaliku režiimi funktsiooni, et itereerida oma töötlemis- ja treenimisskripte kohapeal, enne kui käivitasite need SageMakeri hallatavate ressurssidega kõikidel andmetel. SageMaker Pipelines'i uue kohaliku režiimi funktsiooniga saavad ML-i praktikud nüüd rakendada sama meetodit oma ML-konveieritel itereerides, ühendades erinevad ML-i töövood kokku. Kui konveier on tootmiseks valmis, nõuab selle käitamine SageMakeri hallatavate ressurssidega vaid mõne koodirea muutmist. See vähendab konveieri tööaega arenduse ajal, mis viib torujuhtme kiirema arendamiseni kiiremate arendustsüklitega, vähendades samal ajal SageMakeri hallatavate ressursside kulusid.

Lisateabe saamiseks külastage Amazon SageMakeri torujuhtmed or Kasutage SageMakeri torujuhtmeid, et oma tööd kohapeal juhtida.


Autoritest

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.Paul Hargis on keskendunud masinõppele mitmes ettevõttes, sealhulgas AWS, Amazon ja Hortonworks. Talle meeldib ehitada tehnoloogilisi lahendusi ja õpetada inimesi sellest maksimumi võtma. Enne AWS-is töötamist oli ta Amazon Exports and Expansionsi peaarhitekt, aidates veebisaidil amazon.com parandada rahvusvaheliste ostjate kogemust. Paulile meeldib aidata klientidel laiendada oma masinõppe algatusi, et lahendada reaalseid probleeme.

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.Niklas Palm on lahenduste arhitekt AWS-is Stockholmis, Rootsis, kus ta aitab klientidel kogu Põhjamaades pilves edu saavutada. Ta on eriti kirglik serverita tehnoloogiate, asjade interneti ja masinõppe vastu. Töövälisel ajal on Niklas innukas murdmaasuusataja ja lumelaudur ning meistermunakas.

Vähendage kulusid ja arendusaega Amazon SageMaker Pipelinesi kohaliku režiimi PlatoBlockchain Data Intelligence abil. Vertikaalne otsing. Ai.Kirit Thadaka on ML Solutionsi arhitekt, kes töötab SageMaker Service SA meeskonnas. Enne AWS-iga liitumist töötas Kirit varajases staadiumis tehisintellekti idufirmades, millele järgnes mõnda aega nõustamine erinevates rollides tehisintellekti uurimise, MLO-de ja tehnilise juhtimise alal.

Ajatempel:

Veel alates AWS-i masinõpe