Tekoälystä (AI) on tullut tärkeä ja suosittu aihe teknologiayhteisössä. Tekoälyn kehittyessä olemme nähneet erilaisia koneoppimismalleja (ML). Yksi lähestymistapa, joka tunnetaan nimellä yhtyemallinnus, on nopeasti saanut vetoa datatieteilijöiden ja toimijoiden keskuudessa. Tässä viestissä keskustelemme siitä, mitä kokonaisuusmallit ovat ja miksi niiden käyttö voi olla hyödyllistä. Annamme sitten esimerkin siitä, kuinka voit kouluttaa, optimoida ja ottaa käyttöön mukautettuja kokoonpanojasi käyttämällä Amazon Sage Maker.
Ensemble learning tarkoittaa useiden oppimismallien ja -algoritmien käyttöä tarkempien ennusteiden saamiseksi kuin mikään yksittäinen oppimisalgoritmi. Niiden on osoitettu olevan tehokkaita erilaisissa sovelluksissa ja oppimisympäristöissä, kuten kyberturvallisuudessa [1] ja petosten havaitsemisessa, kaukokartoinnissa, parhaan seuraavien vaiheiden ennustamisessa taloudellisessa päätöksenteossa, lääketieteellisessä diagnoosissa ja jopa tietokonenäön ja luonnollisen kielen käsittelyssä (NLP). Meillä on tapana luokitella kokoonpanot niiden harjoittamiseen käytettyjen tekniikoiden, koostumuksen ja tavan mukaan, jolla ne yhdistävät erilaiset ennusteet yhdeksi johtopäätökseksi. Näitä luokkia ovat:
- tehostaminen – Useiden heikkojen oppijoiden kouluttaminen peräkkäin, jolloin jokainen edellisten oppijoiden virheellinen ennuste sarjassa saa suuremman painoarvon ja panoksen seuraavalle oppijalle, mikä luo vahvemman oppijan. Esimerkkejä ovat AdaBoost, Gradient Boosting ja XGBoost.
- pussitus – Käyttää useita malleja pienentämään yhden mallin varianssia. Esimerkkejä ovat Random Forest ja Extra Trees.
- Pinoaminen (sekoitus) – Käyttää usein heterogeenisiä malleja, joissa kunkin yksittäisen estimaattorin ennusteet pinotaan yhteen ja käytetään syötteenä lopulliselle estimaattorille, joka käsittelee ennusteen. Tämän lopullisen arvioijan koulutusprosessissa käytetään usein ristiinvalidointia.
On olemassa useita menetelmiä ennusteiden yhdistämiseksi yhdeksi, jonka malli lopulta tuottaa, esimerkiksi käyttämällä meta-estimaattoria, kuten lineaarista oppijaa, äänestysmenetelmää, joka käyttää useita malleja luokittelutehtävien enemmistöäänestykseen perustuvan ennusteen tekemiseen, tai kokonaisuutta, joka laskee regression keskiarvon.
Vaikka useat kirjastot ja viitekehykset tarjoavat toteutuksia kokonaisuusmalleille, kuten XGBoost, CatBoost tai scikit-learnin satunnainen metsä, keskitymme tässä postauksessa omien malliesi tuomiseen ja niiden käyttöön pinoamiseen. Sen sijaan, että käyttäisimme kuhunkin malliin omistettuja resursseja (omistetut koulutus- ja viritystyöt ja isännöidä päätepisteitä mallia kohti), koulutamme, viritämme ja otamme käyttöön mukautetun kokonaisuuden (useita malleja) käyttämällä yhtä SageMaker-harjoitustyötä ja yhtä viritystyötä. ottaa käyttöön yhteen päätepisteeseen, mikä vähentää mahdollisia kustannuksia ja käyttökustannuksia.
BYOE: Tuo oma kokoonpanosi
On olemassa useita tapoja kouluttaa ja ottaa käyttöön heterogeenisiä kokonaisuusmalleja SageMakerilla: voit harjoitella jokaista mallia erillinen koulutustyö ja optimoi jokainen malli erikseen käyttämällä Amazon SageMaker automaattinen mallin viritys. Näitä malleja isännöiessään SageMaker tarjoaa useita kustannustehokkaita tapoja isännöidä useita malleja samassa vuokralaisen infrastruktuurissa. Tällaisten asetusten yksityiskohtaiset käyttöönottomallit löytyvät kohdasta Mallin isännöintimallit Amazon SageMakerissa, osa 1: Yleiset suunnittelumallit ML-sovellusten rakentamiseen Amazon SageMakerissa. Näihin malleihin kuuluu useiden päätepisteiden käyttäminen (jokaiselle koulutetulle mallille) tai yhden usean mallin päätepistetai edes yksittäinen usean säilön päätepiste jossa säiliöitä voidaan kutsua yksitellen tai ketjutettuina putkiin. Kaikki nämä ratkaisut sisältävät meta-estimaattorin (esimerkiksi an AWS Lambda toiminto), joka käynnistää kunkin mallin ja toteuttaa sekoitus- tai äänestystoiminnon.
Useiden koulutustöiden suorittaminen saattaa kuitenkin aiheuttaa käyttö- ja kustannuskustannuksia, varsinkin jos ryhmäsi tarvitsee koulutusta samoilla tiedoilla. Vastaavasti eri mallien isännöiminen erillisissä päätepisteissä tai säilöissä ja niiden ennustetulosten yhdistäminen tarkkuuden parantamiseksi vaatii useita kutsuja, mikä lisää hallintaa, kustannuksia ja valvontaa. Esimerkiksi SageMaker tukee ensemble ML-malleja Triton Inference Serverin avulla, mutta tämä ratkaisu edellyttää, että Triton-taustajärjestelmä tukee malleja tai mallikokonaisuuksia. Lisäksi asiakkaalta vaaditaan lisäponnisteluja Triton-palvelimen määrittämiseksi ja lisäopetusta eri Triton-taustaohjelmien toiminnan ymmärtämiseksi. Siksi asiakkaat pitävät parempana yksinkertaisempaa tapaa toteuttaa ratkaisuja, joissa heidän tarvitsee lähettää kutsu vain kerran päätepisteeseen ja heillä on joustavuus hallita, kuinka tulokset yhdistetään lopullisen tuotoksen luomiseksi.
Ratkaisun yleiskatsaus
Näiden huolenaiheiden ratkaisemiseksi käymme läpi esimerkin kokonaisharjoituksesta, jossa käytetään yhtä koulutustyötä, optimoidaan mallin hyperparametrit ja otetaan käyttöön yhtä säilöä käyttäen palvelimettomaan päätepisteeseen. Käytämme kahta mallia kokoonpanopinossamme: CatBoost ja XGBoost (molemmat ovat boosting-kokonaisuuksia). Tietojemme osalta käytämme diabetes tietojoukko [2] scikit-learn-kirjastosta: Se koostuu 10 ominaisuudesta (ikä, sukupuoli, ruumiinpaino, verenpaine ja kuusi veriseerumimittausta), ja mallimme ennustaa taudin etenemisen vuoden kuluttua perusominaisuuksien keräämisestä (regressiomalli).
Täysi koodivarasto löytyy osoitteesta GitHub.
Kouluta useita malleja yhdessä SageMaker-työssä
Mallien koulutukseen käytämme SageMaker-harjoitustöitä Script-tilassa. Script-tilassa voit kirjoittaa mukautettua koulutusta (ja myöhempää päättelykoodia) samalla, kun käytät SageMaker-kehyksen säilöjä. Framework-säilöissä voit käyttää AWS:n hallinnoimia valmiita ympäristöjä, jotka sisältävät kaikki tarvittavat asetukset ja moduulit. Käytämme esimerkiksi valmiiksi rakennettua SKLearn-säilöä, joka ei sisällä XGBoost- ja CatBoost-paketteja. Näiden pakettien lisäämiseen on kaksi vaihtoehtoa: joko pidennä sisäänrakennettua säiliötä asentaa CatBoost ja XGBoost (ja ottaa sitten käyttöön mukautettuna säilönä) tai käyttää SageMaker-koulutustyön komentosarjatilaominaisuutta, jonka avulla voit tarjota requirements.txt
tiedostoa harjoitusestimaattoria luotaessa. SageMaker-koulutustyö asentaa luetellut kirjastot hakemistoon requirements.txt
tiedostoa ajon aikana. Tällä tavalla sinun ei tarvitse hallita omaa Docker-kuvavarastoasi ja se tarjoaa enemmän joustavuutta harjoitusskriptien suorittamiseen, jotka tarvitsevat lisäpython-paketteja.
Seuraava koodilohko näyttää koodin, jota käytämme harjoituksen aloittamiseen. The entry_point
parametri osoittaa harjoitusskriptimme. Käytämme myös kahta SageMaker SDK API:n houkuttelevaa ominaisuutta:
- Ensin määritämme paikallisen polun lähdehakemistoomme ja riippuvuudet tiedostossa
source_dir
jadependencies
parametrit vastaavasti. SDK pakkaa ja lataa kyseiset hakemistot Amazonin yksinkertainen tallennuspalvelu (Amazon S3) ja SageMaker tuovat ne saataville työhakemiston koulutusesiintymässä/opt/ml/code
. - Toiseksi käytämme SDK:ta
SKLearn
estimaattoriobjekti ensisijaisella Python- ja kehysversiollamme, jotta SageMaker vetää vastaavan säilön. Olemme myös määrittäneet mukautetun koulutusmittarinvalidation:rmse
', jotka lähetetään harjoituslokeihin ja tallentuvat SageMakerille. Myöhemmin käytämme tätä mittaria tavoitemittarina viritystyössä.
hyperparameters = {"num_round": 6, "max_depth": 5}
estimator_parameters = {
"entry_point": "multi_model_hpo.py",
"source_dir": "code",
"dependencies": ["my_custom_library"],
"instance_type": training_instance_type,
"instance_count": 1,
"hyperparameters": hyperparameters,
"role": role,
"base_job_name": "xgboost-model",
"framework_version": "1.0-1",
"keep_alive_period_in_seconds": 60,
"metric_definitions":[
{'Name': 'validation:rmse', 'Regex': 'validation-rmse:(.*?);'}
]
}
estimator = SKLearn(**estimator_parameters)
Seuraavaksi kirjoitamme koulutuskäsikirjoituksen (multi_model_hpo.py). Käsikirjoituksemme noudattaa yksinkertaista kulkua: kaapata hyperparametrit jolla työ määritettiin ja kouluttaa CatBoost-mallia ja XGBoost -malli. Toteutamme myös a k-kertainen risti vahvistustoiminto. Katso seuraava koodi:
if __name__ == "__main__":
parser = argparse.ArgumentParser() # Sagemaker specific arguments. Defaults are set in the environment variables.
parser.add_argument("--output-data-dir", type=str, default=os.environ["SM_OUTPUT_DATA_DIR"])
parser.add_argument("--model-dir", type=str, default=os.environ["SM_MODEL_DIR"])
parser.add_argument("--train", type=str, default=os.environ["SM_CHANNEL_TRAIN"])
parser.add_argument("--validation", type=str, default=os.environ["SM_CHANNEL_VALIDATION"])
.
.
.
"""
Train catboost
"""
K = args.k_fold
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
rmse_list, model_catboost = cross_validation_catboost(train_df, K, catboost_hyperparameters)
.
.
.
"""
Train the XGBoost model
""" hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
"objective": args.objective,
"num_round": args.num_round,
} rmse_list, model_xgb = cross_validation(train_df, K, hyperparameters)
Kun mallit on koulutettu, laskemme sekä CatBoost- että XGBoost-ennusteiden keskiarvon. Lopputulos, pred_mean
, on yhtyeemme viimeinen ennuste. Sitten määritämme mean_squared_error
vahvistusjoukkoa vastaan. val_rmse
käytetään koko kokoonpanon arviointiin harjoituksen aikana. Huomaa, että tulostamme myös RMSE-arvon mallissa, joka sopii käyttämäämme regex-lauseeseen metric_definitions
. Myöhemmin SageMakerin automaattinen mallin viritys käyttää tätä tavoitemittarin tallentamiseen. Katso seuraava koodi:
pred_mean = np.mean(np.array([pred_catboost, pred_xgb]), axis=0)
val_rmse = mean_squared_error(y_validation, pred_mean, squared=False)
print(f"Final evaluation result: validation-rmse:{val_rmse}")
Lopuksi skriptimme tallentaa molemmat mallin artefaktit tulostuskansioon, joka sijaitsee osoitteessa /opt/ml/model
.
Kun koulutustyö on valmis, SageMaker pakkaa ja kopioi sisällön /opt/ml/model
hakemistosta yhtenä objektina pakatussa TAR-muodossa S3-sijaintiin, jonka määritit työn kokoonpanossa. Meidän tapauksessamme SageMaker niputtaa kaksi mallia TAR-tiedostoon ja lataa ne Amazon S3:een koulutustyön lopussa. Katso seuraava koodi:
model_file_name = 'catboost-regressor-model.dump'
# Save CatBoost model
path = os.path.join(args.model_dir, model_file_name)
print('saving model file to {}'.format(path))
model.save_model(path)
.
.
.
# Save XGBoost model
model_location = args.model_dir + "/xgboost-model"
pickle.dump(model, open(model_location, "wb"))
logging.info("Stored trained model at {}".format(model_location))
Yhteenvetona voidaan todeta, että tässä menettelyssä ladattiin tiedot kerran ja koulutettiin kaksi mallia yhdellä koulutustyöllä.
Automaattinen kokonaisuusmallin viritys
Koska rakennamme kokoelmaa ML-malleja, kaikkien mahdollisten hyperparametrien permutaatioiden tutkiminen on epäkäytännöllistä. SageMaker tarjoaa Automaattinen mallin viritys (AMT), joka etsii parhaita mallin hyperparametreja keskittymällä lupaavimpiin arvojen yhdistelmiin määrittämiesi alueiden sisällä (sinun on itse määrittää oikeat alueet tutkittavaksi). SageMaker tukee useita optimointimenetelmiä voit valita.
Aloitamme määrittelemällä optimointiprosessin kaksi osaa: tavoitemetriikka ja hyperparametrit, joita haluamme virittää. Esimerkissämme käytämme validointi-RMSE:tä kohdemittarina ja viritämme eta
ja max_depth
(katso muut hyperparametrit kohdasta XGBoost-hyperparametrit ja CatBoost hyperparametrit):
from sagemaker.tuner import (
IntegerParameter,
ContinuousParameter,
HyperparameterTuner,
) hyperparameter_ranges = {
"eta": ContinuousParameter(0.2, 0.3),
"max_depth": IntegerParameter(3, 4)
}
metric_definitions = [{"Name": "validation:rmse", "Regex": "validation-rmse:([0-9.]+)"}]
objective_metric_name = "validation:rmse"
Meidän on myös varmistettava harjoituskäsikirjoitus että hyperparametrimme eivät ole kovakoodattuja ja ne vedetään SageMakerin ajonaikaisista argumenteista:
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
SageMaker kirjoittaa myös hyperparametrit JSON-tiedostoon, josta voidaan lukea /opt/ml/input/config/hyperparameters.json
koulutustapauksessa.
Kuten CatBoost, tallennamme myös XGBoost-mallin hyperparametrit (huomaa, että objective
ja num_round
ei ole viritetty):
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
Lopuksi käynnistämme hyperparametrien viritystyön seuraavilla kokoonpanoilla:
tuner = HyperparameterTuner(
estimator,
objective_metric_name,
hyperparameter_ranges,
max_jobs=4,
max_parallel_jobs=2,
objective_type='Minimize'
)
tuner.fit({"train": train_location, "validation": validation_location}, include_cls_metadata=False)
Kun työ on valmis, voit hakea parhaan koulutustyön arvot (minimaalisella RMSE:llä):
job_name=tuner.latest_tuning_job.name
attached_tuner = HyperparameterTuner.attach(job_name)
attached_tuner.describe()["BestTrainingJob"]
Lisätietoja AMT:stä on osoitteessa Suorita automaattinen mallin viritys SageMakerilla.
käyttöönoton
Jotta voimme ottaa käyttöön mukautetun kokonaisuuden, meidän on toimitettava komentosarja, joka käsittelee päättelypyynnön ja määrittää SageMaker-isännöinnin. Tässä esimerkissä käytimme yhtä tiedostoa, joka sisältää sekä koulutus- että päättelykoodin (multi_model_hpo.py). SageMaker käyttää koodia kohdassa if _ name _ == "_ main _"
koulutusta ja toimintoja varten model_fn
, input_fn
ja predict_fn
mallin käyttöönotossa ja käytössä.
Päätelmäskripti
Kuten koulutuksessa, käytämme SageMaker SKLearn -kehyskonttia omalla päätelmäskriptillämme. Skripti toteuttaa kolme SageMakerin vaatimaa menetelmää.
Ensinnäkin model_fn
menetelmä lukee tallennetut malliartefaktitiedostomme ja lataa ne muistiin. Meidän tapauksessamme menetelmä palauttaa ryhmämme muodossa all_model
, joka on Python-luettelo, mutta voit myös käyttää avaimina sanakirjaa, jossa on mallien nimet.
def model_fn(model_dir):
catboost_model = CatBoostRegressor()
catboost_model.load_model(os.path.join(model_dir, model_file_name))
model_file = "xgboost-model"
model = pickle.load(open(os.path.join(model_dir, model_file), "rb"))
all_model = [catboost_model, model]
return all_model
Toiseksi input_fn
menetelmä deserialisoi pyynnön syöttötiedot välitettäväksi päätelmien käsittelijällemme. Lisätietoja syötteenkäsittelijöistä on kohdassa Oman johtopäätössäiliön mukauttaminen.
def input_fn(input_data, content_type):
dtype=None
payload = StringIO(input_data)
return np.genfromtxt(payload, dtype=dtype, delimiter=",")
Kolmanneksi predict_fn
menetelmä vastaa ennusteiden saamisesta malleista. Menetelmä ottaa mallin ja siitä palautetut tiedot input_fn
parametreina ja palauttaa lopullisen ennusteen. Esimerkissämme saamme CatBoost-tuloksen malliluettelon ensimmäisestä jäsenestä (model[0]
) ja XGBoost toisesta jäsenestä (model[1]
), ja käytämme sekoitusfunktiota, joka palauttaa molempien ennusteiden keskiarvon:
def predict_fn(input_data, model):
predictions_catb = model[0].predict(input_data)
dtest = xgb.DMatrix(input_data)
predictions_xgb = model[1].predict(dtest,
ntree_limit=getattr(model, "best_ntree_limit", 0),
validate_features=False)
return np.mean(np.array([predictions_catb, predictions_xgb]), axis=0)
Nyt kun meillä on koulutetut mallimme ja päättelykomentosarjamme, voimme määrittää ympäristön ottamaan käyttöön kokonaisuutemme.
SageMaker palvelimeton johtopäätös
Vaikka onkin olemassa monia isännöintivaihtoehtoja SageMakerissa, tässä esimerkissä käytämme palvelimetonta päätepistettä. Palvelimettomat päätepisteet käynnistävät automaattisesti laskentaresurssit ja skaalaavat niitä sisään ja ulos liikenteestä riippuen. Tämä poistaa hallintapalvelimien eriyttämättömän raskaan työn. Tämä vaihtoehto on ihanteellinen työkuormille, joissa on joutojaksoja liikenneruuhkien välillä ja jotka kestävät kylmäkäynnistystä.
Palvelittoman päätepisteen määrittäminen on yksinkertaista, koska meidän ei tarvitse valita ilmentymätyyppejä tai hallita skaalauskäytäntöjä. Tarvitsemme vain kaksi parametria: muistin koko ja suurin samanaikaisuus. Palvelimeton päätepiste määrittää automaattisesti laskentaresurssit verrannollisesti valitsemaasi muistiin. Jos valitset suuremman muistikoon, säilösi voi käyttää useampia vCPU:ita. Sinun tulee aina valita päätepisteesi muistin koko mallisi koon mukaan. Toinen parametri, joka meidän on annettava, on suurin samanaikaisuus. Yhdelle päätepisteelle tämä parametri voidaan asettaa enintään 200:ksi (tässä kirjoituksessa alueen palvelimettomien päätepisteiden kokonaismäärä on 50). Huomaa, että yksittäisen päätepisteen suurin samanaikaisuus estää kyseistä päätepistettä vastaanottamasta kaikkia tilillesi sallittuja kutsuja, koska kaikki enimmäismäärän ylittävät päätepistekutsut estetään (lisätietoja kaikkien palvelimettomien päätepisteiden kokonaissamanaikaisuudesta aluetta kohti on kohdassa Amazon SageMaker -päätteet ja kiintiöt).
from sagemaker.serverless.serverless_inference_config import ServerlessInferenceConfig
serverless_config = ServerlessInferenceConfig(
memory_size_in_mb=6144,
max_concurrency=1,
)
Nyt kun olemme määrittäneet päätepisteen, voimme vihdoin ottaa käyttöön mallin, joka valittiin hyperparametrien optimointityössämme:
estimator=attached_tuner.best_estimator()
predictor = estimator.deploy(serverless_inference_config=serverless_config)
Puhdistaa
Vaikka palvelimettomilla päätepisteillä ei ole kustannuksia, kun niitä ei käytetä, kun olet lopettanut tämän esimerkin suorittamisen, sinun tulee muistaa poistaa päätepiste:
predictor.delete_endpoint(predictor.endpoint)
Yhteenveto
Tässä viestissä käsittelimme yhtä tapaa kouluttaa, optimoida ja ottaa käyttöön mukautettu kokonaisuus. Selvitimme yksityiskohtaisesti prosessin, jossa käytetään yhtä koulutustyötä useiden mallien kouluttamiseen, kuinka automaattista mallin viritystä käytetään ryhmän hyperparametrien optimointiin ja kuinka otetaan käyttöön yksi palvelimeton päätepiste, joka yhdistää useiden mallien päätelmät.
Tämän menetelmän käyttäminen ratkaisee mahdolliset kustannukset ja toimintaongelmat. Koulutustyön hinta perustuu resursseihin, joita käytät käytön aikana. Lataamalla tiedot vain kerran molempien mallien koulutusta varten, pienensimme työn datan latausvaihetta ja datan tallentamiseen käytettyä määrää puoleen, mikä pienensi koulutustyön kokonaiskustannuksia. Lisäksi AMT-työ suoritti neljä koulutustyötä, joista jokaisessa oli edellä mainitut lyhennetyt aika- ja varastointiajat, joten kustannussäästö on neljä kertaa! Mitä tulee mallin käyttöönottoon palvelimettomassa päätepisteessä, koska maksat myös käsitellyn datan määrästä, maksat puolet I/O-datamaksuista kutsumalla päätepistettä vain kerran kahdelle mallille.
Vaikka tämä viesti osoitti vain kahden mallin edut, voit käyttää tätä menetelmää lukuisten kokonaisuusmallien kouluttamiseen, virittämiseen ja käyttöönottoon saadaksesi vielä suuremman vaikutuksen.
Viitteet
[1] Raj Kumar, P. Arun; Selvakumar, S. (2011). "Hajautettu palvelunestohyökkäysten havaitseminen käyttämällä hermoluokittimen ryhmää". Tietokoneviestintä. 34 (11): 1328–1341. doi:10.1016/j.comcom.2011.01.012.
[2] Bradley Efron, Trevor Hastie, Iain Johnstone ja Robert Tibshirani (2004) "Least Angle Regression", Annals of Statistics (keskusteluineen), 407-499. (https://web.stanford.edu/~hastie/Papers/LARS/LeastAngle_2002.pdf)
Tietoja Tekijät
Melanie Li, tohtori, on vanhempi AI/ML-asiantuntija TAM AWS:ssä Sydneyssä, Australiassa. Hän auttaa yritysasiakkaita rakentamaan ratkaisuja, joissa hyödynnetään huippuluokan AI/ML-työkaluja AWS:ssä, ja opastaa koneoppimisratkaisujen suunnittelussa ja toteuttamisessa parhaiden käytäntöjen avulla. Vapaa-ajallaan hän rakastaa tutkia luontoa ulkona ja viettää aikaa perheen ja ystävien kanssa.
Uri Rosenberg on AI & ML Specialist Technical Manager Euroopassa, Lähi-idässä ja Afrikassa. Israelissa sijaitseva Uri pyrkii antamaan yritysasiakkaille mahdollisuuden suunnitella, rakentaa ja käyttää ML-työkuormia mittakaavassa. Vapaa-ajallaan hän nauttii pyöräilystä, vaeltamisesta ja RMSE:n minimoimisesta.
- SEO-pohjainen sisällön ja PR-jakelu. Vahvista jo tänään.
- PlatoData.Network Vertical Generatiivinen Ai. Vahvista itseäsi. Pääsy tästä.
- PlatoAiStream. Web3 Intelligence. Tietoa laajennettu. Pääsy tästä.
- PlatoESG. Autot / sähköautot, hiili, CleanTech, energia, ympäristö, Aurinko, Jätehuolto. Pääsy tästä.
- BlockOffsets. Ympäristövastuun omistuksen nykyaikaistaminen. Pääsy tästä.
- Lähde: https://aws.amazon.com/blogs/machine-learning/efficiently-train-tune-and-deploy-custom-ensembles-using-amazon-sagemaker/
- :on
- :On
- :ei
- :missä
- ][s
- $ YLÖS
- 1
- 10
- 100
- 11
- 200
- 2011
- 50
- 60
- 7
- a
- Meistä
- pääsy
- Mukaan
- Tili
- tarkkuus
- tarkka
- lisätä
- lisä-
- Lisäksi
- osoite
- Afrikka
- Jälkeen
- vastaan
- ikä
- AI
- AI / ML
- algoritmi
- algoritmit
- Kaikki
- sallittu
- mahdollistaa
- Myös
- aina
- Amazon
- Amazon Sage Maker
- Amazon Web Services
- keskuudessa
- määrä
- an
- ja
- Kaikki
- sovellukset
- lähestymistapa
- OVAT
- perustelut
- AS
- At
- hyökkäys
- Australia
- automaattisesti
- automaattisesti
- saatavissa
- keskimäärin
- pois
- AWS
- taustaosa
- perustua
- Lähtötilanne
- BE
- koska
- tulevat
- ollut
- ovat
- suotuisa
- Hyödyt
- PARAS
- parhaat käytännöt
- Paremmin
- välillä
- Jälkeen
- sekoittaminen
- sekoituksia
- Tukkia
- veri
- Verenpaine
- elin
- lisäämällä
- sekä
- tuoda
- Tuominen
- rakentaa
- Rakentaminen
- sisäänrakennettu
- nippuja
- mutta
- by
- laskea
- CAN
- kaapata
- kiinni
- tapaus
- luokat
- kahlittu
- maksut
- Valita
- luokittelu
- koodi
- kylmä
- kokoelma
- yhdistelmät
- yhdistely
- Yhteinen
- Yhteydenpito
- yhteisö
- pakottava
- täydellinen
- Laskea
- tietokone
- Tietokoneen visio
- huolenaiheet
- Konfigurointi
- määritetty
- muodostuu
- Kontti
- Kontit
- pitoisuus
- ohjaus
- vastaava
- Hinta
- kustannustehokas
- katettu
- Luominen
- asiakassuhde
- asiakas
- Asiakkaat
- räätälöidä
- tietoverkkojen
- tiedot
- Päätöksenteko
- omistautunut
- oletusarvot
- määritellä
- määritelty
- määrittelemällä
- osoittaa
- Palvelunesto
- Riippuen
- sijoittaa
- levityspinnalta
- käyttöönotto
- Malli
- suunnittelumalleja
- yksityiskohtainen
- Detection
- Määrittää
- eri
- hakemistot
- pohtia
- keskustelu
- Sairaus
- useat
- Satamatyöläinen
- ei
- Dont
- download
- dumpata
- kesto
- aikana
- kukin
- Itään
- vaikutus
- tehokas
- tehokkaasti
- ponnisteluja
- myöskään
- ilmaantua
- valtuuttaa
- mahdollistaa
- loppu
- päätepiste
- varmistaa
- yritys
- ympäristö
- ympäristöissä
- erityisesti
- Eurooppa
- arviointi
- Jopa
- kehittynyt
- esimerkki
- Esimerkit
- tutkia
- Tutkiminen
- lisää
- perhe
- Ominaisuus
- Ominaisuudet
- filee
- Asiakirjat
- lopullinen
- Vihdoin
- taloudellinen
- Etunimi
- Joustavuus
- virtaus
- Keskittää
- tarkennus
- jälkeen
- seuraa
- varten
- metsä
- muoto
- löytyi
- neljä
- Puitteet
- puitteet
- petos
- petosten havaitseminen
- ystäviä
- alkaen
- koko
- toiminto
- tehtävät
- Lisäksi
- Saada
- saamassa
- tuottaa
- saada
- saada
- tietty
- suurempi
- ohjaus
- Puoli
- kahva
- Vetimet
- Olla
- he
- raskas
- raskas nosto
- auttaa
- hänen
- korkeampi
- hänen
- isäntä
- hotellit
- Miten
- Miten
- Kuitenkin
- HTML
- http
- HTTPS
- Hyperparametrien optimointi
- Hyperparametrien viritys
- ihanteellinen
- Idle
- if
- kuva
- toteuttaa
- täytäntöönpanosta
- työkoneet
- tärkeä
- in
- sisältää
- sisältää
- henkilökohtainen
- Erikseen
- tiedot
- Infrastruktuuri
- panos
- asentaa
- esimerkki
- sen sijaan
- Älykkyys
- tulee
- esitellä
- Esittelee
- kutsuttuihin
- vedotaan
- Israel
- kysymykset
- IT
- Job
- Työpaikat
- jpg
- json
- avaimet
- laji
- tunnettu
- Kieli
- suurempi
- myöhemmin
- käynnistää
- oppiminen
- vipuvaikutuksen
- Li
- kirjastot
- Kirjasto
- nosto
- RAJOITA
- Lista
- lueteltu
- kuormat
- paikallinen
- sijaitsevat
- sijainti
- hakkuu
- ulkonäkö
- rakastaa
- kone
- koneoppiminen
- tärkein
- Enemmistö
- tehdä
- hoitaa
- onnistui
- johto
- johtaja
- toimitusjohtaja
- Massa
- maksimi
- tarkoittaa
- mitat
- lääketieteellinen
- jäsen
- Muisti
- mennä
- menetelmä
- menetelmät
- metrinen
- Keskimmäinen
- Lähi-itä
- ehkä
- minimi
- minimointia
- ML
- tila
- malli
- mallit
- Moduulit
- seuranta
- lisää
- eniten
- moninkertainen
- nimi
- nimet
- Luonnollinen
- Luonnollinen kielen käsittely
- luonto
- välttämätön
- Tarve
- seuraava
- NLP
- Ilmoitus..
- numero
- useat
- objekti
- tavoite
- of
- Tarjoukset
- usein
- on
- kerran
- ONE
- vain
- käyttää
- toiminta-
- optimointi
- Optimoida
- optimoimalla
- Vaihtoehto
- Vaihtoehdot
- or
- OS
- Muut
- meidän
- ulos
- ulkona
- ulostulo
- yleinen
- oma
- paketit
- parametri
- parametrit
- osa
- osat
- Hyväksytty
- polku
- Kuvio
- kuviot
- Maksaa
- varten
- aikoja
- vaihe
- putki
- Platon
- Platonin tietotieto
- PlatonData
- pistettä
- politiikkaa
- Suosittu
- mahdollinen
- Kirje
- mahdollinen
- käytännöt
- ennustamiseen
- ennustus
- Ennusteet
- Predictor
- ennustaa
- mieluummin
- Suositut
- paine
- estää
- edellinen
- Painaa
- menettelyt
- prosessi
- Käsitelty
- käsittely
- tuottaa
- eteneminen
- lupaava
- todistettu
- toimittaa
- tarjoaa
- Python
- satunnainen
- nopeasti
- Lue
- vähentää
- Vähentynyt
- vähentämällä
- viittaa
- ottaa huomioon
- regex
- alue
- kaukosäädin
- säilytyspaikka
- edustaa
- pyyntö
- tarvitaan
- Vaatii
- Esittelymateriaalit
- vastaavasti
- vastuullinen
- johtua
- tulokset
- palata
- Tuotto
- oikein
- ROBERT
- Rooli
- ajaa
- juoksu
- s
- sagemaker
- SageMaker automaattinen mallin viritys
- sama
- Säästä
- tallentaa
- Asteikko
- skaalaus
- tutkijat
- scikit opittava
- skriptejä
- sdk
- Toinen
- nähdä
- nähneet
- valittu
- lähettää
- vanhempi
- erillinen
- Järjestys
- Seerumi
- serverless
- servers
- palvelu
- Palvelut
- palvelevat
- setti
- settings
- useat
- sukupuoli
- hän
- shouldnt
- osoittivat
- Näytä
- samalla lailla
- Yksinkertainen
- single
- SIX
- Koko
- So
- ratkaisu
- Ratkaisumme
- Ratkaisee
- lähde
- asiantuntija
- erityinen
- määritelty
- viettää
- pino
- pinottu
- pinoaminen
- Stanford
- Alkaa
- alkaa
- huippu-
- tilasto
- Askeleet
- Levytila
- tallennettu
- varastot
- suora
- vahvempi
- niin
- YHTEENVETO
- Tuetut
- Tukee
- varma
- sydney
- vie
- ottaen
- Kohde
- tehtävät
- Tekninen
- tekniikat
- Elektroniikka
- vuokralainen
- kuin
- että
- -
- heidän
- Niitä
- sitten
- Siellä.
- siten
- siksi
- Nämä
- ne
- tätä
- ne
- vaikka?
- kolmella
- Kautta
- aika
- kertaa
- että
- yhdessä
- työkalut
- aihe
- Yhteensä
- veto
- liikenne
- Juna
- koulutettu
- koulutus
- Puut
- Trevor
- Triton
- kaksi
- tyypit
- varten
- ymmärtää
- Käyttö
- käyttää
- käytetty
- käyttötarkoituksiin
- käyttämällä
- validointi
- arvo
- arvot
- eri
- versio
- visio
- tilavuus
- Äänestys
- haluta
- oli
- Tapa..
- tavalla
- we
- verkko
- verkkopalvelut
- paino
- olivat
- Mitä
- kun
- joka
- vaikka
- koko
- miksi
- tulee
- with
- sisällä
- Referenssit
- työskentely
- toimii
- kirjoittaa
- kirjoittaminen
- XGBoost
- vuosi
- Voit
- Sinun
- zephyrnet
- nolla-