Organisatsioonid erinevates tööstusharudes, nagu jaekaubandus, pangandus, rahandus, tervishoid, tootmine ja laenuandmine, peavad sageli tegelema suure hulga struktureerimata tekstidokumentidega, mis pärinevad erinevatest allikatest, nagu uudised, ajaveebid, tootearvustused, klienditoe kanalid ja sotsiaalmeedia. Need dokumendid sisaldavad olulist teavet, mis on oluliste äriotsuste tegemisel võtmetähtsusega. Organisatsiooni kasvades muutub nendest dokumentidest kriitilise teabe ammutamine väljakutseks. Loodusliku keele töötlemise (NLP) ja masinõppe (ML) tehnikate edenemisega saame nendest tekstidokumentidest kiiresti ja suure täpsusega avastada väärtuslikke teadmisi ja seoseid, aidates seeläbi ettevõtetel õigeaegselt kvaliteetseid äriotsuseid langetada. Täielikult hallatavad NLP-teenused on samuti kiirendanud NLP kasutuselevõttu. Amazoni mõistmine on täielikult hallatav teenus, mis võimaldab teil luua kohandatud NLP-mudeleid, mis vastavad teie vajadustele, ilma et oleks vaja ML-teadmisi.
Selles postituses näitame, kuidas kasutada tipptasemel ML-tehnikaid viie erineva NLP-ülesande lahendamiseks: dokumentide kokkuvõte, teksti klassifitseerimine, küsimustele vastamine, nimega olemi tuvastamine ja suhete eraldamine. Iga sellise NLP-ülesande puhul näitame, kuidas seda kasutada Amazon SageMaker järgmiste toimingute tegemiseks:
- Juurutage ja käivitage järeldused eelkoolitatud mudelil
- Viimistlege eelkoolitatud mudelit uuel kohandatud andmekogumil
- Täiustage peenhäälestuse jõudlust veelgi SageMaker automaatne mudeli häälestamine
- Hinnake mudeli toimivust kinnipidamise katseandmete põhjal erinevate hindamismõõdikute abil
Kuigi käsitleme selles postituses viit konkreetset NLP-ülesannet, saate seda lahendust kasutada mallina, et üldistada oma andmestikuga eelkoolitatud mudeleid ja seejärel käivitada täpsuse parandamiseks hüperparameetrite optimeerimine.
KiirStardi lahendusmallid
Amazon SageMaker JumpStart pakub ühe klõpsuga, otsast lõpuni lahendusi paljudele levinud ML-i kasutusjuhtudele. Saadaolevate lahendusmallide kohta lisateabe saamiseks uurige järgmisi kasutusjuhtumeid.
KiirStart-lahenduse mallid hõlmavad mitmesuguseid kasutusjuhtumeid, millest igaühe all pakutakse mitut erinevat lahendusmalli (see Dokumendi mõistmise lahendus on kasutusjuhtumi “Dokumentidest andmete väljavõte ja analüüsimine” all).
Valige JumpStarti sihtlehelt lahendusmall, mis sobib teie kasutusjuhtumiga kõige paremini. Lisateabe saamiseks konkreetsete lahenduste kohta igal kasutusjuhul ja JumpStarti lahenduse käivitamise kohta vt Lahenduste mallid.
Lahenduse ülevaade
Järgmine pilt näitab, kuidas saate seda lahendust SageMakeri komponentidega kasutada. SageMakeri koolitustöid kasutatakse erinevate NLP-mudelite koolitamiseks ja SageMakeri lõpp-punkte kasutatakse mudelite juurutamiseks igas etapis. Me kasutame Amazoni lihtne salvestusteenus (Amazon S3) koos SageMakeriga treeningandmete ja mudeliartefaktide salvestamiseks ning Amazon CloudWatch koolituse ja lõpp-punktide väljundite logimiseks.
Avage lahendus Dokumendi mõistmine
Liikuge KiirStartis Document Understanding lahenduseni.
Nüüd saame lähemalt tutvuda mõne selle lahendusega sisalduva varaga, alustades demomärkmikuga.
Demomärkmik
Demomärkmikku saate kasutada näidisandmete saatmiseks juba juurutatud mudeli lõpp-punktidele dokumendi kokkuvõtte ja küsimustele vastamise ülesannete jaoks. Demomärkmik võimaldab teil kiiresti saada praktilisi kogemusi näidisandmete päringute abil.
Pärast dokumendi mõistmise lahenduse käivitamist avage demomärkmik, valides valiku Kasutage märkmikus lõpp-punkti.
Sukeldume üksikasjalikumalt selle lahenduse viiest peamisest märkmikust.
Eeldused
In Amazon SageMaker Studio, veenduge, et kasutate PyTorch 1.10 Python 3.8 CPU Optimized
pilt/tuum märkmike avamiseks. Koolitus kasutab viit ml.g4dn.2xsuurt eksemplari, seega peaksite tõstma a teenuselimiidi suurendamise taotlus kui teie konto nõuab seda tüüpi piiranguid.
Teksti liigitus
Teksti klassifikatsioon viitab sisendlause klassifitseerimisele ühe koolitusandmestiku klassisildi alla. See märkmik näitab, kuidas kasutada KiirStart API teksti klassifitseerimiseks.
Juurutage ja käivitage eelkoolitatud mudeli põhjal järeldused
Teksti liigitusmudel, mille oleme valinud kasutamiseks, põhineb teksti manustamisel (tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2
) mudel alates TensorFlow jaotur, mis on eelkoolitatud Wikipedia ja BookCorpuse andmekogumites.
Juurutamiseks saadaolev mudel luuakse, lisades teksti manustamismudeli väljundile binaarse klassifikatsioonikihi ja seejärel viimistledes kogu mudelit SST-2 andmestik, mis koosneb positiivsetest ja negatiivsetest filmiarvustustest.
Sellel mudelil järelduste tegemiseks peame esmalt alla laadima järelduste konteineri (deploy_image_uri
), järeldusskript (deploy_source_uri
) ja eelkoolitatud modell (base_model_uri
). Seejärel edastame need parameetritena SageMakeri mudeliobjekti loomiseks, mille saame seejärel juurutada:
Järgmine kood näitab meie vastuseid:
Viimistlege kohandatud andmestikul eelkoolitatud mudelit
Käisime lihtsalt läbi jooksva järelduse eelkoolitatud BERTi mudelil, mis oli seadmel peenhäälestatud SST-2
andmestik.
Järgmisena arutame, kuidas kohandatud andmestiku mudelit täpsustada mis tahes arvu klassidega. Andmekogum, mida me peenhäälestamiseks kasutame, on endiselt SST-2
andmestik. Saate selle andmestiku asendada mis tahes teid huvitava andmekogumiga.
Toome välja koolituse Dockeri konteineri, koolitusalgoritmi allika ja eelkoolitatud mudeli:
Algoritmispetsiifiliste hüperparameetrite puhul hangime alustuseks Pythoni sõnastikust treeningu hüperparameetrid, mille algoritm aktsepteerib nende vaikeväärtustega. Saate need kohandatud väärtustega alistada, nagu on näidatud järgmises koodis:
Andmekogum (SST-2
) on jagatud koolitus-, valideerimis- ja testikomplektideks, kus koolituskomplekti kasutatakse mudeli sobitamiseks, valideerimiskomplekti kasutatakse hindamismõõdikute arvutamiseks, mida saab kasutada HPO jaoks, ja testikomplekti kasutatakse hoidmisandmetena. mudeli jõudluse hindamiseks. Järgmisena laaditakse koolituse ja valideerimise andmestik üles Amazon S3-sse ja seda kasutatakse treeningu peenhäälestustöö käivitamiseks:
Kui peenhäälestustöö on lõpule viidud, juurutame mudeli, teeme järeldamiskatse andmekogumi kohta ja arvutame hindamismõõdikud. Kuna see on binaarne klassifitseerimise ülesanne, kasutame täpsusskoor ja F1 skoor kui hindamismõõdikud. Suurem väärtus näitab paremat jõudlust. Järgmine ekraanipilt näitab meie tulemusi.
Täiustage peenhäälestuse jõudlust veelgi SageMakeri automaatse mudelihäälestusega
Selles etapis näitame, kuidas saate mudeli jõudlust veelgi parandada, viimistledes mudelit SageMakeri automaatse mudelihäälestusega. Automaatne mudeli häälestamine, tuntud ka kui hüperparameetrite optimeerimine (HPO), leiab mudeli parima versiooni, käivitades teie andmestikul mitu treeningtööd koos teie määratud hüperparameetritega. Seejärel valib see hüperparameetrite väärtused, mille tulemuseks on mudel, mis töötab valideerimisandmestikul teie valitud mõõdiku järgi kõige paremini.
Esiteks seadsime eesmärgiks valideerimisandmete täpsusskoori (val_accuracy
) ja määratles häälestustöö mõõdikud, määrates objektiivse mõõdiku nime ja regulaaravaldise (regex). Regulaaravaldist kasutatakse algoritmi logiväljundi sobitamiseks ja mõõdikute arvväärtuste hõivamiseks. Järgmisena määrame hüperparameetrite vahemikud, millest valida parimad hüperparameetri väärtused. Seadsime häälestustööde koguarvuks kuus ja jagame need tööd kolmele erinevale Amazon Elastic Compute Cloud (Amazon EC2) eksemplarid paralleelsete häälestustööde käitamiseks. Vaadake järgmist koodi:
Edastame need väärtused, et luua SageMakeri prognoosija objekt, sarnaselt sellele, mida tegime eelmises peenhäälestuse etapis. Selle asemel, et helistada fit
funktsioon Estimator
objekti, me läbime Estimator
objekt parameetrina Hüperparameetri tuuner ehitaja ja helistage fit
selle funktsioon häälestustööde käivitamiseks:
Kui häälestustööd on lõpetatud, juurutame mudeli, mis annab valideerimisandmestiku parima hindamismõõdiku skoori, teeme järeldused sama kinnipidamistesti andmestiku kohta, mida tegime eelmises jaotises, ja arvutame hindamismõõdikud.
Tulemused näitavad, et mudeli automaatse häälestamise abil valitud mudel ületab märkimisväärselt eelmises jaotises peenhäälestatud mudelit hoidmiskatse andmestiku osas.
Nimega olemi tuvastamine
Nimetatud olemituvastus (NER) on protsess, mille käigus tuvastatakse ja klassifitseeritakse nimetatud olemid eelnevalt määratletud kategooriatesse, nagu isikute, organisatsioonide, asukohtade ja koguste nimed. NER-i tegelikke kasutusjuhtumeid on palju, näiteks soovitusmootorid, klienditoe piletite kategoriseerimine ja määramine õigesse osakonda, olulise teabe hankimine tervishoius patsientide aruannetest ning sisu klassifitseerimine uudistest ja ajaveebidest.
Juurutage ja käivitage eelkoolitatud mudeli põhjal järeldused
Me kasutame En_core_web_md mudel pärit ruumiline raamatukogu. spaCy on avatud lähtekoodiga NLP-teek, mida saab kasutada erinevate ülesannete jaoks ja millel on NER-i jaoks sisseehitatud meetodid. Kasutame skriptirežiimiga AWS PyTorch Deep Learning Containerit (DLC) ja paigaldame konteineri peale sõltuvusena spaCy teegi.
Järgmiseks skripti sisenemispunkt (argument entry_point.py
), mis sisaldab kogu allalaadimiseks ja laadimiseks vajalikku koodi En_core_web_md
modelleerida ja teha järeldusi lõpp-punkti saadetud andmete kohta. Lõpuks peame ikkagi pakkuma model_data
kui eelkoolitatud järelduste mudel. Kuna eelkoolitatud En_core_web_md
mudel laaditakse alla lennult, mis on märgitud sisestusskriptis, pakume tühja arhiivifaili. Pärast lõpp-punkti juurutamist saate SageMaker Pythoni SDK abil lõpp-punkti kutsuda otse sülearvutist Predictor
. Vaadake järgmist koodi:
Mudeli sisendandmeteks on tekstidokument. Nimega olemi mudel eraldab tekstidokumendist nimisõnade tükid ja nimega olemid ning liigitab need mitmesse erinevasse tüüpi (nt inimesed, kohad ja organisatsioonid). Näidissisend ja väljund on näidatud järgmises koodis. The start_char
parameeter näitab vahemiku alguse märginihet ja end_char
näitab vahemiku lõppu.
Viimistlege kohandatud andmestikul eelkoolitatud mudelit
Selles etapis demonstreerime, kuidas NER-i jaoks eelnevalt väljaõpetatud keelemudeleid oma andmestikul peenhäälestada. Peenhäälestuse samm värskendab mudeli parameetreid, et jäädvustada teie enda andmete omadused ja parandada täpsust. Me kasutame WikiANN (PAN-X) andmestiku peenhäälestamiseks DistilBERT-alus-korpuseta Trafo mudel firmalt Hugging Face.
Andmekogum on jagatud koolitus-, valideerimis- ja testikomplektideks.
Järgmisena täpsustame mudeli hüperparameetrid ja kasutame skriptirežiimiga AWS Hugging Face DLC-d (argument entry_point
) peenhäälestustöö käivitamiseks:
Kui peenhäälestustöö on lõpule viidud, juurutame lõpp-punkti ja esitame sellele lõpp-punktile päringu koos hoidmise testandmetega. Lõpp-punkti päringu tegemiseks tuleb iga tekstistring muuta üheks või mitmeks märgiks ja saata trafo mudelile. Iga luba saab ennustatud nimega olemi märgendi. Kuna iga tekstistringi saab märgistada üheks või mitmeks märgiks, peame dubleerima stringi põhitõe nimega olemi märgendi kõigi sellega seotud märgidega. Kaasasolev märkmik juhendab teid selle saavutamiseks vajalikke samme.
Viimaseks kasutame Hugging Face sisseehitatud hindamismõõdikuid järg hindamisskooride arvutamiseks kinnipidamistesti andmete põhjal. Kasutatavad hindamismõõdikud on üldine täpsus, üldine meeldetuletus, üldine F1 ja täpsus. Järgmine ekraanipilt näitab meie tulemusi.
Täiustage peenhäälestuse jõudlust veelgi SageMakeri automaatse mudelihäälestusega
Sarnaselt teksti klassifitseerimisele demonstreerime, kuidas saate mudeli jõudlust veelgi parandada, viimistledes mudelit SageMakeri automaatse mudelihäälestusega. Häälestustöö käivitamiseks peame määratlema objektiivse mõõdiku, mida tahame kasutada mudeli jõudluse hindamiseks valideerimisandmestiku (antud juhul skoor F1), hüperparameetrite vahemikud parimate hüperparameetrite väärtuste valimiseks, samuti häälestustöö konfiguratsioonid, näiteks korraga käivitatavate häälestustööde maksimaalne arv ja paralleelsete tööde arv:
Kui häälestustööd on lõpetatud, juurutame mudeli, mis annab valideerimisandmestiku parima hindamismõõdiku skoori, teeme järeldused sama kinnipidamistesti andmestiku kohta, mida tegime eelmises jaotises, ja arvutame hindamismõõdikud.
Näeme, et HPO-ga mudel saavutab kõigi mõõdikute puhul oluliselt parema jõudluse.
Küsimusele vastamine
Küsimustele vastamine on kasulik, kui soovite konkreetse teabe saamiseks pärida suures koguses teksti. See võimaldab kasutajal esitada küsimust loomulikus keeles ja saada kohese ja lühikese vastuse. NLP-põhiseid küsimustele vastamise süsteeme saab kasutada otsingumootorites ja telefonivestlusliidestes.
Juurutage ja käivitage eelkoolitatud mudeli põhjal järeldused
Meie eelkoolitatud mudel on väljavõtva küsimustele vastamise (EQA) mudel bert-suur-kasutamata-terve-sõna-maskimise-peenhäälestatud-salk ehitatud Hugging Face'i Transformeri mudelile. Kasutame skriptirežiimiga AWS PyTorchi DLC-d ja installime selle trafod raamatukogu sõltuvusena konteineri peal. Sarnaselt NER-i ülesandega pakume argumendis tühja arhiivifaili model_data
sest eelkoolitatud mudel laaditakse alla käigu pealt. Pärast lõpp-punkti juurutamist saate SageMaker Pythoni SDK abil lõpp-punkti kutsuda otse sülearvutist Predictor
. Vaadake järgmist koodi:
Kõik, mida peame tegema, on konstrueerida sõnastikuobjekt kahe võtmega. context
on tekst, millest soovime teavet hankida. question
on loomuliku keele päring, mis täpsustab, millise teabe hankimisest oleme huvitatud. Me helistame predict
meie ennustajal ja me peaksime saama vastuse lõpp-punktist, mis sisaldab kõige tõenäolisemaid vastuseid:
Meil on vastus olemas ja me saame välja printida kõige tõenäolisemad vastused, mis on eelmisest tekstist välja võetud. Igal vastusel on järjestamisel kasutatav usaldusskoor (kuid seda skoori ei tohiks tõlgendada tõenäolise tõenäosusena). Lisaks sõnasõnalisele vastusele saate algsest kontekstist ka vastuse alguse ja lõpu märgiindeksid:
Nüüd viimistleme seda mudelit oma kohandatud andmekogumiga, et saada paremaid tulemusi.
Viimistlege kohandatud andmestikul eelkoolitatud mudelit
Selles etapis demonstreerime, kuidas peenhäälestada EQA jaoks eelnevalt koolitatud keelemudeleid teie enda andmestikul. Peenhäälestuse samm värskendab mudeli parameetreid, et jäädvustada teie enda andmete omadused ja parandada täpsust. Me kasutame SQUAD2.0 andmekomplekt teksti manustamismudeli peenhäälestamiseks bert-base-kasutamata alates Hugging Face. Peenhäälestamiseks saadaolev mudel lisab teksti manustamismudelile vastuste eraldamise kihi ja lähtestab kihi parameetrid juhuslikeks väärtusteks. Peenhäälestuse samm peenhäälestab kõiki mudeli parameetreid, et minimeerida ennustusvigu sisendandmetes ja tagastab peenhäälestatud mudeli.
Sarnaselt teksti klassifitseerimise ülesandega on andmestik (SQuAD2.0) jagatud koolituseks, valideerimiseks ja testkomplektiks.
Järgmisena täpsustame mudeli hüperparameetrid ja kasutame KiirStart API peenhäälestustöö käivitamiseks:
Kui peenhäälestustöö on lõpule viidud, juurutame mudeli, teeme järelduse kinnipidamistesti andmestikust ja arvutame hindamismõõdikud. Kasutatud hindamismõõdikud on keskmine täpne sobivusskoor ja keskmine F1 skoor. Järgmine ekraanipilt näitab tulemusi.
Täiustage peenhäälestuse jõudlust veelgi SageMakeri automaatse mudelihäälestusega
Sarnaselt eelmiste osadega kasutame a HyperparameterTuner
häälestustööde käivitamise eesmärk:
Kui häälestustööd on lõpetatud, juurutame mudeli, mis annab valideerimisandmestiku parima hindamismõõdiku skoori, teeme järeldused sama kinnipidamistesti andmestiku kohta, mida tegime eelmises jaotises, ja arvutame hindamismõõdikud.
Näeme, et HPO-ga mudel näitab hoidmiskatse andmetel oluliselt paremat jõudlust.
Suhte väljatõmbamine
Seoste eraldamine on ülesanne eraldada tekstist semantilised seosed, mis tavaliselt esinevad kahe või enama olemi vahel. Seoste väljavõte mängib olulist rolli struktureeritud teabe hankimisel struktureerimata allikatest, näiteks toortekstist. Selles märkmikus demonstreerime suhete eraldamise kahte kasutusjuhtu.
Viimistlege kohandatud andmestikul eelkoolitatud mudelit
Kasutame suhete ekstraheerimise mudelit, mis on üles ehitatud a BERT-baas-korpuseta mudel kasutades trafosid alates Hugging Face trafod raamatukogu. Peenhäälestuse mudel lisab lineaarse klassifikatsioonikihi, mis võtab teksti manustamismudeli poolt väljastatud märgi manustamise paari ja lähtestab kihi parameetrid juhuslikeks väärtusteks. Peenhäälestuse samm peenhäälestab kõiki mudeli parameetreid, et minimeerida ennustusvigu sisendandmetes ja tagastab peenhäälestatud mudeli.
Andmekogum, mille mudelit täpsustame, on SemEval-2010 8. ülesanne. Peenhäälestusega tagastatud mudelit saab järelduste tegemiseks edasi kasutada.
Andmekogum sisaldab koolitus-, valideerimis- ja testikomplekte.
Kasutame AWS PyTorchi DLC-d koos skriptirežiimiga SageMaker Python SDK-st, kus transformers
teek on installitud sõltuvusena konteineri ülaossa. Me määratleme SageMakeri PyTorch
hindaja ja hüperparameetrite komplekt, nagu eelkoolitatud mudel, õppimiskiirus ja epohhinumbrid peenhäälestuse tegemiseks. Seoste eraldamise mudeli peenhäälestuse kood on määratletud dokumendis entry_point.py
. Vaadake järgmist koodi:
Täiustage peenhäälestuse jõudlust veelgi SageMakeri automaatse mudelihäälestusega
Sarnaselt eelmiste osadega kasutame a HyperparameterTuner
objekt suhtlemiseks SageMakeri hüperparameetrite häälestamise API-dega. Saame alustada hüperparameetrite häälestamist, helistades numbrile fit
meetod:
Kui hüperparameetrite häälestustöö on lõpetatud, teeme järelduse ja kontrollime hindamisskoori.
Näeme, et HPO-ga mudel näitab hoidmiskatse andmetel paremat jõudlust.
Dokumendi kokkuvõte
Dokumendi või teksti kokkuvõte on ülesanne koondada suured tekstiandmed väiksemateks tähenduslike lausete alamhulkadeks, mis esindavad algsisu kõige olulisemat või asjakohasemat teavet. Dokumendi kokkuvõte on kasulik tehnika olulise teabe destilleerimiseks suurtest tekstiandmetest mõne lauseni. Teksti kokkuvõtet kasutatakse paljudel kasutusjuhtudel, näiteks dokumentide töötlemisel ning ajaveebidest, artiklitest ja uudistest teabe hankimisel.
See märkmik demonstreerib dokumendi kokkuvõtte mudeli juurutamist T5-alus alates Hugging Face trafod raamatukogu. Samuti testime juurutatud lõpp-punkte tekstiartikli abil ja hindame tulemusi sisseehitatud hindamismõõdiku Hugging Face abil RED.
Sarnaselt küsimustele vastamise ja NER-i märkmikega kasutame me PyTorchModel
SageMaker Python SDK-st koos an entry_point.py
skript T5-baasmudeli laadimiseks HTTPS-i lõpp-punkti. Pärast lõpp-punkti edukat juurutamist saame ennustusvastuse saamiseks lõpp-punktile saata tekstiartikli:
Järgmisena hindame ja võrdleme tekstiartiklit ja kokkuvõtte tulemust mõõdiku ROUGE abil. Arvutatakse kolm hindamismõõdikut: rougeN
, rougeL
ja rougeLsum
. rougeN
mõõdab sobivuste arvu n-grams
mudeli loodud teksti (kokkuvõtte tulemuse) ja a reference
(sisestage tekst). Mõõdikud rougeL
ja rougeLsum
mõõta kõige pikemaid sobivaid sõnade jadasid, otsides loodud ja viidete kokkuvõtetes pikimaid ühiseid alamstringe. Iga mõõdiku jaoks arvutatakse täpsuse, meeldetuletuse ja F1 skoori usaldusvahemikud. Vaadake järgmist koodi.
Koristage
Selle lahenduse jaoks loodud ressursse saab kustutada kasutades Kustutage kõik ressursid nuppu SageMaker Studio IDE-st. Igas märkmikus on ka puhastussektsioon lõpp-punktide kustutamise koodiga.
Järeldus
Selles postituses näitasime, kuidas kasutada tipptasemel ML-tehnikaid viie erineva NLP-ülesande lahendamiseks: dokumentide kokkuvõte, teksti klassifitseerimine, küsimused ja vastused, nimega olemi tuvastamine ja suhete eraldamine Kiirstardi abil. Alustage Kiirstardiga kohe!
Autoritest
Dr Xin Huang on Amazon SageMaker JumpStarti ja Amazon SageMakeri sisseehitatud algoritmide rakendusteadlane. Ta keskendub skaleeritavate masinõppe algoritmide arendamisele. Tema uurimishuvid on seotud loomuliku keele töötlemise, tabeliandmete seletatava süvaõppe ja mitteparameetrilise aegruumi klastrite tugeva analüüsiga. Ta on avaldanud palju artikleid ACL-i, ICDM-i, KDD konverentsidel ja Royal Statistical Society: Series A ajakirjas.
Vivek Gangasani on Amazon Web Services'i masinõppelahenduste vanemarhitekt. Ta aitab idufirmadel AI/ML-i rakendusi luua ja kasutusele võtta. Praegu keskendub ta oma tausta ühendamisele konteinerite ja masinõppe vallas, et pakkuda lahendusi MLOps-i, ML-i järelduste ja madala koodiga ML-i jaoks. Vabal ajal meeldib talle proovida uusi restorane ning uurida uusi AI ja süvaõppe suundumusi.
Geremy Cohen on AWS-i lahenduste arhitekt, kes aitab klientidel luua tipptasemel pilvepõhiseid lahendusi. Vabal ajal naudib ta lühikesi jalutuskäike rannas, perega lahe piirkonna avastamist, maja ümber asjade parandamist, maja ümber lõhkumist ja grillimist.
Neelam Koshiya on AWS-i ärilahenduste arhitekt. Tema praegune eesmärk on aidata ärikliente nende pilves kasutuselevõtu teekonnal strateegiliste äritulemuste saavutamiseks. Vabal ajal meeldib talle lugeda ja õues olla.
- Täpsem (300)
- AI
- ai kunst
- ai kunsti generaator
- on robot
- Amazon SageMaker
- Amazon SageMaker JumpStart
- tehisintellekti
- tehisintellekti sertifikaat
- tehisintellekt panganduses
- tehisintellekti robot
- tehisintellekti robotid
- tehisintellekti tarkvara
- AWS-i masinõpe
- blockchain
- plokiahela konverents ai
- coingenius
- vestluslik tehisintellekt
- krüptokonverents ai
- dall's
- sügav õpe
- Ekspert (400)
- google ai
- masinõpe
- Platon
- plato ai
- Platoni andmete intelligentsus
- Platoni mäng
- PlatoData
- platogaming
- skaala ai
- süntaks
- sephyrnet