Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services

Tämän viestin ovat kirjoittaneet Anatoly Khomenko, koneoppimisinsinööri, ja Abdenour Bezzouh, Talent.comin teknologiajohtaja.

Perustettu 2011, talent.com on yksi maailman suurimmista työllistäjistä. Yritys yhdistää asiakkaidensa palkalliset työpaikkailmoitukset julkisiin työpaikkailmoituksiin yhdeksi haettavaksi alustaksi. Yli 30 miljoonalla työpaikalla yli 75 maassa, Talent.com palvelee työpaikkoja useilla kielillä, toimialoilla ja jakelukanavilla. Tuloksena on alusta, joka yhdistää miljoonat työnhakijat tarjolla oleviin työpaikkoihin.

Talent.com:n tehtävänä on keskittää kaikki verkossa saatavilla olevat työpaikat auttaakseen työnhakijoita löytämään parhaan työpaikan ja tarjoamaan heille parhaan hakukokemuksen. Sen painopiste on relevanssissa, koska suositeltujen töiden järjestys on elintärkeä, jotta voidaan näyttää käyttäjien mielenkiinnon kannalta tärkeimmät työt. Talent.comin hakualgoritmin suorituskyky on ensiarvoisen tärkeää yrityksen menestyksen kannalta ja keskeinen osa käyttäjien kokemusta. On haastavaa ennustaa, mitkä työpaikat ovat työnhakijalle tärkeitä, perustuen rajoitettuun annettuun tietomäärään, joka sisältää yleensä muutaman avainsanan ja sijainnin.

Tämän tehtävän mukaisesti Talent.com ja AWS yhdistivät voimansa luodakseen työsuositusmoottorin, joka käyttää uusinta luonnollisen kielen käsittelyä (NLP) ja syvän oppimismallin koulutustekniikoita. Amazon Sage Maker tarjota vertaansa vailla olevan kokemuksen työnhakijoille. Tämä postaus esittelee yhteisen lähestymistapamme työn suositusjärjestelmän suunnitteluun, mukaan lukien ominaisuussuunnittelu, syväoppimismalliarkkitehtuurin suunnittelu, hyperparametrien optimointi ja mallin arviointi, joka varmistaa ratkaisumme luotettavuuden ja tehokkuuden sekä työnhakijoille että työnantajille. Järjestelmän on kehittänyt joukko omistettuja soveltavan koneoppimisen (ML) tutkijoita, ML-insinöörejä ja aiheen asiantuntijoita yhteistyössä AWS:n ja Talent.comin kanssa.

Suositusjärjestelmä on kasvattanut napsautussuhdetta (CTR) 8.6 % verkko-A/B-testauksessa aiempaan XGBoost-pohjaiseen ratkaisuun verrattuna, mikä on auttanut yhdistämään miljoonia Talent.comin käyttäjiä parempiin töihin.

Katsaus ratkaisuun

Järjestelmän yleiskatsaus on havainnollistettu seuraavassa kuvassa. Järjestelmä ottaa syötteeksi käyttäjän hakukyselyn ja tulostaa listan töistä tärkeysjärjestyksessä. Työn osuvuutta mitataan napsautustodennäköisyydellä (todennäköisyys, että työnhakija napsauttaa työpaikkaa saadakseen lisätietoja).

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Järjestelmä sisältää neljä pääkomponenttia:

  • Malliarkkitehtuuri – Tämän työn suositusmoottorin ydin on syväoppimiseen perustuva Triple Tower Pointwise -malli, joka sisältää kyselykooderin, joka koodaa käyttäjien hakukyselyt, asiakirjaenkooderin, joka koodaa työnkuvaukset, ja vuorovaikutuskooderin, joka käsittelee aiemman käyttäjän työn. vuorovaikutusominaisuudet. Kolmen tornin lähdöt ketjutetaan ja johdetaan luokituspään läpi työn napsautustodennäköisyyksien ennustamiseksi. Kouluttamalla tämä malli Talent.comin hakukyselyihin, työtehtäviin ja historiallisiin käyttäjien vuorovaikutustietoihin, tämä järjestelmä tarjoaa henkilökohtaisia ​​ja erittäin osuvia työsuosituksia työnhakijoille.
  • Ominaisuuksien suunnittelu – Suoritamme kaksi ominaisuussuunnittelusarjaa poimimaan arvokasta tietoa syöttötiedoista ja syöttämään ne vastaaviin mallin torneihin. Nämä kaksi sarjaa ovat vakioominaisuuksia ja hienosäädettyjä Sentence-BERT (SBERT) -upotuksia. Käytämme vakiomuotoisia ominaisuuksia syötteenä vuorovaikutusenkooderiin ja syötämme SBERT-pohjaisen upotuksen kyselyenkooderiin ja asiakirjaenkooderiin.
  • Mallin optimointi ja viritys – Käytämme edistyneitä koulutusmenetelmiä järjestelmän kouluttamiseen, testaamiseen ja käyttöönottoon SageMakerin avulla. Tämä sisältää SageMaker Distributed Data Parallel (DDP) -koulutuksen, SageMakerin automaattisen mallin virityksen (AMT), oppimisnopeuden ajoituksen ja varhaisen pysäytyksen mallin suorituskyvyn ja harjoitusnopeuden parantamiseksi. DDP-koulutuskehyksen käyttö auttoi nopeuttamaan malliharjoitteluamme noin kahdeksan kertaa nopeammin.
  • Mallin arviointi – Teemme arvioinnin sekä offline- että online-tilassa. Arvioimme mallin suorituskyvyn käyrän alla (AUC) ja keskimääräisellä tarkkuudella K (mAP@K) offline-arvioinnissa. Verkko-A/B-testauksen aikana arvioimme napsautussuhteen parannuksia.

Seuraavissa osioissa esittelemme näiden neljän komponentin yksityiskohdat.

Syväoppimismallin arkkitehtuurin suunnittelu

Suunnittelemme Triple Tower Deep Pointwise (TTDP) -mallin käyttämällä kolmitornisen syväoppimisarkkitehtuuria ja pistesuuntaista parimallinnusta. Kolmitorni-arkkitehtuuri tarjoaa kolme rinnakkaista syvää hermoverkkoa, joissa jokainen torni käsittelee joukon ominaisuuksia itsenäisesti. Tämä suunnittelumalli antaa mallille mahdollisuuden oppia erilaisia ​​esityksiä eri tietolähteistä. Kun kaikkien kolmen tornin esitykset on saatu, ne ketjutetaan ja viedään luokituspään läpi, jotta saadaan lopullinen ennuste (0–1) napsautustodennäköisyydestä (pistekohtainen mallinnus).

Kolme tornia on nimetty niiden käsittelemien tietojen perusteella: kyselykooderi käsittelee käyttäjän hakukyselyn, dokumenttikooderi käsittelee hakijan työn dokumentaation sisällön, mukaan lukien työn ja yrityksen nimen, ja vuorovaikutuskooderi käyttää olennaisia ​​ominaisuuksia, jotka on poimittu aiemmista käyttäjien vuorovaikutuksista. ja historia (käsitellään lisää seuraavassa osiossa).

Jokaisella näistä torneista on ratkaiseva rooli työpaikkojen suosittelun oppimisessa:

  • Kyselykooderi – Kyselyenkooderi ottaa vastaan ​​käyttäjän työnhakukyselystä johdetut SBERT-upotukset. Parannamme upotuksia hienosäätämämme SBERT-mallin avulla. Tämä enkooderi käsittelee ja ymmärtää käyttäjän työnhakutarkoituksen, mukaan lukien verkkotunnuskohtaisten upotuksiemme tallentamat yksityiskohdat ja vivahteet.
  • Asiakirjan kooderi – Asiakirjakooderi käsittelee jokaisen työpaikkailmoituksen tiedot. Tarkemmin sanottuna se ottaa ketjutetun tekstin SBERT-upotukset työn nimestä ja yrityksestä. Intuitio on, että käyttäjät ovat kiinnostuneempia hakijoista, jotka ovat osuvampia hakukyselyn kannalta. Kartoittamalla työpaikat ja hakukyselyt samaan vektoriavaruuteen (SBERT:n määrittelemä), malli voi oppia ennustamaan, kuinka todennäköistä on, että työnhakija napsauttaa mahdollisia työpaikkoja.
  • Vuorovaikutuskooderi – Vuorovaikutuskooderi käsittelee käyttäjän aiempia vuorovaikutuksia työpaikkailmoitusten kanssa. Ominaisuudet tuotetaan vakioominaisuuksien suunnitteluvaiheessa, joka sisältää suosiomittareiden laskemisen työtehtäville ja yrityksille, kontekstin samankaltaisuuspisteiden määrittämisen ja vuorovaikutusparametrien poimimisen aiemmista käyttäjien sitoumuksista. Se käsittelee myös työnimessä tunnistetut nimetyt entiteetit ja hakukyselyt valmiiksi koulutetulla nimettyjen entiteettien tunnistusmallilla (NER).

Jokainen torni tuottaa itsenäisen lähdön rinnakkain, jotka kaikki sitten ketjutetaan yhteen. Tämä yhdistetty ominaisuusvektori välitetään sitten ennustamaan työluettelon napsautustodennäköisyys käyttäjän kyselylle. Kolmitorni-arkkitehtuuri tarjoaa joustavuutta monimutkaisten suhteiden kaappaamiseen eri syötteiden tai ominaisuuksien välillä, jolloin malli voi hyödyntää kunkin tornin vahvuuksia ja oppia ilmaisuvoimaisempia esityksiä annettua tehtävää varten.

Ehdokkaiden työpaikkojen ennustetut napsautustodennäköisyydet luokitellaan korkeasta matalaan, mikä luo henkilökohtaisia ​​työsuosituksia. Tämän prosessin avulla varmistamme, että jokainen tieto – olipa kyseessä käyttäjän hakutarkoitus, työpaikkailmoituksen tiedot tai aiemmat vuorovaikutukset – tallentuu täysin sille omistettuun torniin. Niiden väliset monimutkaiset suhteet on myös vangittu tornilähtöjen yhdistelmällä.

Ominaisuuksien suunnittelu

Suoritamme kaksi ominaisuussuunnitteluprosessia, joiden avulla poimimme arvokasta tietoa raakatiedoista ja syötämme ne vastaaviin mallin torneihin: vakiotoimintojen suunnittelu ja hienosäädetyt SBERT-upotukset.

Normaali ominaisuussuunnittelu

Tietojen valmisteluprosessimme alkaa vakioominaisuuksien suunnittelulla. Kaiken kaikkiaan määrittelemme neljän tyyppisiä ominaisuuksia:

  • Suosio – Laskemme suosiopisteitä yksittäisen työtason, ammattitason ja yritystason tasolla. Tämä antaa mittarin siitä, kuinka houkutteleva tietty työ tai yritys voi olla.
  • Tekstin samankaltaisuus – Ymmärtääksemme eri tekstielementtien välistä kontekstuaalista suhdetta laskemme samankaltaisuuspisteitä, mukaan lukien merkkijonojen samankaltaisuus hakukyselyn ja työn nimen välillä. Tämä auttaa meitä arvioimaan avoimen työpaikan relevanssia työnhakijan haku- tai hakuhistoriaan.
  • Vuorovaikutus – Lisäksi poimimme vuorovaikutusominaisuuksia aiemmista käyttäjien sitoutumisesta työpaikkailmoituksiin. Hyvä esimerkki tästä on samankaltaisuus aiempien napsautettujen työnimikkeiden ja ehdokkaiden työnimikkeiden välillä. Tämä mitta auttaa meitä ymmärtämään samankaltaisuuden käyttäjän aiempien työpaikkojen välillä, joita käyttäjä on osoittanut, ja tulevia työmahdollisuuksia. Tämä parantaa työsuositusmoottorimme tarkkuutta.
  • Profiili – Lopuksi poimimme käyttäjäprofiilista käyttäjän määrittämät työpaikkatiedot ja vertaamme niitä uusiin työnhakijoihin. Tämä auttaa meitä ymmärtämään, vastaako työnhakija käyttäjän kiinnostusta.

Ratkaiseva vaihe tietojen valmistelussamme on esikoulutetun NER-mallin soveltaminen. Ottamalla käyttöön NER-mallin voimme tunnistaa ja merkitä nimetyt entiteetit työnnimikkeissä ja hakukyselyissä. Näin ollen tämä antaa meille mahdollisuuden laskea samankaltaisuuspisteitä näiden tunnistettujen entiteettien välillä, mikä tarjoaa kohdistetumman ja kontekstitietoisemman sukulaisuusmitan. Tämä menetelmä vähentää tietojemme kohinaa ja antaa meille vivahteikkaamman, tilannekohtaisemman menetelmän töiden vertailuun.

Hienosäädetyt SBERT-upotukset

Parantaaksemme työsuositusjärjestelmämme relevanssia ja tarkkuutta, käytämme SBERT:n tehoa, tehokasta muuntajapohjaista mallia, joka tunnetaan taitavuudestaan ​​siepata semanttisia merkityksiä ja konteksteja tekstistä. Yleiset upotukset, kuten SBERT, ovat kuitenkin tehokkaita, mutta ne eivät välttämättä kata täysin ainutlaatuisia vivahteita ja terminologioita, jotka ovat ominaisia ​​tietylle toimialueelle, kuten meidän, joka keskittyy työllisyyteen ja työnhakuun. Tämän ratkaisemiseksi hienosäädämme SBERT-upotukset käyttämällä verkkotunnuskohtaisia ​​tietojamme. Tämä hienosäätöprosessi optimoi mallin ymmärtämään ja prosessoimaan paremmin toimialakohtaista kieltä, ammattikieltä ja kontekstia, jolloin upotukset heijastavat paremmin tiettyä toimialuettamme. Tämän seurauksena jalostetut upotukset tarjoavat paremman suorituskyvyn sekä semanttisen että kontekstuaalisen tiedon kaappaamisessa alallamme, mikä johtaa tarkempiin ja merkityksellisempiin työsuosituksiin käyttäjillemme.

Seuraava kuva havainnollistaa SBERT-hienosäätövaihetta.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Hienosäädämme SBERT-upotuksia käyttämällä TripletLoss kosinietäisyysmittarilla, joka oppii tekstin upotuksen, jossa ankkuriteksteillä ja positiivisilla teksteillä on suurempi kosinin samankaltaisuus kuin ankkuri- ja negatiiviteksteillä. Käytämme käyttäjien hakukyselyitä ankkuriteksteinä. Yhdistämme työnnimikkeitä ja työnantajien nimiä syötteinä positiivisiin ja negatiivisiin teksteihin. Positiiviset tekstit on otettu työpaikkailmoituksista, joita vastaava käyttäjä on napsauttanut, kun taas negatiiviset tekstit otetaan työpaikkailmoituksista, joita käyttäjä ei napsauttanut. Seuraava on esimerkki hienosäätömenettelyn toteutuksesta:

import math
from datetime import datetime from torch.utils.data import DataLoader
from sentence_transformers import (SentenceTransformer, SentencesDataset, LoggingHandler, losses)
from sentence_transformers.readers import InputExample model_name = 'all-mpnet-base-v2'
train_batch_size = 16
num_epochs = 1
model_save_path = (f'output/{model_name}_'+ datetime.now().strftime("%Y-%m-%d_%H-%M-%S")) ### load pre-trained SBERT model
model = SentenceTransformer(model_name, device="cuda") ### construct training dataset of triplet texts,
### stored in three lists (achors, positives, negatives)
train_examples =[]
for anchor, positive, negative in zip(achors, positives, negatives): train_examples.append(InputExample(texts=(anchor, positive, negative))) train_dataset = SentencesDataset(train_examples, model)
train_dataloader = DataLoader(train_dataset, shuffle=True, batch_size=train_batch_size) ### use TripletLoss with cosine distance metric and margin=0.5
distance_metric=losses.TripletDistanceMetric.COSINE
train_loss = losses.TripletLoss(model=model, distance_metric=distance_metric, triplet_margin=0.5) ### 10% of train data for warm-up
warmup_steps = math.ceil(len(train_dataloader) * num_epochs * 0.1) # Train the model
model.fit(train_objectives=[(train_dataloader, train_loss)], epochs=num_epochs, warmup_steps=warmup_steps, output_path=model_save_path)

Mallikoulutus SageMaker Distributed Data Parallelin kanssa

Käytämme SageMaker Distributed Data Parallel (SMDDP) -ominaisuutta, joka on PyTorch DDP:n päälle rakennetun SageMaker ML -alustan ominaisuus. Se tarjoaa optimoidun ympäristön PyTorch DDP -harjoitustöiden suorittamiseen SageMaker-alustalla. Se on suunniteltu nopeuttamaan merkittävästi syväoppimismallin koulutusta. Se saavuttaa tämän jakamalla suuren tietojoukon pienempiin osiin ja jakamalla ne useille GPU:ille. Malli toistetaan jokaisessa GPU:ssa. Jokainen grafiikkasuoritin käsittelee sille määritetyt tiedot itsenäisesti, ja tulokset kootaan ja synkronoidaan kaikkien GPU:iden kesken. DDP huolehtii gradienttiviestinnästä pitääkseen mallikopiot synkronoituina ja limittää ne gradienttilaskelmien kanssa harjoituksen nopeuttamiseksi. SMDDP käyttää optimoitua AllReduce-algoritmia, joka minimoi GPU:iden välisen viestinnän, lyhentää synkronointiaikaa ja parantaa yleistä harjoitusnopeutta. Algoritmi mukautuu erilaisiin verkko-olosuhteisiin, mikä tekee siitä erittäin tehokkaan sekä paikan päällä että pilvipohjaisissa ympäristöissä. SMDDP-arkkitehtuurissa (kuten seuraavassa kuvassa näkyy) hajautettu koulutus skaalataan myös käyttämällä useiden solmujen klusteria. Tämä ei tarkoita vain useita GPU:ita laskentaesiintymässä, vaan monia esiintymiä, joissa on useita GPU:ita, mikä nopeuttaa harjoittelua entisestään.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Lisätietoja tästä arkkitehtuurista on kohdassa SageMakerin hajautetun datan rinnakkaiskirjaston esittely.

SMDDP:n avulla olemme pystyneet lyhentämään TTDP-mallimme harjoitusaikaa huomattavasti, tehden siitä kahdeksan kertaa nopeamman. Nopeammat koulutusajat tarkoittavat, että voimme iteroida ja parantaa mallejamme nopeammin, mikä johtaa parempiin työsuosituksiin käyttäjillemme lyhyemmässä ajassa. Tämä tehokkuuden lisäys on tärkeä työpaikkasuositusmoottorimme kilpailukyvyn ylläpitämisessä nopeasti kehittyvillä työmarkkinoilla.

Voit mukauttaa harjoitusskriptiäsi SMDDP:n kanssa vain kolmella koodirivillä, kuten seuraavassa koodilohkossa näkyy. PyTorchia esimerkkinä käyttäen ainoa asia mitä sinun tarvitsee tehdä on tuoda SMDDP-kirjaston PyTorch-asiakas (smdistributed.dataparallel.torch.torch_smddp). Asiakas rekisteröityy smddp PyTorchin taustaohjelmaksi.

import smdistributed.dataparallel.torch.torch_smddp
import torch.distributed as dist dist.init_process_group(backend='smddp')

Kun sinulla on toimiva PyTorch-skripti, joka on mukautettu käyttämään hajautetun tiedon rinnakkaiskirjastoa, voit tehdä sen käynnistä hajautettu koulutustyö SageMaker Python SDK:lla.

Mallin suorituskyvyn arviointi

Suositusjärjestelmän tehokkuutta arvioitaessa on tärkeää valita mittarit, jotka ovat tiiviisti linjassa liiketoiminnan tavoitteiden kanssa ja antavat selkeän käsityksen mallin tehokkuudesta. Tässä tapauksessa käytämme AUC-arvoa arvioidaksemme TTDP-mallimme työn napsautusten ennustetta ja mAP@K-arvoa arvioidaksemme lopullisen paremmuusjärjestyksen mukaisen työluettelon laatua.

AUC viittaa vastaanottimen toimintakäyrän (ROC) alla olevaan pinta-alaan. Se edustaa todennäköisyyttä, että satunnaisesti valittu positiivinen esimerkki sijoittuu korkeammalle kuin satunnaisesti valittu negatiivinen esimerkki. Se vaihtelee välillä 0–1, jossa 1 tarkoittaa ihanteellista luokittelijaa ja 0.5 on satunnainen arvaus. mAP@K on mittari, jota käytetään yleisesti arvioimaan tiedonhakujärjestelmien laatua, kuten työnsuositusmoottorimme. Se mittaa keskimääräistä tarkkuutta haettaessa K suosituinta kohdetta tietylle kyselylle tai käyttäjälle. Se vaihtelee välillä 0–1, jossa 1 tarkoittaa optimaalista järjestystä ja 0 pienintä mahdollista tarkkuutta annetulla K-arvolla. Arvioimme AUC:n, mAP@1:n ja mAP@3:n. Yhdessä näiden mittareiden avulla voimme mitata mallin kykyä erottaa positiiviset ja negatiiviset luokat (AUC) ja sen onnistumista tärkeimpien kohteiden asettamisessa kärkeen (mAP@K).

Offline-arvioinnin perusteella TTDP-malli ylitti perusmallin – nykyisen XGBoost-pohjaisen tuotantomallin – AUC:n osalta 16.65 %, mAP@20:n osalta 1 % ja mAP@11.82:n osalta 3 %.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Lisäksi suunnittelimme online-A/B-testin ehdotetun järjestelmän arvioimiseksi ja suoritimme testin tietylle prosenttiosuudelle Yhdysvaltain sähköpostiväestöstä 6 viikon ajan. Kaikkiaan noin 22 miljoonaa sähköpostiviestiä lähetettiin uuden järjestelmän suosittelemalla työllä. Tuloksena oleva klikkausmäärän kasvu edelliseen tuotantomalliin verrattuna oli 8.6 %. Talent.com lisää asteittain prosenttiosuutta, jolla uusi järjestelmä otetaan käyttöön koko väestölle ja kanavilla.

Yhteenveto

Työnsuositusjärjestelmän luominen on monimutkainen yritys. Jokaisella työnhakijalla on ainutlaatuiset tarpeet, mieltymykset ja ammatilliset kokemukset, joita ei voi päätellä lyhyellä hakukyselyllä. Tässä viestissä Talent.com teki yhteistyötä AWS:n kanssa kehittääkseen kokonaisvaltaisen syväoppimiseen perustuvan työnsuositusratkaisun, joka listaa käyttäjille suositeltavia työpaikkoja. Talent.com-tiimi todella nautti yhteistyöstä AWS-tiimin kanssa koko tämän ongelman ratkaisuprosessin ajan. Tämä on merkittävä virstanpylväs Talent.comin muuttavalla matkalla, sillä tiimi hyödyntää syvän oppimisen voimaa vahvistaakseen liiketoimintaansa.

Tätä projektia hienosäädettiin käyttämällä SBERTiä tekstin upotusten luomiseen. Kirjoitushetkellä AWS esitteli Amazon Titan Embeddings osana heidän tarjoamiaan perusmalleja (FM). Amazonin kallioperä, joka on täysin hallittu palvelu, joka tarjoaa valikoiman tehokkaita perusmalleja johtavilta tekoälyyrityksiltä. Kannustamme lukijoita tutkimaan tässä blogikirjoituksessa esiteltyjä koneoppimistekniikoita ja hyödyntämään AWS:n, kuten SMDDP:n, tarjoamia ominaisuuksia, samalla kun he käyttävät AWS Bedrockin perusmalleja luodakseen omia hakutoimintojaan.

Viitteet


Tietoja kirjoittajista

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai. Yi Xiang on Applied Scientist II Amazon Machine Learning Solutions Labissa, jossa hän auttaa AWS-asiakkaita eri toimialoilla nopeuttamaan tekoälyn ja pilven käyttöönottoa.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Tong Wang on vanhempi soveltuva tutkija Amazon Machine Learning Solutions Labissa, jossa hän auttaa AWS-asiakkaita eri toimialoilla nopeuttamaan tekoälyn ja pilven käyttöönottoa.

Dmitri BespalovDmitri Bespalov on vanhempi soveltuva tutkija Amazon Machine Learning Solutions Labissa, jossa hän auttaa AWS-asiakkaita eri toimialoilla nopeuttamaan tekoälyn ja pilven käyttöönottoa.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Anatoli Khomenko on Talent.comin vanhempi koneoppimisinsinööri, jonka intohimona on luonnollisen kielen prosessointi, joka sovittaa hyviä ihmisiä hyviin töihin.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Abdenour Bezzouh on johtaja, jolla on yli 25 vuoden kokemus miljoonille asiakkaille skaalautuvien teknologiaratkaisujen rakentamisesta ja toimittamisesta. Abdenour toimi teknologiajohtajana (CTO) klo talent.com kun AWS-tiimi suunnitteli ja toteutti tämän ratkaisun talent.com.

Tekstistä unelmatyöksi: NLP-pohjaisen työnsuosittajan luominen osoitteessa Talent.com Amazon SageMakerin avulla Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Dale Jacques on vanhempi tekoälystrategi Generative AI Innovation Centerissä, jossa hän auttaa AWS-asiakkaita muuttamaan liiketoimintaongelmat tekoälyratkaisuiksi.

Yanjun QiYanjun Qi on vanhempi soveltavan tieteen johtaja Amazon Machine Learning Solution Labissa. Hän innovoi ja soveltaa koneoppimista auttaakseen AWS-asiakkaita nopeuttamaan tekoälyn ja pilven käyttöönottoa.

Aikaleima:

Lisää aiheesta AWS-koneoppiminen