Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri

Bu yazı, Makine Öğrenimi Mühendisi Anatoly Khomenko ve Talent.com'un Baş Teknoloji Sorumlusu Abdenour Bezzouh tarafından ortak yazılmıştır.

2011 yılında kurulan, Yetenek.com dünyanın en büyük istihdam kaynaklarından biridir. Şirket, müşterilerinin ücretli iş ilanlarını halka açık iş ilanlarıyla tek bir aranabilir platformda birleştiriyor. 30'ten fazla ülkede listelenen 75 milyondan fazla iş ilanıyla Talent.com birçok dilde, sektörde ve dağıtım kanalında işlere hizmet veriyor. Sonuç, milyonlarca iş arayan kişiyi mevcut işlerle eşleştiren bir platformdur.

Talent.com'un misyonu, iş arayanların en iyi eşleşmeyi bulmalarına yardımcı olmak ve onlara en iyi arama deneyimini sunmak için web üzerindeki tüm işleri merkezileştirmektir. Odak noktası alaka düzeyidir, çünkü önerilen işlerin sırası, kullanıcıların ilgi alanlarına en uygun işleri göstermek açısından hayati öneme sahiptir. Talent.com'un eşleştirme algoritmasının performansı, işletmenin başarısı açısından çok önemlidir ve kullanıcı deneyimine önemli bir katkı sağlar. Genellikle birkaç anahtar kelime ve bir lokasyondan oluşan sınırlı miktardaki bilgiye dayanarak hangi işlerin iş arayan kişiye uygun olduğunu tahmin etmek zordur.

Bu misyon doğrultusunda Talent.com ve AWS, en son teknolojiye sahip doğal dil işleme (NLP) ve derin öğrenme modeli eğitim tekniklerini kullanarak bir iş önerisi motoru oluşturmak için güçlerini birleştirdi. Amazon Adaçayı Yapıcı iş arayanlara eşsiz bir deneyim sunmak. Bu gönderi, özellik mühendisliği, derin öğrenme modeli mimarisi tasarımı, hiperparametre optimizasyonu ve hem iş arayanlar hem de işverenler için çözümümüzün güvenilirliğini ve etkinliğini sağlayan model değerlendirmeyi içeren bir iş öneri sistemi tasarlamaya yönelik ortak yaklaşımımızı göstermektedir. Sistem, uygulamalı makine öğrenimi (ML) bilim insanları, makine öğrenimi mühendisleri ve konu uzmanlarından oluşan bir ekip tarafından AWS ve Talent.com işbirliğiyle geliştirildi.

Öneri sistemi, önceki XGBoost tabanlı çözüme kıyasla çevrimiçi A/B testinde tıklama oranında (TO) %8.6 artış sağlayarak milyonlarca Talent.com kullanıcısını daha iyi işlere bağlamaya yardımcı oldu.

Çözüme genel bakış

Aşağıdaki şekilde sisteme genel bir bakış gösterilmektedir. Sistem, bir kullanıcının arama sorgusunu girdi olarak alır ve uygunluk sırasına göre sıralanmış bir iş listesi çıkarır. İşin uygunluğu, tıklama olasılığı (iş arayanın daha fazla bilgi için bir işe tıklama olasılığı) ile ölçülür.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

Sistem dört ana bileşenden oluşur:

  • Model mimarisi – Bu iş öneri motorunun temeli, kullanıcı arama sorgularını kodlayan bir sorgu kodlayıcı, iş tanımlarını kodlayan bir belge kodlayıcı ve geçmiş kullanıcı işini işleyen bir etkileşim kodlayıcı içeren derin öğrenme tabanlı Triple Tower Pointwise modelidir. etkileşim özellikleri. Üç kulenin çıktıları birleştirilir ve işin tıklama olasılıklarını tahmin etmek için bir sınıflandırma kafasından geçirilir. Bu modeli Talent.com'un arama sorguları, iş özellikleri ve geçmiş kullanıcı etkileşimi verileri üzerine eğiten bu sistem, iş arayanlara kişiselleştirilmiş ve son derece alakalı iş önerileri sağlar.
  • Özellik mühendisliği – Giriş verilerinden değerli bilgiler çıkarmak ve bunu modeldeki ilgili kulelere beslemek için iki grup özellik mühendisliği gerçekleştiriyoruz. İki set, standart özellik mühendisliği ve ince ayarlı Cümle-BERT (SBERT) yerleştirmeleridir. Standart mühendislik özelliklerini etkileşim kodlayıcıya girdi olarak kullanırız ve SBERT'ten türetilmiş yerleştirmeyi sorgu kodlayıcıya ve belge kodlayıcıya besleriz.
  • Model optimizasyonu ve ayarlama – Sistemi SageMaker ile eğitmek, test etmek ve dağıtmak için gelişmiş eğitim metodolojilerinden yararlanıyoruz. Buna SageMaker Dağıtılmış Veri Paralel (DDP) eğitimi, SageMaker Otomatik Model Ayarlama (AMT), öğrenme hızı planlaması ve model performansını ve eğitim hızını artırmak için erken durdurma dahildir. DDP eğitim çerçevesini kullanmak, model eğitimimizin yaklaşık sekiz kat daha hızlı hızlandırılmasına yardımcı oldu.
  • Model değerlendirme – Hem offline hem de online değerlendirme yapıyoruz. Çevrimdışı değerlendirmede model performansını Eğri Altındaki Alan (AUC) ve K'deki Ortalama Ortalama Hassasiyet (mAP@K) ile değerlendiriyoruz. Çevrimiçi A/B testi sırasında TO iyileştirmelerini değerlendiriyoruz.

Aşağıdaki bölümlerde bu dört bileşenin ayrıntılarını sunuyoruz.

Derin öğrenme modeli mimari tasarımı

Üçlü kule derin öğrenme mimarisini ve noktasal çift modelleme yaklaşımını kullanarak bir Üçlü Kule Derin Noktasal (TTDP) modeli tasarlıyoruz. Üçlü kule mimarisi, her bir kulenin bir dizi özelliği bağımsız olarak işlediği üç paralel derin sinir ağı sağlar. Bu tasarım modeli, modelin farklı bilgi kaynaklarından farklı temsilleri öğrenmesine olanak tanır. Her üç kuleden de temsiller elde edildikten sonra, bunlar birleştirilir ve tıklama olasılığına ilişkin nihai tahminin (0-1) yapılması için bir sınıflandırma başlığından geçirilir (noktasal modelleme kurulumu).

Üç kule, işledikleri bilgilere göre adlandırılır: Sorgu kodlayıcı, kullanıcı arama sorgusunu işler, belge kodlayıcı, iş unvanı ve şirket adı da dahil olmak üzere aday işin dokümantasyon içeriğini işler ve etkileşim kodlayıcı, geçmiş kullanıcı etkileşimlerinden elde edilen ilgili özellikleri kullanır. ve tarih (bir sonraki bölümde daha fazla tartışılacaktır).

Bu kulelerin her biri, işlerin nasıl önerileceğini öğrenmede çok önemli bir rol oynar:

  • Sorgu kodlayıcı – Sorgu kodlayıcı, kullanıcının iş arama sorgusundan türetilen SBERT yerleştirmelerini alır. İnce ayarını yaptığımız bir SBERT modeli aracılığıyla yerleştirmeleri geliştiriyoruz. Bu kodlayıcı, alana özel yerleştirmelerimiz tarafından yakalanan ayrıntılar ve nüanslar da dahil olmak üzere kullanıcının iş arama amacını işler ve anlar.
  • Belge kodlayıcı – Belge kodlayıcı her iş listesinin bilgilerini işler. Özellikle iş unvanı ve şirketten birleştirilmiş metnin SBERT yerleştirmelerini alır. Sezgi, kullanıcıların arama sorgusuyla daha alakalı aday işlerle daha fazla ilgileneceğidir. Model, işleri ve arama sorgularını aynı vektör uzayına (SBERT tarafından tanımlanan) eşleyerek, iş arayanın tıklayacağı potansiyel işlerin olasılığını tahmin etmeyi öğrenebilir.
  • Etkileşim kodlayıcı – Etkileşim kodlayıcı, kullanıcının iş listeleriyle olan geçmiş etkileşimleriyle ilgilenir. Özellikler, iş rolleri ve şirketler için popülerlik ölçümlerinin hesaplanmasını, bağlam benzerliği puanlarının oluşturulmasını ve önceki kullanıcı etkileşimlerinden etkileşim parametrelerinin çıkarılmasını içeren standart bir özellik mühendisliği adımı aracılığıyla üretilir. Ayrıca iş unvanında ve arama sorgularında tanımlanan adlandırılmış varlıkları, önceden eğitilmiş bir adlandırılmış varlık tanıma (NER) modeliyle işler.

Her kule paralel olarak bağımsız bir çıktı üretir ve bunların tümü daha sonra birleştirilir. Bu birleştirilmiş özellik vektörü daha sonra bir kullanıcı sorgusu için bir iş listesinin tıklama olasılığını tahmin etmek üzere iletilir. Üçlü kule mimarisi, farklı girdiler veya özellikler arasındaki karmaşık ilişkileri yakalamada esneklik sağlayarak modelin, verilen görev için daha anlamlı temsilleri öğrenirken her bir kulenin güçlü yönlerinden yararlanmasına olanak tanır.

Aday işlerin tahmin edilen tıklama olasılıkları yüksekten düşüğe doğru sıralanarak kişiselleştirilmiş iş önerileri oluşturulur. Bu süreç aracılığıyla, ister kullanıcının arama amacı, ister iş ilanı ayrıntıları veya geçmiş etkileşimler olsun, her bir bilgi parçasının kendisine tahsis edilmiş belirli bir kule tarafından tamamen yakalanmasını sağlıyoruz. Aralarındaki karmaşık ilişkiler de kule çıktılarının birleşimiyle yakalanıyor.

Özellik mühendisliği

Ham verilerden değerli bilgiler çıkarmak ve bunu modeldeki ilgili kulelere beslemek için iki dizi özellik mühendisliği süreci gerçekleştiriyoruz: standart özellik mühendisliği ve ince ayarlı SBERT yerleştirmeleri.

Standart özellik mühendisliği

Veri hazırlama sürecimiz standart özellik mühendisliği ile başlar. Genel olarak dört tür özellik tanımlıyoruz:

  • Popülerlik – Popülerlik puanlarını bireysel iş düzeyinde, meslek düzeyinde ve şirket düzeyinde hesaplıyoruz. Bu, belirli bir işin veya şirketin ne kadar çekici olabileceğine dair bir ölçüm sağlar.
  • Metin benzerliği – Farklı metin öğeleri arasındaki bağlamsal ilişkiyi anlamak için, arama sorgusu ile iş unvanı arasındaki dize benzerliği de dahil olmak üzere benzerlik puanlarını hesaplıyoruz. Bu, açılan bir iş ilanının iş arayanın arama veya başvuru geçmişiyle ilgisini ölçmemize yardımcı olur.
  • Etkileşim – Ayrıca, iş listeleriyle ilgili geçmiş kullanıcı etkileşimlerinden etkileşim özellikleri çıkarıyoruz. Bunun en iyi örneği, geçmişte tıklanan iş unvanları ile aday iş unvanları arasındaki benzerliktir. Bu ölçüm, bir kullanıcının ilgi gösterdiği önceki işler ile yaklaşan iş fırsatları arasındaki benzerliği anlamamıza yardımcı olur. Bu, iş önerisi motorumuzun hassasiyetini artırır.
  • Profil – Son olarak kullanıcı profilinden kullanıcı tanımlı iş ilgi alanı bilgilerini çıkarıp yeni iş adaylarıyla karşılaştırıyoruz. Bu, bir iş adayının kullanıcının ilgi alanına uygun olup olmadığını anlamamıza yardımcı olur.

Veri hazırlığımızdaki önemli bir adım, önceden eğitilmiş bir NER modelinin uygulanmasıdır. Bir NER modelini uygulayarak, iş unvanları ve arama sorguları içindeki adlandırılmış varlıkları tanımlayabilir ve etiketleyebiliriz. Sonuç olarak bu, tanımlanan bu varlıklar arasındaki benzerlik puanlarını hesaplamamıza olanak tanıyarak, daha odaklı ve bağlama duyarlı bir ilişki ölçümü sağlar. Bu metodoloji, verilerimizdeki gürültüyü azaltır ve işleri karşılaştırma konusunda bize daha incelikli, bağlama duyarlı bir yöntem sunar.

İnce ayarlı SBERT yerleştirmeleri

İş tavsiyesi sistemimizin uygunluğunu ve doğruluğunu artırmak için, metinden anlamsal anlamlar ve bağlamları yakalama konusundaki uzmanlığıyla bilinen güçlü, dönüştürücü tabanlı bir model olan SBERT'in gücünü kullanıyoruz. Bununla birlikte, SBERT gibi genel yerleştirmeler etkili olmasına rağmen, istihdam ve iş aramaları etrafında yoğunlaşan bizimki gibi belirli bir alanın doğasında bulunan benzersiz nüansları ve terminolojileri tam olarak yakalayamayabilir. Bunun üstesinden gelmek için alana özgü verilerimizi kullanarak SBERT yerleştirmelerinde ince ayar yapıyoruz. Bu ince ayar süreci, modeli sektöre özgü dili, jargonu ve bağlamı daha iyi anlamak ve işlemek için optimize ederek yerleştirmelerin spesifik alanımızı daha iyi yansıtmasını sağlar. Sonuç olarak, geliştirilmiş yerleştirmeler, alanımız dahilinde hem semantik hem de bağlamsal bilgilerin yakalanmasında daha iyi performans sunarak kullanıcılarımız için daha doğru ve anlamlı iş önerilerine yol açıyor.

Aşağıdaki şekil SBERT ince ayar adımını göstermektedir.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

SBERT yerleştirmelerini kullanarak ince ayar yapıyoruz Üçlü Kayıp Bağlantı ve pozitif metinlerin bağlantı ve negatif metinlerden daha yüksek bir kosinüs benzerliğine sahip olduğu durumlarda metin yerleştirmeyi öğrenen bir kosinüs mesafesi ölçümüyle. Kullanıcıların arama sorgularını bağlantı metni olarak kullanırız. Olumlu ve olumsuz metinlere girdi olarak iş unvanlarını ve işveren adlarını birleştiriyoruz. Olumlu metinler ilgili kullanıcının tıkladığı iş ilanlarından örneklenirken olumsuz metinler kullanıcının tıklamadığı iş ilanlarından örneklenir. İnce ayar prosedürünün örnek uygulaması aşağıdadır:

import math
from datetime import datetime from torch.utils.data import DataLoader
from sentence_transformers import (SentenceTransformer, SentencesDataset, LoggingHandler, losses)
from sentence_transformers.readers import InputExample model_name = 'all-mpnet-base-v2'
train_batch_size = 16
num_epochs = 1
model_save_path = (f'output/{model_name}_'+ datetime.now().strftime("%Y-%m-%d_%H-%M-%S")) ### load pre-trained SBERT model
model = SentenceTransformer(model_name, device="cuda") ### construct training dataset of triplet texts,
### stored in three lists (achors, positives, negatives)
train_examples =[]
for anchor, positive, negative in zip(achors, positives, negatives): train_examples.append(InputExample(texts=(anchor, positive, negative))) train_dataset = SentencesDataset(train_examples, model)
train_dataloader = DataLoader(train_dataset, shuffle=True, batch_size=train_batch_size) ### use TripletLoss with cosine distance metric and margin=0.5
distance_metric=losses.TripletDistanceMetric.COSINE
train_loss = losses.TripletLoss(model=model, distance_metric=distance_metric, triplet_margin=0.5) ### 10% of train data for warm-up
warmup_steps = math.ceil(len(train_dataloader) * num_epochs * 0.1) # Train the model
model.fit(train_objectives=[(train_dataloader, train_loss)], epochs=num_epochs, warmup_steps=warmup_steps, output_path=model_save_path)

SageMaker Dağıtılmış Veri Paralel ile model eğitimi

PyTorch DDP üzerine kurulu SageMaker ML platformunun bir özelliği olan SageMaker Dağıtılmış Veri Paralel'i (SMDDP) kullanıyoruz. PyTorch DDP eğitim işlerini SageMaker platformunda çalıştırmak için optimize edilmiş bir ortam sağlar. Derin öğrenme modeli eğitimini önemli ölçüde hızlandırmak için tasarlanmıştır. Bunu, büyük bir veri kümesini daha küçük parçalara bölerek ve bunları birden fazla GPU'ya dağıtarak başarır. Model her GPU'da kopyalanır. Her GPU, kendisine atanan verileri bağımsız olarak işler ve sonuçlar tüm GPU'lar arasında derlenir ve senkronize edilir. DDP, model replikalarını senkronize tutmak için degrade iletişimiyle ilgilenir ve eğitimi hızlandırmak için bunları degrade hesaplamalarla örtüştürür. SMDDP, GPU'lar arasındaki iletişimi en aza indirmek, senkronizasyon süresini azaltmak ve genel eğitim hızını artırmak için optimize edilmiş bir AllReduce algoritması kullanır. Algoritma farklı ağ koşullarına uyum sağlayarak hem şirket içi hem de bulut tabanlı ortamlar için oldukça verimli hale gelir. SMDDP mimarisinde (aşağıdaki şekilde gösterildiği gibi), dağıtılmış eğitim de birçok düğümden oluşan bir küme kullanılarak ölçeklendirilir. Bu, bir bilgi işlem örneğinde yalnızca birden fazla GPU değil, birden fazla GPU'ya sahip birçok örnek anlamına gelir ve bu da eğitimi daha da hızlandırır.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

Bu mimari hakkında daha fazla bilgi için bkz. SageMaker'ın Dağıtılmış Veri Paralel Kütüphanesine Giriş.

SMDDP ile TTDP modelimizin eğitim süresini önemli ölçüde azaltarak sekiz kat daha hızlı hale getirmeyi başardık. Daha hızlı eğitim süreleri, modellerimizi daha hızlı bir şekilde yineleyip geliştirebileceğimiz anlamına gelir; bu da kullanıcılarımıza daha kısa sürede daha iyi iş önerileri sunabilmemizi sağlar. Bu verimlilik kazanımı, hızla gelişen bir iş piyasasında iş tavsiyesi motorumuzun rekabetçiliğini korumada önemli bir rol oynuyor.

Eğitim betiğinizi SMDDP ile aşağıdaki kod bloğunda gösterildiği gibi yalnızca üç satır kodla uyarlayabilirsiniz. Örnek olarak PyTorch'u kullanırsak, yapmanız gereken tek şey SMDDP kütüphanesinin PyTorch istemcisini (smdistributed.dataparallel.torch.torch_smddp). Müşteri kaydolur smddp PyTorch için arka uç olarak.

import smdistributed.dataparallel.torch.torch_smddp
import torch.distributed as dist dist.init_process_group(backend='smddp')

Dağıtılmış veri paralel kütüphanesini kullanacak şekilde uyarlanmış çalışan bir PyTorch betiğinize sahip olduktan sonra şunları yapabilirsiniz: SageMaker Python SDK'yı kullanarak dağıtılmış bir eğitim işi başlatın.

Model performansını değerlendirme

Bir öneri sisteminin performansını değerlendirirken, iş hedefleriyle yakından uyumlu olan ve modelin etkinliğinin net bir şekilde anlaşılmasını sağlayan ölçümlerin seçilmesi çok önemlidir. Bizim durumumuzda, TTDP modelimizin iş tıklaması tahmin performansını değerlendirmek için AUC'yi ve son sıralanan işler listesinin kalitesini değerlendirmek için mAP@K'yi kullanıyoruz.

AUC, alıcı çalışma karakteristiği (ROC) eğrisinin altındaki alanı ifade eder. Rastgele seçilen olumlu bir örneğin, rastgele seçilen olumsuz örnekten daha üst sıralarda yer alma olasılığını temsil eder. 0-1 arasında değişir; 1 ideal sınıflandırıcıyı, 0.5 ise rastgele bir tahmini temsil eder. mAP@K, iş önerme motorumuz gibi bilgi alma sistemlerinin kalitesini değerlendirmek için yaygın olarak kullanılan bir ölçümdür. Belirli bir sorgu veya kullanıcı için en iyi K ilgili öğeyi almanın ortalama hassasiyetini ölçer. 0-1 arasında değişir; 1 optimal sıralamayı, 0 ise verilen K değerinde mümkün olan en düşük hassasiyeti belirtir. AUC, mAP@1 ve mAP@3'ü değerlendiriyoruz. Toplu olarak bu ölçümler, modelin pozitif ve negatif sınıflar arasında ayrım yapma yeteneğini (AUC) ve en alakalı öğeleri en üstte sıralama başarısını (mAP@K) ölçmemize olanak tanır.

Çevrimdışı değerlendirmemize göre TTDP modeli, temel modelden (mevcut XGBoost tabanlı üretim modeli) AUC için %16.65, mAP@20 için %1 ve mAP@11.82 için %3 oranında daha iyi performans gösterdi.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

Ayrıca, önerilen sistemi değerlendirmek için çevrimiçi bir A/B testi tasarladık ve testi 6 hafta boyunca ABD e-posta nüfusunun belirli bir yüzdesi üzerinde yürüttük. Yeni sistemin önerdiği iş kullanılarak toplamda yaklaşık 22 milyon e-posta gönderildi. Önceki üretim modeline kıyasla tıklamalarda elde edilen artış %8.6 oldu. Talent.com, yeni sistemi tüm kullanıcı kitlesine ve kanallarına sunma yüzdesini kademeli olarak artırıyor.

Sonuç

Bir iş öneri sistemi oluşturmak karmaşık bir çabadır. Her iş arayanın, kısa bir arama sorgusundan anlaşılamayacak benzersiz ihtiyaçları, tercihleri ​​ve profesyonel deneyimleri vardır. Bu gönderide Talent.com, kullanıcılara önerilecek iş listelerini sıralayan uçtan uca derin öğrenme tabanlı bir iş önerme çözümü geliştirmek için AWS ile iş birliği yaptı. Talent.com ekibi, bu sorunu çözme süreci boyunca AWS ekibiyle işbirliği yapmaktan gerçekten keyif aldı. Bu, Talent.com'un dönüştürücü yolculuğunda önemli bir dönüm noktasına işaret ediyor; ekip işini güçlendirmek için derin öğrenmenin gücünden yararlanıyor.

Bu projede metin yerleştirmeleri oluşturmak için SBERT kullanılarak ince ayar yapıldı. Bu yazının yazıldığı sırada AWS tanıtıldı Amazon Titan Gömmeleri aracılığıyla sunulan temel modellerin (FM'ler) bir parçası olarak Amazon Ana KayasıÖnde gelen yapay zeka şirketlerinin yüksek performanslı temel modellerinden oluşan bir seçki sunan, tümüyle yönetilen bir hizmettir. Okuyucuları bu blog yazısında sunulan makine öğrenimi tekniklerini keşfetmeye ve kendi arama işlevlerini oluşturmak için AWS Bedrock'un temel modellerinden yararlanırken SMDDP gibi AWS tarafından sağlanan yeteneklerden yararlanmaya teşvik ediyoruz.

Referanslar


yazarlar hakkında

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai. Yi Xiang Amazon Machine Learning Solutions Lab'da Uygulamalı Bilim Adamı II olarak görev yapıyor ve burada farklı sektörlerdeki AWS müşterilerinin yapay zeka ve bulutu benimseme süreçlerini hızlandırmasına yardımcı oluyor.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.Tong Wang Amazon Makine Öğrenimi Çözümleri Laboratuvarı'nda Kıdemli Uygulamalı Bilim İnsanı olarak görev yapıyor ve burada farklı sektörlerdeki AWS müşterilerinin yapay zeka ve bulut benimsemelerini hızlandırmalarına yardımcı oluyor.

Dmitry BespalovDmitry Bespalov Amazon Makine Öğrenimi Çözümleri Laboratuvarı'nda Kıdemli Uygulamalı Bilim İnsanı olarak görev yapıyor ve burada farklı sektörlerdeki AWS müşterilerinin yapay zeka ve bulut benimsemelerini hızlandırmalarına yardımcı oluyor.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.Anatoly Khomenko İyi insanları iyi işlerle eşleştiren doğal dil işleme tutkusuna sahip, Talent.com'da Kıdemli Makine Öğrenimi Mühendisidir.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.Abdenur Bezzouh Milyonlarca müşteriye ölçeklenebilen teknoloji çözümleri oluşturma ve sunma konusunda 25 yılı aşkın deneyime sahip bir yöneticidir. Abdenour, Teknolojiden Sorumlu Başkan (CTO) olarak görev yaptı. Yetenek.com AWS ekibi bu özel çözümü tasarlayıp uyguladığında Yetenek.com.

Metinden hayalinizdeki işe: Amazon SageMaker ile Talent.com'da NLP tabanlı bir iş tavsiye aracı oluşturma | Amazon Web Hizmetleri PlatoBlockchain Veri Zekası. Dikey Arama. Ai.Dale Jacques Üretken Yapay Zeka İnovasyon Merkezi'nde Kıdemli Yapay Zeka Stratejisti olarak görev yapıyor ve burada AWS müşterilerinin iş sorunlarını yapay zeka çözümlerine dönüştürmesine yardımcı oluyor.

Yanjun QiYanjun Qi Amazon Machine Learning Solution Lab'de Kıdemli Uygulamalı Bilim Yöneticisidir. AWS müşterilerinin yapay zekayı ve bulutu benimseme sürecini hızlandırmasına yardımcı olmak için makine öğreniminde yenilikler yapıyor ve uyguluyor.

Zaman Damgası:

Den fazla AWS Makine Öğrenimi