Từ tin nhắn đến công việc mơ ước: Xây dựng công cụ giới thiệu việc làm dựa trên NLP tại Talent.com với Amazon SageMaker | Dịch vụ web của Amazon

Từ tin nhắn đến công việc mơ ước: Xây dựng công cụ giới thiệu việc làm dựa trên NLP tại Talent.com với Amazon SageMaker | Dịch vụ web của Amazon

Bài đăng này được đồng tác giả bởi Anatoly Khomenko, Kỹ sư máy học và Abdenour Bezzouh, Giám đốc công nghệ tại Talent.com.

Được thành lập vào 2011, Tài năng.com là một trong những nguồn việc làm lớn nhất thế giới. Công ty kết hợp danh sách công việc được trả tiền từ khách hàng của họ với danh sách công việc công khai vào một nền tảng có thể tìm kiếm duy nhất. Với hơn 30 triệu việc làm được liệt kê tại hơn 75 quốc gia, Talent.com phục vụ việc làm trên nhiều ngôn ngữ, ngành nghề và kênh phân phối. Kết quả là một nền tảng phù hợp với hàng triệu người tìm việc có việc làm sẵn có.

Sứ mệnh của Talent.com là tập trung tất cả các công việc có sẵn trên web để giúp người tìm việc tìm được người phù hợp nhất đồng thời cung cấp cho họ trải nghiệm tìm kiếm tốt nhất. Trọng tâm của nó là mức độ liên quan vì thứ tự của các công việc được đề xuất là cực kỳ quan trọng để hiển thị các công việc phù hợp nhất với sở thích của người dùng. Hiệu suất của thuật toán đối sánh của Talent.com là điều tối quan trọng đối với sự thành công của doanh nghiệp và là yếu tố đóng góp chính cho trải nghiệm của người dùng. Thật khó để dự đoán công việc nào phù hợp với người tìm việc dựa trên lượng thông tin hạn chế được cung cấp, thường chứa một vài từ khóa và một vị trí.

Với sứ mệnh này, Talent.com và AWS đã hợp tác để tạo ra một công cụ đề xuất việc làm bằng cách sử dụng các kỹ thuật đào tạo mô hình học sâu và xử lý ngôn ngữ tự nhiên (NLP) tiên tiến nhất với Amazon SageMaker để mang lại trải nghiệm tuyệt vời cho người tìm việc. Bài đăng này trình bày cách tiếp cận chung của chúng tôi trong việc thiết kế hệ thống đề xuất việc làm, bao gồm kỹ thuật tính năng, thiết kế kiến ​​trúc mô hình học sâu, tối ưu hóa siêu tham số và đánh giá mô hình nhằm đảm bảo độ tin cậy và hiệu quả của giải pháp của chúng tôi cho cả người tìm việc và nhà tuyển dụng. Hệ thống này được phát triển bởi một nhóm gồm các nhà khoa học máy học ứng dụng (ML), kỹ sư ML và chuyên gia về chủ đề chuyên dụng với sự cộng tác giữa AWS và Talent.com.

Hệ thống đề xuất đã thúc đẩy tỷ lệ nhấp (CTR) trong thử nghiệm A/B trực tuyến tăng 8.6% so với giải pháp dựa trên XGBoost trước đó, giúp kết nối hàng triệu người dùng Talent.com với công việc tốt hơn.

Tổng quan về giải pháp

Tổng quan về hệ thống được minh họa trong hình sau. Hệ thống lấy truy vấn tìm kiếm của người dùng làm đầu vào và đưa ra danh sách công việc được xếp hạng theo thứ tự phù hợp. Mức độ phù hợp của công việc được đo bằng xác suất nhấp chuột (xác suất người tìm việc nhấp vào công việc để biết thêm thông tin).

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Hệ thống bao gồm bốn thành phần chính:

  • Kiến trúc mô hình – Cốt lõi của công cụ đề xuất công việc này là mô hình Triple Tower Pointwise dựa trên deep learning, bao gồm bộ mã hóa truy vấn mã hóa các truy vấn tìm kiếm của người dùng, bộ mã hóa tài liệu mã hóa mô tả công việc và bộ mã hóa tương tác xử lý công việc của người dùng trước đây tính năng tương tác. Đầu ra của ba tháp được ghép nối và chuyển qua đầu phân loại để dự đoán xác suất nhấp chuột của công việc. Bằng cách đào tạo mô hình này về các truy vấn tìm kiếm, đặc thù công việc và dữ liệu lịch sử tương tác của người dùng từ Talent.com, hệ thống này cung cấp các đề xuất công việc được cá nhân hóa và có mức độ phù hợp cao cho người tìm việc.
  • Kỹ thuật tính năng – Chúng tôi thực hiện hai bộ kỹ thuật tính năng để trích xuất thông tin có giá trị từ dữ liệu đầu vào và đưa dữ liệu đó vào các tháp tương ứng trong mô hình. Hai bộ này là kỹ thuật tính năng tiêu chuẩn và các phần nhúng Sentence-BERT (SBERT) được tinh chỉnh. Chúng tôi sử dụng các tính năng được thiết kế tiêu chuẩn làm đầu vào cho bộ mã hóa tương tác và đưa nội dung nhúng bắt nguồn từ SBERT vào bộ mã hóa truy vấn và bộ mã hóa tài liệu.
  • Tối ưu hóa và điều chỉnh mô hình – Chúng tôi sử dụng các phương pháp đào tạo tiên tiến để đào tạo, thử nghiệm và triển khai hệ thống với SageMaker. Điều này bao gồm đào tạo Song song dữ liệu phân tán (DDP) của SageMaker, Điều chỉnh mô hình tự động SageMaker (AMT), lập kế hoạch tốc độ học tập và dừng sớm để cải thiện hiệu suất mô hình và tốc độ đào tạo. Việc sử dụng khung đào tạo DDP đã giúp tăng tốc độ đào tạo mô hình của chúng tôi nhanh hơn khoảng tám lần.
  • Đánh giá mô hình – Chúng tôi tiến hành đánh giá cả offline và online. Chúng tôi đánh giá hiệu suất của mô hình với Diện tích dưới đường cong (AUC) và Độ chính xác trung bình trung bình ở K (mAP@K) trong đánh giá ngoại tuyến. Trong quá trình thử nghiệm A/B trực tuyến, chúng tôi đánh giá mức độ cải thiện CTR.

Trong các phần sau, chúng tôi trình bày chi tiết về bốn thành phần này.

Thiết kế kiến ​​trúc mô hình học sâu

Chúng tôi thiết kế mô hình Triple Tower Deep Pointwise (TTDP) bằng cách sử dụng kiến ​​trúc deep learning ba tháp và phương pháp mô hình hóa cặp điểm. Kiến trúc ba tháp cung cấp ba mạng lưới thần kinh sâu song song, trong đó mỗi tháp xử lý một tập hợp các tính năng một cách độc lập. Mẫu thiết kế này cho phép mô hình tìm hiểu các cách biểu diễn riêng biệt từ các nguồn thông tin khác nhau. Sau khi thu được các biểu diễn từ cả ba tháp, chúng được ghép nối và chuyển qua đầu phân loại để đưa ra dự đoán cuối cùng (0–1) về xác suất nhấp chuột (thiết lập mô hình theo điểm).

Ba tháp được đặt tên dựa trên thông tin chúng xử lý: bộ mã hóa truy vấn xử lý truy vấn tìm kiếm của người dùng, bộ mã hóa tài liệu xử lý nội dung tài liệu của công việc của ứng viên bao gồm chức danh công việc và tên công ty, còn bộ mã hóa tương tác sử dụng các tính năng liên quan được trích xuất từ ​​​​các tương tác của người dùng trong quá khứ và lịch sử (sẽ thảo luận thêm ở phần tiếp theo).

Mỗi tòa tháp này đóng một vai trò quan trọng trong việc học cách giới thiệu việc làm:

  • Bộ mã hóa truy vấn – Bộ mã hóa truy vấn lấy các phần nhúng SBERT bắt nguồn từ truy vấn tìm kiếm việc làm của người dùng. Chúng tôi nâng cao khả năng nhúng thông qua mô hình SBERT mà chúng tôi đã tinh chỉnh. Bộ mã hóa này xử lý và hiểu mục đích tìm kiếm việc làm của người dùng, bao gồm các chi tiết và sắc thái được ghi lại bởi các nội dung nhúng dành riêng cho từng miền của chúng tôi.
  • Bộ mã hóa tài liệu – Bộ mã hóa tài liệu xử lý thông tin của từng danh sách công việc. Cụ thể, nó lấy phần nhúng SBERT của văn bản được nối từ chức danh công việc và công ty. Trực giác cho thấy người dùng sẽ quan tâm nhiều hơn đến các công việc của ứng viên phù hợp hơn với truy vấn tìm kiếm. Bằng cách ánh xạ các công việc và truy vấn tìm kiếm vào cùng một không gian vectơ (được xác định bởi SBERT), mô hình có thể học cách dự đoán xác suất các công việc tiềm năng mà người tìm việc sẽ nhấp vào.
  • Bộ mã hóa tương tác – Bộ mã hóa tương tác xử lý các tương tác trước đây của người dùng với danh sách công việc. Các tính năng này được tạo ra thông qua một bước kỹ thuật tính năng tiêu chuẩn, bao gồm tính toán các số liệu phổ biến cho vai trò công việc và công ty, thiết lập điểm tương đồng về ngữ cảnh và trích xuất các tham số tương tác từ các tương tác của người dùng trước đó. Nó cũng xử lý các thực thể được đặt tên được xác định trong chức danh công việc và các truy vấn tìm kiếm bằng mô hình nhận dạng thực thể được đặt tên (NER) được đào tạo trước.

Mỗi tháp tạo ra một đầu ra độc lập song song, tất cả sau đó được nối với nhau. Sau đó, vectơ tính năng kết hợp này được chuyển để dự đoán xác suất nhấp chuột của danh sách công việc cho truy vấn của người dùng. Kiến trúc ba tháp mang đến sự linh hoạt trong việc nắm bắt các mối quan hệ phức tạp giữa các đầu vào hoặc tính năng khác nhau, cho phép mô hình tận dụng điểm mạnh của từng tháp trong khi tìm hiểu các cách biểu diễn mang tính biểu cảm hơn cho nhiệm vụ nhất định.

Xác suất nhấp chuột dự đoán của công việc của ứng viên được xếp hạng từ cao đến thấp, tạo ra các đề xuất công việc được cá nhân hóa. Thông qua quá trình này, chúng tôi đảm bảo rằng mỗi thông tin—cho dù đó là mục đích tìm kiếm của người dùng, chi tiết danh sách việc làm hay tương tác trong quá khứ—đều được một tháp cụ thể dành riêng cho thông tin đó nắm bắt đầy đủ. Mối quan hệ phức tạp giữa chúng cũng được thể hiện thông qua sự kết hợp các đầu ra của tháp.

Kỹ thuật tính năng

Chúng tôi thực hiện hai bộ quy trình kỹ thuật tính năng để trích xuất thông tin có giá trị từ dữ liệu thô và đưa dữ liệu đó vào các tháp tương ứng trong mô hình: kỹ thuật tính năng tiêu chuẩn và phần nhúng SBERT tinh chỉnh.

Kỹ thuật tính năng tiêu chuẩn

Quá trình chuẩn bị dữ liệu của chúng tôi bắt đầu với kỹ thuật tính năng tiêu chuẩn. Nhìn chung, chúng tôi xác định bốn loại tính năng:

  • Phổ biến – Chúng tôi tính điểm phổ biến ở cấp độ công việc cá nhân, cấp độ nghề nghiệp và cấp độ công ty. Điều này cung cấp thước đo về mức độ hấp dẫn của một công việc hoặc công ty cụ thể.
  • Sự tương đồng về văn bản – Để hiểu mối quan hệ theo ngữ cảnh giữa các thành phần văn bản khác nhau, chúng tôi tính toán điểm tương tự, bao gồm độ tương tự chuỗi giữa truy vấn tìm kiếm và chức danh công việc. Điều này giúp chúng tôi đánh giá mức độ liên quan của cơ hội việc làm với lịch sử tìm kiếm hoặc ứng tuyển của người tìm việc.
  • Tương tác – Ngoài ra, chúng tôi trích xuất các tính năng tương tác từ sự tham gia của người dùng trước đây với danh sách việc làm. Một ví dụ điển hình về điều này là sự tương đồng giữa chức danh công việc được nhấp vào trước đây và chức danh công việc của ứng viên. Thước đo này giúp chúng tôi hiểu được sự giống nhau giữa các công việc trước đây mà người dùng thể hiện sự quan tâm so với các cơ hội việc làm sắp tới. Điều này nâng cao độ chính xác của công cụ đề xuất công việc của chúng tôi.
  • Hồ sơ – Cuối cùng, chúng tôi trích xuất thông tin sở thích công việc do người dùng xác định từ hồ sơ người dùng và so sánh nó với các ứng viên công việc mới. Điều này giúp chúng tôi biết liệu ứng viên có phù hợp với sở thích của người dùng hay không.

Một bước quan trọng trong quá trình chuẩn bị dữ liệu của chúng tôi là áp dụng mô hình NER được đào tạo trước. Bằng cách triển khai mô hình NER, chúng tôi có thể xác định và gắn nhãn các thực thể được đặt tên trong chức danh công việc và truy vấn tìm kiếm. Do đó, điều này cho phép chúng tôi tính toán điểm tương đồng giữa các thực thể được xác định này, cung cấp thước đo mức độ liên quan tập trung hơn và nhận biết theo ngữ cảnh hơn. Phương pháp này làm giảm nhiễu trong dữ liệu của chúng tôi và cung cấp cho chúng tôi một phương pháp so sánh công việc phù hợp với ngữ cảnh và sắc thái hơn.

Các phần nhúng SBERT được tinh chỉnh

Để nâng cao mức độ liên quan và độ chính xác của hệ thống giới thiệu công việc, chúng tôi sử dụng sức mạnh của SBERT, một mô hình dựa trên máy biến áp mạnh mẽ, được biết đến với khả năng nắm bắt ý nghĩa và ngữ cảnh ngữ nghĩa từ văn bản thành thạo. Tuy nhiên, các phần nhúng chung như SBERT, mặc dù hiệu quả nhưng có thể không nắm bắt được đầy đủ các sắc thái và thuật ngữ độc đáo vốn có trong một miền cụ thể như của chúng tôi, tập trung vào việc làm và tìm kiếm việc làm. Để khắc phục điều này, chúng tôi tinh chỉnh các phần nhúng SBERT bằng cách sử dụng dữ liệu dành riêng cho miền của chúng tôi. Quá trình tinh chỉnh này tối ưu hóa mô hình để hiểu và xử lý tốt hơn ngôn ngữ, biệt ngữ và ngữ cảnh dành riêng cho ngành, làm cho phần nhúng phản ánh rõ hơn miền cụ thể của chúng tôi. Do đó, các phần nhúng được tinh chỉnh mang lại hiệu suất được cải thiện trong việc thu thập cả thông tin ngữ nghĩa và ngữ cảnh trong phạm vi của chúng tôi, dẫn đến các đề xuất công việc chính xác và có ý nghĩa hơn cho người dùng của chúng tôi.

Hình dưới đây minh họa bước tinh chỉnh SBERT.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Chúng tôi tinh chỉnh các phần nhúng SBERT bằng cách sử dụng Bộ baMất với thước đo khoảng cách cosine tìm hiểu cách nhúng văn bản trong đó văn bản neo và văn bản khẳng định có độ tương tự cosine cao hơn so với văn bản neo và văn bản phủ định. Chúng tôi sử dụng truy vấn tìm kiếm của người dùng làm văn bản liên kết. Chúng tôi kết hợp chức danh công việc và tên nhà tuyển dụng làm đầu vào cho văn bản tích cực và tiêu cực. Văn bản tích cực được lấy mẫu từ các tin tuyển dụng mà người dùng tương ứng đã nhấp vào, trong khi văn bản tiêu cực được lấy mẫu từ các tin tuyển dụng mà người dùng không nhấp vào. Sau đây là mẫu thực hiện quy trình tinh chỉnh:

import math
from datetime import datetime from torch.utils.data import DataLoader
from sentence_transformers import (SentenceTransformer, SentencesDataset, LoggingHandler, losses)
from sentence_transformers.readers import InputExample model_name = 'all-mpnet-base-v2'
train_batch_size = 16
num_epochs = 1
model_save_path = (f'output/{model_name}_'+ datetime.now().strftime("%Y-%m-%d_%H-%M-%S")) ### load pre-trained SBERT model
model = SentenceTransformer(model_name, device="cuda") ### construct training dataset of triplet texts,
### stored in three lists (achors, positives, negatives)
train_examples =[]
for anchor, positive, negative in zip(achors, positives, negatives): train_examples.append(InputExample(texts=(anchor, positive, negative))) train_dataset = SentencesDataset(train_examples, model)
train_dataloader = DataLoader(train_dataset, shuffle=True, batch_size=train_batch_size) ### use TripletLoss with cosine distance metric and margin=0.5
distance_metric=losses.TripletDistanceMetric.COSINE
train_loss = losses.TripletLoss(model=model, distance_metric=distance_metric, triplet_margin=0.5) ### 10% of train data for warm-up
warmup_steps = math.ceil(len(train_dataloader) * num_epochs * 0.1) # Train the model
model.fit(train_objectives=[(train_dataloader, train_loss)], epochs=num_epochs, warmup_steps=warmup_steps, output_path=model_save_path)

Đào tạo mô hình với Dữ liệu phân tán song song của SageMaker

Chúng tôi sử dụng Song song dữ liệu phân tán SageMaker (SMDDP), một tính năng của nền tảng SageMaker ML được xây dựng dựa trên PyTorch DDP. Nó cung cấp một môi trường được tối ưu hóa để chạy các công việc đào tạo PyTorch DDP trên nền tảng SageMaker. Nó được thiết kế để tăng tốc đáng kể việc đào tạo mô hình học sâu. Nó thực hiện điều này bằng cách chia một tập dữ liệu lớn thành các phần nhỏ hơn và phân phối chúng trên nhiều GPU. Mô hình được nhân rộng trên mọi GPU. Mỗi GPU xử lý dữ liệu được chỉ định một cách độc lập và kết quả được đối chiếu và đồng bộ hóa trên tất cả các GPU. DDP đảm nhiệm việc giao tiếp gradient để giữ cho các bản sao mô hình được đồng bộ hóa và chồng chéo chúng với các tính toán gradient để tăng tốc độ đào tạo. SMDDP sử dụng thuật toán AllReduce được tối ưu hóa để giảm thiểu giao tiếp giữa các GPU, giảm thời gian đồng bộ hóa và cải thiện tốc độ đào tạo tổng thể. Thuật toán thích ứng với các điều kiện mạng khác nhau, mang lại hiệu quả cao cho cả môi trường tại chỗ và trên nền tảng đám mây. Trong kiến ​​trúc SMDDP (như minh họa trong hình sau), đào tạo phân tán cũng được thu nhỏ bằng cách sử dụng một cụm gồm nhiều nút. Điều này có nghĩa là không chỉ có nhiều GPU trong một phiên bản điện toán mà còn nhiều phiên bản có nhiều GPU, giúp tăng tốc độ đào tạo hơn nữa.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Để biết thêm thông tin về kiến ​​trúc này, hãy tham khảo Giới thiệu về Thư viện song song dữ liệu phân tán của SageMaker.

Với SMDDP, chúng tôi đã có thể giảm đáng kể thời gian đào tạo cho mô hình TTDP của mình, khiến mô hình này nhanh hơn gấp XNUMX lần. Thời gian đào tạo nhanh hơn có nghĩa là chúng tôi có thể lặp lại và cải thiện mô hình của mình nhanh hơn, từ đó đưa ra đề xuất công việc tốt hơn cho người dùng trong khoảng thời gian ngắn hơn. Hiệu quả đạt được này là công cụ giúp duy trì khả năng cạnh tranh của công cụ giới thiệu việc làm của chúng tôi trong một thị trường việc làm đang phát triển nhanh chóng.

Bạn có thể điều chỉnh tập lệnh đào tạo của mình bằng SMDDP chỉ bằng ba dòng mã, như minh họa trong khối mã sau. Lấy PyTorch làm ví dụ, điều duy nhất bạn cần làm là nhập ứng dụng khách PyTorch của thư viện SMDDP (smdistributed.dataparallel.torch.torch_smddp). Khách hàng đăng ký smddp làm phụ trợ cho PyTorch.

import smdistributed.dataparallel.torch.torch_smddp
import torch.distributed as dist dist.init_process_group(backend='smddp')

Sau khi bạn có tập lệnh PyTorch đang hoạt động được điều chỉnh để sử dụng thư viện song song dữ liệu phân tán, bạn có thể khởi động công việc đào tạo được phân phối bằng cách sử dụng SageMaker Python SDK.

Đánh giá hiệu suất mô hình

Khi đánh giá hiệu suất của hệ thống đề xuất, điều quan trọng là phải chọn các số liệu phù hợp chặt chẽ với mục tiêu kinh doanh và cung cấp sự hiểu biết rõ ràng về hiệu quả của mô hình. Trong trường hợp của chúng tôi, chúng tôi sử dụng AUC để đánh giá hiệu suất dự đoán nhấp chuột công việc của mô hình TTDP và mAP@K để đánh giá chất lượng của danh sách công việc được xếp hạng cuối cùng.

AUC đề cập đến khu vực dưới đường cong đặc tính vận hành máy thu (ROC). Nó thể hiện xác suất một ví dụ tích cực được chọn ngẫu nhiên sẽ được xếp hạng cao hơn một ví dụ tiêu cực được chọn ngẫu nhiên. Nó nằm trong khoảng từ 0–1, trong đó 1 biểu thị một bộ phân loại lý tưởng và 0.5 biểu thị một lần đoán ngẫu nhiên. mAP@K là thước đo thường được sử dụng để đánh giá chất lượng của hệ thống truy xuất thông tin, chẳng hạn như công cụ giới thiệu công việc của chúng tôi. Nó đo lường độ chính xác trung bình của việc truy xuất K mục có liên quan hàng đầu cho một truy vấn hoặc người dùng nhất định. Nó nằm trong khoảng từ 0–1, với 1 biểu thị thứ hạng tối ưu và 0 biểu thị độ chính xác thấp nhất có thể ở giá trị K nhất định. Chúng tôi đánh giá AUC, mAP@1 và mAP@3. Nói chung, các số liệu này cho phép chúng tôi đánh giá khả năng của mô hình trong việc phân biệt giữa các lớp tích cực và tiêu cực (AUC) cũng như mức độ thành công của nó trong việc xếp hạng các mục phù hợp nhất ở đầu (mAP@K).

Dựa trên đánh giá ngoại tuyến của chúng tôi, mô hình TTDP hoạt động tốt hơn mô hình cơ sở—mô hình sản xuất dựa trên XGBoost hiện tại—16.65% đối với AUC, 20% đối với mAP@1 và 11.82% đối với mAP@3.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Hơn nữa, chúng tôi đã thiết kế một thử nghiệm A/B trực tuyến để đánh giá hệ thống được đề xuất và chạy thử nghiệm trên một tỷ lệ phần trăm dân số email ở Hoa Kỳ trong 6 tuần. Tổng cộng, có khoảng 22 triệu email đã được gửi bằng công việc được hệ thống mới đề xuất. Kết quả là số lượt nhấp tăng lên so với mô hình sản xuất trước đó là 8.6%. Talent.com đang dần tăng tỷ lệ triển khai hệ thống mới cho toàn bộ đối tượng và kênh của mình.

Kết luận

Việc tạo ra một hệ thống giới thiệu việc làm là một nỗ lực phức tạp. Mỗi người tìm việc có những nhu cầu, sở thích và kinh nghiệm chuyên môn riêng biệt mà không thể suy ra từ một truy vấn tìm kiếm ngắn. Trong bài đăng này, Talent.com đã hợp tác với AWS để phát triển giải pháp giới thiệu công việc dựa trên deep learning toàn diện nhằm xếp hạng danh sách các công việc để giới thiệu cho người dùng. Nhóm Talent.com thực sự thích hợp tác với nhóm AWS trong suốt quá trình giải quyết vấn đề này. Điều này đánh dấu một cột mốc quan trọng trong hành trình chuyển đổi của Talent.com, khi nhóm tận dụng sức mạnh của deep learning để trao quyền cho hoạt động kinh doanh của mình.

Dự án này đã được tinh chỉnh bằng cách sử dụng SBERT để tạo các phần nhúng văn bản. Tại thời điểm viết bài, AWS đã giới thiệu Phần mềm nhúng Amazon Titan như một phần của các mô hình nền tảng (FM) được cung cấp thông qua nền tảng Amazon, là một dịch vụ được quản lý hoàn toàn, cung cấp tuyển chọn các mô hình nền tảng hiệu suất cao từ các công ty AI hàng đầu. Chúng tôi khuyến khích người đọc khám phá các kỹ thuật machine learning được trình bày trong bài đăng trên blog này và tận dụng các khả năng do AWS cung cấp, chẳng hạn như SMDDP, đồng thời sử dụng các mô hình nền tảng của AWS Bedrock để tạo ra các chức năng tìm kiếm của riêng họ.

dự án


Giới thiệu về tác giả

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai. Yi Tương là Nhà khoa học ứng dụng II tại Phòng thí nghiệm giải pháp học máy của Amazon, nơi cô giúp khách hàng AWS ở các ngành khác nhau tăng tốc việc áp dụng AI và đám mây.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Tống Vương là Nhà khoa học ứng dụng cấp cao tại Phòng thí nghiệm giải pháp máy học của Amazon, nơi ông giúp khách hàng AWS trong các ngành khác nhau đẩy nhanh việc áp dụng AI và đám mây của họ.

Dmitry BespalovDmitry Bespalov là Nhà khoa học ứng dụng cấp cao tại Phòng thí nghiệm giải pháp máy học của Amazon, nơi ông giúp khách hàng AWS trong các ngành khác nhau đẩy nhanh việc áp dụng AI và đám mây của họ.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Anatoly Khomenko là Kỹ sư máy học cấp cao tại Talent.com với niềm đam mê xử lý ngôn ngữ tự nhiên để kết nối những người giỏi với công việc tốt.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Abdenour Bezzouh là giám đốc điều hành với hơn 25 năm kinh nghiệm xây dựng và cung cấp các giải pháp công nghệ có quy mô cho hàng triệu khách hàng. Abdenour giữ chức vụ Giám đốc Công nghệ (CTO) tại Tài năng.com khi nhóm AWS thiết kế và triển khai giải pháp cụ thể này cho Tài năng.com.

From text to dream job: Building an NLP-based job recommender at Talent.com with Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Dale Jacques là Nhà chiến lược AI cấp cao trong Trung tâm đổi mới AI sáng tạo, nơi ông giúp khách hàng AWS chuyển các vấn đề kinh doanh thành giải pháp AI.

Yên Quân TềYên Quân Tề là Giám đốc khoa học ứng dụng cấp cao tại Phòng thí nghiệm giải pháp máy học của Amazon. Cô đổi mới và áp dụng công nghệ máy học để giúp các khách hàng của AWS tăng tốc độ tiếp nhận AI và đám mây của họ.

Dấu thời gian:

Thêm từ Học máy AWS