Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Sắp xếp, theo dõi và so sánh các khóa đào tạo máy học của bạn trên quy mô lớn

Hôm nay, chúng tôi vui mừng thông báo các bản cập nhật cho Thử nghiệm Amazon SageMaker khả năng của Amazon SageMaker cho phép bạn tổ chức, theo dõi, so sánh và đánh giá các thử nghiệm máy học (ML) và các phiên bản mô hình từ bất kỳ môi trường phát triển tích hợp (IDE) nào bằng SageMaker Python SDK hoặc boto3, bao gồm Sổ ghi chép Jupyter cục bộ.

Học máy (ML) là một quá trình lặp đi lặp lại. Khi giải quyết một trường hợp sử dụng mới, các nhà khoa học dữ liệu và kỹ sư ML lặp lại nhiều tham số khác nhau để tìm cấu hình mô hình tốt nhất (còn gọi là siêu tham số) có thể được sử dụng trong sản xuất để giải quyết thách thức kinh doanh đã xác định. Theo thời gian, sau khi thử nghiệm nhiều mô hình và siêu tham số, các nhóm ML sẽ khó quản lý hiệu quả các lần chạy mô hình để tìm ra mô hình tối ưu nếu không có công cụ theo dõi các thử nghiệm khác nhau. Các hệ thống theo dõi thử nghiệm hợp lý hóa các quy trình để so sánh các lần lặp lại khác nhau, đồng thời giúp đơn giản hóa hoạt động cộng tác và giao tiếp trong nhóm, từ đó tăng năng suất và tiết kiệm thời gian. Điều này đạt được bằng cách tổ chức và quản lý các thử nghiệm ML theo cách dễ dàng để rút ra kết luận từ chúng, chẳng hạn như tìm ra quá trình đào tạo với độ chính xác cao nhất.

Để giải quyết thách thức này, SageMaker cung cấp Thử nghiệm SageMaker, một khả năng SageMaker được tích hợp đầy đủ. Nó cung cấp sự linh hoạt để ghi lại các số liệu mô hình, tham số, tệp, tạo tác, biểu đồ cốt truyện từ các số liệu khác nhau, nắm bắt các siêu dữ liệu khác nhau, tìm kiếm thông qua chúng và hỗ trợ khả năng tái tạo mô hình. Các nhà khoa học dữ liệu có thể nhanh chóng so sánh hiệu suất và siêu tham số để đánh giá mô hình thông qua các biểu đồ và bảng trực quan. Họ cũng có thể sử dụng Thử nghiệm SageMaker để tải xuống các biểu đồ đã tạo và chia sẻ đánh giá mô hình với các bên liên quan của họ.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Với các bản cập nhật mới cho Thử nghiệm SageMaker, giờ đây nó là một phần của SDK SageMaker, giúp đơn giản hóa công việc của nhà khoa học dữ liệu và loại bỏ nhu cầu cài đặt thêm thư viện để quản lý nhiều lần thực thi mô hình. Chúng tôi đang giới thiệu các khái niệm cốt lõi mới sau đây:

  • Thử nghiệm: Một tập hợp các lần chạy được nhóm lại với nhau. Một thử nghiệm bao gồm các lần chạy cho nhiều loại có thể được bắt đầu từ mọi nơi bằng cách sử dụng SageMaker Python SDK.
  • chạy: Mỗi bước thực hiện của một quy trình huấn luyện mô hình. Một lần chạy bao gồm tất cả các đầu vào, tham số, cấu hình và kết quả cho một lần lặp đào tạo mô hình. Các thông số và chỉ số tùy chỉnh có thể được ghi lại bằng cách sử dụng log_parameter, log_parameterslog_metric chức năng. Đầu vào và đầu ra tùy chỉnh có thể được ghi lại bằng cách sử dụng log_file chức năng.

Các khái niệm được thực hiện như một phần của Run lớp được cung cấp từ bất kỳ IDE nào đã cài đặt SageMaker Python SDK. Dành cho đào tạo, xử lý và xử lý SageMaker

Chuyển đổi công việc, Lần chạy thử nghiệm SageMaker sẽ tự động được chuyển đến công việc nếu công việc được gọi trong ngữ cảnh chạy. Bạn có thể khôi phục đối tượng đang chạy bằng cách sử dụng load_run() từ công việc của bạn. Cuối cùng, với sự tích hợp của các chức năng mới, các nhà khoa học dữ liệu cũng có thể tự động ghi lại ma trận nhầm lẫn, đồ thị thu hồi và độ chính xác cũng như đường cong ROC để phân loại các trường hợp sử dụng bằng cách sử dụng run.log_confusion_matrix, run.log_precision_recallrun.log_roc_curve các chức năng tương ứng.

Trong bài đăng trên blog này, chúng tôi sẽ cung cấp các ví dụ về cách sử dụng các chức năng Thử nghiệm SageMaker mới trong sổ ghi chép Jupyter thông qua SDK SageMaker. Chúng tôi sẽ chứng minh những khả năng này bằng cách sử dụng một Kim tự tháp ví dụ để đào tạo ví dụ phân loại chữ số viết tay MNIST. Thí nghiệm sẽ được tổ chức như sau:

  1. Tạo các lần chạy thử nghiệm và tham số ghi nhật ký: Trước tiên, chúng tôi sẽ tạo một thử nghiệm mới, bắt đầu một lần chạy mới cho thử nghiệm này và ghi lại các thông số cho thử nghiệm đó.
  2. Ghi nhật ký số liệu hiệu suất mô hình:Chúng tôi sẽ ghi lại số liệu hiệu suất mô hình và vẽ đồ thị số liệu.
  3. So sánh chạy mô hình:Chúng tôi sẽ so sánh các lần chạy mô hình khác nhau theo siêu tham số của mô hình. Chúng tôi sẽ thảo luận cách so sánh các lần chạy đó và cách sử dụng Thử nghiệm SageMaker để chọn mô hình tốt nhất.
  4. Chạy thử nghiệm từ công việc SageMaker: Chúng tôi cũng sẽ cung cấp ví dụ về cách tự động chia sẻ bối cảnh thử nghiệm của bạn với công việc xử lý, đào tạo hoặc chuyển đổi hàng loạt của SageMaker. Điều này cho phép bạn tự động khôi phục bối cảnh chạy của mình bằng load_run chức năng bên trong công việc của bạn.
  5. Tích hợp SageMaker Làm rõ báo cáo: Chúng tôi sẽ chứng minh làm thế nào bây giờ chúng tôi có thể tích hợp SageMaker Làm rõ báo cáo thiên vị và khả năng giải thích cho một chế độ xem với báo cáo mô hình được đào tạo của bạn.

Điều kiện tiên quyết

Đối với bài đăng trên blog này, chúng tôi sẽ sử dụng Xưởng sản xuất Amazon SageMaker để giới thiệu cách ghi nhật ký số liệu từ sổ ghi chép Studio bằng các chức năng Thử nghiệm SageMaker được cập nhật. Để thực thi các lệnh được trình bày trong ví dụ của chúng tôi, bạn cần có các điều kiện tiên quyết sau:

  • Miền SageMaker Studio
  • Hồ sơ người dùng SageMaker Studio với toàn quyền truy cập SageMaker
  • Một sổ ghi chép SageMaker Studio có ít nhất một ml.t3.medium loại thể hiện

Nếu bạn không có sẵn Tên miền SageMaker và hồ sơ người dùng, bạn có thể tạo một cái bằng cái này hướng dẫn thiết lập nhanh.

Thông số ghi nhật ký

Đối với bài tập này, chúng ta sẽ sử dụng ngọn đuốc, một gói PyTorch cung cấp các bộ dữ liệu phổ biến, kiến ​​trúc mô hình và các phép biến đổi hình ảnh phổ biến cho thị giác máy tính. SageMaker Studio cung cấp một bộ Docker hình ảnh cho các trường hợp sử dụng phổ biến về khoa học dữ liệu được cung cấp trong Amazon ECR. Đối với PyTorch, bạn có tùy chọn chọn hình ảnh được tối ưu hóa cho đào tạo CPU hoặc GPU. Đối với ví dụ này, chúng tôi sẽ chọn hình ảnh PyTorch 1.12 Python 3.8 CPU OptimizedPython 3 nhân. Các ví dụ được mô tả bên dưới sẽ tập trung vào các chức năng của Thử nghiệm SageMaker và chưa hoàn chỉnh về mã.

Hãy tải xuống dữ liệu với torchvision đóng gói và theo dõi số lượng mẫu dữ liệu cho tập dữ liệu thử nghiệm và đào tạo dưới dạng tham số với Thử nghiệm SageMaker. Đối với ví dụ này, giả sử train_settest_set như đã được tải xuống torchvision bộ dữ liệu.

from sagemaker.session import Session
from sagemaker.experiments.run import Run
import os

# create an experiment and start a new run
experiment_name = "local-experiment-example"
run_name = "experiment-run"

with Run(experiment_name=experiment_name, sagemaker_session=Session(), run_name=run_name) as run:
    run.log_parameters({
        "num_train_samples": len(train_set.data),
        "num_test_samples": len(test_set.data)
    })
    for f in os.listdir(train_set.raw_folder):
        print("Logging", train_set.raw_folder+"/"+f)
        run.log_file(train_set.raw_folder+"/"+f, name=f, is_output=False)

Trong ví dụ này, chúng tôi sử dụng run.log_parameters để ghi lại số lượng mẫu dữ liệu thử nghiệm và đào tạo và run.log_file để tải tập dữ liệu thô lên Amazon S3 và ghi nhật ký chúng làm đầu vào cho thử nghiệm của chúng tôi.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái. Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Đào tạo một mô hình và ghi lại các số liệu mô hình

Bây giờ chúng tôi đã tải xuống bộ dữ liệu MNIST của mình, hãy đào tạo một CNN mô hình để nhận biết các chữ số. Trong khi đào tạo mô hình, chúng tôi muốn tải lần chạy thử nghiệm hiện có của mình, ghi lại các tham số mới cho mô hình và theo dõi hiệu suất của mô hình bằng cách ghi lại các chỉ số của mô hình.

Chúng ta có thể sử dụng load_run chức năng tải lần chạy trước của chúng tôi và sử dụng nó để ghi nhật ký đào tạo mô hình của chúng tôi

with load_run(experiment_name=experiment_name, run_name=run_name, sagemaker_session=Session()) as run:
    train_model(
        run=run,
        train_set=train_set,
        test_set=test_set,
        epochs=10,
        hidden_channels=5,
        optimizer="adam"
    )

Sau đó chúng ta có thể sử dụng run.log_parameterrun.log_parameters để ghi một hoặc nhiều tham số mô hình vào quá trình chạy của chúng tôi.

# log the parameters of your model
run.log_parameter("device", "cpu")
run.log_parameters({
    "data_dir": data_dir,
    "optimizer": optimizer,
    "epochs": epochs,
    "hidden_channels": hidden_channels
})

Và chúng ta có thể sử dụng run.log_metric để ghi số liệu hiệu suất vào thử nghiệm của chúng tôi.

run.log_metric(name=metric_type+":loss", value=loss, step=epoch)
run.log_metric(name=metric_type+":accuracy", value=accuracy, step=epoch)

Đối với các mô hình phân loại, bạn cũng có thể sử dụng run.log_confusion_matrix, run.log_precision_recallrun.log_roc_curve, để tự động vẽ đồ thị ma trận nhầm lẫn, biểu đồ thu hồi độ chính xác và đường cong ROC của mô hình của bạn. Vì mô hình của chúng ta giải quyết vấn đề phân loại nhiều lớp, nên hãy chỉ ghi lại ma trận nhầm lẫn cho nó.

# log confusion matrix
with torch.no_grad():
    for data, target in test_loader:
        data, target = data.to(device), target.to(device)
        output = model(data)
        pred = output.max(1, keepdim=True)[1] 
        run.log_confusion_matrix(target, pred, "Confusion-Matrix-Test-Data")

Khi xem chi tiết lần chạy của chúng tôi, giờ đây chúng tôi có thể thấy các số liệu được tạo như trong ảnh chụp màn hình bên dưới:

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Trang chi tiết lần chạy cung cấp thêm thông tin về số liệu.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Và các thông số mô hình mới được theo dõi trên trang tổng quan về thông số.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Bạn cũng có thể phân tích hiệu suất mô hình của mình theo lớp bằng cách sử dụng ma trận nhầm lẫn được vẽ tự động, ma trận này cũng có thể được tải xuống và sử dụng cho các báo cáo khác nhau. Và bạn có thể vẽ các biểu đồ bổ sung để phân tích hiệu suất của mô hình dựa trên các số liệu đã ghi.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

So sánh nhiều tham số mô hình

Là một nhà khoa học dữ liệu, bạn muốn tìm ra mô hình tốt nhất có thể. Điều đó bao gồm đào tạo một mô hình nhiều lần với các siêu đường kính khác nhau và so sánh hiệu suất của mô hình với các siêu đường kính đó. Để làm như vậy, Thử nghiệm SageMaker cho phép chúng tôi tạo nhiều lần chạy trong cùng một thử nghiệm. Hãy khám phá khái niệm này bằng cách huấn luyện mô hình của chúng ta với các num_hidden_channelsoptimizers.

# define the list of parameters to train the model with
num_hidden_channel_param = [5, 10, 20]
optimizer_param = ["adam", "sgd"]
run_id = 0
# train the model using SageMaker Experiments to track the model parameters, 
# metrics and performance
sm_session = Session()
for i, num_hidden_channel in enumerate(num_hidden_channel_param):
    for k, optimizer in enumerate(optimizer_param):
        run_id += 1
        run_name = "experiment-run-"+str(run_id)
        print(run_name)
        print(f"Training model with: {num_hidden_channel} hidden channels and {optimizer} as optimizer")
        # Defining an experiment run for each model training run
        with Run(experiment_name=experiment_name, run_name=run_name, sagemaker_session=sm_session) as run:
            train_model(
                run=run, 
                train_set=train_set,
                test_set=test_set,
                epochs=10, 
                hidden_channels=num_hidden_channel,
                optimizer=optimizer
            )

Chúng tôi hiện đang tạo sáu lần chạy mới cho thử nghiệm của mình. Mỗi cái sẽ ghi lại các tham số mô hình, số liệu và ma trận nhầm lẫn. Sau đó, chúng tôi có thể so sánh các lần chạy để chọn mô hình hoạt động tốt nhất cho sự cố. Khi phân tích các lần chạy, chúng ta có thể vẽ đồ thị số liệu cho các lần chạy khác nhau dưới dạng một biểu đồ duy nhất, so sánh hiệu suất của các lần chạy qua các bước đào tạo (hoặc các kỷ nguyên) khác nhau.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Sử dụng Thử nghiệm SageMaker với các công việc đào tạo, xử lý và chuyển đổi hàng loạt của SageMaker

Trong ví dụ trên, chúng tôi đã sử dụng Thử nghiệm SageMaker để ghi lại hiệu suất của mô hình từ sổ ghi chép SageMaker Studio nơi mô hình được đào tạo cục bộ trong sổ ghi chép. Chúng ta có thể làm tương tự để ghi lại hiệu suất mô hình từ các công việc xử lý, đào tạo và chuyển đổi hàng loạt của SageMaker. Với các khả năng chuyển ngữ cảnh tự động mới, chúng tôi không cần phải chia sẻ cụ thể cấu hình thử nghiệm với công việc SageMaker vì nó sẽ được ghi lại tự động.

Ví dụ bên dưới sẽ tập trung vào các chức năng của Thử nghiệm SageMaker và chưa hoàn tất mã.

from sagemaker.pytorch import PyTorch
from sagemaker.experiments.run import Run
from sagemaker.session import Session
from sagemaker import get_execution_role
role = get_execution_role()

# set new experiment configuration
exp_name = "training-job-experiment-example"
run_name = "experiment-run-example"

# Start training job with experiment setting
with Run(experiment_name=exp_name, run_name=run_name, sagemaker_session=Session()) as run:
    est = PyTorch(
        entry_point="",
        dependencies=[""],
        role=role,
        model_dir=False,
        framework_version="1.12",
        py_version="py38",
        instance_type='ml.c5.xlarge',
        instance_count=1,
            hyperparameters={
            "epochs": 10,
            "hidden_channels":5,
            "optimizer": "adam",
        },
        keep_alive_period_in_seconds=3600
    )
    
    est.fit()

Trong tệp tập lệnh mô hình của chúng tôi, chúng tôi có thể lấy bối cảnh chạy bằng cách sử dụng load_run(). Trong các công việc đào tạo và xử lý SageMaker, chúng tôi không cần cung cấp cấu hình thử nghiệm để tải cấu hình. Đối với công việc chuyển đổi hàng loạt, chúng tôi cần cung cấp experiment_namerun_name để tải cấu hình của thử nghiệm.

with load_run() as run:
    run.log_parameters({...})
    train_model(run, ...)

Ngoài thông tin chúng tôi nhận được khi chạy Thử nghiệm SageMaker từ tập lệnh sổ ghi chép, lần chạy từ công việc SageMaker sẽ tự động điền các thông số công việc và đầu ra.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái. Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

SDK thử nghiệm SageMaker mới cũng đảm bảo khả năng tương thích ngược với phiên bản trước bằng cách sử dụng các khái niệm về bản dùng thử và thành phần dùng thử. Mọi thử nghiệm được kích hoạt bằng phiên bản Thử nghiệm SageMaker trước đó sẽ tự động có sẵn trong giao diện người dùng mới để phân tích thử nghiệm.

Tích hợp SageMaker Làm rõ và lập mô hình báo cáo đào tạo

SageMaker Clarify giúp cải thiện các mô hình ML của chúng tôi bằng cách phát hiện thiên vị tiềm năng và giúp đỡ giải thích làm thế nào các mô hình này đưa ra dự đoán. Clarify cung cấp các bộ chứa dựng sẵn chạy dưới dạng công việc xử lý SageMaker sau khi mô hình của bạn đã được đào tạo, sử dụng thông tin về dữ liệu của bạn (cấu hình dữ liệu), mô hình (cấu hình mô hình) và các cột dữ liệu nhạy cảm mà chúng tôi muốn phân tích để tìm ra sai lệch có thể xảy ra (sai lệch cấu hình). Cho đến thời điểm hiện tại, Thử nghiệm SageMaker đã hiển thị các báo cáo về đào tạo mô hình và Làm rõ của chúng tôi dưới dạng các thành phần thử nghiệm riêng lẻ được kết nối thông qua một bản dùng thử.

Với Thử nghiệm SageMaker mới, chúng tôi cũng có thể tích hợp các báo cáo Làm rõ SageMaker với quá trình đào tạo mô hình của chúng tôi có một nguồn sự thật cho phép chúng tôi hiểu thêm về mô hình của mình. Đối với một báo cáo tích hợp, tất cả những gì chúng ta cần làm là có cùng tên chạy cho các công việc đào tạo và Làm rõ. Ví dụ sau minh họa cách chúng ta có thể tích hợp các báo cáo bằng cách sử dụng Mô hình XGBoost để dự đoán thu nhập của người trưởng thành trên khắp nước Mỹ. Mô hình sử dụng các Bộ dữ liệu UCI dành cho người lớn. Đối với bài tập này, chúng tôi giả định rằng mô hình đã được đào tạo và chúng tôi đã tính toán dữ liệu, mô hình và cấu hình sai lệch.

with Run(
    experiment_name='clarify-experiment',
    run_name="joint-run",
    sagemaker_session=sagemaker_session,
) as run:
    xgb.fit({"train": train_input}, logs=False)
    clarify_processor.run_bias(
        data_config=bias_data_config,
        bias_config=bias_config,
        model_config=model_config,
        model_predicted_label_config=predictions_config,
        pre_training_methods="all",
        post_training_methods="all",
    )
    clarify_processor.run_explainability(
        data_config=explainability_data_config,
        model_config=model_config,
        explainability_config=shap_config,
    )

Với thiết lập này, chúng tôi có chế độ xem kết hợp bao gồm các chỉ số mô hình, đầu vào và đầu ra chung cũng như báo cáo Làm rõ về độ lệch thống kê và khả năng giải thích của mô hình.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái. Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái. Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái. Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Kết luận

Trong bài đăng này, chúng tôi đã khám phá thế hệ Thử nghiệm SageMaker mới, một phần tích hợp của SDK SageMaker. Chúng tôi đã trình bày cách ghi nhật ký quy trình công việc ML của bạn từ mọi nơi với lớp Run mới. Chúng tôi đã giới thiệu Giao diện người dùng thử nghiệm mới cho phép bạn theo dõi các thử nghiệm của mình và vẽ đồ thị cho một chỉ số lần chạy cũng như so sánh nhiều lần chạy với khả năng phân tích mới. Chúng tôi đã cung cấp các ví dụ về ghi nhật ký thử nghiệm từ sổ ghi chép SageMaker Studio và từ công việc đào tạo SageMaker Studio. Cuối cùng, chúng tôi đã chỉ ra cách tích hợp đào tạo mô hình và báo cáo SageMaker Clarify trong một chế độ xem thống nhất, cho phép bạn hiểu rõ hơn về mô hình của mình.

Chúng tôi khuyến khích bạn dùng thử các chức năng Thử nghiệm mới và kết nối với Cộng đồng Machine Learning & AI nếu bạn có bất kỳ câu hỏi hoặc phản hồi!


Về các tác giả

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.Maira Ladeira Tanke là Chuyên gia máy học tại AWS. Với nền tảng về Khoa học dữ liệu, cô ấy có 9 năm kinh nghiệm kiến ​​trúc và xây dựng các ứng dụng ML với khách hàng trong các ngành. Với tư cách là trưởng nhóm kỹ thuật, cô ấy giúp khách hàng đẩy nhanh việc đạt được giá trị kinh doanh thông qua các công nghệ mới nổi và giải pháp sáng tạo. Khi rảnh rỗi, Maira thích đi du lịch và dành thời gian cho gia đình ở một nơi ấm áp.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.Mani Khanuja là Chuyên gia trí tuệ nhân tạo và máy học SA tại Amazon Web Services (AWS). Cô giúp khách hàng sử dụng công nghệ máy học giải quyết các thách thức kinh doanh của họ bằng AWS. Cô ấy dành phần lớn thời gian của mình để tìm hiểu sâu và hướng dẫn khách hàng về các dự án AI/ML liên quan đến thị giác máy tính, xử lý ngôn ngữ tự nhiên, dự báo, ML biên, v.v. Cô ấy rất đam mê ML, do đó, cô ấy đã tạo ra phòng thí nghiệm của riêng mình với bộ công cụ tự lái và dây chuyền sản xuất nguyên mẫu, nơi cô ấy dành nhiều thời gian rảnh rỗi.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.Đức Văn Kỳ là Kỹ sư phát triển phần mềm tại AWS. Cô hiện đang tham gia xây dựng bộ sưu tập các công cụ và dịch vụ nền tảng trong AWS SageMaker để giúp khách hàng thực hiện thành công các dự án ML của họ. Cô ấy cũng đam mê đưa khái niệm MLOps đến với nhiều đối tượng hơn. Ngoài công việc, Dewen thích tập Cello.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.Abhishek Agarwal là Giám đốc sản phẩm cấp cao của Amazon SageMaker. Anh ấy đam mê làm việc với khách hàng và làm cho việc học máy trở nên dễ tiếp cận hơn. Khi rảnh rỗi, Abhishek thích vẽ tranh, đạp xe và tìm hiểu về các công nghệ tiên tiến.

Thử nghiệm Amazon SageMaker thế hệ tiếp theo – Tổ chức, theo dõi và so sánh các khóa đào tạo máy học của bạn ở quy mô Thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.Dana Benson là một Kỹ sư phần mềm làm việc trong nhóm Thử nghiệm, Truyền thống và Tìm kiếm của Amazon SageMaker. Trước khi gia nhập AWS, Dana đã dành thời gian kích hoạt chức năng nhà thông minh trong Alexa và đặt hàng qua thiết bị di động tại Starbucks.

Dấu thời gian:

Thêm từ Học máy AWS