Những năm gần đây đã cho thấy sự phát triển đáng kinh ngạc của mạng lưới thần kinh học sâu (DNNs). Sự tăng trưởng này có thể được nhìn thấy trong các mô hình chính xác hơn và thậm chí mở ra những khả năng mới với AI tổng quát: các mô hình ngôn ngữ lớn (LLM) tổng hợp ngôn ngữ tự nhiên, trình tạo văn bản thành hình ảnh, v.v. Các khả năng gia tăng này của DNN đi kèm với chi phí để có các mô hình lớn đòi hỏi tài nguyên tính toán đáng kể để được đào tạo. Đào tạo phân tán giải quyết vấn đề này bằng hai kỹ thuật: song song dữ liệu và song song mô hình. Tính song song của dữ liệu được sử dụng để mở rộng quy trình đào tạo trên nhiều nút và công nhân, đồng thời tính song song của mô hình chia tách một mô hình và phù hợp với chúng trên cơ sở hạ tầng được chỉ định. Amazon SageMaker đào tạo phân tán công việc cho phép bạn thiết lập một cụm điện toán phân tán, đào tạo một mô hình, lưu kết quả vào một cú nhấp chuột (hoặc một lệnh gọi API) Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) và tắt cụm khi hoàn tất. Hơn nữa, SageMaker đã liên tục đổi mới trong không gian đào tạo phân tán bằng cách tung ra các tính năng như cụm không đồng nhất và phân phối thư viện đào tạo cho dữ liệu song song và mô hình song song.
Đào tạo hiệu quả trên môi trường phân tán yêu cầu điều chỉnh siêu tham số. Một ví dụ phổ biến về phương pháp hay khi đào tạo trên nhiều GPU là nhân kích thước lô (hoặc lô nhỏ) với số GPU để giữ nguyên kích thước lô trên mỗi GPU. Tuy nhiên, việc điều chỉnh siêu tham số thường ảnh hưởng đến sự hội tụ của mô hình. Do đó, đào tạo phân tán cần cân bằng ba yếu tố: phân phối, siêu tham số và độ chính xác của mô hình.
Trong bài đăng này, chúng tôi khám phá tác động của đào tạo phân tán đối với sự hội tụ và cách sử dụng Điều chỉnh mô hình tự động của Amazon SageMaker để tinh chỉnh các siêu tham số mô hình cho đào tạo phân tán bằng cách sử dụng song song dữ liệu.
Mã nguồn được đề cập trong bài đăng này có thể được tìm thấy trên Kho GitHub (khuyên dùng phiên bản m5.xlarge).
Mở rộng quy mô đào tạo từ môi trường đơn lẻ sang môi trường phân tán
Song song hóa dữ liệu là một cách để mở rộng quy trình đào tạo thành nhiều tài nguyên điện toán và đạt được thời gian đào tạo nhanh hơn. Với tính song song dữ liệu, dữ liệu được phân vùng giữa các nút tính toán và mỗi nút tính toán độ dốc dựa trên phân vùng của chúng và cập nhật mô hình. Những cập nhật này có thể được thực hiện bằng cách sử dụng một hoặc nhiều máy chủ tham số theo kiểu không đồng bộ, một-nhiều hoặc tất cả-tất cả. Một cách khác có thể là sử dụng thuật toán AllReduce. Ví dụ: trong thuật toán ring-allreduce, mỗi nút chỉ giao tiếp với hai trong số các nút lân cận của nó, do đó làm giảm quá trình truyền dữ liệu tổng thể. Để tìm hiểu thêm về máy chủ tham số và ring-allreduce, hãy xem Dễ dàng triển khai chương trình đào tạo phân tán TensorFlow với Horovod hoặc Máy chủ tham số trong Amazon SageMaker. Liên quan đến phân vùng dữ liệu, nếu có n tính toán các nút, thì mỗi nút sẽ nhận được một tập hợp con dữ liệu, khoảng 1/n về kích thước.
Để chứng minh hiệu quả của việc mở rộng quy mô đào tạo đối với sự hội tụ của mô hình, chúng tôi chạy hai thử nghiệm đơn giản:
Mỗi khóa đào tạo mô hình chạy hai lần: trên một phiên bản duy nhất và được phân phối trên nhiều phiên bản. Đối với đào tạo phân tán DNN, để sử dụng đầy đủ các bộ xử lý phân tán, chúng tôi đã nhân kích thước lô nhỏ với số lượng phiên bản (bốn). Bảng sau đây tóm tắt thiết lập và kết quả.
Loại vấn đề | Phân loại hình ảnh | Phân loại nhị phân | ||
Mô hình | DNN | XGBoost | ||
Sơ thẩm | ml.c4.xlarge | ml.m5.2xlarge | ||
Tập dữ liệu |
(Hình ảnh được dán nhãn) |
Marketing trực tiếp (dạng bảng, số và véc tơ) |
||
Chỉ số xác thực | tính chính xác | AUC | ||
Epoc/Vòng | 20 | 150 | ||
Số lượng phiên bản | 1 | 4 | 1 | 3 |
loại phân phối | N/A | máy chủ tham số | N/A | Tất cảGiảm |
Thời gian đào tạo (phút) | 8 | 3 | 3 | 1 |
Điểm xác nhận cuối cùng | 0.97 | 0.11 | 0.78 | 0.63 |
Đối với cả hai mô hình, thời gian đào tạo được giảm gần như tuyến tính bởi hệ số phân phối. Tuy nhiên, sự hội tụ của mô hình bị giảm đáng kể. Hành vi này phù hợp với hai mô hình khác nhau, các phiên bản điện toán khác nhau, các phương pháp phân phối khác nhau và các loại dữ liệu khác nhau. Vì vậy, tại sao phân phối quá trình đào tạo lại ảnh hưởng đến độ chính xác của mô hình?
Có một số lý thuyết cố gắng giải thích hiệu ứng này:
- Khi cập nhật tensor có kích thước lớn, lưu lượng truy cập giữa worker và máy chủ tham số có thể bị tắc nghẽn. Do đó, các máy chủ tham số không đồng bộ sẽ bị hội tụ kém hơn đáng kể do sự chậm trễ trong cập nhật trọng số [1].
- Việc tăng kích thước lô có thể dẫn đến quá phù hợp và khả năng khái quát hóa kém, do đó làm giảm độ chính xác của xác nhận [2].
- Khi cập nhật không đồng bộ các tham số mô hình, một số DNN có thể không sử dụng các trọng số mô hình được cập nhật gần đây nhất; do đó, họ sẽ tính toán độ dốc dựa trên các trọng số chậm hơn một vài lần lặp lại. Điều này dẫn đến cân nặng không ổn định [3] và có thể do một số nguyên nhân.
- Một số siêu tham số là mô hình hoặc trình tối ưu hóa cụ thể. Ví dụ: tài liệu chính thức của XGBoost nói rằng
exact
giá trị chotree_mode
siêu tham số không hỗ trợ đào tạo phân tán vì XGBoost sử dụng phân phối dữ liệu phân tách hàng trong khiexact
phương thức cây hoạt động trên định dạng cột được sắp xếp. - Một số nhà nghiên cứu đề xuất rằng việc định cấu hình một lô nhỏ lớn hơn có thể dẫn đến độ dốc ít ngẫu nhiên hơn. Điều này có thể xảy ra khi hàm mất mát chứa các điểm cực tiểu cục bộ và điểm yên ngựa và không có thay đổi nào được thực hiện đối với kích thước bước, dẫn đến việc tối ưu hóa bị mắc kẹt trong điểm cực tiểu cục bộ hoặc điểm yên ngựa đó [4].
Tối ưu hóa cho đào tạo phân tán
Tối ưu hóa siêu tham số (HPO) là quá trình tìm kiếm và chọn một tập hợp các siêu tham số tối ưu cho thuật toán học. SageMaker Automatic Model Tuning (AMT) cung cấp HPO dưới dạng dịch vụ được quản lý bằng cách chạy nhiều công việc đào tạo trên tập dữ liệu được cung cấp. SageMaker AMT tìm kiếm các phạm vi siêu tham số mà bạn chỉ định và trả về các giá trị tốt nhất, được đo bằng chỉ số bạn chọn. Bạn có thể sử dụng SageMaker AMT với các thuật toán tích hợp sẵn hoặc sử dụng các thuật toán và vùng chứa tùy chỉnh của mình.
Tuy nhiên, tối ưu hóa cho đào tạo phân tán khác với HPO thông thường vì thay vì khởi chạy một phiên bản duy nhất cho mỗi công việc đào tạo, mỗi công việc thực sự khởi chạy một cụm phiên bản. Điều này có nghĩa là tác động lớn hơn đến chi phí (đặc biệt nếu bạn xem xét các phiên bản tăng tốc GPU tốn kém, điển hình cho DNN). Ngoài ra giới hạn AMT, bạn có thể đánh Giới hạn tài khoản SageMaker cho số lượng trường hợp đào tạo đồng thời. Cuối cùng, các cụm khởi chạy có thể gây ra chi phí hoạt động do thời gian bắt đầu lâu hơn. SageMaker AMT có các tính năng cụ thể để giải quyết những vấn đề này. Hyperband với dừng sớm đảm bảo rằng các cấu hình siêu tham số hoạt động tốt được tinh chỉnh và những cấu hình hoạt động kém sẽ tự động bị dừng. Điều này cho phép sử dụng hiệu quả thời gian đào tạo và giảm chi phí không cần thiết. Ngoài ra, SageMaker AMT hỗ trợ đầy đủ việc sử dụng Phiên bản dùng ngay Amazon EC2, phiên bản này có thể tối ưu hóa chi phí đào tạo lên đến 90% trên các trường hợp theo yêu cầu. Liên quan đến thời gian bắt đầu dài, SageMaker AMT tự động sử dụng lại các phiên bản đào tạo trong mỗi công việc điều chỉnh, do đó giảm thời gian khởi động trung bình của mỗi công việc đào tạo gấp 20 lần. Ngoài ra, bạn nên làm theo Các phương pháp hay nhất của AMT, chẳng hạn như chọn các siêu tham số có liên quan, phạm vi và tỷ lệ thích hợp của chúng, số lượng công việc đào tạo đồng thời tốt nhất và đặt một nguồn gốc ngẫu nhiên để tái tạo kết quả.
Trong phần tiếp theo, chúng ta sẽ thấy các tính năng này hoạt động khi chúng ta định cấu hình, chạy và phân tích một công việc AMT bằng cách sử dụng ví dụ XGBoost mà chúng ta đã thảo luận trước đó.
Định cấu hình, chạy và phân tích công việc điều chỉnh
Như đã đề cập trước đó, mã nguồn có thể được tìm thấy trên Repo GitHub. Trong Bước 1–5, chúng tôi tải xuống và chuẩn bị dữ liệu, tạo xgb3
công cụ ước tính (công cụ ước tính XGBoost phân tán được đặt để sử dụng ba phiên bản), chạy các công việc đào tạo và quan sát kết quả. Trong phần này, chúng tôi mô tả cách thiết lập công việc điều chỉnh cho công cụ ước tính đó, giả sử bạn đã thực hiện các Bước 1–5.
Một tác vụ điều chỉnh tính toán các siêu tham số tối ưu cho các tác vụ đào tạo mà nó khởi chạy bằng cách sử dụng một số liệu để đánh giá hiệu suất. Bạn có thể định cấu hình số liệu của riêng bạn, mà SageMaker sẽ phân tích cú pháp dựa trên biểu thức chính quy mà bạn định cấu hình và gửi tới stdout
hoặc sử dụng các số liệu của Thuật toán tích hợp SageMaker. Trong ví dụ này, chúng tôi sử dụng thước đo mục tiêu XGBoost tích hợp, vì vậy chúng tôi không cần định cấu hình biểu thức chính quy. Để tối ưu hóa cho sự hội tụ của mô hình, chúng tôi tối ưu hóa dựa trên chỉ số AUC xác thực:
Chúng tôi điều chỉnh bảy siêu tham số:
- số_vòng – Số lượt tăng cấp trong quá trình luyện tập.
- eta – Thu hẹp kích thước bước được sử dụng trong các bản cập nhật để tránh trang bị quá mức.
- alpha – Thuật ngữ chính quy hóa L1 trên trọng số.
- trọng lượng tối thiểu_trẻ_con – Tổng trọng lượng cá thể tối thiểu (bao bố) cần có ở trẻ em. Nếu bước phân vùng cây dẫn đến một nút lá có tổng trọng lượng cá thể nhỏ hơn
min_child_weight
, quá trình xây dựng sẽ từ bỏ việc phân vùng tiếp theo. - max_deep – Độ sâu tối đa của cây.
- colsample_bylevel – Tỷ lệ mẫu con của các cột cho mỗi lần phân tách, ở mỗi cấp độ. Việc lấy mẫu con này diễn ra một lần cho mỗi cấp độ sâu mới đạt được trong cây.
- colsample_bytree – Tỉ lệ mẫu cột khi thi công từng cây. Đối với mỗi cây được xây dựng, việc lấy mẫu con diễn ra một lần.
Để tìm hiểu thêm về siêu tham số XGBoost, hãy xem Siêu tham số XGBoost. Đoạn mã sau hiển thị bảy siêu đường kính và phạm vi của chúng:
Tiếp theo, chúng tôi cung cấp các cấu hình cho chiến lược Hyperband và cấu hình đối tượng bộ chỉnh bằng SDK SageMaker. HyperbandStrategyConfig
có thể sử dụng hai tham số: max_resource
(tùy chọn) cho số lần lặp lại tối đa được sử dụng cho công việc đào tạo để đạt được mục tiêu và min_resource
– số lần lặp lại tối thiểu được sử dụng bởi một công việc đào tạo trước khi dừng đào tạo. Chúng tôi sử dụng HyperbandStrategyConfig
để cấu hình StrategyConfig
, sau này được sử dụng bởi định nghĩa công việc điều chỉnh. Xem đoạn mã sau:
Bây giờ chúng ta tạo một HyperparameterTuner
đối tượng, mà chúng tôi chuyển các thông tin sau:
- Công cụ ước tính XGBoost, được thiết lập để chạy với ba phiên bản
- Tên và định nghĩa chỉ số khách quan
- Phạm vi siêu tham số của chúng tôi
- Điều chỉnh các cấu hình tài nguyên, chẳng hạn như tổng số công việc đào tạo sẽ chạy và số lượng công việc đào tạo có thể chạy song song
- Cài đặt siêu băng tần (chiến lược và cấu hình chúng tôi đã định cấu hình ở bước cuối cùng)
- dừng sớm (
early_stopping_type
) đặt thànhOff
Tại sao chúng tôi đặt dừng sớm thành Tắt? Công việc đào tạo có thể bị dừng sớm khi chúng không có khả năng cải thiện số liệu khách quan của công việc điều chỉnh siêu tham số. Điều này có thể giúp giảm thời gian tính toán và tránh trang bị quá mức cho mô hình của bạn. Tuy nhiên, Hyperband sử dụng cơ chế tích hợp nâng cao để áp dụng dừng sớm. Do đó, tham số early_stopping_type
phải được đặt thành Off
khi sử dụng tính năng dừng sớm bên trong Hyperband. Xem đoạn mã sau:
Cuối cùng, chúng tôi bắt đầu công việc điều chỉnh mô hình tự động bằng cách gọi phù hợp với phương pháp. Nếu bạn muốn khởi chạy công việc theo kiểu không đồng bộ, hãy đặt wait
đến False
. Xem mã sau đây:
Bạn có thể theo dõi tiến độ công việc và tóm tắt trên bảng điều khiển SageMaker. Trong ngăn điều hướng, bên dưới Hội thảo, chọn Công việc điều chỉnh siêu tham số, sau đó chọn công việc điều chỉnh có liên quan. Ảnh chụp màn hình sau đây hiển thị công việc điều chỉnh với các chi tiết về trạng thái và hiệu suất của công việc đào tạo.
Khi công việc điều chỉnh hoàn tất, chúng ta có thể xem lại kết quả. Trong ví dụ về sổ ghi chép, chúng tôi trình bày cách trích xuất kết quả bằng SDK SageMaker. Đầu tiên, chúng tôi kiểm tra xem công việc điều chỉnh đã tăng sự hội tụ của mô hình như thế nào. Bạn có thể đính kèm HyperparameterTuner
đối tượng sử dụng tên công việc và gọi mô tả phương pháp. Phương thức trả về một từ điển chứa siêu dữ liệu công việc điều chỉnh và kết quả.
Trong đoạn mã sau, chúng tôi truy xuất giá trị của công việc đào tạo hoạt động tốt nhất, được đo bằng chỉ số khách quan của chúng tôi (AUC xác thực):
Kết quả là 0.78 tính bằng AUC trên bộ xác thực. Đó là một cải tiến đáng kể so với 0.63 ban đầu!
Tiếp theo, hãy xem công việc đào tạo của chúng ta chạy nhanh như thế nào. Đối với điều đó, chúng tôi sử dụng Siêu tham sốTuningJobAnalytics trong SDK để lấy kết quả về công việc điều chỉnh và đọc vào khung dữ liệu Pandas để phân tích và trực quan hóa:
Hãy xem thời gian trung bình mà một công việc đào tạo thực hiện với chiến lược Hyperband:
Thời gian trung bình mất khoảng 1 phút. Điều này phù hợp với cơ chế chiến lược Hyperband ngăn chặn sớm các công việc đào tạo kém hiệu quả. Về chi phí, công việc điều chỉnh đã tính phí chúng tôi trong tổng thời gian đào tạo là 30 phút. Nếu Hyperband không dừng sớm, tổng thời lượng đào tạo có thể tính phí dự kiến là 90 phút (30 công việc * 1 phút mỗi công việc * 3 phiên bản mỗi công việc). Đó là ba lần tốt hơn trong tiết kiệm chi phí! Cuối cùng, chúng tôi thấy rằng công việc điều chỉnh đã chạy 30 công việc đào tạo và mất tổng cộng 12 phút. Tức là ít hơn gần 50% so với thời gian dự kiến (30 công việc/4 công việc song song * 3 phút cho mỗi công việc).
Kết luận
Trong bài đăng này, chúng tôi đã mô tả một số vấn đề hội tụ được quan sát thấy khi đào tạo các mô hình với môi trường phân tán. Chúng tôi thấy rằng SageMaker AMT sử dụng Hyperband đã giải quyết các mối quan tâm chính mà đào tạo phân tán song song tối ưu hóa dữ liệu được giới thiệu: hội tụ (được cải thiện hơn 10%), hiệu quả hoạt động (công việc điều chỉnh mất ít thời gian hơn 50% so với công việc tuần tự, không được tối ưu hóa sẽ đã thực hiện) và hiệu quả chi phí (30 phút so với 90 phút thời gian thực hiện công việc đào tạo có thể tính phí). Bảng sau đây tóm tắt kết quả của chúng tôi:
Số liệu cải tiến | Không điều chỉnh/Thực hiện điều chỉnh mô hình ngây thơ | SageMaker Hyperband Điều chỉnh mô hình tự động | Cải thiện được Đo lường |
Chất lượng mô hình (Được đo bằng cách xác thực AUC) |
0.63 | 0.78 | 15% |
Phí Tổn (Được đo bằng số phút đào tạo có thể thanh toán) |
90 | 30 | 66% |
Hiệu quả hoạt động (Đo bằng tổng thời gian chạy) |
24 | 12 | 50% |
Để tinh chỉnh liên quan đến tỷ lệ (kích thước cụm), bạn có thể lặp lại công việc điều chỉnh với nhiều cấu hình cụm và so sánh kết quả để tìm siêu đường kính tối ưu đáp ứng tốc độ và độ chính xác của mô hình.
Chúng tôi đã bao gồm các bước để đạt được điều này trong phần cuối cùng của máy tính xách tay.
dự án
[1] Lian, Xiangru, et al. “Giảm độ dốc ngẫu nhiên song song phi tập trung không đồng bộ.” Hội nghị quốc tế về học máy. PMLR, 2018.
[2] Keskar, Nitish Shirish, et al. “Về đào tạo hàng loạt để học sâu: Khoảng cách tổng quát hóa và cực tiểu sắc nét.” arXiv bản in trước arXiv: 1609.04836 (2016).
[3] Dai, Wei, et al. “Hướng tới việc hiểu tác động của tính ổn định trong học máy phân tán.” arXiv bản in trước arXiv: 1810.03264 (2018).
[4] Dauphin, Yann N., et al. “Xác định và tấn công vấn đề điểm yên ngựa trong tối ưu hóa không lồi chiều cao.” Những tiến bộ trong hệ thống xử lý thông tin thần kinh 27 (2014).
Lưu ý
Uri Rosenberg là Giám đốc Kỹ thuật Chuyên gia AI & ML cho Châu Âu, Trung Đông và Châu Phi. Có trụ sở tại Israel, Uri hoạt động để trao quyền cho khách hàng doanh nghiệp thiết kế, xây dựng và vận hành khối lượng công việc ML trên quy mô lớn. Khi rảnh rỗi, anh ấy thích đạp xe, đi bộ đường dài và phàn nàn về việc chuẩn bị dữ liệu.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Ô tô / Xe điện, Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- BlockOffsets. Hiện đại hóa quyền sở hữu bù đắp môi trường. Truy cập Tại đây.
- nguồn: https://aws.amazon.com/blogs/machine-learning/effectively-solve-distributed-training-convergence-issues-with-amazon-sagemaker-hyperband-automatic-model-tuning/
- : có
- :là
- :không phải
- $ LÊN
- 1
- 10
- 100
- 12
- 15%
- 20
- 200
- 2014
- 2016
- 2018
- 24
- 27
- 30
- 7
- 8
- 9
- a
- Giới thiệu
- Tài khoản
- chính xác
- chính xác
- Đạt được
- Hoạt động
- thực sự
- Ngoài ra
- Ngoài ra
- địa chỉ
- địa chỉ
- tiên tiến
- ảnh hưởng đến
- Châu Phi
- AI
- AL
- thuật toán
- thuật toán
- Alpha
- Đã
- Ngoài ra
- tuyệt vời
- đàn bà gan dạ
- Amazon EC2
- Amazon SageMaker
- Amazon Web Services
- trong số
- an
- phân tích
- phân tích
- phân tích
- và
- Một
- api
- Đăng Nhập
- thích hợp
- khoảng
- LÀ
- AS
- At
- đính kèm
- Tấn công
- Tự động
- tự động
- Trung bình cộng
- tránh
- AWS
- Cân đối
- dựa
- BE
- bởi vì
- trước
- hành vi
- sau
- BEST
- Hơn
- giữa
- lớn
- thúc đẩy
- cả hai
- xây dựng
- Xây dựng
- được xây dựng trong
- by
- tính
- cuộc gọi
- gọi
- CAN
- Có thể có được
- khả năng
- đố
- gây ra
- thay đổi
- tính phí
- trẻ em
- Chọn
- lựa chọn
- Nhấp chuột
- cụm
- mã
- Cột
- Cột
- Đến
- Chung
- so sánh
- hoàn thành
- Tính
- Mối quan tâm
- đồng thời
- Hội nghị
- Cấu hình
- cấu hình
- Hãy xem xét
- thích hợp
- An ủi
- xây dựng
- Container
- chứa
- liên tục
- Hội tụ
- Phí Tổn
- tốn kém
- Chi phí
- có thể
- tạo
- khách hàng
- khách hàng
- DAI
- dữ liệu
- Chuẩn bị dữ liệu
- Phân quyền
- sâu
- học kĩ càng
- định nghĩa
- sự chậm trễ
- chứng minh
- chiều sâu
- mô tả
- mô tả
- Thiết kế
- được chỉ định
- chi tiết
- ĐÃ LÀM
- khác nhau
- thảo luận
- phân phối
- đào tạo phân tán
- phân phối
- phân phối
- do
- tài liệu hướng dẫn
- Không
- thực hiện
- dont
- xuống
- tải về
- Rơi
- hai
- thời gian
- suốt trong
- E&T
- mỗi
- Sớm hơn
- Đầu
- dễ dàng
- Đông
- hiệu lực
- hiệu quả
- hiệu quả
- hiệu quả
- sử dụng
- trao quyền
- cho phép
- cho phép
- đảm bảo
- Doanh nghiệp
- Môi trường
- môi trường
- đặc biệt
- Châu Âu
- đánh giá
- Ngay cả
- Mỗi
- kiểm tra
- ví dụ
- dự kiến
- thí nghiệm
- Giải thích
- khám phá
- trích xuất
- yếu tố
- các yếu tố
- Thời trang
- NHANH
- nhanh hơn
- Đặc tính
- Tính năng
- vài
- Cuối cùng
- Tìm kiếm
- Tên
- phù hợp với
- theo
- tiếp theo
- Trong
- định dạng
- tìm thấy
- 4
- FRAME
- từ
- đầy đủ
- chức năng
- xa hơn
- Hơn nữa
- khoảng cách
- thế hệ
- Trí tuệ nhân tạo
- máy phát điện
- được
- nhận được
- cho
- tốt
- GPU
- GPU
- gradients
- lớn hơn
- Tăng trưởng
- xảy ra
- Có
- có
- he
- giúp đỡ
- của mình
- Đánh
- Độ đáng tin của
- Hướng dẫn
- Tuy nhiên
- HTML
- http
- HTTPS
- Điều chỉnh siêu tham số
- if
- hình ảnh
- Va chạm
- Tác động
- nâng cao
- cải thiện
- cải thiện
- in
- bao gồm
- tăng
- thông tin
- Cơ sở hạ tầng
- ban đầu
- ví dụ
- thay vì
- nội bộ
- trong
- giới thiệu
- giới thiệu
- Israel
- các vấn đề
- IT
- sự lặp lại
- ITS
- Việc làm
- việc làm
- Giữ
- L1
- Ngôn ngữ
- lớn
- lớn hơn
- Họ
- một lát sau
- phóng
- ra mắt
- ra mắt
- dẫn
- Dẫn
- LEARN
- học tập
- ít
- Cấp
- thư viện
- Lượt thích
- địa phương
- dài
- còn
- sự mất
- máy
- học máy
- thực hiện
- Chủ yếu
- quản lý
- giám đốc
- nhiều
- lớn
- tối đa
- Có thể..
- có nghĩa
- cơ chế
- đề cập
- Siêu dữ liệu
- phương pháp
- phương pháp
- số liệu
- Metrics
- Tên đệm
- Trung Đông
- Might
- tối thiểu
- phút
- Phút
- ML
- kiểu mẫu
- mô hình
- chi tiết
- hầu hết
- nhiều
- nhân
- phải
- tên
- Tự nhiên
- THÔNG TIN
- Cần
- cần thiết
- nhu cầu
- mạng
- mạng thần kinh
- Mới
- tiếp theo
- Không
- nút
- các nút
- máy tính xách tay
- con số
- vật
- Mục tiêu
- tuân theo
- of
- off
- chính thức
- thường
- on
- Theo yêu cầu
- hàng loạt
- ONE
- có thể
- mở
- hoạt động
- hoạt động
- tối ưu
- tối ưu hóa
- Tối ưu hóa
- tối ưu hóa
- or
- gọi món
- vfoXNUMXfipXNUMXhfpiXNUMXufhpiXNUMXuf
- ra
- kết thúc
- tổng thể
- riêng
- gấu trúc
- cửa sổ
- Song song
- tham số
- thông số
- vượt qua
- mỗi
- hiệu suất
- Nơi
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- Điểm
- điểm
- người nghèo
- khả năng
- có thể
- Bài đăng
- thực hành
- chuẩn bị
- Chuẩn bị
- ngăn chặn
- Vấn đề
- quá trình
- xử lý
- bộ vi xử lý
- Tiến độ
- đề xuất
- cho
- cung cấp
- cung cấp
- ngẫu nhiên
- tỉ lệ
- đạt
- Đọc
- lý do
- gần đây
- đề nghị
- giảm
- Giảm
- làm giảm
- giảm
- liên quan
- biểu thức chính quy
- có liên quan
- lặp lại
- yêu cầu
- đòi hỏi
- nhà nghiên cứu
- tài nguyên
- Thông tin
- kết quả
- Kết quả
- Trả về
- xem xét
- vòng
- HÀNG
- chạy
- chạy
- nhà làm hiền triết
- Điều chỉnh mô hình tự động SageMaker
- tương tự
- Lưu
- thấy
- nói
- SC
- Quy mô
- quy mô
- mở rộng quy mô
- sdk
- tìm kiếm
- Phần
- xem
- hạt giống
- đã xem
- lựa chọn
- Các máy chủ
- dịch vụ
- DỊCH VỤ
- định
- thiết lập
- thiết lập
- thiết lập
- XNUMX
- sắc nét
- nên
- hiển thị
- thể hiện
- Chương trình
- Đóng cửa
- có ý nghĩa
- đáng kể
- Đơn giản
- duy nhất
- Kích thước máy
- So
- động SOLVE
- một số
- nguồn
- mã nguồn
- Không gian
- chuyên gia
- riêng
- tốc độ
- chia
- Tách
- Spot
- Bắt đầu
- Bắt đầu
- khởi động
- Trạng thái
- Bước
- Các bước
- dừng lại
- dừng lại
- Dừng
- là gắn
- Chiến lược
- như vậy
- chịu đựng
- TÓM TẮT
- hỗ trợ
- Hỗ trợ
- bàn
- Lấy
- mất
- Kỹ thuật
- kỹ thuật
- tensorflow
- kỳ hạn
- về
- hơn
- việc này
- Sản phẩm
- Nguồn
- cung cấp their dịch
- Them
- sau đó
- Đó
- bằng cách ấy
- vì thế
- Kia là
- họ
- điều này
- những
- số ba
- Thông qua
- thời gian
- thời gian
- đến
- mất
- Tổng số:
- giao thông
- Train
- đào tạo
- Hội thảo
- chuyển
- cây
- thử
- Hai lần
- hai
- loại
- điển hình
- Dưới
- sự hiểu biết
- không
- không cần thiết
- cập nhật
- Cập nhật
- cập nhật
- us
- sử dụng
- đã sử dụng
- sử dụng
- sử dụng
- sử dụng
- xác nhận
- giá trị
- Các giá trị
- hình dung
- vs
- muốn
- là
- Đường..
- we
- web
- các dịch vụ web
- trọng lượng
- đi
- khi nào
- trong khi
- cái nào
- tại sao
- Wikipedia
- sẽ
- với
- ở trong
- không có
- công nhân
- công trinh
- tệ hơn
- sẽ
- XGBoost
- năm
- Bạn
- trên màn hình
- zephyrnet