Trong kỷ nguyên dữ liệu lớn và AI, các công ty liên tục tìm cách sử dụng các công nghệ này để đạt được lợi thế cạnh tranh. Một trong những lĩnh vực nóng nhất trong AI hiện nay là AI có tính sáng tạo và vì lý do chính đáng. AI sáng tạo cung cấp các giải pháp mạnh mẽ giúp vượt qua ranh giới của những gì có thể về mặt sáng tạo và đổi mới. Cốt lõi của các giải pháp tiên tiến này là mô hình nền tảng (FM), một mô hình máy học tiên tiến được đào tạo trước trên lượng dữ liệu khổng lồ. Nhiều mô hình nền tảng này đã cho thấy khả năng vượt trội trong việc hiểu và tạo ra văn bản giống con người, khiến chúng trở thành công cụ có giá trị cho nhiều ứng dụng, từ tạo nội dung đến tự động hóa hỗ trợ khách hàng.
Tuy nhiên, những mô hình này không phải không có thách thức. Chúng đặc biệt lớn và đòi hỏi lượng lớn dữ liệu cũng như tài nguyên tính toán để đào tạo. Ngoài ra, việc tối ưu hóa quy trình đào tạo và hiệu chỉnh các tham số có thể là một quy trình phức tạp và lặp đi lặp lại, đòi hỏi chuyên môn và thử nghiệm cẩn thận. Đây có thể là rào cản đối với nhiều tổ chức muốn xây dựng mô hình nền tảng của riêng mình. Để vượt qua thách thức này, nhiều khách hàng đang cân nhắc việc tinh chỉnh các mô hình nền móng hiện có. Đây là một kỹ thuật phổ biến để điều chỉnh một phần nhỏ các tham số mô hình cho các ứng dụng cụ thể trong khi vẫn bảo toàn được kiến thức đã được mã hóa trong mô hình. Nó cho phép các tổ chức sử dụng sức mạnh của các mô hình này đồng thời giảm các tài nguyên cần thiết để tùy chỉnh theo một miền hoặc nhiệm vụ cụ thể.
Có hai cách tiếp cận chính để tinh chỉnh các mô hình nền tảng: tinh chỉnh truyền thống và tinh chỉnh tham số hiệu quả. Tinh chỉnh truyền thống bao gồm việc cập nhật tất cả các tham số của mô hình được đào tạo trước cho một tác vụ xuôi dòng cụ thể. Mặt khác, tinh chỉnh tham số hiệu quả bao gồm nhiều kỹ thuật khác nhau cho phép tùy chỉnh mô hình mà không cần cập nhật tất cả các tham số mô hình ban đầu. Một kỹ thuật như vậy được gọi là Thích ứng cấp thấp (LoRA). Nó liên quan đến việc thêm các mô-đun nhỏ, dành riêng cho nhiệm vụ vào mô hình được đào tạo trước và huấn luyện chúng trong khi vẫn giữ cố định các tham số còn lại như minh họa trong hình ảnh sau.
nguồn: AI sáng tạo trên AWS (O'Reilly, 2023)
LoRA gần đây đã trở nên phổ biến vì nhiều lý do. Nó cung cấp khả năng đào tạo nhanh hơn, giảm yêu cầu bộ nhớ và khả năng sử dụng lại các mô hình được đào tạo trước cho nhiều tác vụ tiếp theo. Quan trọng hơn, mô hình cơ sở và bộ chuyển đổi có thể được lưu trữ riêng biệt và kết hợp bất kỳ lúc nào, giúp việc lưu trữ, phân phối và chia sẻ các phiên bản tinh chỉnh trở nên dễ dàng hơn. Tuy nhiên, điều này đặt ra một thách thức mới: làm thế nào để quản lý hợp lý các loại mô hình tinh chỉnh mới này. Bạn nên kết hợp model cơ bản và bộ chuyển đổi hay giữ chúng riêng biệt? Trong bài đăng này, chúng tôi sẽ hướng dẫn các phương pháp hay nhất để quản lý các mô hình tinh chỉnh LoRA trên Amazon SageMaker để giải quyết câu hỏi mới nổi này.
Làm việc với FM trên Sổ đăng ký mô hình SageMaker
Trong bài đăng này, chúng ta sẽ xem xét một ví dụ chi tiết về việc tinh chỉnh mô hình ngôn ngữ lớn Llama2 (LLM) bằng phương pháp QLoRA. QLoRA kết hợp các lợi ích của việc tinh chỉnh tham số hiệu quả với lượng tử hóa 4 bit/8 bit để giảm hơn nữa các tài nguyên cần thiết để tinh chỉnh FM cho phù hợp với một tác vụ hoặc trường hợp sử dụng cụ thể. Để làm điều này, chúng tôi sẽ sử dụng mô hình Llama7 gồm 2 tỷ tham số được đào tạo trước và tinh chỉnh nó trên tập dữ liệu databricks-dolly-15k. Các LLM như Llama2 có hàng tỷ tham số và được huấn luyện trước trên các tập dữ liệu văn bản khổng lồ. Tinh chỉnh điều chỉnh LLM cho tác vụ xuôi dòng bằng cách sử dụng tập dữ liệu nhỏ hơn. Tuy nhiên, việc tinh chỉnh các mô hình lớn đòi hỏi chi phí tính toán cao. Đây là lý do tại sao chúng tôi sẽ sử dụng phương pháp QLoRA để lượng tử hóa các trọng số trong quá trình tinh chỉnh nhằm giảm chi phí tính toán này.
Trong ví dụ của chúng tôi, bạn sẽ tìm thấy hai cuốn sổ tay (llm-finetune-combined-with-registry.ipynb
và llm-finetune-separate-with-registry.ipynb
). Mỗi cách hoạt động theo một cách khác nhau để xử lý các mô hình tinh chỉnh LoRA như được minh họa trong sơ đồ sau:
- Đầu tiên, chúng tôi tải xuống mô hình Llama2 đã được đào tạo trước với 7 tỷ tham số bằng SageMaker Studio Notebooks. LLM, như Llama2, đã thể hiện hiệu suất vượt trội đối với các tác vụ xử lý ngôn ngữ tự nhiên (NLP) khi được tinh chỉnh trên dữ liệu theo miền cụ thể.
- Tiếp theo, chúng tôi tinh chỉnh Llama2 trên tập dữ liệu databricks-dolly-15k bằng phương pháp QLoRA. QLoRA giảm chi phí tính toán cho việc tinh chỉnh bằng cách lượng tử hóa trọng số mô hình.
- Trong quá trình tinh chỉnh, chúng tôi tích hợp SageMaker Experiments Plus với API Transformers để tự động ghi lại các số liệu như độ dốc, độ mất mát, v.v.
- Sau đó, chúng tôi tạo phiên bản mô hình Llama2 đã tinh chỉnh trong Sổ đăng ký mô hình SageMaker bằng hai phương pháp:
- Lưu trữ mô hình đầy đủ
- Bảo quản riêng bộ chuyển đổi và mẫu đế.
- Cuối cùng, chúng tôi lưu trữ các mô hình Llama2 đã được tinh chỉnh bằng cách sử dụng Thư viện Deep Java (DJL) Phục vụ trên điểm cuối thời gian thực SageMaker.
Trong các phần sau, chúng tôi sẽ đi sâu hơn vào từng bước này để chứng minh tính linh hoạt của SageMaker đối với các quy trình công việc LLM khác nhau và cách các tính năng này có thể giúp cải thiện hoạt động của mô hình của bạn.
Điều kiện tiên quyết
Hoàn thành các điều kiện tiên quyết sau để bắt đầu thử nghiệm mã.
- Tạo ra một Miền SageMaker Studio: Amazon SageMaker Studio, cụ thể là Studio Notebook, được sử dụng để khởi động tác vụ tinh chỉnh Llama2, sau đó đăng ký và xem các mô hình trong Sổ đăng ký mô hình SageMaker. Thử nghiệm SageMaker cũng được sử dụng để xem và so sánh nhật ký công việc tinh chỉnh của Llama2 (mất đào tạo/mất bài kiểm tra/v.v.).
- Tạo bộ chứa Amazon Simple Storage Service (S3): Cần có quyền truy cập vào bộ chứa S3 để lưu trữ các thành phần đào tạo và trọng lượng mô hình. Để biết hướng dẫn, hãy tham khảo Tạo một thùng. Mã mẫu dùng cho bài đăng này sẽ sử dụng nhóm S3 mặc định của SageMaker nhưng bạn có thể tùy chỉnh mã này để sử dụng bất kỳ nhóm S3 có liên quan nào.
- Thiết lập Bộ sưu tập mô hình (quyền IAM): Cập nhật Vai trò thực thi SageMaker của bạn với các quyền đối với nhóm tài nguyên như được liệt kê bên dưới Hướng dẫn dành cho nhà phát triển Bộ sưu tập sổ đăng ký mô hình để triển khai nhóm Sổ đăng ký mô hình bằng cách sử dụng Bộ sưu tập mô hình.
- Chấp nhận Điều khoản & Điều kiện dành cho Llama2: Bạn sẽ cần chấp nhận thỏa thuận cấp phép người dùng cuối và chính sách sử dụng được chấp nhận để sử dụng mô hình nền tảng Llama2.
Các ví dụ có sẵn trong Kho GitHub. Các tệp sổ ghi chép được kiểm tra bằng cách sử dụng sổ ghi chép Studio chạy trên hạt nhân được tối ưu hóa GPU PyTorch 2.0.0 Python 3.10 và loại phiên bản ml.g4dn.xlarge.
Thử nghiệm cộng với tích hợp gọi lại
Thử nghiệm Amazon SageMaker cho phép bạn tổ chức, theo dõi, so sánh và đánh giá các phiên bản mô hình và thử nghiệm máy học (ML) từ bất kỳ môi trường phát triển tích hợp (IDE) nào, bao gồm cả Notebook Jupyter cục bộ, sử dụng SageMaker Python SDK hoặc boto3. Nó cung cấp sự linh hoạt để ghi lại các số liệu, tham số, tệp, tạo phẩm, biểu đồ mô hình của bạn từ các số liệu khác nhau, nắm bắt các siêu dữ liệu khác nhau, tìm kiếm thông qua chúng và hỗ trợ khả năng tái tạo mô hình. Các nhà khoa học dữ liệu có thể nhanh chóng so sánh hiệu suất và siêu tham số để đánh giá mô hình thông qua các biểu đồ và bảng trực quan. Họ cũng có thể sử dụng SageMaker Experiments để tải xuống các biểu đồ đã tạo và chia sẻ đánh giá mô hình với các bên liên quan của họ.
Đào tạo LLM có thể là một quá trình chậm, tốn kém và lặp đi lặp lại. Điều rất quan trọng đối với người dùng là theo dõi thử nghiệm LLM trên quy mô lớn để ngăn trải nghiệm điều chỉnh mô hình không nhất quán. API biến áp HuggingFace cho phép người dùng theo dõi số liệu trong quá trình thực hiện nhiệm vụ đào tạo thông qua Gọi lại. Lệnh gọi lại là các đoạn mã “chỉ đọc” có thể tùy chỉnh hành vi của vòng đào tạo trong PyTorch Trainer. Lệnh này có thể kiểm tra trạng thái vòng đào tạo để báo cáo tiến độ, đăng nhập vào TensorBoard hoặc SageMaker Experiments Plus thông qua logic tùy chỉnh (được bao gồm như một phần của cơ sở mã này).
Bạn có thể nhập mã gọi lại SageMaker Experiments có trong kho lưu trữ mã của bài đăng này như được hiển thị trong khối mã sau:
Lệnh gọi lại này sẽ tự động ghi thông tin sau vào Thử nghiệm SageMaker như một phần của quá trình đào tạo:
- Thông số đào tạo và siêu thông số
- Mất đào tạo và xác thực mô hình ở Bước, Kỷ nguyên và Cuối cùng
- Các tạo phẩm Đầu vào và Đầu ra của mô hình (tập dữ liệu huấn luyện, tập dữ liệu xác thực, vị trí đầu ra của mô hình, trình gỡ lỗi đào tạo, v.v.)
Biểu đồ sau đây hiển thị các ví dụ về biểu đồ bạn có thể hiển thị bằng cách sử dụng thông tin đó.
Điều này cho phép bạn dễ dàng so sánh nhiều lần chạy bằng tính năng Phân tích của Thử nghiệm SageMaker. Bạn có thể chọn các lần chạy thử nghiệm mà bạn muốn so sánh và chúng sẽ tự động điền vào biểu đồ so sánh.
Đăng ký các mô hình tinh chỉnh vào Bộ sưu tập sổ đăng ký mô hình
Bộ sưu tập sổ đăng ký mẫu là một tính năng của Sổ đăng ký mô hình SageMaker cho phép bạn nhóm các mô hình đã đăng ký có liên quan với nhau và sắp xếp chúng theo thứ bậc để cải thiện khả năng khám phá mô hình trên quy mô lớn. Chúng tôi sẽ sử dụng Bộ sưu tập sổ đăng ký mô hình để theo dõi mô hình cơ sở và các biến thể được tinh chỉnh.
Phương pháp sao chép mô hình đầy đủ
Phương pháp đầu tiên kết hợp mô hình cơ sở và bộ điều hợp LoRA và lưu mô hình tinh chỉnh đầy đủ. Đoạn mã sau minh họa quá trình hợp nhất mô hình và lưu mô hình kết hợp bằng cách sử dụng model.save_pretrained()
.
Việc kết hợp bộ điều hợp LoRA và mô hình cơ sở thành một tạo phẩm mô hình duy nhất sau khi tinh chỉnh có những ưu điểm và nhược điểm. Mô hình kết hợp khép kín và có thể được quản lý và triển khai độc lập mà không cần đến mô hình cơ sở ban đầu. Mô hình có thể được theo dõi dưới dạng thực thể riêng với tên phiên bản phản ánh mô hình cơ sở và dữ liệu tinh chỉnh. Chúng ta có thể áp dụng một danh pháp bằng cách sử dụng base_model_name
+ tinh chỉnh dataset_name
tổ chức các nhóm mẫu. Tùy chọn, bộ sưu tập mô hình có thể liên kết các mô hình gốc và mô hình đã được tinh chỉnh, nhưng điều này có thể không cần thiết vì mô hình kết hợp là độc lập. Đoạn mã sau đây hướng dẫn bạn cách đăng ký mô hình tinh chỉnh.
Bạn có thể sử dụng công cụ ước tính huấn luyện để đăng ký mô hình vào Sổ đăng ký mô hình.
Từ Sổ đăng ký mô hình, bạn có thể truy xuất gói mô hình và triển khai mô hình đó trực tiếp.
Tuy nhiên, có những hạn chế đối với phương pháp này. Việc kết hợp các mô hình sẽ dẫn đến sự thiếu hiệu quả và dư thừa trong lưu trữ do mô hình cơ sở bị trùng lặp trong mỗi phiên bản tinh chỉnh. Khi kích thước mô hình và số lượng mô hình được tinh chỉnh tăng lên, điều này sẽ làm tăng nhu cầu lưu trữ theo cấp số nhân. Lấy mô hình llama2 7b làm ví dụ, mô hình cơ sở có dung lượng xấp xỉ 13 GB và mô hình tinh chỉnh là 13.6 GB. 96% mô hình cần được nhân đôi sau mỗi lần tinh chỉnh. Ngoài ra, việc phân phối và chia sẻ các tệp mô hình rất lớn cũng trở nên khó khăn hơn và đặt ra những thách thức vận hành khi chi phí quản lý và truyền tệp tăng lên khi kích thước mô hình ngày càng tăng và tinh chỉnh công việc.
Phương pháp bộ điều hợp và cơ sở riêng biệt
Phương pháp thứ hai tập trung vào việc phân tách trọng lượng cơ sở và trọng lượng bộ điều hợp bằng cách lưu chúng dưới dạng các thành phần mô hình riêng biệt và tải chúng một cách tuần tự khi chạy.
Việc lưu trọng lượng đế và bộ chuyển đổi có những ưu điểm và nhược điểm, tương tự như phương pháp Sao chép mô hình đầy đủ. Một ưu điểm là nó có thể tiết kiệm không gian lưu trữ. Trọng lượng cơ sở, là thành phần lớn nhất của mô hình tinh chỉnh, chỉ được lưu một lần và có thể được sử dụng lại với các trọng số bộ chuyển đổi khác được điều chỉnh cho các tác vụ khác nhau. Ví dụ: trọng lượng cơ bản của Llama2-7B là khoảng 13 GB, nhưng mỗi tác vụ tinh chỉnh chỉ cần lưu trữ khoảng 0.6 GB trọng lượng bộ chuyển đổi, tức là tiết kiệm được 95% dung lượng. Một ưu điểm khác là trọng lượng cơ sở có thể được quản lý riêng biệt với trọng lượng bộ chuyển đổi bằng cách sử dụng sổ đăng ký mô hình chỉ có trọng lượng cơ sở. Điều này có thể hữu ích cho các miền SageMaker đang chạy ở chế độ chỉ VPC mà không có cổng internet vì có thể truy cập trọng số cơ sở mà không cần phải thông qua internet.
Tạo Nhóm gói mô hình cho trọng lượng cơ sở
Tạo Nhóm gói mô hình cho trọng lượng QLoRA
Đoạn mã sau đây cho biết cách gắn thẻ trọng số QLoRA với loại tập dữ liệu/tác vụ và đăng ký các trọng số delta được tinh chỉnh vào một sổ đăng ký mô hình riêng biệt và theo dõi các trọng số delta riêng biệt.
Đoạn mã sau đây hiển thị chế độ xem từ Sổ đăng ký mô hình trong đó các mô hình được chia thành các trọng số cơ bản và được tinh chỉnh.
Việc quản lý mô hình, bộ dữ liệu và nhiệm vụ cho LLM siêu cá nhân hóa có thể nhanh chóng trở nên quá sức. Bộ sưu tập sổ đăng ký mô hình SageMaker có thể giúp bạn nhóm các mô hình liên quan lại với nhau và sắp xếp chúng theo thứ bậc để cải thiện khả năng khám phá mô hình. Điều này giúp việc theo dõi mối quan hệ giữa trọng lượng cơ sở, trọng số bộ điều hợp và bộ dữ liệu tác vụ tinh chỉnh trở nên dễ dàng hơn. Bạn cũng có thể tạo các mối quan hệ và liên kết phức tạp giữa các mô hình.
Tạo Bộ sưu tập mới và thêm trọng số mô hình cơ sở của bạn vào Bộ sưu tập này
Liên kết tất cả các Trọng số Delta của Bộ điều hợp LoRA được tinh chỉnh của bạn với bộ sưu tập này theo nhiệm vụ và/hoặc tập dữ liệu
Điều này sẽ dẫn đến một hệ thống phân cấp bộ sưu tập được liên kết theo mô hình/loại nhiệm vụ và tập dữ liệu được sử dụng để tinh chỉnh mô hình cơ sở.
Phương pháp tách mô hình đế và bộ chuyển đổi này có một số nhược điểm. Một nhược điểm là sự phức tạp trong việc triển khai mô hình. Vì có hai tạo phẩm mô hình riêng biệt nên bạn cần các bước bổ sung để đóng gói lại mô hình thay vì triển khai trực tiếp từ Sổ đăng ký mô hình. Trong ví dụ về mã sau, trước tiên hãy tải xuống và đóng gói lại phiên bản mới nhất của mô hình cơ sở.
Sau đó tải xuống và đóng gói lại các trọng lượng bộ điều hợp LoRA được tinh chỉnh mới nhất.
Vì bạn sẽ sử dụng phân phối DJL với tốc độ sâu để lưu trữ mô hình nên thư mục suy luận của bạn sẽ giống như sau.
Cuối cùng, đóng gói mã suy luận tùy chỉnh, mô hình cơ sở và bộ điều hợp LoRA trong một tệp .tar.gz để triển khai.
Làm sạch
Dọn dẹp tài nguyên của bạn bằng cách làm theo hướng dẫn trong phần dọn dẹp của sổ ghi chép. tham khảo Amazon SageMaker Giá để biết chi tiết về chi phí của các trường hợp suy luận.
Kết luận
Bài đăng này hướng dẫn bạn các phương pháp hay nhất để quản lý các mô hình tinh chỉnh LoRA trên Amazon SageMaker. Chúng tôi đã đề cập đến hai phương pháp chính: kết hợp trọng lượng đế và bộ chuyển đổi thành một mô hình độc lập và tách trọng lượng đế và bộ chuyển đổi. Cả hai phương pháp đều có sự cân bằng, nhưng việc phân tách trọng số giúp tối ưu hóa việc lưu trữ và hỗ trợ các kỹ thuật quản lý mô hình nâng cao như Bộ sưu tập sổ đăng ký mô hình SageMaker. Điều này cho phép bạn xây dựng hệ thống phân cấp và mối quan hệ giữa các mô hình để cải thiện tổ chức và khả năng khám phá. Chúng tôi khuyến khích bạn thử mã mẫu trên Kho GitHub để tự mình thử nghiệm những phương pháp này. Khi AI tổng hợp phát triển nhanh chóng, việc tuân theo các phương pháp hay nhất về quản lý mô hình sẽ giúp bạn theo dõi các thử nghiệm, tìm ra mô hình phù hợp cho nhiệm vụ của mình và quản lý LLM chuyên biệt một cách hiệu quả trên quy mô lớn.
dự án
Giới thiệu về tác giả
James Wu là Kiến trúc sư Giải pháp Chuyên gia về AI / ML Cấp cao tại AWS. giúp khách hàng thiết kế và xây dựng các giải pháp AI / ML. Công việc của James bao gồm một loạt các trường hợp sử dụng ML, với mối quan tâm chính là tầm nhìn máy tính, học sâu và mở rộng ML trong toàn doanh nghiệp. Trước khi gia nhập AWS, James là kiến trúc sư, nhà phát triển và nhà lãnh đạo công nghệ trong hơn 10 năm, bao gồm 6 năm trong lĩnh vực kỹ thuật và 4 năm trong ngành tiếp thị & quảng cáo.
Pranav Murthy là Kiến trúc sư giải pháp chuyên gia AI/ML tại AWS. Anh tập trung vào việc giúp khách hàng xây dựng, đào tạo, triển khai và di chuyển khối lượng công việc máy học (ML) sang SageMaker. Trước đây, ông từng làm việc trong ngành bán dẫn, phát triển các mô hình thị giác máy tính (CV) lớn và xử lý ngôn ngữ tự nhiên (NLP) để cải thiện quy trình bán dẫn. Khi rảnh rỗi, anh thích chơi cờ và đi du lịch.
Mecit Gungor là Chuyên gia kiến trúc giải pháp AI/ML tại AWS giúp khách hàng thiết kế và xây dựng các giải pháp AI/ML trên quy mô lớn. Anh ấy đề cập đến nhiều trường hợp sử dụng AI/ML cho khách hàng Viễn thông và hiện đang tập trung vào AI Sáng tạo, LLM cũng như đào tạo và tối ưu hóa suy luận. Người ta thường bắt gặp anh ta đi bộ đường dài ở nơi hoang dã hoặc chơi trò chơi cờ bàn với bạn bè khi rảnh rỗi.
Shelbee Eigenbrode là Kiến trúc sư chính về giải pháp chuyên gia về AI và học máy tại Amazon Web Services (AWS). Cô đã làm việc trong lĩnh vực công nghệ được 24 năm với nhiều lĩnh vực, công nghệ và vai trò khác nhau. Cô ấy hiện đang tập trung vào việc kết hợp nền tảng DevOps và ML của mình vào lĩnh vực MLOps để giúp khách hàng phân phối và quản lý khối lượng công việc ML trên quy mô lớn. Với hơn 35 bằng sáng chế được cấp trên các lĩnh vực công nghệ khác nhau, cô ấy có niềm đam mê đổi mới liên tục và sử dụng dữ liệu để thúc đẩy kết quả kinh doanh. Shelbee là người đồng sáng tạo và là người hướng dẫn chuyên môn Khoa học Dữ liệu Thực tế trên Coursera. Cô cũng là Đồng Giám đốc phụ nữ trong dữ liệu lớn (WiBD), chương Denver. Khi rảnh rỗi, cô ấy thích dành thời gian cho gia đình, bạn bè và những chú chó hiếu động của mình.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- nguồn: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- : có
- :là
- :không phải
- :Ở đâu
- $ LÊN
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- có khả năng
- Giới thiệu
- Chấp nhận
- chấp nhận được
- truy cập
- truy cập
- ngang qua
- thích ứng
- thích nghi
- thêm vào
- thêm
- thêm vào
- Ngoài ra
- địa chỉ
- nhận nuôi
- tiên tiến
- Lợi thế
- lợi thế
- Quảng cáo
- Sau
- Hiệp định
- AI
- AI đúng
- AI / ML
- Tất cả
- cho phép
- cho phép
- Đã
- Ngoài ra
- đàn bà gan dạ
- Amazon SageMaker
- Xưởng sản xuất Amazon SageMaker
- Dịch vụ lưu trữ đơn giản của Amazon (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- số lượng
- an
- phân tích
- và
- Một
- bất kì
- api
- các ứng dụng
- phương pháp tiếp cận
- cách tiếp cận
- phê duyệt
- khoảng
- LÀ
- khu vực
- AS
- Liên kết
- At
- tự động
- Tự động hóa
- có sẵn
- AWS
- trở lại
- lý lịch
- rào cản
- cơ sở
- BE
- bởi vì
- trở nên
- trở thành
- được
- hành vi
- Lợi ích
- BEST
- thực hành tốt nhất
- giữa
- lớn
- Dữ Liệu Lớn.
- Tỷ
- tỷ
- Chặn
- bảng
- Board Games
- cả hai
- ranh giới
- xây dựng
- kinh doanh
- nhưng
- by
- gọi lại
- gọi là
- CAN
- khả năng
- nắm bắt
- cẩn thận
- trường hợp
- trường hợp
- thách thức
- thách thức
- Chương
- Bảng xếp hạng
- Tướng
- tốt nghiệp lớp XNUMX
- trong sáng
- mã
- Cơ sở mã hóa
- bộ sưu tập
- bộ sưu tập
- kết hợp
- kết hợp
- kết hợp
- kết hợp
- Các công ty
- so sánh
- sự so sánh
- cạnh tranh
- phức tạp
- phức tạp
- thành phần
- các thành phần
- tính toán
- tính toán
- máy tính
- Tầm nhìn máy tính
- điều kiện
- xem xét
- nội dung
- tạo nội dung
- liên tục
- liên tục
- Trung tâm
- Phí Tổn
- có thể
- phủ
- Covers
- tạo
- tạo ra
- tạo
- sáng tạo
- Hiện nay
- khách hàng
- khách hàng
- Hỗ trợ khách hàng
- khách hàng
- tùy biến
- tùy chỉnh
- tiên tiến
- dữ liệu
- khoa học dữ liệu
- bộ dữ liệu
- sâu
- học kĩ càng
- sâu sắc hơn
- Mặc định
- các
- cung cấp
- đồng bằng
- chứng minh
- Denver
- triển khai
- triển khai
- triển khai
- triển khai
- Thiết kế
- chi tiết
- Nhà phát triển
- phát triển
- Phát triển
- khác nhau
- khó khăn
- trực tiếp
- Giao diện
- phân phát
- phân phối
- bổ nhào
- miền
- lĩnh vực
- tải về
- nhược điểm
- lái xe
- suốt trong
- mỗi
- dễ dàng hơn
- dễ dàng
- Cạnh
- hiệu quả
- hiệu quả
- khác
- mới nổi
- cho phép
- khuyến khích
- Cuối cùng đến cuối
- Điểm cuối
- Kỹ Sư
- Doanh nghiệp
- thực thể
- Môi trường
- kỷ nguyên
- Kỷ nguyên
- vv
- đánh giá
- đánh giá
- ví dụ
- ví dụ
- đặc biệt
- thực hiện
- hiện tại
- đắt tiền
- kinh nghiệm
- thử nghiệm
- thí nghiệm
- chuyên môn
- theo hàm mũ
- Đối mặt
- Không
- gia đình
- nhanh hơn
- Đặc tính
- Tính năng
- Tập tin
- Các tập tin
- Tìm kiếm
- cuối
- Tên
- cố định
- Linh hoạt
- tập trung
- tập trung
- tiếp theo
- Trong
- tìm thấy
- Nền tảng
- Miễn phí
- bạn bè
- từ
- Full
- chức năng
- xa hơn
- tương lai
- Thu được
- đạt được
- Trò chơi
- cửa ngõ
- tạo ra
- thế hệ
- Trí tuệ nhân tạo
- Go
- đi
- tốt
- GPU
- cấp
- đồ thị
- đồ thị
- Nhóm
- Các nhóm
- tay
- xử lý
- Có
- có
- he
- giúp đỡ
- giúp đỡ
- giúp
- cô
- hệ thống cấp bậc
- cao
- của mình
- chủ nhà
- nóng nhất
- Độ đáng tin của
- Hướng dẫn
- Tuy nhiên
- HTML
- HTTPS
- ÔmKhuôn Mặt
- minh họa
- hình ảnh
- thực hiện
- thực hiện
- nhập khẩu
- quan trọng
- quan trọng
- nhập khẩu
- nâng cao
- in
- bao gồm
- bao gồm
- Bao gồm
- Tăng lên
- Tăng
- tăng
- độc lập
- độc lập
- các ngành công nghiệp
- ngành công nghiệp
- không hiệu quả
- phồng lên
- thông tin
- sự đổi mới
- đầu vào
- ví dụ
- thay vì
- hướng dẫn
- tích hợp
- tích hợp
- quan tâm
- Internet
- trong
- Giới thiệu
- IT
- ITS
- james
- Java
- Việc làm
- việc làm
- tham gia
- jpg
- Giữ
- giữ
- Key
- đá
- kiến thức
- Ngôn ngữ
- lớn
- lớn nhất
- mới nhất
- lãnh đạo
- Dẫn
- học tập
- cho phép
- Cấp
- Thư viện
- Giấy phép
- nằm
- Lượt thích
- Lượt thích
- LINK
- liên kết
- Liệt kê
- LLM
- tải
- tải
- địa phương
- địa điểm thư viện nào
- đăng nhập
- khai thác gỗ
- logic
- Xem
- giống như
- tìm kiếm
- sự mất
- máy
- học máy
- Chủ yếu
- LÀM CHO
- Làm
- quản lý
- quản lý
- quản lý
- quản lý
- nhiều
- Marketing
- Quảng cáo tiếp thị
- lớn
- Có thể..
- Bộ nhớ
- đi
- sáp nhập
- Siêu dữ liệu
- phương pháp
- phương pháp
- Metrics
- di chuyển
- ML
- MLOps
- Chế độ
- kiểu mẫu
- mô hình
- Modules
- chi tiết
- nhiều
- tên
- Tự nhiên
- Xử lý ngôn ngữ tự nhiên
- cần thiết
- Cần
- cần
- nhu cầu
- Mới
- nlp
- máy tính xách tay
- tại
- con số
- of
- off
- Cung cấp
- thường
- on
- hàng loạt
- ONE
- có thể
- hoạt động
- Hoạt động
- tối ưu hóa
- Tối ưu hóa
- tối ưu hóa
- tối ưu hóa
- or
- cơ quan
- tổ chức
- nguyên
- Nền tảng khác
- vfoXNUMXfipXNUMXhfpiXNUMXufhpiXNUMXuf
- kết quả
- đầu ra
- kết thúc
- Vượt qua
- áp đảo
- riêng
- gói
- tham số
- thông số
- một phần
- niềm đam mê
- Bằng sáng chế
- con đường
- phần trăm
- hiệu suất
- quyền
- miếng
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- chơi
- thêm
- điều luật
- Phổ biến
- phổ biến
- phần
- có thể
- Bài đăng
- quyền lực
- mạnh mẽ
- Thực tế
- thực hành
- điều kiện tiên quyết
- quà
- bảo quản
- ngăn chặn
- trước đây
- chính
- Hiệu trưởng
- Trước khi
- quá trình
- Quy trình
- xử lý
- Tiến độ
- đúng
- tài sản
- cung cấp
- Đẩy
- Python
- ngọn đuốc
- câu hỏi
- Mau
- phạm vi
- nhanh chóng
- thời gian thực
- lý do
- lý do
- gần đây
- giảm
- Giảm
- làm giảm
- giảm
- xem
- phản ánh
- ghi danh
- đăng ký
- đăng ký
- liên quan
- Mối quan hệ
- có liên quan
- đáng chú ý
- Báo cáo
- kho
- yêu cầu
- cần phải
- Yêu cầu
- Thông tin
- REST của
- kết quả
- tái sử dụng
- ngay
- Vai trò
- vai trò
- chạy
- chạy
- chạy
- thời gian chạy
- nhà làm hiền triết
- Lưu
- lưu
- tiết kiệm
- Tiết kiệm
- Quy mô
- mở rộng quy mô
- Khoa học
- các nhà khoa học
- sdk
- Tìm kiếm
- Thứ hai
- Phần
- phần
- tìm kiếm
- bán dẫn
- cao cấp
- riêng biệt
- ngăn cách
- dịch vụ
- DỊCH VỤ
- phục vụ
- một số
- Chia sẻ
- chia sẻ
- chị ấy
- nên
- thể hiện
- Chương trình
- tương tự
- Đơn giản
- kể từ khi
- duy nhất
- Kích thước máy
- chậm
- nhỏ
- nhỏ hơn
- đoạn
- giải pháp
- Giải pháp
- một số
- nguồn
- Không gian
- Vôn
- chuyên gia
- chuyên nghành
- riêng
- đặc biệt
- tiêu
- chia
- các bên liên quan
- Bắt đầu
- Tiểu bang
- nhà nước-of-the-art
- Trạng thái
- Bước
- Các bước
- Vẫn còn
- là gắn
- hàng
- lưu trữ
- phòng thu
- như vậy
- hỗ trợ
- TAG
- dùng
- Nhiệm vụ
- nhiệm vụ
- kỹ thuật
- kỹ thuật
- Công nghệ
- Công nghệ
- viễn thông
- về
- thử nghiệm
- văn bản
- việc này
- Sản phẩm
- cung cấp their dịch
- Them
- sau đó
- Đó
- Kia là
- họ
- điều này
- Thông qua
- thời gian
- đến
- bên nhau
- công cụ
- ngọn đuốc
- theo dõi
- truyền thống
- Train
- Hội thảo
- chuyển
- biến áp
- máy biến áp
- Đi du lịch
- đúng
- thử
- điều chỉnh
- điều chỉnh
- điều chỉnh
- hai
- kiểu
- loại
- Dưới
- sự hiểu biết
- Cập nhật
- cập nhật
- tải lên
- URL
- sử dụng
- ca sử dụng
- đã sử dụng
- người sử dang
- Người sử dụng
- sử dụng
- xác nhận
- Quý báu
- giá trị
- nhiều
- khác nhau
- Lớn
- phiên bản
- phiên bản
- rất
- thông qua
- Xem
- tầm nhìn
- trực quan
- đi bộ
- đi bộ
- muốn
- là
- Đường..
- cách
- we
- web
- các dịch vụ web
- khi nào
- cái nào
- trong khi
- tại sao
- rộng
- Phạm vi rộng
- sẽ
- với
- ở trong
- không có
- Dành cho Nữ
- Công việc
- làm việc
- Luồng công việc
- công trinh
- năm
- Bạn
- trên màn hình
- mình
- zephyrnet