Bài đăng trên blog này được đồng viết với Tuana Çelik từ deepset.
Tìm kiếm doanh nghiệp là một thành phần quan trọng mang lại hiệu quả cho tổ chức thông qua số hóa tài liệu và quản lý kiến thức. Tìm kiếm doanh nghiệp bao gồm việc lưu trữ các tài liệu như tệp kỹ thuật số, lập chỉ mục tài liệu để tìm kiếm và cung cấp các kết quả có liên quan dựa trên truy vấn của người dùng. Với sự ra đời của các mô hình ngôn ngữ lớn (LLM), chúng ta có thể triển khai trải nghiệm đàm thoại trong việc cung cấp kết quả cho người dùng. Tuy nhiên, chúng tôi cần đảm bảo rằng LLM hạn chế phản hồi đối với dữ liệu của công ty, từ đó giảm thiểu ảo giác về mô hình.
Trong bài đăng này, chúng tôi giới thiệu cách xây dựng một ứng dụng AI tổng hợp từ đầu đến cuối cho tìm kiếm doanh nghiệp với Thế hệ tăng cường truy xuất (RAG) bằng cách sử dụng đường dẫn Haystack và mô hình hướng dẫn Falcon-40b từ Khởi động Amazon SageMaker và Dịch vụ Tìm kiếm Mở của Amazon. Mã nguồn của mẫu được trình bày trong bài đăng này có sẵn trong Kho GitHub
Tổng quan về giải pháp
Để hạn chế các phản hồi của ứng dụng AI tổng quát chỉ đối với dữ liệu của công ty, chúng tôi cần sử dụng một kỹ thuật có tên là Thế hệ tăng cường truy xuất (RAG). Ứng dụng sử dụng phương pháp RAG truy xuất thông tin phù hợp nhất với yêu cầu của người dùng từ nội dung hoặc cơ sở kiến thức doanh nghiệp, gói thông tin đó dưới dạng ngữ cảnh cùng với yêu cầu của người dùng dưới dạng lời nhắc, sau đó gửi thông tin đó đến LLM để nhận phản hồi. LLM có những hạn chế về số lượng từ tối đa cho lời nhắc đầu vào, do đó việc chọn đúng đoạn văn trong số hàng nghìn hoặc hàng triệu tài liệu trong doanh nghiệp có tác động trực tiếp đến độ chính xác của LLM.
Kỹ thuật RAG ngày càng trở nên quan trọng trong tìm kiếm doanh nghiệp. Trong bài đăng này, chúng tôi trình bày một quy trình làm việc tận dụng SageMaker JumpStart để triển khai mô hình hướng dẫn Falcon-40b và sử dụng Haystack để thiết kế và chạy quy trình trả lời câu hỏi tăng cường truy xuất. Quy trình tăng cường truy xuất cuối cùng bao gồm các bước cấp cao sau:
- Truy vấn người dùng được sử dụng cho thành phần truy xuất, thực hiện tìm kiếm vectơ, để truy xuất ngữ cảnh phù hợp nhất từ cơ sở dữ liệu của chúng tôi.
- Ngữ cảnh này được nhúng vào lời nhắc được thiết kế để hướng dẫn LLM chỉ tạo câu trả lời từ ngữ cảnh được cung cấp.
- LLM tạo phản hồi cho truy vấn ban đầu bằng cách chỉ xem xét ngữ cảnh được nhúng vào lời nhắc mà nó nhận được.
Khởi động SageMaker
SageMaker JumpStart đóng vai trò như một trung tâm mô hình bao gồm một loạt các mô hình deep learning cho các trường hợp sử dụng văn bản, hình ảnh, âm thanh và nhúng. Với hơn 500 mô hình, trung tâm mô hình của nó bao gồm cả mô hình công khai và độc quyền từ các đối tác của AWS như AI21, Stability AI, Cohere và LightOn. Nó cũng lưu trữ các mô hình nền tảng được phát triển độc quyền bởi Amazon, chẳng hạn như AlexaTM. Một số mô hình cung cấp khả năng để bạn tinh chỉnh chúng bằng dữ liệu của riêng bạn. SageMaker JumpStart cũng cung cấp các mẫu giải pháp thiết lập cơ sở hạ tầng cho các trường hợp sử dụng phổ biến và sổ ghi chép ví dụ thực thi cho máy học (ML) với SageMaker.
đống cỏ khô
đống cỏ khô là một khung mã nguồn mở của deepset cho phép các nhà phát triển điều phối các ứng dụng LLM được tạo thành từ các thành phần khác nhau như mô hình, DB vectơ, trình chuyển đổi tệp và vô số mô-đun khác. Haystack cung cấp đường ống và Đại lý, hai cấu trúc mạnh mẽ để thiết kế các ứng dụng LLM cho nhiều trường hợp sử dụng khác nhau bao gồm tìm kiếm, trả lời câu hỏi và AI đàm thoại. Với sự tập trung chủ yếu vào các phương pháp truy xuất hiện đại và số liệu đánh giá chắc chắn, nó cung cấp cho bạn mọi thứ bạn cần để cung cấp một ứng dụng đáng tin cậy. Bạn có thể tuần tự hóa các đường ống thành Tệp YAML, phơi bày chúng thông qua một REST APIvà thay đổi quy mô một cách linh hoạt tùy theo khối lượng công việc của bạn, giúp bạn dễ dàng chuyển ứng dụng của mình từ giai đoạn nguyên mẫu sang giai đoạn sản xuất.
Tìm kiếm mở của Amazon
Dịch vụ OpenSearch là một dịch vụ được quản lý toàn phần giúp việc triển khai, mở rộng quy mô và vận hành OpenSearch trên Đám mây AWS trở nên đơn giản. OpenSearch là bộ phần mềm nguồn mở có khả năng mở rộng, linh hoạt và có khả năng mở rộng dành cho các ứng dụng tìm kiếm, phân tích, giám sát bảo mật và khả năng quan sát, được cấp phép theo giấy phép Apache 2.0.
Trong những năm gần đây, kỹ thuật ML ngày càng trở nên phổ biến để tăng cường tìm kiếm. Trong số đó có việc sử dụng nhúng mô hình, một loại mô hình có thể mã hóa một lượng lớn dữ liệu vào không gian n chiều trong đó mỗi thực thể được mã hóa thành một vector, một điểm dữ liệu trong không gian đó và được tổ chức sao cho các thực thể tương tự ở gần nhau hơn. Cơ sở dữ liệu vectơ cung cấp khả năng tìm kiếm tương tự vectơ hiệu quả bằng cách cung cấp các chỉ mục chuyên biệt như chỉ mục k-NN.
Với khả năng cơ sở dữ liệu vectơ của Dịch vụ OpenSearch, bạn có thể triển khai tìm kiếm ngữ nghĩa, RAG với LLM, công cụ đề xuất và tìm kiếm đa phương tiện. Trong bài đăng này, chúng tôi sử dụng RAG để cho phép chúng tôi bổ sung cho các LLM tổng quát bằng cơ sở kiến thức bên ngoài thường được xây dựng bằng cách sử dụng cơ sở dữ liệu vectơ được tích hợp với các bài viết kiến thức được mã hóa bằng vectơ.
Tổng quan về ứng dụng
Sơ đồ sau đây mô tả cấu trúc của ứng dụng cuối cùng.
Trong ứng dụng này, chúng tôi sử dụng Đường ống lập chỉ mục Haystack để quản lý các tài liệu đã tải lên và tài liệu chỉ mục, cũng như Đường ống truy vấn Haystack để thực hiện truy xuất kiến thức từ các tài liệu được lập chỉ mục.
Quy trình lập chỉ mục Haystack bao gồm các bước cấp cao sau:
- Tải lên một tài liệu.
- khởi
DocumentStore
và các tài liệu chỉ mục.
Chúng tôi sử dụng OpenSearch làm Cửa hàng tài liệu và một Haystack đường dẫn lập chỉ mục để xử lý trước và lập chỉ mục các tệp của chúng tôi cho OpenSearch. đống cỏ khô Trình chuyển đổi tập tin và Bộ tiền xử lý cho phép bạn dọn dẹp và chuẩn bị các tệp thô của mình ở hình dạng và định dạng mà mô hình ngôn ngữ và quy trình xử lý ngôn ngữ tự nhiên (NLP) mà bạn chọn có thể xử lý. Quy trình lập chỉ mục mà chúng tôi sử dụng ở đây cũng sử dụng sentence-transformers/all-MiniLM-L12-v2
để tạo các phần nhúng cho từng tài liệu mà chúng tôi sử dụng để truy xuất hiệu quả.
Đường dẫn truy vấn Haystack bao gồm các bước cấp cao sau:
- Chúng tôi gửi truy vấn đến đường dẫn RAG.
- An NhúngRetriever thành phần hoạt động như một bộ lọc truy xuất những thông tin phù hợp nhất
top_k
tài liệu từ các tài liệu được lập chỉ mục của chúng tôi trong OpenSearch. Chúng tôi sử dụng mô hình nhúng lựa chọn của mình để nhúng cả truy vấn và tài liệu (lúc lập chỉ mục) để đạt được điều này. - Các tài liệu được truy xuất sẽ được nhúng vào lời nhắc của chúng tôi đối với mô hình hướng dẫn Falcon-40b.
- LLM trả về với phản hồi dựa trên các tài liệu được truy xuất.
Để triển khai mô hình, chúng tôi sử dụng SageMaker JumpStart, giúp đơn giản hóa việc triển khai mô hình chỉ bằng một nút nhấn đơn giản. Mặc dù chúng tôi đã sử dụng và thử nghiệm Falcon-40b-instruct cho ví dụ này nhưng bạn có thể sử dụng bất kỳ mô hình Ôm mặt nào có sẵn trên SageMaker.
Giải pháp cuối cùng có sẵn trên thợ làm cỏ khô kho lưu trữ và sử dụng trang web và tài liệu OpenSearch (dành cho OpenSearch 2.7) làm dữ liệu mẫu của chúng tôi để thực hiện trả lời câu hỏi tăng cường truy xuất.
Điều kiện tiên quyết
Điều đầu tiên cần làm trước khi có thể sử dụng bất kỳ dịch vụ AWS nào là đảm bảo rằng chúng tôi đã đăng ký và tạo tài khoản AWS. Sau đó, bạn nên tạo một người dùng và nhóm quản trị. Để biết hướng dẫn về cả hai bước, hãy tham khảo Thiết lập điều kiện tiên quyết của Amazon SageMaker.
Để có thể sử dụng Haystack, bạn sẽ phải cài đặt farm-haystack
gói với các phụ thuộc cần thiết. Để thực hiện điều này, hãy sử dụng requirements.txt
tập tin trong Kho GitHub bằng cách chạy pip install requirements.txt
.
Lập chỉ mục tài liệu cho OpenSearch
Haystack cung cấp một số trình kết nối tới cơ sở dữ liệu, được gọi là DocumentStores
. Đối với quy trình làm việc RAG này, chúng tôi sử dụng OpenSearchDocumentStore
. Ví dụ kho bao gồm một đường dẫn lập chỉ mục và Hình thành đám mây AWS mẫu để thiết lập một OpenSearchDocumentStore
với các tài liệu được thu thập từ trang web OpenSearch và các trang tài liệu.
Thông thường, để ứng dụng NLP hoạt động cho các trường hợp sử dụng sản xuất, cuối cùng chúng ta phải suy nghĩ về việc chuẩn bị và làm sạch dữ liệu. Điều này được bao phủ bởi Đường dẫn lập chỉ mục Haystack, cho phép bạn thiết kế các bước chuẩn bị dữ liệu của riêng mình, cuối cùng ghi tài liệu của bạn vào cơ sở dữ liệu mà bạn chọn.
Quy trình lập chỉ mục cũng có thể bao gồm một bước để tạo phần nhúng cho tài liệu của bạn. Điều này rất quan trọng cho bước truy xuất. Trong ví dụ của chúng tôi, chúng tôi sử dụng biến đổi câu/all-MiniLM-L12-v2 như mô hình nhúng của chúng tôi. Mô hình này được sử dụng để tạo phần nhúng cho tất cả tài liệu được lập chỉ mục của chúng tôi cũng như truy vấn của người dùng tại thời điểm truy vấn.
Để lập chỉ mục các tài liệu vào OpenSearchDocumentStore
, chúng tôi cung cấp hai tùy chọn với hướng dẫn chi tiết trong README của kho lưu trữ ví dụ. Ở đây, chúng ta sẽ hướng dẫn các bước lập chỉ mục cho dịch vụ OpenSearch được triển khai trên AWS.
Bắt đầu dịch vụ OpenSearch
Sử dụng được cung cấp Mẫu CloudFormation để thiết lập dịch vụ OpenSearch trên AWS. Bằng cách chạy lệnh sau, bạn sẽ có dịch vụ OpenSearch trống. Sau đó, bạn có thể chọn lập chỉ mục dữ liệu mẫu mà chúng tôi đã cung cấp hoặc sử dụng dữ liệu của riêng bạn mà bạn có thể làm sạch và xử lý trước bằng cách sử dụng Đường ống lập chỉ mục Haystack. Lưu ý rằng điều này tạo ra một phiên bản mở với internet, phiên bản này không được khuyến khích sử dụng trong sản xuất.
Chờ khoảng 30 phút để quá trình khởi chạy ngăn xếp hoàn tất. Bạn có thể kiểm tra tiến trình của nó trên bảng điều khiển AWS CloudFormation bằng cách điều hướng tới Stacks trang và tìm kiếm ngăn xếp có tên HaystackOpensearch
.
Lập chỉ mục tài liệu vào OpenSearch
Bây giờ chúng ta có một dịch vụ OpenSearch đang chạy, chúng ta có thể sử dụng lớp OpenSearchDocumentStore để kết nối với nó và ghi tài liệu của mình vào đó.
Để lấy tên máy chủ cho OpenSearch, hãy chạy lệnh sau:
Đầu tiên, xuất như sau:
Sau đó, bạn có thể sử dụng opensearch_indexing_pipeline.py
tập lệnh để xử lý trước và lập chỉ mục dữ liệu demo được cung cấp.
Nếu bạn muốn sử dụng dữ liệu của riêng mình, hãy sửa đổi quy trình lập chỉ mục trong opensearch_indexing_pipeline.py
bao gồm Trình chuyển đổi tập tin và Bộ tiền xử lý các bước thiết lập bạn yêu cầu.
Triển khai quy trình trả lời câu hỏi tăng cường truy xuất
Bây giờ chúng ta đã lập chỉ mục dữ liệu trong OpenSearch, chúng ta có thể thực hiện trả lời câu hỏi trên các tài liệu này. Đối với quy trình RAG này, chúng tôi sử dụng mô hình hướng dẫn Falcon-40b mà chúng tôi đã triển khai trên SageMaker JumpStart.
Bạn cũng có tùy chọn triển khai mô hình theo chương trình từ sổ ghi chép Jupyter. Để biết hướng dẫn, hãy tham khảo Repo GitHub.
- Tìm kiếm mô hình hướng dẫn Falcon-40b trên SageMaker JumpStart.
- Triển khai mô hình của bạn trên SageMaker JumpStart và ghi lại tên điểm cuối.
- Xuất các giá trị sau:
- chạy
python rag_pipeline.py
.
Thao tác này sẽ khởi động tiện ích dòng lệnh chờ câu hỏi của người dùng. Ví dụ: hãy hỏi “Làm cách nào tôi có thể cài đặt cli OpenSearch?”
Kết quả này đạt được là do chúng tôi đã xác định lời nhắc của mình trong Mẫu nhắc nhở Haystack như sau:
Tùy chỉnh thêm
Bạn có thể thực hiện các tùy chỉnh bổ sung cho các thành phần khác nhau trong giải pháp, chẳng hạn như sau:
- Dữ liệu – Chúng tôi đã cung cấp OpenSearch tài liệu hướng dẫn và trang mạng dữ liệu làm dữ liệu mẫu. Hãy nhớ sửa đổi
opensearch_indexing_pipeline.py
script phù hợp với nhu cầu của bạn nếu bạn chọn sử dụng dữ liệu của riêng mình. - Ngươi mâu – Trong ví dụ này, chúng tôi đã sử dụng mô hình hướng dẫn Falcon-40b. Bạn có thể tự do triển khai và sử dụng bất kỳ mô hình Ôm Mặt nào khác trên SageMaker. Lưu ý rằng việc thay đổi một mô hình có thể có nghĩa là bạn phải điều chỉnh lời nhắc của mình cho phù hợp với nội dung được thiết kế để xử lý.
- dấu nhắc – Đối với bài đăng này, chúng tôi đã tạo riêng của mình
PromptTemplate
hướng dẫn mô hình trả lời các câu hỏi dựa trên ngữ cảnh được cung cấp và trả lời “Tôi không biết” nếu ngữ cảnh không bao gồm thông tin liên quan. Bạn có thể thay đổi lời nhắc này để thử nghiệm các lời nhắc khác nhau với hướng dẫn Falcon-40b. Bạn cũng có thể chỉ cần lấy một số lời nhắc của chúng tôi từ NhắcHub. - Mô hình nhúng – Đối với bước truy xuất, chúng tôi sử dụng mô hình nhúng nhẹ: biến đổi câu/all-MiniLM-L12-v2. Tuy nhiên, bạn cũng có thể thay đổi điều này theo nhu cầu của mình. Hãy nhớ sửa đổi kích thước nhúng dự kiến trong
DocumentStore
cho phù hợp. - Số lượng tài liệu được truy xuất – Bạn cũng có thể chọn thử xem xét số lượng tài liệu bạn yêu cầu
EmbeddingRetriever
để truy xuất cho mỗi truy vấn. Trong thiết lập của chúng tôi, điều này được đặt thành đầu_k=5. Bạn có thể thử nghiệm thay đổi con số này để xem liệu việc cung cấp thêm ngữ cảnh có cải thiện độ chính xác của kết quả hay không.
Sẵn sàng sản xuất
Giải pháp được đề xuất trong bài viết này có thể đẩy nhanh thời gian đạt được giá trị của quá trình phát triển dự án. Bạn có thể xây dựng một dự án dễ dàng mở rộng quy mô với môi trường bảo mật và quyền riêng tư trên Đám mây AWS.
Để bảo mật và quyền riêng tư, Dịch vụ OpenSearch cung cấp tính năng bảo vệ dữ liệu bằng quản lý danh tính và truy cập và ngăn chặn proxy nhầm lẫn dịch vụ chéo. Bạn có thể sử dụng kiểm soát truy cập chi tiết của người dùng để người dùng chỉ có thể truy cập dữ liệu mà họ được phép truy cập. Ngoài ra, SageMaker còn cung cấp các cài đặt bảo mật có thể định cấu hình cho kiểm soát truy cập, bảo vệ dữ liệuvà ghi nhật ký và giám sát. Bạn có thể bảo vệ dữ liệu của mình khi lưu trữ và truyền tải với Dịch vụ quản lý khóa AWS (AWS KMS). Bạn cũng có thể theo dõi nhật ký triển khai mô hình SageMaker hoặc truy cập điểm cuối bằng cách sử dụng amazoncloudwatch. Để biết thêm thông tin, hãy tham khảo Giám sát Amazon SageMaker với Amazon CloudWatch.
Để có khả năng mở rộng cao trên Dịch vụ OpenSearch, bạn có thể điều chỉnh bằng cách định cỡ miền Dịch vụ OpenSearch của bạn và sử dụng thực hành tốt nhất về hoạt động. Bạn cũng có thể tận dụng tính năng tự động điều chỉnh quy mô điểm cuối SageMaker của mình—bạn có thể tự động chia tỷ lệ mô hình SageMaker để điều chỉnh điểm cuối cả khi lưu lượng truy cập tăng hoặc tài nguyên không được sử dụng.
Làm sạch
Để tiết kiệm chi phí, hãy xóa tất cả tài nguyên bạn đã triển khai như một phần của bài đăng này. Nếu đã khởi chạy ngăn xếp CloudFormation, bạn có thể xóa ngăn xếp đó thông qua bảng điều khiển AWS CloudFormation. Tương tự, bạn có thể xóa mọi điểm cuối SageMaker mà bạn có thể đã tạo thông qua bảng điều khiển SageMaker.
Kết luận
Trong bài đăng này, chúng tôi đã giới thiệu cách xây dựng một ứng dụng AI toàn diện dành cho tìm kiếm doanh nghiệp với RAG bằng cách sử dụng đường dẫn Haystack và mô hình hướng dẫn Falcon-40b từ SageMaker JumpStart và OpenSearch Service. Cách tiếp cận RAG rất quan trọng trong tìm kiếm doanh nghiệp vì nó đảm bảo rằng các phản hồi được tạo ra nằm trong miền và do đó giảm thiểu ảo giác. Bằng cách sử dụng quy trình Haystack, chúng tôi có thể điều phối các ứng dụng LLM được tạo thành từ các thành phần khác nhau như mô hình và cơ sở dữ liệu vectơ. SageMaker JumpStart cung cấp cho chúng tôi giải pháp một cú nhấp chuột để triển khai LLM và chúng tôi đã sử dụng Dịch vụ OpenSearch làm cơ sở dữ liệu vectơ cho dữ liệu được lập chỉ mục của mình. Bạn có thể bắt đầu thử nghiệm và xây dựng các bằng chứng khái niệm RAG cho các ứng dụng AI tổng hợp dành cho doanh nghiệp của mình bằng cách sử dụng các bước được nêu trong bài đăng này và mã nguồn có sẵn trong Kho GitHub.
Về các tác giả
Tuana Celik là Người ủng hộ nhà phát triển chính tại deepset, nơi cô tập trung vào cộng đồng nguồn mở cho Haystack. Cô lãnh đạo bộ phận quan hệ với nhà phát triển và thường xuyên phát biểu tại các sự kiện về NLP cũng như tạo tài liệu học tập cho cộng đồng.
Roy Allela là Kiến trúc sư giải pháp chuyên gia AI/ML cấp cao tại AWS có trụ sở tại Munich, Đức. Roy giúp khách hàng của AWS—từ các công ty khởi nghiệp nhỏ đến các doanh nghiệp lớn—đào tạo và triển khai các mô hình ngôn ngữ lớn một cách hiệu quả trên AWS. Roy đam mê các vấn đề tối ưu hóa tính toán và cải thiện hiệu suất của khối lượng công việc AI.
Mia Chang là Kiến trúc sư giải pháp chuyên gia ML cho Dịch vụ web của Amazon. Cô làm việc với khách hàng ở EMEA và chia sẻ các phương pháp hay nhất để chạy khối lượng công việc AI/ML trên đám mây với nền tảng về toán học ứng dụng, khoa học máy tính và AI/ML. Cô tập trung vào khối lượng công việc dành riêng cho NLP và chia sẻ kinh nghiệm của mình với tư cách là diễn giả hội nghị và tác giả sách. Khi rảnh rỗi, cô thích đi bộ đường dài, chơi board game và pha cà phê.
Inaam Syed là Kiến trúc sư giải pháp khởi nghiệp tại AWS, tập trung chủ yếu vào việc hỗ trợ các công ty khởi nghiệp B2B và SaaS trong việc mở rộng quy mô và đạt được mức tăng trưởng. Anh ấy có niềm đam mê sâu sắc với kiến trúc serverless và AI/ML. Trong thời gian rảnh rỗi, Inaam tận hưởng những giây phút vui vẻ bên gia đình và đam mê đạp xe và cầu lông.
David Tippett là Người ủng hộ nhà phát triển cấp cao làm việc về Tìm kiếm mở nguồn mở tại AWS. Công việc của anh liên quan đến tất cả các lĩnh vực của OpenSearch, từ tìm kiếm và mức độ liên quan đến khả năng quan sát và phân tích bảo mật.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Ô tô / Xe điện, Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- ChartPrime. Nâng cao trò chơi giao dịch của bạn với ChartPrime. Truy cập Tại đây.
- BlockOffsets. Hiện đại hóa quyền sở hữu bù đắp môi trường. Truy cập Tại đây.
- nguồn: https://aws.amazon.com/blogs/machine-learning/build-production-ready-generative-ai-applications-for-enterprise-search-using-haystack-pipelines-and-amazon-sagemaker-jumpstart-with-llms/
- : có
- :là
- :không phải
- :Ở đâu
- $ LÊN
- 100
- 12
- 13
- 30
- 500
- 7
- 8
- a
- Có khả năng
- Giới thiệu
- đẩy nhanh tiến độ
- truy cập
- hoàn thành
- cho phù hợp
- Tài khoản
- chính xác
- Đạt được
- đạt được
- đạt được
- hành vi
- thích ứng
- thêm vào
- Ngoài ra
- hành chính
- Lợi thế
- sự xuất hiện
- biện hộ
- AI
- AI / ML
- Tất cả
- cho phép
- cho phép
- dọc theo
- Ngoài ra
- Mặc dù
- đàn bà gan dạ
- Amazon SageMaker
- Khởi động Amazon SageMaker
- Amazon Web Services
- trong số
- an
- phân tích
- và
- trả lời
- bất kì
- Apache
- Các Ứng Dụng
- các ứng dụng
- áp dụng
- phương pháp tiếp cận
- khoảng
- LÀ
- khu vực
- xung quanh
- Mảng
- Nghệ thuật
- bài viết
- AS
- trợ giúp
- At
- âm thanh
- tăng cường
- tác giả
- ủy quyền
- tự động
- có sẵn
- AWS
- Hình thành đám mây AWS
- B2B
- lý lịch
- cơ sở
- dựa
- BE
- bởi vì
- trở nên
- trước
- được
- phía dưới
- BEST
- thực hành tốt nhất
- lớn
- Blog
- bảng
- Board Games
- thân hình
- cuốn sách
- cả hai
- rộng
- xây dựng
- Xây dựng
- xây dựng
- bó
- nhưng
- nút
- by
- gọi là
- CAN
- khả năng
- trường hợp
- thay đổi
- thay đổi
- kiểm tra
- sự lựa chọn
- Chọn
- lựa chọn
- chọn
- tốt nghiệp lớp XNUMX
- Làm sạch
- gần gũi hơn
- đám mây
- mã
- Cà Phê
- Chung
- cộng đồng
- công ty
- Bổ sung
- hoàn thành
- thành phần
- các thành phần
- bao gồm
- máy tính
- Khoa học Máy tính
- khái niệm
- Hội nghị
- nhầm lẫn
- Kết nối
- xem xét
- An ủi
- chứa
- nội dung
- bối cảnh
- điều khiển
- đàm thoại
- AI đàm thoại
- Chi phí
- phủ
- Covers
- tạo
- tạo ra
- tạo ra
- quan trọng
- khách hàng
- dữ liệu
- Chuẩn bị dữ liệu
- bảo vệ dữ liệu
- Cơ sở dữ liệu
- cơ sở dữ liệu
- DBS
- nhiều
- sâu
- học kĩ càng
- xác định
- bản demo
- phụ thuộc
- triển khai
- triển khai
- triển khai
- triển khai
- Thiết kế
- thiết kế
- thiết kế
- chi tiết
- phát triển
- Nhà phát triển
- phát triển
- Phát triển
- khác nhau
- kỹ thuật số
- số hóa
- kích thước
- trực tiếp
- do
- tài liệu
- tài liệu hướng dẫn
- tài liệu
- làm
- Không
- don
- dont
- mỗi
- dễ dàng
- hiệu quả
- hiệu quả
- hiệu quả
- hay
- các yếu tố
- nhúng
- nhúng
- nhúng
- EMEA
- cho phép
- cuối
- Cuối cùng đến cuối
- Điểm cuối
- Động cơ
- nâng cao
- đảm bảo
- đảm bảo
- Doanh nghiệp
- thực thể
- thực thể
- Môi trường
- đánh giá
- sự kiện
- tất cả mọi thứ
- ví dụ
- dự kiến
- kinh nghiệm
- Kinh nghiệm
- thử nghiệm
- xuất khẩu
- ngoài
- Đối mặt
- gia đình
- Hình
- Tập tin
- Các tập tin
- lọc
- cuối cùng
- Tên
- phù hợp với
- linh hoạt
- linh hoạt
- Tập trung
- tập trung
- tiếp theo
- Trong
- định dạng
- Nền tảng
- Khung
- Miễn phí
- từ
- đầy đủ
- chức năng
- Trò chơi
- tạo ra
- tạo ra
- tạo
- thế hệ
- thế hệ
- Trí tuệ nhân tạo
- Nước Đức
- được
- được
- Nhóm
- Tăng trưởng
- xử lý
- Có
- có
- he
- giúp
- cô
- tại đây
- Cao
- cấp độ cao
- cao
- của mình
- host
- Độ đáng tin của
- Hướng dẫn
- Tuy nhiên
- HTML
- http
- HTTPS
- Hub
- i
- Bản sắc
- if
- Va chạm
- thực hiện
- quan trọng
- cải thiện
- in
- bao gồm
- bao gồm
- Bao gồm
- tăng
- lên
- chỉ số
- lập chỉ mục
- chỉ số
- thông tin
- Cơ sở hạ tầng
- đầu vào
- cài đặt, dựng lên
- ví dụ
- hướng dẫn
- Internet
- trong
- IT
- ITS
- jpg
- Key
- phím
- Biết
- kiến thức
- Quản lý tri thức
- Ngôn ngữ
- lớn
- phóng
- phát động
- dẫn
- Dẫn
- học tập
- Giấy phép
- Cấp phép
- trọng lượng nhẹ
- Lượt thích
- Có khả năng
- LIMIT
- hạn chế
- Dòng
- LLM
- đăng nhập
- khai thác gỗ
- tìm kiếm
- yêu
- máy
- học máy
- thực hiện
- làm cho
- LÀM CHO
- Làm
- quản lý
- quản lý
- quản lý
- nguyên vật liệu
- toán học
- tối đa
- Có thể..
- nghĩa là
- Phương tiện truyền thông
- phương pháp
- Metrics
- hàng triệu
- Phút
- giảm nhẹ
- ML
- kiểu mẫu
- mô hình
- sửa đổi
- Modules
- Khoảnh khắc
- giám sát
- chi tiết
- hầu hết
- di chuyển
- tên
- Được đặt theo tên
- Tự nhiên
- Xử lý ngôn ngữ tự nhiên
- điều hướng
- Cần
- nhu cầu
- nlp
- máy tính xách tay
- con số
- of
- cung cấp
- Cung cấp
- on
- có thể
- mở
- mã nguồn mở
- Phần mềm mã nguồn mở
- hoạt động
- tối ưu hóa
- Tùy chọn
- Các lựa chọn
- or
- tổ chức
- Tổ chức
- nguyên
- Nền tảng khác
- vfoXNUMXfipXNUMXhfpiXNUMXufhpiXNUMXuf
- nêu
- kết thúc
- riêng
- gói
- trang
- trang
- một phần
- Đối tác
- niềm đam mê
- đam mê
- Thực hiện
- hiệu suất
- đường ống dẫn
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- Play
- xin vui lòng
- Điểm
- Phổ biến
- Bài đăng
- mạnh mẽ
- thực hành
- chuẩn bị
- Chuẩn bị
- riêng tư
- vấn đề
- quá trình
- xử lý
- Sản lượng
- Tiến độ
- dự án
- bằng chứng
- đề xuất
- độc quyền
- bảo vệ
- bảo vệ
- nguyên mẫu
- cho
- cung cấp
- cung cấp
- cung cấp
- Proxy
- công khai
- Đẩy
- chất lượng
- truy vấn
- câu hỏi
- Câu hỏi
- Nguyên
- nhận
- gần đây
- Khuyến nghị
- đề nghị
- thường xuyên
- quan hệ
- sự liên quan
- có liên quan
- đáng tin cậy
- nhớ
- kho
- yêu cầu
- yêu cầu
- cần phải
- Yêu cầu
- Thông tin
- phản ứng
- phản ứng
- REST của
- hạn chế
- kết quả
- Kết quả
- Trả về
- Giàu
- ngay
- roy
- chạy
- chạy
- SaaS
- nhà làm hiền triết
- Lưu
- nói
- khả năng mở rộng
- khả năng mở rộng
- Quy mô
- mở rộng quy mô
- Khoa học
- Tìm kiếm
- an ninh
- xem
- gửi
- gửi
- cao cấp
- Không có máy chủ
- phục vụ
- dịch vụ
- DỊCH VỤ
- định
- thiết lập
- thiết lập
- Hình dạng
- cổ phiếu
- chị ấy
- TÀU
- nên
- hiển thị
- giới thiệu
- giới thiệu
- Ký kết
- tương tự
- Tương tự
- Đơn giản
- đơn giản
- nhỏ
- So
- Phần mềm
- chỉ duy nhất
- rắn
- giải pháp
- Giải pháp
- một số
- một cái gì đó
- nguồn
- mã nguồn
- Không gian
- Loa
- Nói
- chuyên gia
- chuyên nghành
- Tính ổn định
- ngăn xếp
- Traineeship
- Bắt đầu
- khởi động
- Startups
- Bước
- Các bước
- lưu trữ
- mạnh mẽ
- cấu trúc
- như vậy
- bộ
- chắc chắn
- Hãy
- mất
- kỹ thuật
- mẫu
- thử nghiệm
- việc này
- Sản phẩm
- Nguồn
- Them
- sau đó
- bằng cách ấy
- vì thế
- Kia là
- họ
- điều
- nghĩ
- điều này
- hàng ngàn
- Thông qua
- thời gian
- đến
- bên nhau
- theo dõi
- giao thông
- quá cảnh
- đáng tin cậy
- hai
- kiểu
- thường
- Cuối cùng
- Dưới
- tải lên
- us
- sử dụng
- đã sử dụng
- người sử dang
- Người sử dụng
- sử dụng
- sử dụng
- tiện ích
- giá trị
- Các giá trị
- khác nhau
- thông qua
- tầm nhìn
- chờ đợi
- we
- web
- các dịch vụ web
- Website
- khi nào
- cái nào
- sẽ
- với
- ở trong
- Từ
- Công việc
- quy trình làm việc
- đang làm việc
- công trinh
- sẽ
- viết
- khoai mỡ
- năm
- Bạn
- trên màn hình
- zephyrnet