Sự thành công của các ứng dụng AI tổng quát trên nhiều ngành công nghiệp đã thu hút sự chú ý và quan tâm của các công ty trên toàn thế giới đang tìm cách tái tạo và vượt qua thành tích của đối thủ cạnh tranh hoặc giải quyết các trường hợp sử dụng mới và thú vị. Những khách hàng này đang xem xét các mô hình nền tảng, chẳng hạn như TII Falcon, Stable Diffusion XL hoặc GPT-3.5 của OpenAI, làm động cơ thúc đẩy sự đổi mới AI tổng quát.
Các mô hình nền tảng là một lớp mô hình AI tổng quát có khả năng hiểu và tạo ra nội dung giống con người nhờ vào lượng lớn dữ liệu phi cấu trúc mà chúng đã được đào tạo. Những mô hình này đã cách mạng hóa các tác vụ thị giác máy tính (CV) và xử lý ngôn ngữ tự nhiên (NLP) khác nhau, bao gồm tạo hình ảnh, dịch thuật và trả lời câu hỏi. Chúng đóng vai trò là nền tảng cho nhiều ứng dụng AI và đã trở thành một thành phần quan trọng trong việc phát triển các hệ thống thông minh tiên tiến.
Tuy nhiên, việc triển khai các mô hình nền tảng có thể gặp phải những thách thức đáng kể, đặc biệt là về yêu cầu về chi phí và nguồn lực. Những mô hình này nổi tiếng với kích thước của chúng, thường dao động từ hàng trăm triệu đến hàng tỷ tham số. Kích thước lớn của chúng đòi hỏi nhiều tài nguyên tính toán, bao gồm phần cứng mạnh mẽ và dung lượng bộ nhớ đáng kể. Trên thực tế, việc triển khai các mô hình nền tảng thường yêu cầu ít nhất một (thường là nhiều hơn) GPU để xử lý tải tính toán một cách hiệu quả. Ví dụ: mô hình TII Falcon-40B Instruct yêu cầu ít nhất một phiên bản ml.g5.12xlarge để được tải vào bộ nhớ thành công nhưng hoạt động tốt nhất với các phiên bản lớn hơn. Do đó, lợi tức đầu tư (ROI) của việc triển khai và duy trì các mô hình này có thể quá thấp để chứng minh giá trị kinh doanh, đặc biệt là trong các chu kỳ phát triển hoặc đối với khối lượng công việc tăng đột biến. Điều này là do chi phí vận hành khi có các phiên bản được hỗ trợ GPU trong thời gian dài, có thể là 24/7.
Đầu năm nay, chúng tôi đã công bố nền tảng Amazon, một API không có máy chủ để truy cập các mô hình nền tảng từ Amazon và các đối tác AI tổng hợp của chúng tôi. Mặc dù hiện đang ở chế độ Xem trước riêng tư nhưng API không có máy chủ của nó cho phép bạn sử dụng các mô hình nền tảng từ Amazon, Anthropic, Stability AI và AI21 mà không cần phải tự mình triển khai bất kỳ điểm cuối nào. Tuy nhiên, các mô hình nguồn mở từ các cộng đồng như Hugging Face đã phát triển rất nhiều và không phải mô hình nào trong số đó cũng được cung cấp thông qua Amazon Bedrock.
Trong bài đăng này, chúng tôi nhắm đến những tình huống này và giải quyết vấn đề rủi ro chi phí cao bằng cách triển khai các mô hình nền tảng lớn để Amazon SageMaker điểm cuối không đồng bộ từ Khởi động Amazon SageMaker. Điều này có thể giúp cắt giảm chi phí của kiến trúc, cho phép điểm cuối chỉ chạy khi có yêu cầu trong hàng đợi và trong thời gian tồn tại ngắn, đồng thời giảm quy mô xuống XNUMX khi không có yêu cầu nào đang chờ được phục vụ. Điều này nghe có vẻ tuyệt vời đối với nhiều trường hợp sử dụng; tuy nhiên, điểm cuối đã giảm tỷ lệ xuống XNUMX sẽ đưa ra thời gian bắt đầu nguội trước khi có thể đưa ra suy luận.
Tổng quan về giải pháp
Sơ đồ sau minh họa kiến trúc giải pháp của chúng tôi.
Kiến trúc chúng tôi triển khai rất đơn giản:
- Giao diện người dùng là một cuốn sổ tay, có thể được thay thế bằng giao diện người dùng web được xây dựng trên Streamlit hoặc công nghệ tương tự. Trong trường hợp của chúng tôi, sổ ghi chép là một Xưởng sản xuất Amazon SageMaker sổ ghi chép, chạy trên phiên bản ml.m5.large với nhân CPU PyTorch 2.0 Python 3.10.
- Sổ ghi chép truy vấn điểm cuối theo ba cách: SDK SageMaker Python, AWS SDK cho Python (Boto3) và LangChain.
- Điểm cuối đang chạy không đồng bộ trên SageMaker và trên điểm cuối, chúng tôi triển khai mô hình Hướng dẫn Falcon-40B. Đây hiện là công nghệ tiên tiến nhất về mô hình hướng dẫn và có sẵn trong SageMaker JumpStart. Một lệnh gọi API duy nhất cho phép chúng tôi triển khai mô hình trên điểm cuối.
Suy luận không đồng bộ SageMaker là gì
Suy luận không đồng bộ của SageMaker là một trong bốn tùy chọn triển khai trong SageMaker, cùng với điểm cuối thời gian thực, suy luận hàng loạt và suy luận serverless. Để tìm hiểu thêm về các tùy chọn triển khai khác nhau, hãy tham khảo Triển khai các mô hình cho suy luận.
Suy luận không đồng bộ của SageMaker xếp hàng các yêu cầu đến và xử lý chúng một cách không đồng bộ, khiến tùy chọn này trở nên lý tưởng cho các yêu cầu có kích thước tải trọng lớn lên tới 1 GB, thời gian xử lý dài và yêu cầu về độ trễ gần như thời gian thực. Tuy nhiên, ưu điểm chính mà nó mang lại khi xử lý các mô hình nền tảng lớn, đặc biệt là trong quá trình chứng minh khái niệm (POC) hoặc trong quá trình phát triển, là khả năng định cấu hình suy luận không đồng bộ để mở rộng quy mô thành số lượng phiên bản bằng XNUMX khi không có yêu cầu nào quá trình, từ đó tiết kiệm chi phí. Để biết thêm thông tin về suy luận không đồng bộ của SageMaker, hãy tham khảo Suy luận không đồng bộ. Sơ đồ sau minh họa kiến trúc này.
Để triển khai điểm cuối suy luận không đồng bộ, bạn cần tạo một AsyncInferenceConfig
sự vật. Nếu bạn tạo AsyncInferenceConfig
mà không chỉ định đối số của nó, mặc định S3OutputPath
sẽ được s3://sagemaker-{REGION}-{ACCOUNTID}/async-endpoint-outputs/{UNIQUE-JOB-NAME}
và S3FailurePath
sẽ được s3://sagemaker-{REGION}-{ACCOUNTID}/async-endpoint-failures/{UNIQUE-JOB-NAME}
.
Khởi động SageMaker là gì
Mô hình của chúng tôi đến từ SageMaker JumpStart, một tính năng của SageMaker giúp tăng tốc hành trình học máy (ML) bằng cách cung cấp các mô hình được đào tạo trước, mẫu giải pháp và sổ ghi chép ví dụ. Nó cung cấp quyền truy cập vào một loạt các mô hình được đào tạo trước cho các loại vấn đề khác nhau, cho phép bạn bắt đầu các nhiệm vụ ML của mình với nền tảng vững chắc. SageMaker JumpStart cũng cung cấp các mẫu giải pháp cho các trường hợp sử dụng phổ biến và sổ ghi chép mẫu để học tập. Với SageMaker JumpStart, bạn có thể giảm thời gian và công sức cần thiết để bắt đầu các dự án ML của mình bằng cách khởi chạy giải pháp bằng một cú nhấp chuột và các tài nguyên toàn diện để có trải nghiệm ML thực tế.
Ảnh chụp màn hình sau đây hiển thị ví dụ về một số mẫu có sẵn trên giao diện người dùng SageMaker JumpStart.
Triển khai mô hình
Bước đầu tiên của chúng tôi là triển khai mô hình lên SageMaker. Để làm điều đó, chúng ta có thể sử dụng giao diện người dùng cho SageMaker JumpStart hoặc SageMaker Python SDK, cung cấp API mà chúng ta có thể sử dụng để triển khai mô hình đến điểm cuối không đồng bộ:
Cuộc gọi này có thể mất khoảng 10 phút để hoàn thành. Trong thời gian này, điểm cuối được tách ra, vùng chứa cùng với các thành phần lạ của mô hình được tải xuống điểm cuối, cấu hình mô hình được tải từ SageMaker JumpStart, sau đó điểm cuối không đồng bộ được hiển thị thông qua điểm cuối DNS. Để đảm bảo rằng điểm cuối của chúng tôi có thể giảm tỷ lệ về XNUMX, chúng tôi cần định cấu hình tự động chia tỷ lệ trên điểm cuối không đồng bộ bằng cách sử dụng Ứng dụng tự động chia tỷ lệ. Trước tiên, bạn cần đăng ký biến thể điểm cuối của mình với Ứng dụng tự động chia tỷ lệ, xác định chính sách chia tỷ lệ, sau đó áp dụng chính sách chia tỷ lệ. Trong cấu hình này, chúng tôi sử dụng số liệu tùy chỉnh bằng cách sử dụng CustomizedMetricSpecification
, Được gọi là ApproximateBacklogSizePerInstance
, như được hiển thị trong đoạn mã sau. Để có danh sách chi tiết về amazoncloudwatch số liệu có sẵn với điểm cuối suy luận không đồng bộ của bạn, hãy tham khảo Giám sát bằng CloudWatch.
Bạn có thể xác minh rằng chính sách này đã được đặt thành công bằng cách điều hướng tới bảng điều khiển SageMaker, chọn Điểm cuối Dưới Sự suy luận trong ngăn điều hướng và tìm kiếm điểm cuối mà chúng tôi vừa triển khai.
Gọi điểm cuối không đồng bộ
Để gọi điểm cuối, bạn cần đặt tải trọng yêu cầu vào Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) và cung cấp con trỏ tới tải trọng này như một phần của InvokeEndpointAsync
lời yêu cầu. Khi gọi, SageMaker xếp hàng yêu cầu xử lý và trả về mã định danh cũng như vị trí đầu ra dưới dạng phản hồi. Sau khi xử lý, SageMaker đặt kết quả vào vị trí Amazon S3. Bạn có thể tùy ý chọn nhận thông báo thành công hoặc lỗi với Dịch vụ thông báo đơn giản của Amazon (SNS của Amazon).
SDK Python của SageMaker
Sau khi triển khai hoàn tất, nó sẽ trả về một AsyncPredictor
sự vật. Để thực hiện suy luận không đồng bộ, bạn cần tải dữ liệu lên Amazon S3 và sử dụng predict_async()
phương thức với URI S3 làm đầu vào. Nó sẽ trả về một AsyncInferenceResponse
đối tượng và bạn có thể kiểm tra kết quả bằng cách sử dụng get_response()
phương pháp.
Ngoài ra, nếu bạn muốn kiểm tra kết quả định kỳ và trả lại kết quả sau khi tạo, hãy sử dụng predict()
phương pháp. Chúng tôi sử dụng phương pháp thứ hai này trong đoạn mã sau:
boto3
Bây giờ chúng ta hãy khám phá invoke_endpoint_async
phương pháp từ Boto3 sagemaker-runtime
khách hàng. Nó cho phép các nhà phát triển gọi điểm cuối SageMaker một cách không đồng bộ, cung cấp mã thông báo để theo dõi tiến trình và truy xuất phản hồi sau này. Boto3 không cung cấp cách chờ quá trình suy luận không đồng bộ được hoàn thành như SageMaker Python SDK get_result()
hoạt động. Do đó, chúng tôi lợi dụng thực tế là Boto3 sẽ lưu trữ kết quả suy luận trong Amazon S3 trong response["OutputLocation"]
. Chúng ta có thể sử dụng hàm sau để đợi tệp suy luận được ghi vào Amazon S3:
Với chức năng này, bây giờ chúng ta có thể truy vấn điểm cuối:
LangChain
LangChain là một framework nguồn mở được Harrison Chase ra mắt vào tháng 2022 năm XNUMX. Nó đơn giản hóa việc phát triển các ứng dụng bằng cách sử dụng các mô hình ngôn ngữ lớn (LLM) bằng cách cung cấp khả năng tích hợp với nhiều hệ thống và nguồn dữ liệu khác nhau. LangChain cho phép phân tích tài liệu, tóm tắt, tạo chatbot, phân tích mã, v.v. Nó đã trở nên phổ biến với sự đóng góp của hàng trăm nhà phát triển và nguồn tài trợ đáng kể từ các công ty liên doanh. LangChain cho phép kết nối LLM với các nguồn bên ngoài, giúp tạo ra các ứng dụng động, đáp ứng dữ liệu. Nó cung cấp các thư viện, API và tài liệu để hợp lý hóa quá trình phát triển.
LangChain cung cấp các thư viện và ví dụ để sử dụng điểm cuối SageMaker với khung của nó, giúp việc sử dụng các mô hình ML được lưu trữ trên SageMaker làm “bộ não” của chuỗi trở nên dễ dàng hơn. Để tìm hiểu thêm về cách LangChain tích hợp với SageMaker, hãy tham khảo Điểm cuối SageMaker trong tài liệu LangChain.
Một trong những hạn chế của việc triển khai LangChain hiện tại là nó không hỗ trợ các điểm cuối không đồng bộ. Để sử dụng điểm cuối không đồng bộ cho LangChain, chúng ta phải xác định một lớp mới, SagemakerAsyncEndpoint
, điều đó mở rộng SagemakerEndpoint
lớp đã có sẵn trong LangChain. Ngoài ra, chúng tôi cung cấp các thông tin sau:
- Nhóm S3 và tiền tố nơi suy luận không đồng bộ sẽ lưu trữ đầu vào (và đầu ra)
- Số giây tối đa phải chờ trước khi hết thời gian
- An
updated _call()
chức năng truy vấn điểm cuối vớiinvoke_endpoint_async()
thay vìinvoke_endpoint()
- Một cách để đánh thức điểm cuối không đồng bộ nếu nó đang ở trạng thái khởi động nguội (giảm tỷ lệ xuống XNUMX)
Để xem lại cái mới được tạo SagemakerAsyncEndpoint
, Bạn có thể kiểm tra sagemaker_async_endpoint.py
hồ sơ có sẵn trên GitHub.
Làm sạch
Khi bạn hoàn tất việc kiểm tra việc tạo suy luận từ điểm cuối, hãy nhớ xóa điểm cuối để tránh phát sinh thêm phí:
Kết luận
Khi triển khai các mô hình nền tảng lớn như TII Falcon, việc tối ưu hóa chi phí là rất quan trọng. Những mô hình này yêu cầu phần cứng mạnh mẽ và dung lượng bộ nhớ đáng kể, dẫn đến chi phí cơ sở hạ tầng cao. Suy luận không đồng bộ của SageMaker, một tùy chọn triển khai xử lý các yêu cầu không đồng bộ, giảm chi phí bằng cách tăng số lượng phiên bản về 3 khi không có yêu cầu đang chờ xử lý. Trong bài đăng này, chúng tôi đã trình bày cách triển khai các mô hình nền tảng SageMaker JumpStart lớn cho các điểm cuối không đồng bộ của SageMaker. Chúng tôi đã cung cấp các ví dụ về mã bằng cách sử dụng SageMaker Python SDK, BotoXNUMX và LangChain để minh họa các phương pháp khác nhau nhằm gọi các điểm cuối không đồng bộ và truy xuất kết quả. Những kỹ thuật này cho phép các nhà phát triển và nhà nghiên cứu tối ưu hóa chi phí trong khi sử dụng khả năng của các mô hình nền tảng cho các hệ thống hiểu ngôn ngữ tiên tiến.
Để tìm hiểu thêm về suy luận không đồng bộ và SageMaker JumpStart, hãy xem các bài đăng sau:
Giới thiệu về tác giả
Davide Gallitelli là Kiến trúc sư Giải pháp Chuyên gia về AI / ML trong khu vực EMEA. Anh ấy có trụ sở tại Brussels và làm việc chặt chẽ với khách hàng trên khắp Benelux. Anh ấy đã là một nhà phát triển từ khi còn rất trẻ, bắt đầu viết mã ở tuổi 7. Anh ấy bắt đầu học AI / ML ở trường đại học, và yêu nó kể từ đó.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Ô tô / Xe điện, Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- ChartPrime. Nâng cao trò chơi giao dịch của bạn với ChartPrime. Truy cập Tại đây.
- BlockOffsets. Hiện đại hóa quyền sở hữu bù đắp môi trường. Truy cập Tại đây.
- nguồn: https://aws.amazon.com/blogs/machine-learning/optimize-deployment-cost-of-amazon-sagemaker-jumpstart-foundation-models-with-amazon-sagemaker-asynchronous-endpoints/
- : có
- :là
- :không phải
- :Ở đâu
- $ LÊN
- 1
- 10
- 100
- 12
- 13
- 15%
- 1M
- 2022
- 25
- 7
- a
- Có khả năng
- Giới thiệu
- tăng tốc
- Chấp nhận
- truy cập
- thành tựu
- ngang qua
- hoạt động
- Ngoài ra
- tiên tiến
- Lợi thế
- Sau
- tuổi
- AI
- Mô hình AI
- AI / ML
- Cho phép
- cho phép
- Đã
- Ngoài ra
- Mặc dù
- đàn bà gan dạ
- Amazon SageMaker
- Khởi động Amazon SageMaker
- Amazon Web Services
- số lượng
- số lượng
- an
- phân tích
- và
- công bố
- Một
- nhân loại
- bất kì
- api
- API
- Các Ứng Dụng
- các ứng dụng
- Đăng Nhập
- kiến trúc
- LÀ
- đối số
- Nghệ thuật
- AS
- At
- sự chú ý
- thu hút
- tự động
- có sẵn
- Trung bình cộng
- tránh
- AWS
- dựa
- BE
- trở nên
- được
- trước
- được
- BEST
- lớn hơn
- tỷ
- Khối
- thân hình
- Nghỉ giải lao
- Brussels
- Xây dựng
- xây dựng
- kinh doanh
- nhưng
- by
- cuộc gọi
- gọi là
- CAN
- khả năng
- khả năng
- có khả năng
- Sức chứa
- trường hợp
- trường hợp
- chuỗi
- chuỗi
- thách thức
- tải
- đuổi theo
- chatbot
- kiểm tra
- Chọn
- lựa chọn
- tốt nghiệp lớp XNUMX
- khách hàng
- chặt chẽ
- mã
- lạnh
- Đến
- đến
- Chung
- Cộng đồng
- Các công ty
- đối thủ cạnh tranh
- hoàn thành
- Hoàn thành
- Hoàn thành
- thành phần
- toàn diện
- máy tính
- Tầm nhìn máy tính
- khái niệm
- Cấu hình
- liên quan
- An ủi
- Container
- nội dung
- đóng góp
- Phí Tổn
- Chi phí
- tạo
- tạo ra
- tạo
- quan trọng
- Current
- Hiện nay
- khách hàng
- khách hàng
- Cắt
- cắt giảm chi phí
- chu kỳ
- dữ liệu
- xử lý
- Mặc định
- định nghĩa
- nhu cầu
- chứng minh
- triển khai
- triển khai
- triển khai
- triển khai
- chi tiết
- Dev
- Nhà phát triển
- phát triển
- Phát triển
- DICT
- khác nhau
- Lôi thôi
- kích thước
- bị vô hiệu hóa
- dns
- do
- tài liệu
- tài liệu hướng dẫn
- Không
- thực hiện
- xuống
- hai
- suốt trong
- năng động
- e
- dễ dàng hơn
- hiệu quả
- nỗ lực
- khác
- EMEA
- cho phép
- cho phép
- Điểm cuối
- Động cơ
- đủ
- lôi
- đặc biệt
- Mỗi
- ví dụ
- ví dụ
- Trừ
- ngoại lệ
- thú vị
- chi phí
- kinh nghiệm
- khám phá
- tiếp xúc
- kéo dài
- mở rộng
- ngoài
- thêm
- Đối mặt
- thực tế
- Rơi
- sai
- Đặc tính
- Tập tin
- hãng
- Tên
- tiếp theo
- Trong
- Nền tảng
- 4
- Khung
- từ
- chức năng
- tài trợ
- đạt được
- tạo ra
- tạo ra
- thế hệ
- thế hệ
- Trí tuệ nhân tạo
- GitHub
- tốt
- GPU
- tuyệt vời
- Phát triển
- xử lý
- phần cứng
- Có
- có
- he
- giúp đỡ
- tại đây
- Cao
- tổ chức
- Độ đáng tin của
- Hướng dẫn
- Tuy nhiên
- HTML
- http
- HTTPS
- Hàng trăm
- hàng trăm triệu
- lý tưởng
- định danh
- if
- minh họa
- hình ảnh
- thực hiện
- nhập khẩu
- in
- Bao gồm
- Incoming
- chỉ
- các ngành công nghiệp
- thông tin
- Cơ sở hạ tầng
- sự đổi mới
- đầu vào
- đầu vào
- ví dụ
- thay vì
- Tích hợp
- tích hợp
- Thông minh
- quan tâm
- Giao thức
- trong
- giới thiệu
- đầu tư
- IT
- ITS
- cuộc hành trình
- jpg
- json
- chỉ
- nổi tiếng
- Ngôn ngữ
- lớn
- Độ trễ
- một lát sau
- phát động
- ra mắt
- hàng đầu
- LEARN
- học tập
- ít nhất
- thư viện
- Lượt thích
- giới hạn
- Danh sách
- tải
- địa điểm thư viện nào
- dài
- tìm kiếm
- Rất nhiều
- yêu
- Thấp
- máy
- học máy
- thực hiện
- Chủ yếu
- Duy trì
- làm cho
- Làm
- nhiều
- tối đa
- tối đa
- Bộ nhớ
- phương pháp
- phương pháp
- số liệu
- Metrics
- hàng triệu
- Phút
- ML
- kiểu mẫu
- mô hình
- chi tiết
- tên
- Tự nhiên
- Xử lý ngôn ngữ tự nhiên
- điều hướng
- THÔNG TIN
- Cần
- Mới
- mới
- tiếp theo
- nlp
- Không
- máy tính xách tay
- thông báo
- thông báo
- tại
- con số
- vật
- Tháng Mười
- of
- cung cấp
- cung cấp
- Cung cấp
- thường
- on
- ONE
- có thể
- mã nguồn mở
- hoạt động
- Tối ưu hóa
- tối ưu hóa
- Tùy chọn
- Các lựa chọn
- or
- vfoXNUMXfipXNUMXhfpiXNUMXufhpiXNUMXuf
- ra
- đầu ra
- cửa sổ
- thông số
- một phần
- đặc biệt
- Đối tác
- cấp phát chính
- Thực hiện
- thực hiện
- hình ảnh
- Nơi
- Nơi
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- PoC
- điều luật
- phổ biến
- có thể
- Bài đăng
- bài viết
- có khả năng
- quyền lực
- mạnh mẽ
- Thực tế
- dự đoán
- Predictor
- Xem trước
- In
- riêng
- Vấn đề
- quá trình
- Quy trình
- xử lý
- Tiến độ
- dự án
- bằng chứng
- bằng chứng về khái niệm
- Chứng minh
- cho
- cung cấp
- cung cấp
- cung cấp
- Python
- ngọn đuốc
- truy vấn
- câu hỏi
- nâng cao
- phạm vi
- khác nhau,
- Đọc
- sẵn sàng
- thời gian thực
- nhận
- giảm
- làm giảm
- khu
- ghi danh
- nhớ
- tẩy
- thay thế
- yêu cầu
- yêu cầu
- yêu cầu
- cần phải
- Yêu cầu
- đòi hỏi
- nhà nghiên cứu
- tài nguyên
- Thông tin
- phản ứng
- kết quả
- Kết quả
- trở lại
- Trả về
- xem xét
- cách mạng hóa
- mạo hiểm
- ROI
- chạy
- chạy
- nhà làm hiền triết
- tiết kiệm
- khả năng mở rộng
- Quy mô
- mở rộng quy mô
- sdk
- Thứ hai
- giây
- TỰ
- phục vụ
- Không có máy chủ
- dịch vụ
- DỊCH VỤ
- phiên
- định
- ngắn
- thể hiện
- Chương trình
- có ý nghĩa
- tương tự
- Đơn giản
- kể từ khi
- duy nhất
- tình huống
- Kích thước máy
- kích thước
- rắn
- giải pháp
- Giải pháp
- động SOLVE
- một số
- nguồn
- chuyên gia
- quay
- Tính ổn định
- ổn định
- Bắt đầu
- bắt đầu
- Bắt đầu
- Tiểu bang
- Bước
- Dừng
- là gắn
- hàng
- đơn giản
- hợp lý hóa
- đáng kể
- thành công
- Thành công
- như vậy
- hỗ trợ
- Hỗ trợ
- chắc chắn
- vượt qua
- hệ thống
- Hãy
- Mục tiêu
- nhiệm vụ
- kỹ thuật
- Công nghệ
- mẫu
- về
- Kiểm tra
- Cảm ơn
- việc này
- Sản phẩm
- Nhà nước
- cung cấp their dịch
- Them
- sau đó
- Đó
- bằng cách ấy
- vì thế
- Kia là
- họ
- điều này
- năm nay
- số ba
- Thông qua
- khắp
- thời gian
- thời gian
- thời gian
- đến
- bên nhau
- mã thông báo
- quá
- Theo dõi
- đào tạo
- Dịch
- đúng
- thử
- loại
- ui
- Dưới
- sự hiểu biết
- trường đại học
- cho đến khi
- trên
- us
- sử dụng
- người sử dang
- Giao diện người dùng
- sử dụng
- thường
- giá trị
- biến thể
- khác nhau
- Lớn
- liên doanh
- xác minh
- rất
- thông qua
- tầm nhìn
- chờ đợi
- Đợi
- Đánh thức
- Thức dậy
- muốn
- là
- Đường..
- cách
- we
- web
- các dịch vụ web
- khi nào
- liệu
- cái nào
- trong khi
- CHÚNG TÔI LÀ
- rộng
- Phạm vi rộng
- sẽ
- với
- không có
- Won
- công trinh
- khắp thế giới
- sẽ
- viết
- năm
- Bạn
- trẻ
- trên màn hình
- mình
- zephyrnet
- không