Nvidia gặp vấn đề với mã thấp trong bản cập nhật AI Enterprise PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Nvidia gặp sự cố với mã thấp trong bản cập nhật AI Enterprise

Nvidia đặt mục tiêu giải quyết vấn đề phát triển máy học trong tuần này với bản phát hành mới nhất của bộ AI Enterprise, bao gồm bộ công cụ mã thấp dành cho khối lượng công việc học máy.

Bản cập nhật cũng mở rộng hỗ trợ cho Red Hat OpenShift, nền tảng hoạt động ML của Domino Data Lab và các máy ảo dòng NVads A10 v5 của Azure.

Được giới thiệu vào mùa hè năm ngoái, Nvidia lập hóa đơn cho AI Enterprise như một công cụ duy nhất để phát triển và triển khai khối lượng công việc doanh nghiệp trên GPU của mình, bất kể chúng được triển khai tại chỗ hay trên đám mây.

Bộ phần mềm này là một tập hợp các công cụ và khuôn khổ được phát triển hoặc chứng nhận bởi Nvidia để làm cho việc xây dựng các ứng dụng AI / ML dễ tiếp cận hơn với các doanh nghiệp thuộc mọi quy mô. Trong năm qua, nhà sản xuất chip đã triển khai hỗ trợ cho một loạt các khuôn khổ và nền tảng máy tính phổ biến, như vSphere của VMware.

Bản phát hành mới nhất - phiên bản 2.1 - giới thiệu hỗ trợ mã thấp dưới dạng Bộ công cụ TAO của Nvidia.

Mã thấp là ý tưởng trừu tượng hóa sự phức tạp liên quan đến việc mã hóa ứng dụng theo cách thủ công - trong trường hợp này là khối lượng công việc bằng giọng nói và tầm nhìn AI - sử dụng ít hoặc không sử dụng mã trong quy trình. Ví dụ: Bộ công cụ TOA của Nvidia có hỗ trợ REST API, nhập trọng số, tích hợp TensorBoard và một số mô hình được đào tạo trước, được thiết kế để đơn giản hóa quá trình lắp ráp ứng dụng.

Bên cạnh chức năng mã thấp, bản phát hành cũng bao gồm phiên bản mới nhất của Nvidia RAPIDS (22.04) - một bộ thư viện phần mềm mã nguồn mở và API nhắm mục tiêu đến các ứng dụng khoa học dữ liệu chạy trên GPU.

Bản phát hành 2.1 cũng cho thấy nhà sản xuất chip chứng nhận các công cụ và khối lượng công việc này để sử dụng với nhiều phần mềm và nền tảng đám mây.

Đối với những người di chuyển sang các khuôn khổ gốc được chứa trong vùng chứa và đám mây, bản cập nhật bổ sung hỗ trợ chính thức để chạy khối lượng công việc Nvidia trên nền tảng OpenShift Kubernetes phổ biến của Red Hat trong đám mây công cộng.

Thời gian chạy vùng chứa của Red Hat là môi trường ứng dụng mới nhất được chứng nhận và sau tích hợp vSphere của VMware vào năm ngoái. Dịch vụ MLOps của Domino Data Lab cũng nhận được sự chúc phúc của Nvidia trong tuần này. Nền tảng của công ty cung cấp các công cụ để sắp xếp các máy chủ được tăng tốc GPU để ảo hóa khối lượng công việc AI / ML.

Và, điều không ai có thể ngạc nhiên, đội xanh đã chứng nhận phiên bản GPU dựa trên Nvidia thế hệ mới nhất của Microsoft Azure, giới thiệu Tháng Ba. Các phiên bản được cung cấp bởi bộ tăng tốc A10 của nhà sản xuất chip, có thể được chia thành tối đa sáu GPU phân đoạn bằng cách sử dụng phương pháp cắt lát theo thời gian.

Ngoài các bản cập nhật Nvidia AI Enterprise, công ty cũng giới thiệu ba phòng thí nghiệm mới cho dịch vụ LaunchPad của mình, cung cấp cho các doanh nghiệp quyền truy cập ngắn hạn vào phần mềm và phần cứng AI / ML của mình để chứng minh các khái niệm và mục đích thử nghiệm.

Các phòng thí nghiệm mới nhất bao gồm đào tạo đa nút để phân loại hình ảnh trên vSphere với Tanzu, nền tảng Kubernetes của VMware; phát hiện gian lận bằng cách sử dụng mô hình XGBoost và Triton, máy chủ suy luận của Nvidia; và lập mô hình phát hiện đối tượng bằng Bộ công cụ TOA và DeepStream, dịch vụ phân tích phát trực tuyến của nhà sản xuất chip. ®

Dấu thời gian:

Thêm từ Đăng ký