Microsoft는 더 많은 기계 학습으로 Azure 클라우드를 채웁니다.

Microsoft는 더 많은 기계 학습으로 Azure 클라우드를 채웁니다.

Microsoft는 더 많은 기계 학습 PlatoBlockchain 데이터 인텔리전스를 통해 Azure 클라우드를 채웁니다. 수직 검색. 일체 포함.

Microsoft는 이번 주 Build 2023 개발자 컨퍼런스인 AI-fest에 Azure를 포함시켰습니다.

기업에서 제너레이티브 AI를 실험하거나 배포하는 것을 고려할 때 대규모 언어 모델(LLM)과 같은 것을 실행하기 위해 퍼블릭 클라우드와 유사한 확장 가능한 컴퓨팅 및 스토리지 인프라를 고려할 수 있습니다.

Microsoft, ~로 무장 한 ChatGPT, GPT-4 및 기타 OpenAI 시스템은 몇 달 동안 AI 기능을 제국의 구석구석에 밀어넣었습니다. Azure도 다르지 않습니다. OpenAI 서비스가 그 예입니다. 회의 구축, Redmond의 퍼블릭 클라우드는 이제 훨씬 더 많은 제안을 제공합니다.

목록의 상위 항목은 확장된 엔비디아와 제휴GPU 가속기부터 소프트웨어까지 AI 필수 기술 제공자로 자리매김하기 위해 스스로를 서두르고 있다. 이번 주에만 이 칩 제조업체는 Dell Technologies World에서 Dell과 ISC23에서 슈퍼컴퓨터 제조업체와 같은 여러 파트너십을 발표했습니다.

Nvidia 리소스를 Azure로 가져오기

특히 Microsoft는 Nvidia의 AI Enterprise 소프트웨어 제품군, 개발 도구, 프레임워크 및 사전 훈련된 모델을 Azure Machine Learning에 통합하여 기계 학습 클라우드 플랫폼의 제품 관리자인 Tina Manghnani가 "최초의 엔터프라이즈급 보안 엔드 -개발자가 사용자 지정 대규모 언어 모델을 포함한 AI 애플리케이션을 구축, 배포 및 관리할 수 있는 종단 간 클라우드 플랫폼입니다.”

같은 날 Microsoft는 Azure Machine Learning을 만들었습니다. 레지스트리 – 컨테이너, 모델 및 데이터와 같은 기계 학습 빌딩 블록을 호스팅하고 공유하기 위한 플랫폼과 AI Enterprise를 Azure에 통합하기 위한 도구 – 일반적으로 사용 가능합니다. Azure Machine Learning의 AI Enterprise는 제한된 기술 미리 보기로도 제공됩니다.

"이것이 의미하는 바는 Azure와 기존 계약 및 관계가 있는 고객이 이러한 관계를 사용할 수 있다는 것입니다. 즉, 이미 보유한 클라우드 계약에서 소비할 수 있으며 Nvidia AI Enterprise를 획득하고 Azure ML 내에서 이를 사용하여 Nvidia의 엔터프라이즈 컴퓨팅 부사장인 Manuvir Das는 빌드가 열리기 며칠 전에 기자들에게 원활한 엔터프라이즈급 경험을 제공하거나 그들이 선택한 인스턴스에 대해 개별적으로 말했습니다.

AI 데이터 보호를 위한 네트워크 격리

클라우드에서 AI 작업을 실행하는 기업은 네트워크 격리가 핵심 도구인 데이터가 다른 회사에 노출되지 않도록 하기를 원합니다. Microsoft는 프라이빗 링크 작업 공간 및 데이터 유출 보호와 같은 기능을 제공하지만 AI 모델을 교육하는 회사의 컴퓨팅 리소스에 대한 퍼블릭 IP 옵션은 없습니다. Build에서 벤더는 발표했습니다. 관리형 네트워크 격리 기업의 보안 정책에 가장 적합한 격리 모드를 선택하기 위한 Azure Machine Learning에서.

Build 2023 적용 범위를 놓치지 마세요.

당연히 오픈 소스 도구가 점점 더 AI 공간에 들어오고 있습니다. Microsoft는 작년에 Hugging Face와 제휴하여 오픈 소스 회사의 기술로 구동되는 Azure 기계 학습 엔드포인트를 제공했습니다. Build에서 한 쌍의 조직 확대하는 그들의 관계.

Hugging Face는 이미 선별된 세트 도구 및 API뿐만 아니라 거대한 허브 다운로드하고 사용할 ML 모델의 수. 이제 이러한 모델 수천 개가 Redmond의 Azure Machine Learning 카탈로그에 표시되어 고객이 Microsoft 클라우드의 관리형 끝점에 액세스하고 배포할 수 있습니다.

더 많은 기초 모델 옵션

레드몬드도 만들고 있습니다. 기초 모델 Azure Machine Learning에서 공개 미리 보기로 제공됩니다. 기초 모델은 조직이 자체 목적에 맞게 자체 데이터로 사용자 정의하고 필요에 따라 롤아웃할 수 있는 강력하고 매우 유능한 사전 훈련된 모델입니다.

기초 모델 모델을 처음부터 훈련시키거나 처리 및 민감한 고객 데이터를 클라우드로 오프로드하는 데 수억 달러를 지출하지 않고도 조직이 특정 요구 사항에 맞는 중요한 ML 기반 애플리케이션을 구축하는 데 도움이 될 수 있으므로 매우 중요해지고 있습니다.

엔비디아는 니모 이 분야에서 유용할 수 있는 프레임워크이며 이번 달에는 파트너 ServiceNow 및 – 이번 주 – Dell 프로젝트 나선 그 라인을 따라.

“지난 몇 달 동안 제너레이티브 AI에 대해 엔터프라이즈 기업과 협력하면서 우리가 배운 것은 제너레이티브 AI의 힘을 활용하고 싶지만 자체 데이터 센터에서 수행하는 엔터프라이즈 기업이 많다는 것입니다. 또는 퍼블릭 클라우드 외부에서 수행하십시오.”라고 Nvidia의 Das는 말했습니다.

오픈 소스 및 기초 모델과 같은 리소스는 복잡성과 비용을 줄여 더 많은 조직이 생성 AI에 액세스할 수 있도록 합니다. ®

타임 스탬프 :

더보기 등록