Microsoft บรรจุ Azure cloud ด้วยการเรียนรู้ของเครื่องเพิ่มเติม

Microsoft บรรจุ Azure cloud ด้วยการเรียนรู้ของเครื่องเพิ่มเติม

Microsoft บรรจุ Azure cloud ด้วยการเรียนรู้ของเครื่อง PlatoBlockchain Data Intelligence ที่มากขึ้น ค้นหาแนวตั้ง AI.

Microsoft แน่ใจว่าได้รวม Azure ไว้ในงาน AI-fest ซึ่งเป็นงานประชุมนักพัฒนา Build 2023 ในสัปดาห์นี้

ในขณะที่องค์กรต่าง ๆ พิจารณาที่จะทดลองหรือปรับใช้ generative AI พวกเขาอาจมองหาระบบคลาวด์สาธารณะและโครงสร้างพื้นฐานด้านการประมวลผลและการจัดเก็บข้อมูลที่ปรับขนาดได้ที่คล้ายกันเพื่อเรียกใช้สิ่งต่าง ๆ เช่น โมเดลภาษาขนาดใหญ่ (LLM)

ไมโครซอฟท์ ติดอาวุธด้วย ChatGPT, GPT-4 และระบบ OpenAI อื่นๆ ได้ผลักดันความสามารถด้าน AI เข้าไปในทุกซอกทุกมุมของอาณาจักรเป็นเวลาหลายเดือน Azure ก็ไม่ต่างกัน – บริการ OpenAI เป็นตัวอย่าง – และหลังจากนั้น สร้างการประชุมระบบคลาวด์สาธารณะของ Redmond มีข้อเสนอที่อ้างสิทธิ์มากกว่า

สูงในรายการคือการขยาย ความร่วมมือกับ Nvidiaซึ่งกำลังเร่งสร้างตัวเองให้เป็นผู้ให้บริการเทคโนโลยี AI ที่ขาดไม่ได้ ตั้งแต่ตัวเร่งความเร็ว GPU ไปจนถึงซอฟต์แวร์ ในสัปดาห์นี้เพียงสัปดาห์เดียว ผู้ผลิตชิปได้เปิดตัวความร่วมมือมากมาย เช่น กับ Dell ที่ Dell Technologies World และผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ ISC23

นำทรัพยากร Nvidia มาสู่ Azure

โดยเฉพาะอย่างยิ่ง Microsoft กำลังรวมชุดซอฟต์แวร์ AI Enterprise ของ Nvidia เครื่องมือการพัฒนา เฟรมเวิร์ก และโมเดลที่ได้รับการฝึกอบรมล่วงหน้าเข้ากับ Azure Machine Learning ซึ่งสร้างสิ่งที่ Tina Manghnani ผู้จัดการผลิตภัณฑ์สำหรับแพลตฟอร์มคลาวด์การเรียนรู้ของเครื่องที่เรียกว่า -to-end แพลตฟอร์มคลาวด์สำหรับนักพัฒนาในการสร้าง ปรับใช้ และจัดการแอปพลิเคชัน AI รวมถึงโมเดลภาษาขนาดใหญ่แบบกำหนดเอง”

ในวันเดียวกัน Microsoft ได้สร้าง Azure Machine Learning การลงทะเบียน – แพลตฟอร์มสำหรับการโฮสต์และการแชร์บล็อกการสร้างการเรียนรู้ของเครื่องในรูปแบบคอนเทนเนอร์ แบบจำลองและข้อมูล และเครื่องมือสำหรับการผสานรวม AI Enterprise เข้ากับ Azure – พร้อมใช้งานโดยทั่วไป AI Enterprise ใน Azure Machine Learning ยังพร้อมใช้งานในการแสดงตัวอย่างทางเทคนิคแบบจำกัด

“สิ่งนี้หมายความว่าสำหรับลูกค้าที่มีส่วนร่วมและความสัมพันธ์กับ Azure อยู่แล้ว พวกเขาสามารถใช้ความสัมพันธ์เหล่านั้นได้ – พวกเขาสามารถใช้สัญญาคลาวด์ที่มีอยู่แล้ว – เพื่อรับ Nvidia AI Enterprise และใช้ภายใน Azure ML เพื่อรับสิ่งนี้ ประสบการณ์ระดับองค์กรที่ไร้รอยต่อหรือแยกตามอินสแตนซ์ที่พวกเขาเลือก” Manuvir Das รองประธานฝ่ายการประมวลผลระดับองค์กรของ Nvidia กล่าวกับนักข่าวเมื่อสองสามวันก่อนที่ Build จะเปิดขึ้น

การแยกเครือข่ายเพื่อปกป้องข้อมูล AI

องค์กรที่ดำเนินการ AI ในระบบคลาวด์ต้องการให้แน่ใจว่าข้อมูลของตนจะไม่ถูกเปิดเผยต่อบริษัทอื่น โดยการแยกเครือข่ายเป็นเครื่องมือสำคัญ Microsoft มีคุณสมบัติต่างๆ เช่น พื้นที่ทำงานแบบลิงก์ส่วนตัวและการป้องกันการกรองข้อมูล แต่ไม่มีตัวเลือก IP สาธารณะสำหรับทรัพยากรการคำนวณของบริษัทที่ฝึกอบรมโมเดล AI ที่ Build ผู้ขายได้ประกาศ การแยกเครือข่ายที่มีการจัดการ ใน Azure Machine Learning เพื่อเลือกโหมดการแยกที่เหมาะสมที่สุดกับนโยบายความปลอดภัยขององค์กร

อย่าพลาดความคุ้มครอง Build 2023 ของเรา

ไม่น่าแปลกใจที่เครื่องมือโอเพ่นซอร์สกำลังเข้ามาในพื้นที่ AI มากขึ้นเรื่อยๆ ปีที่แล้ว Microsoft ร่วมมือกับ Hugging Face เพื่อนำอุปกรณ์ปลายทาง Azure Machine Learning ที่ขับเคลื่อนโดยเทคโนโลยีของบริษัทโอเพ่นซอร์ส ที่บิลด์คู่องค์กร ขยาย ความสัมพันธ์ของพวกเขา

Hugging Face มีอยู่แล้ว ชุดที่ดูแลจัดการ ของเครื่องมือและ API เช่นเดียวกับก ฮับขนาดใหญ่ ของโมเดล ML เพื่อดาวน์โหลดและใช้งาน ตอนนี้ คอลเลกชันโมเดลเหล่านี้นับพันรายการจะปรากฏแคตตาล็อก Azure Machine Learning ของ Redmond เพื่อให้ลูกค้าสามารถเข้าถึงและปรับใช้บนจุดสิ้นสุดที่มีการจัดการในระบบคลาวด์ของ Microsoft

ตัวเลือกรูปแบบรองพื้นเพิ่มเติม

เรดมันด์กำลังทำเช่นกัน โมเดลรองพื้น ใน Azure Machine Learning พร้อมใช้งานในตัวอย่างสาธารณะ โมเดลพื้นฐานเป็นโมเดลสำเร็จรูปที่ทรงพลังและมีความสามารถสูง ซึ่งองค์กรต่างๆ สามารถปรับแต่งด้วยข้อมูลของตนเองเพื่อวัตถุประสงค์ของตนเอง และเผยแพร่ได้ตามต้องการ

โมเดลรองพื้น กำลังกลายเป็นสิ่งสำคัญ เนื่องจากสามารถช่วยองค์กรสร้างแอปพลิเคชันที่ขับเคลื่อนด้วย ML ที่ไม่ซับซ้อน ปรับแต่งตามความต้องการเฉพาะของตน โดยไม่ต้องเสียเงินหลายร้อยล้านดอลลาร์ในการฝึกอบรมโมเดลตั้งแต่เริ่มต้น หรือลดการประมวลผลและข้อมูลลูกค้าที่ละเอียดอ่อนไปยังระบบคลาวด์

Nvidia เปิดตัว เนโม framework ที่อาจเป็นประโยชน์ในด้านนี้และในเดือนนี้ก็มี ร่วมมือ ด้วย ServiceNow และ – สัปดาห์นี้ – Dell เข้า โครงการเฮลิกซ์ ตามบรรทัดเหล่านั้น

“ในขณะที่เราทำงานร่วมกับบริษัทระดับองค์กรเกี่ยวกับ generative AI ในช่วงไม่กี่เดือนที่ผ่านมา สิ่งที่เราได้เรียนรู้คือมีบริษัทระดับองค์กรจำนวนมากที่ต้องการใช้ประโยชน์จากพลังของ generative AI แต่ทำในศูนย์ข้อมูลของตนเอง หรือทำนอกระบบคลาวด์สาธารณะ” Das จาก Nvidia กล่าว

ทรัพยากรต่างๆ เช่น โมเดลโอเพ่นซอร์สและพื้นฐานสัญญาว่าจะลดความซับซ้อนและค่าใช้จ่ายเพื่อให้องค์กรต่างๆ เข้าถึง AI กำเนิดได้มากขึ้น ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน