Microsoft mengisi cloud Azure dengan lebih banyak pembelajaran mesin

Microsoft mengisi cloud Azure dengan lebih banyak pembelajaran mesin

Microsoft mengisi cloud Azure dengan lebih banyak pembelajaran mesin PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Microsoft memastikan untuk menyertakan Azure dalam festival AI yang merupakan konferensi pengembang Build 2023 minggu ini.

Saat perusahaan mempertimbangkan untuk bereksperimen dengan atau menerapkan AI generatif, mereka mungkin akan mencari cloud publik dan komputasi yang dapat diskalakan serta infrastruktur penyimpanan serupa untuk menjalankan hal-hal seperti model bahasa besar (LLM).

Microsoft, dipersenjatai dengan ChatGPT, GPT-4, dan sistem OpenAI lainnya, selama berbulan-bulan telah mendorong kemampuan AI ke setiap sudut dan celah kerajaannya. Azure tidak berbeda โ€“ Layanan OpenAI adalah contohnya โ€“ dan setelahnya Membangun konferensi, cloud publik Redmond kini memiliki lebih banyak penawaran yang diklaim.

Tinggi pada daftar diperluas kemitraan dengan Nvidia, yang dengan sendirinya bergegas memantapkan dirinya sebagai penyedia teknologi AI yang sangat diperlukan, mulai dari akselerator GPU hingga perangkat lunak. Minggu ini saja pembuat chip meluncurkan sejumlah kemitraan, seperti dengan Dell di Dell Technologies World dan pembuat superkomputer di ISC23.

Membawa sumber daya Nvidia ke Azure

Secara khusus, Microsoft mengintegrasikan rangkaian perangkat lunak, alat pengembangan, kerangka kerja, dan model pra-pelatihan Nvidia AI Enterprise ke dalam Pembelajaran Mesin Azure, menciptakan apa yang disebut Tina Manghnani, manajer produk untuk platform cloud pembelajaran mesin, "platform cloud end-to-end pertama yang siap untuk perusahaan, aman, bagi pengembang untuk membangun, menyebarkan, dan mengelola aplikasi AI termasuk model bahasa besar khusus."

Pada hari yang sama, Microsoft membuat Azure Machine Learning pendaftar โ€“ platform untuk hosting dan berbagi blok bangunan pembelajaran mesin seperti wadah, model, dan data, serta alat untuk mengintegrasikan AI Enterprise ke Azure โ€“ tersedia secara umum. AI Enterprise di Azure Machine Learning juga tersedia dalam pratinjau teknis terbatas.

โ€œArtinya, bagi pelanggan yang memiliki keterlibatan dan hubungan dengan Azure, mereka dapat menggunakan hubungan tersebut โ€“ yang dapat mereka konsumsi dari kontrak cloud yang sudah mereka miliki โ€“ untuk mendapatkan Nvidia AI Enterprise dan menggunakannya baik dalam Azure ML untuk mendapatkan pengalaman tingkat perusahaan yang mulus ini atau secara terpisah pada contoh yang mereka pilih,โ€ Manuvir Das, wakil presiden komputasi perusahaan di Nvidia, mengatakan kepada wartawan beberapa hari sebelum Build dibuka.

Mengisolasi jaringan untuk melindungi data AI

Perusahaan yang menjalankan operasi AI di cloud ingin memastikan data mereka tidak terekspos ke perusahaan lain, dengan isolasi jaringan sebagai alat utama. Microsoft memiliki fitur seperti ruang kerja tautan pribadi dan perlindungan eksfiltrasi data, tetapi tidak ada opsi IP publik untuk menghitung sumber daya perusahaan yang melatih model AI. Di Build, vendor mengumumkan isolasi jaringan yang dikelola di Azure Machine Learning untuk memilih mode isolasi yang paling sesuai dengan kebijakan keamanan perusahaan.

Jangan lewatkan liputan Build 2023 kami

Tidak mengherankan, alat sumber terbuka semakin masuk ke ruang AI. Microsoft tahun lalu bermitra dengan Hugging Face untuk menghadirkan titik akhir Pembelajaran Mesin Azure yang didukung oleh teknologi perusahaan sumber terbuka. Di Build, pasangan organisasi diperluas hubungan mereka.

Memeluk Wajah sudah menawarkan a set kurasi alat dan API serta a hub besar model ML untuk diunduh dan digunakan. Sekarang kumpulan dari ribuan model ini akan muncul katalog Pembelajaran Mesin Azure Redmond sehingga pelanggan dapat mengakses dan menerapkannya pada titik akhir terkelola di cloud Microsoft.

Lebih banyak pilihan model pondasi

Redmond juga sedang membuat model pondasi di Azure Machine Learning tersedia dalam pratinjau publik. Model Foundation adalah model pra-pelatihan yang kuat dan berkemampuan tinggi yang dapat disesuaikan oleh organisasi dengan data mereka sendiri untuk tujuan mereka sendiri dan diluncurkan sesuai kebutuhan.

Model pondasi menjadi sangat penting, karena mereka dapat membantu organisasi membangun aplikasi bertenaga ML non-sepele, yang disesuaikan dengan kebutuhan khusus mereka, tanpa harus menghabiskan ratusan juta dolar untuk melatih model dari awal atau memindahkan pemrosesan dan data pelanggan yang sensitif ke cloud.

Nvidia merilis a nemo kerangka kerja yang mungkin berguna di bidang ini, dan bulan ini telah bermitra dengan ServiceNow dan โ€“ minggu ini โ€“ Dell masuk Proyek Helix sepanjang garis itu.

โ€œKarena kami telah bekerja dengan perusahaan perusahaan dalam AI generatif dalam beberapa bulan terakhir, apa yang telah kami pelajari adalah bahwa ada sejumlah besar perusahaan perusahaan yang ingin memanfaatkan kekuatan AI generatif, tetapi melakukannya di pusat data mereka sendiri atau melakukannya di luar cloud publik,โ€ kata Das dari Nvidia.

Sumber daya seperti sumber terbuka dan model dasar berjanji untuk mengurangi kompleksitas dan biaya untuk memungkinkan lebih banyak organisasi mengakses AI generatif. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran