Microsoft täydentää Azure-pilviä lisää koneoppimista

Microsoft täydentää Azure-pilviä lisää koneoppimista

Microsoft täyttää Azure-pilven lisää koneoppimista PlatoBlockchain Data Intelligencellä. Pystysuuntainen haku. Ai.

Microsoft varmisti sisällyttävänsä Azuren AI-festiin, joka oli tällä viikolla Build 2023 -kehittäjäkonferenssi.

Kun yritykset harkitsevat generatiivisen tekoälyn kokeilua tai käyttöönottoa, ne voivat hyvinkin etsiä julkisia pilviä ja vastaavaa skaalautuvaa laskenta- ja tallennusinfrastruktuuria suorittaakseen esimerkiksi suurikielisiä malleja (LLM).

Microsoft, aseistettuna ChatGPT, GPT-4 ja muut OpenAI-järjestelmät ovat jo kuukausia työstäneet tekoälyominaisuuksia valtakuntansa jokaiseen kolkkaan. Azure ei eroa – OpenAI-palvelu on esimerkki – ja sen jälkeen Rakenna konferenssi, Redmondin julkisella pilvellä on nyt entistä enemmän lunattuja tarjouksia.

Listan korkealla on laajennettu yhteistyö Nvidian kanssa, joka itse ryntää vakiinnuttamaan asemansa korvaamattomana tekoälyteknologian tarjoajana GPU-kiihdyttimistä ohjelmistoihin. Pelkästään tällä viikolla siruvalmistaja paljasti joukon kumppanuuksia, kuten Dellin kanssa Dell Technologies Worldissä ja supertietokoneiden valmistajien kanssa ISC23:ssa.

Nvidian resurssien tuominen Azureen

Tarkemmin sanottuna Microsoft integroi Nvidian AI Enterprise -ohjelmiston, kehitystyökalut, -kehykset ja esikoulutetut mallit Azure Machine Learningiin ja luo sen, mitä koneoppimispilvialustan tuotepäällikkö Tina Manghnani kutsui "ensimmäiseksi yritysvalmiudeksi, turvalliseksi loppupääksi". – kattava pilvialusta kehittäjille, jotka voivat rakentaa, ottaa käyttöön ja hallita tekoälysovelluksia, mukaan lukien mukautettuja suuria kielimalleja.

Samana päivänä Microsoft teki Azure Machine Learningin rekisterit – alusta, jolla isännöidään ja jaetaan koneoppimisen rakennuspalikoita, kuten säiliöitä, malleja ja dataa, sekä työkalu AI Enterprisen integroimiseksi Azureen – yleisesti saatavilla. AI Enterprise in Azure Machine Learning on saatavilla myös rajoitettuna teknisenä esikatseluversiona.

"Tämä tarkoittaa sitä, että asiakkaat, joilla on olemassa olevia sitoumuksia ja suhteita Azuren kanssa, he voivat käyttää näitä suhteita – he voivat käyttää jo olemassa olevia pilvisopimuksia – hankkiakseen Nvidia AI Enterprisen ja käyttääkseen sitä joko Azure ML:ssä saadakseen tämän saumaton yritystason kokemus tai erikseen heidän valitsemissaan tapauksissa", Manuvir Das, Nvidian yritystietotekniikan varatoimitusjohtaja, kertoi toimittajille muutama päivä ennen Buildin avaamista.

Verkkojen eristäminen tekoälytietojen suojaamiseksi

Tekoälytoimintaa pilvessä käyttävät yritykset haluavat varmistaa, että heidän tietonsa eivät joudu muiden yritysten tietoon, sillä verkon eristäminen on keskeinen työkalu. Microsoftilla on ominaisuuksia, kuten yksityinen linkkityötila ja tietojen suojaus, mutta ei julkista IP-vaihtoehtoa tekoälymalleja kouluttavien yritysten laskentaresursseille. Buildissa myyjä ilmoitti hallitun verkon eristäminen Azure Machine Learningissä valitaksesi eristystilan, joka sopii parhaiten yrityksen suojauskäytäntöihin.

Älä missaa Build 2023 -kattavuuttamme

Ei ole yllättävää, että avoimen lähdekoodin työkaluja tulee yhä enemmän tekoälyavaruuteen. Microsoft teki viime vuonna yhteistyötä Hugging Facen kanssa tuodakseen Azure Machine Learning -päätepisteet, jotka toimivat avoimen lähdekoodin yrityksen teknologialla. Buildissa, organisaatiopari laajeni heidän suhteensa.

Hugging Face tarjoaa jo a kuratoitu setti työkaluista ja API:ista sekä a valtava keskus ML-malleista ladattavaksi ja käytettäväksi. Nyt kokoelma tuhansia näistä malleista ilmestyy Redmondin Azure Machine Learning -luetteloon, jotta asiakkaat voivat käyttää niitä ja ottaa ne käyttöön Microsoftin pilven hallituissa päätepisteissä.

Lisää pohjamallivaihtoehtoja

Myös Redmond tekee perusmallit Azure Machine Learningissä julkisessa esikatselussa. Perusmallit ovat tehokkaita ja erittäin suorituskykyisiä esikoulutettuja malleja, joita organisaatiot voivat mukauttaa omilla tiedoillaan omiin tarkoituksiinsa ja ottaa käyttöön tarpeen mukaan.

Perustusmallit ovat tulossa varsin tärkeiksi, koska ne voivat auttaa organisaatioita rakentamaan ei-triviaaleja ML-pohjaisia ​​sovelluksia, jotka on muotoiltu niiden erityisvaatimusten mukaan, ilman, että niiden tarvitsee käyttää satoja miljoonia dollareita mallien kouluttamiseen tyhjästä tai käsittelyn ja arkaluontoisten asiakastietojen siirtämisestä pilveen.

Nvidia julkaisi a nemo puitteet, jotka voivat olla hyödyllisiä tällä alalla, ja tässä kuussa on kumppanuuteen ServiceNow'n ja – tällä viikolla – Dellin kanssa Projekti Helix noilla linjoilla.

"Kun olemme työskennelleet yritysyritysten kanssa generatiivisen tekoälyn parissa viime kuukausina, olemme oppineet, että monet yritysyritykset haluaisivat hyödyntää generatiivisen tekoälyn tehoa, mutta tekevät sen omissa tietokeskuksissaan. tai tee se julkisen pilven ulkopuolella", Nvidian Das sanoi.

Resurssit, kuten avoimen lähdekoodin mallit ja perusmallit, lupaavat vähentää monimutkaisuutta ja kustannuksia, jotta useammat organisaatiot pääsevät käyttämään generatiivista tekoälyä. ®

Aikaleima:

Lisää aiheesta Rekisteri