Meta paljastaa AI Image Segmentation Model, SAM

Meta paljastaa AI Image Segmentation Model, SAM

Meta paljastaa tekoälykuvan segmentointimallin, SAM PlatoBlockchain Data Intelligencen. Pystysuuntainen haku. Ai.

Aakkoset Inc: n Google on jakanut tietoja supertietokoneista, joita se käyttää AI-mallien kouluttamiseen, väittäen, että ne ovat energiatehokkaita ja nopeampia kuin Nvidian A100 siru. Google on valmistanut mukautetun sirun nimeltä Tensor Processing Unit (TPU), joka on neljännessä sukupolvessaan.

Teknologian jättiläisen mukaan yritys käyttää siruja yli 90 prosentissa yrityksen tekoälykoulutuksesta. Google lisää sirun syöttämään tietoja mallien kautta, jotta ne olisivat käytännöllisiä tehtävissä, kuten ihmisten kaltaisissa teksteissä tai kuvien luomisessa.

Ihannetapauksessa TPU:t on suunniteltu nopeuttaa syvän hermoverkkojen (DNN) päättelyvaihetta, jota käytetään monissa koneoppimissovelluksissa, kuten kuvantunnistuksessa, puheentunnistuksessa, luonnollisen kielen käsittelyssä ja muissa. TPU:ita käytetään myös DNN-verkkojen koulutukseen.

Lue myös: Twitter laillisessa kuumassa vedessä, kun Saksa uhkaa sakkoa

Tiistaina Google julkaisi tieteellisen artikkelin selittää, kuinka se on pujottanut yli 4 000 pelimerkkiä. Yrityksen mukaan se käytti räätälöityjä optisia kytkimiä yksittäisten laitteiden saattamiseksi yhteen paikkaan.

Tieteellisessä artikkelissa Google sanoi, että vastaavan kokoisissa järjestelmissä sen sirut ovat jopa 1.7 kertaa nopeampia ja 1.9 kertaa tehokkaampia kuin Nvidian A100-siruun perustuva järjestelmä, joka oli markkinoilla samaan aikaan kuin neljännen sukupolven TPU.

Lisää parannuksia tarvitaan

Analyytikot ovat sitä mieltä, että datapäätelmäsirujen markkinat kasvavat nopeasti yritysten mukaan AI-teknologiat tuotteisiinsa. Googlen kaltaiset yritykset työskentelevät kuitenkin jo sen eteen, kuinka suojata lisäkustannuksia, joita tämä lisää, ja yksi niistä on sähkö.

Suuret kielimallit, jotka ohjaavat tuotteita, kuten Googlen Bard tai OpenAI ChatGPT ovat kasvaneet valtavasti. Itse asiassa ne ovat aivan liian suuria tallennettavaksi yhdelle sirulle.

Sellaisenaan näiden yhteyksien parantamisesta on tullut keskeinen tekijä tekoälysupertietokoneita rakentavien yritysten välisessä kilpailussa.

Lisäksi nämä mallit on jaettu tuhansiin siruihin, ja ne työskentelevät yhdessä viikkoja tai enemmän mallin kouluttamiseksi.

Googlen tähän mennessä merkittävin julkisesti julkaistu kielimalli, PaLM, koulutettiin jakamalla se kahteen 4 000 siru supertietokoneeseen 50 päivän aikana.

Yrityksen mukaan sen supertietokoneiden avulla sirujen välisten yhteyksien määrittäminen on helppoa lennossa.

"Piirikytkennällä on helppo reitittää viallisten komponenttien ympärille", sanoi Google Fellow Norm Jouppi ja Google Distinguished Engineer David Patterson järjestelmää käsittelevässä blogiviestissä.

"Tämä joustavuus antaa meille mahdollisuuden jopa muuttaa supertietokoneiden yhteenliittämisen topologiaa nopeuttaaksemme ML-mallin (koneoppimismallin) suorituskykyä."

Googlen mukaan ei ole vertailua

Nvidia hallitsee valtavia tietomääriä sisältävien tekoälymallien koulutusmarkkinoita. Kuitenkin, kun nämä mallit on koulutettu, niitä käytetään laajemmin niin sanotussa "päätelmässä" tekemällä tehtäviä, kuten luomalla tekstivastauksia kehotteisiin ja päättämällä, sisältääkö kuva kissan.

Tärkeimmät ohjelmistot studiot käyttävät tällä hetkellä Nvidian A100-prosessoreita. A100-sirut ovat yleisimmin käytettyjä siruja, joita kehitysstudio käyttää tekoälyn koneoppimiseen.

- A100 sopii koneoppimismalleille, jotka käyttävät sähkötyökaluja, kuten ChatGPT, BingAItai vakaa diffuusio. Se pystyy suorittamaan useita yksinkertaisia ​​laskelmia samanaikaisesti, mikä on tärkeää koulutuksen ja hermoverkkomallien käytön kannalta.

Vaikka Nvidia hylkäsi kommenttipyynnöt Reuters, Google sanoi, että he eivät vertaa neljättä sukupolveaan Nvidian nykyiseen lippulaivaan H100-siruun, koska se tuli markkinoille Googlen sirun jälkeen ja on valmistettu uudemmalla tekniikalla.

Google sanoi myös, että yhtiöllä on "terve putki tulevaisuuden vinkkejä" antamatta tarkempia yksityiskohtia, mutta vihjasi, että se saattaa työstää uutta TPU:ta, joka kilpailee Nvidia H100:n kanssa.

Vaikka Google julkaisee vasta nyt yksityiskohtia supertietokoneestaan, se on ollut verkossa yrityksen sisällä vuodesta 2020 lähtien palvelinkeskuksessa Mayesin piirikunnassa Oklahomassa.

Google sanoi, että startup Midjourney käytti järjestelmää kouluttaakseen malliaan, joka luo tuoreita kuvia muutaman sanan tekstin jälkeen.

Aikaleima:

Lisää aiheesta MetaNews