A Meta bemutatja az AI képszegmentációs modellt, a SAM-ot

A Meta bemutatja az AI képszegmentációs modellt, a SAM-ot

Meta Unveils AI Image Segmentation Model, SAM PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alphabet Inc.'s Google megosztott információkat az AI modellek betanításához használt szuperszámítógépekről, azt állítva, hogy energiatakarékosak és gyorsabbak, mint Nvidia A100 chip. A Google elkészítette egyedi, Tensor Processing Unit (TPU) nevű chipjét, amely a negyedik generációs.

A technológiai óriás szerint a cég a chipeket használja a vállalat mesterséges intelligencia-képzésének több mint 90%-ára. A Google modelleken keresztül adja hozzá a chipet, hogy azok praktikussá váljanak olyan feladatokban, mint például az emberi szövegek vagy képek generálása.

Ideális esetben, A TPU-kat tervezték a mély neurális hálózatok (DNN) következtetési fázisának felgyorsítására, amelyeket számos gépi tanulási alkalmazásban használnak, például képfelismerésben, beszédfelismerésben, természetes nyelvi feldolgozásban stb. A TPU-kat a DNN-ek betanítására is használják.

Lásd még: A Twitter a Legal Hot Water-ben, mivel Németország pénzbírsággal fenyeget

Kedden Google tudományos közleményt publikált elmagyarázza, hogyan fűzött fel több mint 4 zsetont. A cég szerint egyedi fejlesztésű optikai kapcsolókat használt, hogy az egyes gépeket egy helyen helyezze el.

A tudományos közleményben a Google azt mondta, hogy a hasonló méretű rendszerek esetében a chipjei akár 1.7-szer gyorsabbak és 1.9-szer hatékonyabbak, mint az Nvidia A100 lapkáján alapuló rendszer, amely a negyedik generációs TPU-val egy időben volt forgalomban.

További fejlesztések szükségesek

Az elemzők azon a véleményen vannak, hogy az adatkövetkeztetési chipek piaca gyorsan növekedni fog, ahogy a vállalkozások teszik AI technológiák termékeikbe. Az olyan cégek azonban, mint a Google, már dolgoznak azon, hogy miként lehetne leplezni az ezzel járó többletköltségeket, amelyek közül az egyik az elektromos áram.

Nagy nyelvi modellek, amelyek olyan termékeket hajtanak meg, mint pl Google Bard vagy OpenAI ChatGPT nagymértékben megnőtt. Valójában túl nagyok ahhoz, hogy egyetlen chipen tárolják.

Mint ilyen, ezeknek a kapcsolatoknak a javítása kulcsfontosságú pont lett az AI szuperszámítógépeket építő vállalatok közötti versenyben.

Ezenkívül ezek a modellek több ezer chipre vannak felosztva, és hetekig vagy tovább dolgoznak együtt a modell betanításán.

A Google eddigi legjelentősebb nyilvánosan közzétett nyelvi modelljét, a PaLM-et úgy képezték ki, hogy a 4 chipes szuperszámítógép közül kettőre osztották fel 000 nap alatt.

A cég szerint szuperszámítógépei egyszerűvé teszik a chipek közötti kapcsolatok menet közbeni konfigurálását.

„Az áramkörváltás megkönnyíti a meghibásodott alkatrészek megkerülését” – mondta Norm Jouppi Google-tag és David Patterson, a Google kiváló mérnöke a rendszerről szóló blogbejegyzésében.

"Ez a rugalmasság lehetővé teszi még a szuperszámítógép-összekapcsolás topológiájának megváltoztatását is, hogy felgyorsítsuk az ML (gépi tanulási) modell teljesítményét."

A Google szerint nincs összehasonlítás

Az Nvidia uralja a hatalmas mennyiségű adatot tartalmazó mesterséges intelligencia modellek betanítási piacát. A modellek betanítása után azonban szélesebb körben alkalmazzák őket az úgynevezett „következtetésben” olyan feladatok elvégzésével, mint például szöveges válasz generálása a felszólításokra, és annak eldöntése, hogy egy kép tartalmaz-e macskát.

Fő szoftver a stúdiók jelenleg az Nvidia A100 processzorait használják. Az A100 chipek a leggyakrabban használt chipek, amelyeket a fejlesztőstúdió az AI gépi tanulási munkaterheléséhez használ.

A Az A100 megfelelő olyan gépi tanulási modellekhez, amelyek olyan elektromos eszközöket használnak, mint a ChatGPT, BingAI, vagy Stabil diffúzió. Egyszerre sok egyszerű számítás elvégzésére képes, ami fontos a neurális hálózati modellek oktatásához és használatához.

Míg az Nvidia visszautasította a hozzászólásra vonatkozó kéréseket Reuters, a Google azt mondta, hogy nem hasonlították össze negyedik generációjukat az Nvidia jelenlegi zászlóshajójának számító H100-as lapkával, mert az a Google chipje után került a piacra, és újabb technológiával készült.

A Google azt is közölte, hogy a vállalat „jó készlettel rendelkezik a jövőbeli tippekre”, pontosabb részleteket nem közölt, de utalt arra, hogy esetleg egy új TPU-n dolgozik, amely felveszi a versenyt az Nvidia H100-zal.

Bár a Google még csak részleteket ad ki szuperszámítógépéről, az 2020 óta online működik a vállalaton belül az oklahomai Mayes megyében található adatközpontban.

A Google azt mondta, hogy az induló Midjourney a rendszert használta modelljének betanításához, amely néhány szónyi szöveg beillesztése után friss képeket generál.

Időbélyeg:

Még több MetaNews