Meta onthult AI-beeldsegmentatiemodel, SAM

Meta onthult AI-beeldsegmentatiemodel, SAM

Meta onthult AI-beeldsegmentatiemodel, SAM PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Alphabet Inc's Kopen Google Reviews heeft informatie gedeeld over supercomputers die het gebruikt om AI-modellen te trainen, en beweert dat ze energiezuinig en sneller zijn dan Nvidia's A100-chip. Google heeft zijn aangepaste chip geproduceerd, de Tensor Processing Unit (TPU), die zich in de vierde generatie bevindt.

Volgens de techgigant gebruikt het bedrijf de chips voor meer dan 90% van het AI-trainingswerk van het bedrijf. Google voegt de chipfeedgegevens toe via modellen om ze praktisch te maken bij taken zoals mensachtige teksten of om afbeeldingen te genereren.

Ideaal, TPU's zijn ontworpen om de inferentiefase van diepe neurale netwerken (DNN's) te versnellen, die worden gebruikt in veel toepassingen voor machine learning, zoals beeldherkenning, spraakherkenning, natuurlijke taalverwerking en meer. TPU's worden ook gebruikt voor het trainen van DNN's.

Lees ook: Twitter in juridisch warm water terwijl Duitsland dreigt met een boete

Op dinsdag Google een wetenschappelijk artikel gepubliceerd waarin wordt uitgelegd hoe het meer dan 4 000 van de fiches heeft geregen. Volgens het bedrijf gebruikte het op maat gemaakte optische schakelaars om individuele machines op één plek te krijgen.

In het wetenschappelijke artikel zei Google dat voor systemen van vergelijkbare grootte de chips tot 1.7 keer sneller en 1.9 keer energiezuiniger zijn dan een systeem gebaseerd op Nvidia's A100-chip die tegelijkertijd met de vierde generatie TPU op de markt was.

Meer verbeteringen nodig

Analisten zijn van mening dat de markt voor data-inferentiechips snel zal groeien, zoals bedrijven stellen AI-technologieën in hun producten. Bedrijven als Google werken echter al aan hoe ze de extra kosten die dit met zich meebrengt onder controle kunnen houden, en een van de kosten is elektriciteit.

Grote taalmodellen die producten zoals Google Bard of OpenAI's ChatGPT zijn enorm in omvang gegroeid. In feite zijn ze veel te groot om op een enkele chip op te slaan.

Als zodanig is het verbeteren van deze verbindingen een belangrijk punt geworden voor concurrentie tussen bedrijven die AI-supercomputers bouwen.

Bovendien zijn deze modellen verdeeld over duizenden chips en werken ze weken of langer samen om het model te trainen.

Google's belangrijkste openbaar gemaakte taalmodel tot nu toe, PaLM, werd getraind door het gedurende 4 dagen te verdelen over twee van de 000 chipsupercomputers.

Volgens het bedrijf maken zijn supercomputers het gemakkelijk om verbindingen tussen chips direct te configureren.

"Circuitwisseling maakt het gemakkelijk om defecte componenten te omzeilen", aldus Google Fellow Norm Jouppi en Google Distinguished Engineer David Patterson in een blogpost over het systeem

"Deze flexibiliteit stelt ons zelfs in staat om de topologie van de supercomputer-interconnectie te wijzigen om de prestaties van een ML-model (machine learning) te versnellen."

Er is geen vergelijking volgens Google

Nvidia domineert de markt voor het trainen van AI-modellen met enorme hoeveelheden data. Nadat deze modellen echter zijn getraind, worden ze breder gebruikt in wat "inferentie" wordt genoemd door taken uit te voeren zoals het genereren van tekstreacties op prompts en het beslissen of een afbeelding een kat bevat.

Grote software studio's gebruiken momenteel de A100-processors van Nvidia. De A100-chips zijn de meest gebruikte chips die ontwikkelingsstudio's gebruiken voor AI-machine learning-workloads.

De A100 is geschikt voor machine learning-modellen die tools zoals ChatGPT aandrijven, Bing-AI, of stabiele diffusie. Het is in staat om veel eenvoudige berekeningen tegelijkertijd uit te voeren, wat belangrijk is voor het trainen en gebruiken van neurale netwerkmodellen.

Terwijl Nvidia verzoeken om commentaar van Reuters, zei Google dat ze hun vierde generatie niet vergeleken met Nvidia's huidige vlaggenschip H100-chip, omdat deze op de markt kwam na de chip van Google en is gemaakt met nieuwere technologie.

Google zei ook dat het bedrijf "een gezonde pijplijn van toekomstige tips" heeft, zonder fijnere details te geven, maar liet doorschemeren dat het zou kunnen werken aan een nieuwe TPU die zal concurreren met Nvidia H100.

Hoewel Google nu pas details vrijgeeft over zijn supercomputer, is deze sinds 2020 online binnen het bedrijf in een datacenter in Mayes County, Oklahoma.

Google zei dat startup Midjourney het systeem gebruikte om zijn model te trainen, dat nieuwe afbeeldingen genereert na een paar woorden tekst te hebben gekregen.

Tijdstempel:

Meer van MetaNieuws