Η Nvidia αποκαλύπτει το «H200» με προηγμένες δυνατότητες AI

Η Nvidia αποκαλύπτει το «H200» με προηγμένες δυνατότητες AI

Η Nvidia αποκαλύπτει το «H200» με προηγμένες δυνατότητες τεχνητής νοημοσύνης PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η Chipmaker Nvidia παρουσίασε το chipset H200, το οποίο θα ενισχύσει την απόδοση για μεγάλα γλωσσικά μοντέλα (LLM) και θα χειριστεί μεγαλύτερα συστήματα AI.

Το νέο τσιπ είναι μια σημαντική αναβάθμιση από το H100, με ταχύτητα σχεδόν διπλής απόδοσης καθώς και υψηλότερες δυνατότητες. Η Nvidia έχει υποδείξει ότι το αναβαθμισμένο τσιπ θα ξεκινήσει να κυκλοφορεί το 2024.

Οι ιδιαιτερότητες

Το νέο τσιπ αντικαθιστά το τρέχον H100 chipset με σημαντικές αναβαθμίσεις, ιδιαίτερα τη μνήμη υψηλού εύρους ζώνης, ένα σημαντικό στοιχείο που καθορίζει την ταχύτητα επεξεργασίας δεδομένων.

Το H200 έρχεται με τη μορφή μνήμης, γίνεται η πρώτη GPU να έρθει με τεχνολογία HBM3e. Είναι ενσωματωμένο με 141 GB μνήμης στα 4.8 terabyte ανά δευτερόλεπτο, που είναι πολύ μεγαλύτερο από το H100 με χωρητικότητα 80 GB.

Σύμφωνα με Nvidia, μεγαλύτερος χώρος μνήμης και στοιχεία επεξεργασίας υψηλής ταχύτητας προορίζονται να επιτρέπουν καλύτερες και ταχύτερες αποκρίσεις από υπηρεσίες τεχνητής νοημοσύνης.

Η Nvidia δεν κατονόμασε κανέναν προμηθευτή μνήμης για το νέο chipset, αλλά πιθανοί ανταγωνιστές, όπως η Micron Technology, μπορεί να παρείχαν τη μνήμη, σύμφωνα με Αγγλικά Jagran.

Καθώς ο αγώνας τεχνητής νοημοσύνης συνεχίζεται, το τσιπ H200 σχεδιάστηκε για να αντιμετωπίσει την υψηλή ζήτηση για καλύτερη απόδοση και ισχυρότερες δυνατότητες.

Μεγάλα ονόματα στα σκαριά

Το Microsoft Azure, η υποδομή cloud Oracle, το Google Cloud και το Amazon Web Services αποτελούν τους αρχικούς παρόχους υπηρεσιών cloud που θα προσφέρουν πρόσβαση στο τσιπ που βασίζεται στο H200 το δεύτερο τρίμηνο του 2024. Αυτό προστίθεται στους εξειδικευμένους παρόχους cloud τεχνητής νοημοσύνης Lambda, CoreWeave και Vultr.

«Όταν κοιτάτε τι συμβαίνει στην αγορά, τα μεγέθη των μοντέλων επεκτείνονται γρήγορα… Είναι άλλος ένας από εμάς που συνεχίζουμε να εισάγουμε γρήγορα την πιο πρόσφατη και κορυφαία τεχνολογία», δήλωσε ο Dion Harris, επικεφαλής μάρκετινγκ προϊόντων κέντρου δεδομένων στο nvidia, αναφέρθηκε.

Σύμφωνα με τον κατασκευαστή chip, το νέο H200 θα οδηγήσει σε «βελτίωση απόδοσης που θα περιλαμβάνει σχεδόν διπλασιασμό της ταχύτητας παρεμβολής στο Llama 2 της Meta».

Διαβάστε επίσης: Η China International Import Expo παρουσιάζει συσκευές AI και Metaverse

Η σημαντικότητα

Το νέο H200 έρχεται εν μέσω περιορισμοί στις εξαγωγές των ΗΠΑ σε μάρκες υψηλών προδιαγραφών, που θα μπορούσαν να επηρεάσουν τον γίγαντα που παράγει τσιπ.

Αυτό προκύπτει καθώς εκτιμάται ότι το 20% έως το 25% των εσόδων του κέντρου δεδομένων της Nvidia προέρχεται από την Κίνα. Αλλά η εταιρεία έχει διέκοψε τις παραγγελίες νέων τσιπ AI από την ασιατική οικονομία και ανακατεύθυνε τα συστήματά της σε άλλες αγορές.

Μετά την ανακοίνωση του chipset H200, οι μετοχές της Nvidia εκτινάχθηκαν έως και 1.5%, φτάνοντας τα 486 $ στις 13 Νοεμβρίου, δηλαδή 12 $ λιγότερο από το υψηλό όλων των εποχών των 502 $.

Σε ετήσια βάση, ο μετρητής έχει εκτιναχθεί πάνω από 250%. Η αναπτυξιακή τροχιά της εταιρείας παρέμεινε επίσης ισχυρή και προβλέπει έσοδα 16 δισεκατομμυρίων δολαρίων για το δημοσιονομικό της τρίτο τρίμηνο, που είναι περίπου αύξηση 170% κατά το προηγούμενο έτος.

Η Nvidia ελέγχει περίπου το 80% των παγκόσμια αγορά για τσιπ AI. Εταιρείες όπως ο κατασκευαστής ChatGPT OpenAI και Stability AI βασίζονται σε μεγάλο βαθμό στην τεχνολογία Nvidia.

[Ενσωματωμένο περιεχόμενο]

Σφραγίδα ώρας:

Περισσότερα από MetaNews