Nvidia Meluncurkan 'H200' dengan Kemampuan AI Tingkat Lanjut

Nvidia Meluncurkan 'H200' dengan Kemampuan AI Tingkat Lanjut

Nvidia Meluncurkan 'H200' dengan Kemampuan AI Tingkat Lanjut Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Pembuat chip Nvidia telah memperkenalkan chipset H200, yang akan meningkatkan kinerja untuk model bahasa besar (LLM) dan menangani sistem AI yang lebih besar.

Chip baru ini merupakan peningkatan signifikan dari H100, dengan kecepatan kinerja hampir dua kali lipat serta kemampuan yang lebih tinggi. Nvidia telah mengindikasikan bahwa chip yang ditingkatkan akan mulai diluncurkan pada tahun 2024.

Secara spesifik

Chip baru ini menggantikan chip yang ada saat ini H100 chipset dengan peningkatan signifikan, terutama memori bandwidth tinggi, elemen penting yang menentukan kecepatan pemrosesan data.

H200 hadir dalam bentuk memori, menjadi GPU pertama datang dengan teknologi HBM3e. Ini tertanam dengan memori 141 GB pada 4.8 terabyte per detik, yang jauh lebih besar daripada H100 dengan kapasitas 80 GB.

Menurut Nvidia, ruang memori yang lebih besar dan elemen pemrosesan berkecepatan tinggi dimaksudkan untuk memungkinkan respons yang lebih baik dan lebih cepat dari layanan AI.

Nvidia tidak menyebutkan nama pemasok memori untuk chipset baru tersebut, namun kemungkinan pesaing seperti Micron Technology mungkin telah menyediakan memori tersebut, menurut Jagran Inggris.

Seiring dengan berlanjutnya perlombaan AI, chip H200 dirancang untuk memenuhi permintaan yang tinggi akan efisiensi yang lebih baik dan kemampuan yang lebih kuat.

Nama-nama besar sedang dalam proses

Microsoft Azure, infrastruktur cloud Oracle, Google Cloud, dan Amazon Web Services merupakan penyedia layanan cloud awal yang akan menawarkan akses ke chip berbasis H200 pada kuartal kedua tahun 2024. Ini merupakan tambahan dari penyedia cloud khusus AI Lambda, CoreWeave , dan Vultr.

“Jika Anda melihat apa yang terjadi di pasar, ukuran model berkembang pesat… Ini adalah salah satu dari kami yang terus dengan cepat memperkenalkan teknologi terbaru dan terhebat,” Dion Harris, kepala pemasaran produk pusat data di Nvidia, seperti dikutip.

Menurut pembuat chip tersebut, H200 baru akan menghasilkan “peningkatan kinerja yang mencakup hampir dua kali lipat kecepatan interferensi pada Llama 2 Meta.”

Baca juga: Pameran Impor Internasional China Memamerkan Perangkat AI dan Metaverse

Signifikansi

H200 baru hadir di tengah Pembatasan ekspor AS pada chip kelas atas, yang dapat berdampak pada raksasa pembuat chip tersebut.

Hal ini terjadi karena sekitar 20% hingga 25% pendapatan pusat data Nvidia berasal dari Tiongkok. Tapi perusahaan punya menghentikan sementara pesanan chip AI baru dari perekonomian Asia dan mengalihkan sistemnya ke pasar lain.

Setelah pengumuman chipset H200, saham Nvidia melonjak sebanyak 1.5%, mencapai $486 pada 13 November, lebih rendah $12 dari harga tertinggi sepanjang masa di $502.

Pada basis year-to-date, jumlah tersebut telah melonjak lebih dari 250%. Lintasan pertumbuhan perusahaan juga tetap kuat, dan memproyeksikan pendapatan sebesar $16 miliar untuk kuartal ketiga fiskalnya, yaitu sekitar peningkatan 170% dibandingkan tahun sebelumnya.

Nvidia mengendalikan sekitar 80% dari pasar global untuk chip AI. Perusahaan seperti pembuat ChatGPT OpenAI dan Stability AI sangat bergantung pada teknologi Nvidia.

[Embedded content]

Stempel Waktu:

Lebih dari Berita Meta