Meta Meluncurkan Model Segmentasi Gambar AI, SAM

Meta Meluncurkan Model Segmentasi Gambar AI, SAM

Meta Meluncurkan Model Segmentasi Gambar AI, Kecerdasan Data SAM PlatoBlockchain. Pencarian Vertikal. Ai.

Alphabet Inc. Google telah berbagi informasi tentang superkomputer yang digunakannya untuk melatih model AI, mengklaim bahwa mereka hemat daya dan lebih cepat daripada Milik Nvidia Chip A100. Google telah memproduksi chip kustomnya yang disebut Tensor Processing Unit (TPU), yang merupakan generasi keempat.

Menurut raksasa teknologi itu, perusahaan menggunakan chip untuk lebih dari 90% pekerjaan pelatihan AI perusahaan. Google menambahkan data umpan chip melalui model untuk membuatnya praktis dalam tugas-tugas seperti teks seperti manusia atau untuk menghasilkan gambar.

Idealnya, TPU dirancang untuk mempercepat fase inferensi jaringan saraf dalam (DNN), yang digunakan di banyak aplikasi pembelajaran mesin seperti pengenalan gambar, pengenalan ucapan, pemrosesan bahasa alami, dan banyak lagi. TPU juga digunakan untuk melatih DNN.

Baca juga: Twitter di Air Panas Hukum karena Jerman Mengancam Denda

Pada hari Selasa Google menerbitkan sebuah karya ilmiah menjelaskan bagaimana ia merangkai lebih dari 4 chip. Menurut perusahaan, itu menggunakan sakelar optik yang dikembangkan khusus untuk mendapatkan masing-masing mesin di satu tempat.

Dalam makalah ilmiah, Google mengatakan bahwa untuk sistem dengan ukuran yang sebanding, chipnya 1.7 kali lebih cepat dan 1.9 kali lebih hemat daya daripada sistem berbasis chip A100 Nvidia yang ada di pasaran pada saat yang sama dengan TPU generasi keempat.

Diperlukan lebih banyak perbaikan

Analis berpandangan bahwa pasar untuk chip inferensi data akan tumbuh dengan cepat seiring dengan pertumbuhan bisnis Teknologi AI ke dalam produk mereka. Perusahaan seperti Google, bagaimanapun, sudah bekerja untuk menjaga agar biaya tambahan yang akan ditambahkan, dan salah satu biayanya adalah listrik.

Model bahasa besar yang mendorong produk seperti Google Bard atau OpenAI ChatGPT ukurannya telah berkembang pesat. Faktanya mereka terlalu besar untuk disimpan dalam satu chip.

Dengan demikian, meningkatkan koneksi ini telah menjadi titik kunci persaingan di antara perusahaan yang membangun superkomputer AI.

Selain itu, model ini dibagi menjadi ribuan chip dan bekerja sama selama berminggu-minggu atau lebih untuk melatih model tersebut.

Model bahasa Google yang paling signifikan diungkapkan kepada publik hingga saat ini, PaLM, dilatih dengan membaginya menjadi dua dari 4 chip superkomputer selama 000 hari.

Menurut perusahaan, superkomputernya memudahkan untuk mengonfigurasi koneksi antar chip dengan cepat.

โ€œSirkuit switching memudahkan untuk merutekan komponen yang gagal,โ€ kata Google Fellow Norm Jouppi dan Google Distinguished Engineer David Patterson dalam posting blog tentang sistem

โ€œFleksibilitas ini bahkan memungkinkan kami mengubah topologi interkoneksi superkomputer untuk mempercepat kinerja model ML (pembelajaran mesin).โ€

Tidak ada perbandingan menurut Google

Nvidia mendominasi pasar untuk melatih model AI dengan data dalam jumlah besar. Namun, setelah model-model itu dilatih, mereka digunakan lebih luas dalam apa yang disebut "inferensi" dengan melakukan tugas-tugas seperti membuat respons teks terhadap perintah dan memutuskan apakah suatu gambar berisi kucing.

Perangkat lunak utama studio saat ini menggunakan prosesor Nvidia A100. Chip A100 adalah chip yang paling umum digunakan oleh studio pengembangan untuk beban kerja pembelajaran mesin AI.

Grafik A100 cocok untuk model pembelajaran mesin yang menggerakkan alat seperti ChatGPT, BingAI, atau Difusi Stabil. Itu dapat melakukan banyak perhitungan sederhana secara bersamaan, yang penting untuk melatih dan menggunakan model jaringan saraf.

Sementara Nvidia menolak permintaan komentar oleh Reuters, Google mengatakan mereka tidak membandingkan generasi keempat mereka dengan chip H100 andalan Nvidia saat ini karena datang ke pasar setelah chip Google, dan dibuat dengan teknologi yang lebih baru.

Google juga mengatakan bahwa perusahaan memiliki "pipa tip masa depan yang sehat", tanpa memberikan detail yang lebih baik, tetapi mengisyaratkan bahwa itu mungkin sedang mengerjakan TPU baru yang akan bersaing dengan Nvidia H100.

Meskipun Google hanya merilis detail tentang superkomputernya sekarang, ia telah online di dalam perusahaan sejak 2020 di pusat data di Mayes County, Oklahoma.

Google mengatakan bahwa startup Midjourney menggunakan sistem untuk melatih modelnya, yang menghasilkan gambar segar setelah diberi beberapa kata teks.

Stempel Waktu:

Lebih dari Berita Meta