Dunia kecerdasan buatan (AI) dan pembelajaran mesin (ML) telah menyaksikan perubahan paradigma dengan munculnya model AI generatif yang dapat membuat teks, gambar, kode, dan audio seperti manusia. Dibandingkan dengan model ML klasik, model AI generatif secara signifikan lebih besar dan lebih kompleks. Namun, kompleksitasnya yang meningkat juga disertai dengan biaya tinggi untuk inferensi dan meningkatnya kebutuhan akan sumber daya komputasi yang kuat. Tingginya biaya inferensi untuk model AI generatif dapat menjadi penghalang masuknya bisnis dan peneliti dengan sumber daya terbatas, sehingga memerlukan kebutuhan akan solusi yang lebih efisien dan hemat biaya. Selain itu, sebagian besar kasus penggunaan AI generatif melibatkan interaksi manusia atau skenario dunia nyata, yang memerlukan perangkat keras yang dapat memberikan kinerja latensi rendah. AWS telah berinovasi dengan chip yang dibuat khusus untuk memenuhi kebutuhan yang terus meningkat akan perangkat keras komputasi yang kuat, efisien, dan hemat biaya.
Hari ini, kami dengan senang hati mengumumkannya Amazon SageMaker mendukung AWS Inferensia2 (ml.inf2) dan Pelatihan AWS (ml.trn1) instans SageMaker berbasis untuk menghosting model AI generatif untuk inferensi real-time dan asinkron. instans ml.inf2 tersedia untuk penerapan model di SageMaker di AS Timur (Ohio) dan instans ml.trn1 di AS Timur (Virginia U.).
Anda dapat menggunakan instans ini di SageMaker untuk mencapai kinerja tinggi dengan biaya rendah untuk model AI generatif, termasuk model bahasa besar (LLM), Difusi Stabil, dan transformator visi. Selain itu, Anda dapat menggunakan Rekomendasi Inferensi Amazon SageMaker untuk membantu Anda menjalankan uji beban dan mengevaluasi manfaat harga-performa dari menerapkan model Anda pada instans ini.
Anda dapat menggunakan instans ml.inf2 dan ml.trn1 untuk menjalankan aplikasi ML Anda di SageMaker untuk peringkasan teks, pembuatan kode, pembuatan video dan gambar, pengenalan ucapan, personalisasi, deteksi penipuan, dan lainnya. Anda dapat memulai dengan mudah dengan menentukan instans ml.trn1 atau ml.inf2 saat mengonfigurasi titik akhir SageMaker. Anda dapat menggunakan AWS Deep Learning Containers (DLC) yang kompatibel dengan ml.trn1 dan ml.inf2 untuk PyTorch, TensorFlow, Hugging Face, dan large model inference (LMI) untuk memulai dengan mudah. Untuk daftar lengkap dengan versi, lihat Tersedia Gambar Deep Learning Containers.
Dalam postingan ini, kami menunjukkan proses penerapan model bahasa besar di AWS Inferentia2 menggunakan SageMaker, tanpa memerlukan pengkodean tambahan, dengan memanfaatkan wadah LMI. Kami menggunakan GPT4ALL-J, model GPT-J 7B yang disempurnakan yang menyediakan interaksi gaya chatbot.
Ikhtisar instance ml.trn1 dan ml.inf2
Instans ml.trn1 didukung oleh akselerator Trainium, yang dibuat khusus untuk pelatihan deep learning performa tinggi dari model AI generatif, termasuk LLM. Namun, instans ini juga mendukung beban kerja inferensi untuk model yang bahkan lebih besar dari yang sesuai dengan Inf2. Ukuran instans terbesar, instans trn1.32xlarge, menampilkan 16 Akselerator Trainium dengan memori akselerator 512 GB dalam satu instans yang memberikan hingga 3.4 petaflop daya komputasi FP16/BF16. 16 akselerator Trainium terhubung dengan NeuronLinkv2 berkecepatan sangat tinggi untuk komunikasi kolektif yang efisien.
Instans ml.Inf2 didukung oleh Akselerator AWS Inferentia2, akselerator yang dibuat khusus untuk inferensi. Ini memberikan kinerja komputasi tiga kali lebih tinggi, throughput hingga empat kali lebih tinggi, dan latensi hingga 10 kali lebih rendah dibandingkan dengan AWS Inferentia generasi pertama. Ukuran instans terbesar, Inf2.48xlarge, menampilkan 12 akselerator AWS Inferentia2 dengan memori akselerator 384 GB dalam satu instans untuk daya komputasi gabungan sebesar 2.3 petaflops untuk BF16/FP16. Ini memungkinkan Anda menerapkan hingga model 175 miliar parameter dalam satu instans. Inf2 adalah satu-satunya instans yang dioptimalkan inferensi untuk menawarkan interkoneksi ini, sebuah fitur yang hanya tersedia dalam instans pelatihan yang lebih mahal. Untuk model ultra-besar yang tidak cocok dengan akselerator tunggal, data mengalir langsung antara akselerator dengan NeuronLink, melewati CPU sepenuhnya. Dengan NeuronLink, Inf2 mendukung inferensi terdistribusi lebih cepat dan meningkatkan throughput dan latensi.
Akselerator AWS Inferentia2 dan Trainium memiliki dua NeuronCores-v2, tumpukan memori HBM 32 GB, dan mesin komputasi kolektif khusus, yang secara otomatis mengoptimalkan runtime dengan komputasi dan komunikasi yang tumpang tindih saat melakukan inferensi multi-akselerator. Untuk detail lebih lanjut tentang arsitektur, lihat Perangkat Trainium dan Inferentia.
Diagram berikut menampilkan contoh arsitektur menggunakan AWS Inferentia2.
SDK Neuron AWS
Neuron AWS adalah SDK yang digunakan untuk menjalankan beban kerja pembelajaran mendalam pada instans berbasis AWS Inferentia dan Trainium. AWS Neuron menyertakan kompiler, runtime, dan alat pembelajaran mendalam yang terintegrasi secara native ke dalam TensorFlow dan PyTorch. Dengan Neuron, Anda dapat mengembangkan, membuat profil, dan menerapkan beban kerja ML berperforma tinggi di ml.trn1 dan ml.inf2.
Grafik Penyusun Neuron menerima model ML dalam berbagai format (TensorFlow, PyTorch, XLA HLO) dan mengoptimalkannya untuk berjalan di perangkat Neuron. Kompiler Neuron dipanggil dalam kerangka ML, di mana model ML dikirim ke kompiler oleh plugin kerangka kerja Neuron. Artefak penyusun yang dihasilkan disebut file NEFF (Neuron Executable File Format) yang kemudian dimuat oleh Neuron runtime ke perangkat Neuron.
Grafik Waktu kerja neuron terdiri dari driver kernel dan pustaka C/C++, yang menyediakan API untuk mengakses perangkat AWS Inferentia dan Trainium Neuron. Plugin kerangka kerja Neuron ML untuk TensorFlow dan PyTorch menggunakan runtime Neuron untuk memuat dan menjalankan model di NeuronCores. Neuron runtime memuat model deep learning (NEFF) terkompilasi ke perangkat Neuron dan dioptimalkan untuk throughput tinggi dan latensi rendah.
Host model NLP menggunakan instans SageMaker ml.inf2
Sebelum kita mendalami melayani LLM dengan transformer-neuronx, yang merupakan pustaka sumber terbuka untuk membagi matriks berat model yang besar ke beberapa NeuronCore, mari kita telusuri secara singkat alur penerapan tipikal untuk model yang dapat ditampung ke dalam NeuronCore tunggal.
Periksalah daftar model yang didukung untuk memastikan model didukung di AWS Inferentia2. Selanjutnya, model perlu dikompilasi sebelumnya oleh Neuron Compiler. Anda dapat menggunakan notebook SageMaker atau Cloud komputasi elastis Amazon (Amazon EC2) untuk mengompilasi model. Anda dapat menggunakan SageMaker Python SDK untuk menerapkan model menggunakan kerangka pembelajaran mendalam yang populer seperti PyTorch, seperti yang ditampilkan dalam kode berikut. Anda dapat menerapkan model Anda ke layanan hosting SageMaker dan mendapatkan titik akhir yang dapat digunakan untuk inferensi. Titik akhir ini dikelola sepenuhnya dan mendukung penskalaan otomatis.
Lihat Alur Pengembang untuk detail selengkapnya tentang alur pengembangan umum Inf2 di SageMaker dengan skrip sampel.
Host LLM menggunakan instans SageMaker ml.inf2
Model bahasa besar dengan miliaran parameter sering kali terlalu besar untuk dimuat dalam satu akselerator. Ini memerlukan penggunaan teknik paralel model untuk menghosting LLM di beberapa akselerator. Persyaratan penting lainnya untuk hosting LLM adalah penerapan solusi penyajian model berkinerja tinggi. Solusi ini harus memuat model secara efisien, mengelola partisi, dan melayani permintaan dengan lancar melalui titik akhir HTTP.
SageMaker menyertakan wadah pembelajaran mendalam (DLC) khusus, pustaka, dan perkakas untuk paralelisme model dan inferensi model besar. Untuk sumber daya untuk memulai LMI di SageMaker, lihat Paralelisme model dan inferensi model besar. SageMaker mengelola DLC dengan pustaka sumber terbuka populer untuk menghosting model besar seperti GPT, T5, OPT, BLOOM, dan Stable Diffusion pada infrastruktur AWS. DLC khusus ini disebut sebagai wadah LMI SageMaker.
Wadah LMI SageMaker gunakan DJLServing, server model yang terintegrasi dengan pustaka transformers-neuronx untuk mendukung paralelisme tensor di seluruh NeuronCores. Untuk mempelajari lebih lanjut tentang cara kerja DJLServing, lihat Terapkan model besar di Amazon SageMaker menggunakan inferensi paralel model DJLServing dan DeepSpeed. Server model DJL dan pustaka transformers-neuronx berfungsi sebagai komponen inti wadah, yang juga mencakup Neuron SDK. Pengaturan ini memfasilitasi pemuatan model ke akselerator AWS Inferentia2, memparalelkan model di beberapa NeuronCore, dan memungkinkan penyajian melalui titik akhir HTTP.
Kontainer LMI mendukung model pemuatan dari sebuah Layanan Penyimpanan Sederhana Amazon ember (Amazon S3) atau Hugging Face Hub. Skrip penangan default memuat model, mengkompilasi dan mengubahnya menjadi format yang dioptimalkan Neuron, dan memuatnya. Untuk menggunakan wadah LMI untuk menghosting LLM, kami memiliki dua opsi:
- Tanpa kode (lebih disukai) โ Ini adalah cara termudah untuk menerapkan LLM menggunakan wadah LMI. Dalam metode ini, Anda dapat menggunakan yang disediakan penangan default dan cukup berikan nama model dan parameter yang diperlukan
serving.properties
file untuk memuat dan menghosting model. Untuk menggunakan penangan default, kami menyediakanentryPoint
parameter sebagaidjl_python.transformers-neuronx
. - Bawa skrip Anda sendiri โ Dalam pendekatan ini, Anda memiliki opsi untuk membuat file model.py Anda sendiri, yang berisi kode yang diperlukan untuk memuat dan menyajikan model. File ini bertindak sebagai perantara antara
DJLServing
API dantransformers-neuronx
Lebah. Untuk menyesuaikan proses pemuatan model, Anda dapat menyediakanserving.properties
dengan parameter yang dapat dikonfigurasi. Untuk daftar lengkap parameter yang dapat dikonfigurasi yang tersedia, lihat Semua opsi konfigurasi DJL. Berikut adalah contoh dari model.py file.
Arsitektur waktu proses
Grafik tensor_parallel_degree
nilai properti menentukan distribusi modul paralel tensor di beberapa NeuronCores. Misalnya, inf2.24xlarge memiliki enam akselerator AWS Inferentia2. Setiap akselerator AWS Inferentia2 memiliki dua NeuronCores. Setiap NeuronCore memiliki memori bandwidth tinggi (HBM) khusus sebesar 16 GB yang menyimpan modul paralel tensor. Dengan derajat paralel tensor 4, LMI akan mengalokasikan tiga salinan model dari model yang sama, masing-masing menggunakan empat NeuronCores. Seperti yang ditunjukkan pada diagram berikut, saat wadah LMI dimulai, model akan dimuat dan dilacak terlebih dahulu di memori CPU yang dapat dialamatkan. Saat penelusuran selesai, model dipartisi melintasi NeuronCores berdasarkan derajat paralel tensor.
LMI menggunakan DJLServing sebagai tumpukan penyajian modelnya. Setelah pemeriksaan kondisi kontainer lolos di SageMaker, kontainer siap melayani permintaan inferensi. DJLServing meluncurkan beberapa proses Python yang setara dengan TOTAL NUMBER OF NEURON CORES/TENSOR_PARALLEL_DEGREE
. Setiap proses Python berisi utas dalam C++ yang setara dengan TENSOR_PARALLEL_DEGREE
. Setiap utas C++ menyimpan satu pecahan model pada satu NeuronCore.
Banyak praktisi (proses Python) cenderung menjalankan inferensi secara berurutan ketika server dipanggil dengan beberapa permintaan independen. Meskipun lebih mudah disiapkan, biasanya bukan praktik terbaik untuk memanfaatkan daya komputasi akselerator. Untuk mengatasi hal ini, DJLServing menawarkan optimalisasi built-in batching dinamis untuk menggabungkan permintaan inferensi independen ini di sisi server untuk membentuk batch yang lebih besar secara dinamis untuk meningkatkan throughput. Semua permintaan mencapai batcher dinamis terlebih dahulu sebelum memasuki antrean pekerjaan sebenarnya untuk menunggu inferensi. Anda dapat mengatur ukuran kumpulan pilihan Anda untuk pengelompokan dinamis menggunakan batch_size
pengaturan dalam serving.properties
. Anda juga dapat mengonfigurasi max_batch_delay
untuk menentukan waktu tunda maksimum di batcher untuk menunggu permintaan lain untuk bergabung dengan batch berdasarkan persyaratan latensi Anda. Throughput juga bergantung pada jumlah salinan model dan grup proses Python yang diluncurkan dalam wadah. Seperti yang ditunjukkan pada diagram berikut, dengan derajat paralel tensor diatur ke 4, kontainer LMI meluncurkan tiga grup proses Python, masing-masing menyimpan salinan lengkap model. Ini memungkinkan Anda untuk meningkatkan ukuran batch dan mendapatkan throughput yang lebih tinggi.
Notebook SageMaker untuk menerapkan LLM
Di bagian ini, kami memberikan panduan langkah demi langkah penerapan GPT4All-J, model 6 miliar parameter yang berukuran 24 GB di FP32. GPT4All-J adalah chatbot populer yang telah dilatih untuk berbagai macam konten interaksi seperti masalah kata, dialog, kode, puisi, lagu, dan cerita. GPT4all-J adalah model GPT-J yang disetel dengan baik yang menghasilkan respons yang mirip dengan interaksi manusia.
Buku catatan lengkap untuk contoh ini disediakan di GitHub. Kita dapat menggunakan SageMaker Python SDK untuk menerapkan model ke instans Inf2. Kami menggunakan yang disediakan penangan default untuk memuat model. Dengan ini, kita hanya perlu menyediakan a porsi.properti mengajukan. File ini memiliki konfigurasi yang diperlukan untuk server model DJL untuk mengunduh dan menghosting model. Kita bisa menentukan nama model Hugging Face menggunakan model_id
parameter untuk mengunduh model langsung dari repo Hugging Face. Sebagai alternatif, Anda dapat mengunduh model dari Amazon S3 dengan menyediakan s3url
parameter. NS entryPoint
parameter dikonfigurasi untuk menunjuk ke perpustakaan untuk memuat model. Untuk detail lebih lanjut tentang djl_python.fastertransformer
, mengacu kepada Kode GitHub.
Grafik tensor_parallel_degree
nilai properti menentukan distribusi modul paralel tensor di beberapa perangkat. Misalnya, dengan 12 NeuronCore dan tensor parallel degree 4, LMI akan mengalokasikan tiga salinan model, masing-masing menggunakan empat NeuronCore. Anda juga dapat menentukan jenis presisi menggunakan properti dtype
. n_position
parameter menentukan jumlah input maksimum dan panjang urutan output untuk model. Lihat kode berikut:
Membangun tarball
mengandung serving.properties
dan unggah ke bucket S3. Meskipun penangan default digunakan dalam contoh ini, Anda dapat mengembangkan a model.py
file untuk menyesuaikan proses pemuatan dan penyajian. Jika ada paket yang memerlukan instalasi, sertakan di dalam requirements.txt
mengajukan. Lihat kode berikut:
Ambil gambar wadah DJL dan buat model SageMaker:
Selanjutnya, kami membuat titik akhir SageMaker dengan konfigurasi model yang ditentukan sebelumnya. Kontainer mengunduh model ke dalam /tmp
ruang karena SageMaker memetakan /tmp
untuk Toko Blok Elastis Amazon (Amazon EBS). Kita perlu menambahkan a volume_size
parameter untuk memastikan /tmp
direktori memiliki cukup ruang untuk mengunduh dan mengkompilasi model. Kami mengatur container_startup_health_check_timeout
hingga 3,600 detik untuk memastikan pemeriksaan kesehatan dimulai setelah model siap. Kami menggunakan contoh ml.inf2.8xlarge. Lihat kode berikut:
Setelah titik akhir SageMaker dibuat, kita dapat membuat prediksi waktu nyata terhadap titik akhir SageMaker menggunakan Predictor
obyek:
Membersihkan
Hapus titik akhir untuk menghemat biaya setelah Anda menyelesaikan pengujian:
Kesimpulan
Dalam postingan ini, kami memamerkan kemampuan SageMaker yang baru diluncurkan, yang sekarang mendukung instans ml.inf2 dan ml.trn1 untuk menghosting model AI generatif. Kami mendemonstrasikan cara menerapkan GPT4ALL-J, model AI generatif, di AWS Inferentia2 menggunakan SageMaker dan wadah LMI, tanpa menulis kode apa pun. Kami juga memamerkan bagaimana Anda dapat menggunakan DJLServing dan transformers-neuronx
untuk memuat model, mempartisi, dan melayani.
Instans Inf2 menyediakan cara yang paling hemat biaya untuk menjalankan model AI generatif di AWS. Untuk detail kinerja, lihat Kinerja Inf2.
Check out GitHub repo untuk contoh notebook. Cobalah dan beri tahu kami jika Anda memiliki pertanyaan!
Tentang Penulis
Vivek Gangasani adalah Arsitek Solusi Pembelajaran Mesin Senior di Amazon Web Services. Dia bekerja dengan Machine Learning Startups untuk membangun dan menerapkan aplikasi AI/ML di AWS. Dia saat ini berfokus untuk memberikan solusi untuk MLOps, ML Inference, dan ML kode rendah. Dia telah mengerjakan proyek di berbagai domain, termasuk Pemrosesan Bahasa Alami dan Visi Komputer.
Hiroshi Tokoyo adalah Arsitek Solusi di AWS Annapurna Labs. Berbasis di Jepang, dia bergabung dengan Annapurna Labs bahkan sebelum diakuisisi oleh AWS dan secara konsisten membantu pelanggan dengan teknologi Annapurna Labs. Fokusnya baru-baru ini adalah pada solusi Pembelajaran Mesin berdasarkan silikon yang dibuat khusus, AWS Inferentia, dan Trainium.
Dhawal Patel adalah Arsitek Pembelajaran Mesin Utama di AWS. Dia telah bekerja dengan organisasi mulai dari perusahaan besar hingga perusahaan rintisan menengah pada masalah yang terkait dengan komputasi terdistribusi, dan Kecerdasan Buatan. Dia berfokus pada Deep learning termasuk domain NLP dan Computer Vision. Dia membantu pelanggan mencapai inferensi model kinerja tinggi di SageMaker.
Qinglan adalah Insinyur Pengembangan Perangkat Lunak di AWS. Dia telah mengerjakan beberapa produk yang menantang di Amazon, termasuk solusi inferensi ML kinerja tinggi dan sistem logging kinerja tinggi. Tim Qing berhasil meluncurkan model Billion-parameter pertama di Amazon Advertising dengan latensi yang sangat rendah. Qing memiliki pengetahuan mendalam tentang pengoptimalan infrastruktur dan akselerasi Deep Learning.
Qing Wei Li adalah Spesialis Pembelajaran Mesin di Amazon Web Services. Dia menerima gelar Ph.D. dalam Riset Operasi setelah dia melanggar akun hibah penelitian penasihatnya dan gagal memberikan Hadiah Nobel yang dia janjikan. Saat ini dia membantu pelanggan di industri layanan keuangan dan asuransi membangun solusi pembelajaran mesin di AWS. Di waktu luangnya, dia suka membaca dan mengajar.
Alan Tan adalah Manajer Produk Senior dengan upaya terkemuka SageMaker pada inferensi model besar. Dia bersemangat menerapkan Machine Learning ke area Analytics. Di luar pekerjaan, dia menikmati alam bebas.
Varun Syal adalah Insinyur Pengembangan Perangkat Lunak dengan AWS Sagemaker yang bekerja pada fitur penting yang dihadapi pelanggan untuk platform Inferensi ML. Dia bersemangat bekerja di Sistem Terdistribusi dan ruang AI. Di waktu luangnya, ia suka membaca dan berkebun.
- Konten Bertenaga SEO & Distribusi PR. Dapatkan Amplifikasi Hari Ini.
- PlatoAiStream. Kecerdasan Data Web3. Pengetahuan Diperkuat. Akses Di Sini.
- Mencetak Masa Depan bersama Adryenn Ashley. Akses Di Sini.
- Beli dan Jual Saham di Perusahaan PRE-IPO dengan PREIPOยฎ. Akses Di Sini.
- Sumber: https://aws.amazon.com/blogs/machine-learning/achieve-high-performance-with-lowest-cost-for-generative-ai-inference-using-aws-inferentia2-and-aws-trainium-on-amazon-sagemaker/
- :memiliki
- :adalah
- :bukan
- :Di mana
- $NAIK
- 10
- 100
- 12
- 13
- 14
- 15%
- 22
- 24
- 7
- 8
- 9
- a
- Tentang Kami
- akselerator
- akselerator
- Menerima
- mengakses
- Akun
- Mencapai
- perolehan
- di seluruh
- tindakan
- menambahkan
- tambahan
- alamat
- dapat dialamatkan
- Keuntungan
- pengiklanan
- Setelah
- terhadap
- AI
- saya menggunakan kasus
- AI / ML
- Semua
- memungkinkan
- juga
- Meskipun
- Amazon
- Amazon EC2
- Amazon SageMaker
- Amazon Web Services
- an
- analisis
- dan
- Mengumumkan
- Lain
- Apa pun
- Lebah
- aplikasi
- Menerapkan
- pendekatan
- arsitektur
- ADALAH
- DAERAH
- buatan
- kecerdasan buatan
- Kecerdasan buatan (AI)
- AS
- At
- audio
- mobil
- secara otomatis
- tersedia
- AWS
- Inferensi AWS
- bola
- Bandwidth
- pembatas
- berdasarkan
- BE
- karena
- menjadi
- sebelum
- Manfaat
- TERBAIK
- antara
- Besar
- lebih besar
- miliaran
- Memblokir
- Blog
- Berkembang
- secara singkat
- Broke
- membangun
- dibangun di
- built-in
- bisnis
- by
- C + +
- bernama
- CAN
- kasus
- menantang
- ChatBot
- memeriksa
- Keripik
- kode
- Pengkodean
- Kolektif
- menggabungkan
- bergabung
- datang
- Komunikasi
- komunikasi
- dibandingkan
- cocok
- lengkap
- sama sekali
- kompleks
- kompleksitas
- komponen
- luas
- komputasi
- menghitung
- komputer
- Visi Komputer
- komputasi
- konfigurasi
- terhubung
- Wadah
- Wadah
- mengandung
- Konten
- Core
- Biaya
- hemat biaya
- Biaya
- membuat
- dibuat
- kritis
- sangat penting
- Sekarang
- pelanggan
- pelanggan
- menyesuaikan
- data
- dedicated
- mendalam
- belajar mendalam
- Default
- didefinisikan
- Mendefinisikan
- Derajat
- menunda
- menyampaikan
- mengantarkan
- memberikan
- menunjukkan
- tergantung
- menyebarkan
- penggelaran
- penyebaran
- rincian
- Deteksi
- ditentukan
- mengembangkan
- Pengembangan
- alat
- Devices
- berbeda
- Difusi
- langsung
- didistribusikan
- komputasi terdistribusi
- sistem terdistribusi
- distribusi
- melakukan
- domain
- Dont
- Download
- download
- pengemudi
- dinamis
- dinamis
- setiap
- Terdahulu
- mudah
- termudah
- mudah
- Timur
- efisien
- efisien
- upaya
- memungkinkan
- akhir
- Titik akhir
- insinyur
- Mesin
- cukup
- memastikan
- memasuki
- perusahaan
- masuk
- Setara
- mengevaluasi
- Bahkan
- contoh
- gembira
- mahal
- tambahan
- Menghadapi
- memfasilitasi
- menghadapi
- Gagal
- lebih cepat
- Fitur
- Fitur
- File
- keuangan
- servis keuangan
- menyelesaikan
- Pertama
- cocok
- aliran
- Mengalir
- Fokus
- terfokus
- berfokus
- berikut
- Untuk
- bentuk
- format
- empat
- Kerangka
- kerangka
- penipuan
- deteksi penipuan
- dari
- penuh
- sepenuhnya
- Selanjutnya
- menghasilkan
- generasi
- generatif
- AI generatif
- mendapatkan
- Go
- memberikan
- Grup
- Pertumbuhan
- Perangkat keras
- Memiliki
- he
- Kesehatan
- membantu
- membantu
- membantu
- di sini
- High
- kinerja tinggi
- lebih tinggi
- -nya
- memegang
- memegang
- tuan rumah
- tuan
- layanan hosting
- Rumah
- Seterpercayaapakah Olymp Trade? Kesimpulan
- How To
- Namun
- HTML
- http
- HTTPS
- Pusat
- manusia
- if
- gambar
- gambar
- implementasi
- mengimpor
- in
- secara mendalam
- memasukkan
- termasuk
- Termasuk
- Meningkatkan
- meningkatkan
- independen
- industri
- Infrastruktur
- berinovasi
- memasukkan
- input
- instalasi
- contoh
- asuransi
- terpadu
- Intelijen
- interaksi
- interaksi
- perantara
- ke
- dipanggil
- melibatkan
- IT
- NYA
- Jepang
- Pekerjaan
- ikut
- bergabung
- jpg
- json
- hanya
- Tahu
- pengetahuan
- Labs
- bahasa
- besar
- Perusahaan besar
- lebih besar
- terbesar
- Latensi
- diluncurkan
- meluncurkan
- terkemuka
- BELAJAR
- pengetahuan
- Panjang
- membiarkan
- perpustakaan
- Perpustakaan
- 'like'
- 'like
- Terbatas
- Daftar
- LLM
- memuat
- pemuatan
- beban
- penebangan
- Rendah
- menurunkan
- terendah
- mesin
- Mesin belajar
- terutama
- mempertahankan
- Mayoritas
- membuat
- mengelola
- berhasil
- manajer
- Peta
- max
- maksimum
- Memori
- metode
- ML
- MLOps
- model
- model
- Modul
- lebih
- lebih efisien
- paling
- beberapa
- nama
- Alam
- Pengolahan Bahasa alami
- perlu
- Perlu
- kebutuhan
- New
- NY
- berikutnya
- nLP
- Penghargaan Nobel
- buku catatan
- sekarang
- jumlah
- obyek
- of
- menawarkan
- Penawaran
- sering
- Ohio
- on
- ONE
- hanya
- open source
- Operasi
- optimasi
- Optimize
- dioptimalkan
- Mengoptimalkan
- pilihan
- Opsi
- or
- organisasi
- Lainnya
- kami
- di luar
- di luar rumah
- keluaran
- di luar
- sendiri
- paket
- pola pikir
- Paralel
- parameter
- parameter
- lulus
- melewati
- bergairah
- prestasi
- Personalisasi
- Platform
- plato
- Kecerdasan Data Plato
- Data Plato
- Plugin
- plugin
- Titik
- Populer
- Pos
- kekuasaan
- didukung
- kuat
- praktek
- Ketelitian
- Prediksi
- Predictor
- disukai
- Utama
- hadiah
- masalah
- proses
- proses
- pengolahan
- Produk
- manajer produk
- Produk
- Profil
- memprojeksikan
- dijanjikan
- properties
- milik
- memberikan
- disediakan
- menyediakan
- menyediakan
- tujuan
- Ular sanca
- pytorch
- mulai
- mencapai
- Bacaan
- siap
- dunia nyata
- real-time
- diterima
- baru
- pengakuan
- disebut
- terkait
- permintaan
- permintaan
- wajib
- kebutuhan
- Persyaratan
- penelitian
- peneliti
- Sumber
- tanggapan
- dihasilkan
- Naik
- Run
- pembuat bijak
- Inferensi SageMaker
- sama
- Save
- skala
- skenario
- script
- SDK
- mulus
- detik
- Bagian
- melihat
- senior
- Urutan
- melayani
- layanan
- Layanan
- porsi
- set
- pengaturan
- penyiapan
- beberapa
- bergeser
- harus
- Menunjukkan
- dipamerkan
- ditunjukkan
- Pertunjukkan
- sisi
- signifikan
- Silikon
- mirip
- Sederhana
- tunggal
- ENAM
- Ukuran
- ukuran
- So
- Perangkat lunak
- pengembangan perangkat lunak
- larutan
- Solusi
- Space
- spesialis
- khusus
- pidato
- Speech Recognition
- stabil
- tumpukan
- Tumpukan
- awal
- mulai
- dimulai
- Startups
- penyimpanan
- cerita
- menyimpan
- efisien
- gaya
- berhasil
- seperti itu
- mendukung
- Didukung
- Mendukung
- sistem
- sistem
- pengambilan
- Pengajaran
- tim
- teknik
- Teknologi
- tensorflow
- tes
- dari
- bahwa
- Grafik
- Daerah
- mereka
- Mereka
- Sana.
- Ini
- ini
- tiga
- Melalui
- keluaran
- waktu
- kali
- untuk
- terlalu
- alat
- jiplakan
- terlatih
- Pelatihan
- transformer
- MENGHIDUPKAN
- dua
- mengetik
- khas
- upload
- us
- menggunakan
- bekas
- menggunakan
- biasanya
- Penggunaan
- Memanfaatkan
- nilai
- variasi
- berbagai
- Luas
- sangat
- melalui
- Video
- virginia
- penglihatan
- menunggu
- walkthrough
- Cara..
- we
- jaringan
- layanan web
- berat
- Apa
- ketika
- yang
- akan
- dengan
- dalam
- tanpa
- menyaksikan
- Word
- Kerja
- bekerja
- kerja
- bekerja
- dunia
- menulis
- penulisan
- York
- Kamu
- Anda
- zephyrnet.dll