PyTorch adalah kerangka kerja pembelajaran mesin (ML) yang banyak digunakan oleh pelanggan AWS untuk berbagai aplikasi, seperti visi komputer, pemrosesan bahasa alami, pembuatan konten, dan banyak lagi. Dengan rilis PyTorch 2.0 baru-baru ini, pelanggan AWS sekarang dapat melakukan hal yang sama seperti yang mereka bisa dengan PyTorch 1.x tetapi lebih cepat dan berskala dengan kecepatan pelatihan yang ditingkatkan, penggunaan memori yang lebih rendah, dan kemampuan distribusi yang ditingkatkan. Beberapa teknologi baru termasuk torch.compile, TorchDynamo, AOTAutograd, PrimTorch, dan TorchInductor telah disertakan dalam rilis PyTorch2.0. Mengacu pada PyTorch 2.0: Rilis generasi berikutnya yang lebih cepat, lebih Pythonic, dan Dinamis seperti sebelumnya untuk rincian.
Posting ini mendemonstrasikan kinerja dan kemudahan menjalankan pelatihan dan penerapan model ML terdistribusi berskala besar dan berperforma tinggi menggunakan PyTorch 2.0 di AWS. Posting ini lebih lanjut berjalan melalui implementasi langkah demi langkah menyempurnakan model RoBERTa (Pendekatan Pretraining BERT yang Dioptimalkan dengan Kuat) untuk analisis sentimen menggunakan AMI Deep Learning AWS (AWS DLAMI) dan Kontainer Pembelajaran Jauh AWS (DLC) aktif Cloud komputasi elastis Amazon (Amazon EC2 p4d.24xlarge) dengan peningkatan 42% yang teramati saat digunakan dengan PyTorch 2.0 torch.compile + bf16 + fused AdamW. Model yang disetel dengan baik kemudian diterapkan Graviton AWSInstans C7g EC2 berbasis aktif Amazon SageMaker dengan peningkatan 10% yang diamati dibandingkan dengan PyTorch 1.13.
Gambar berikut menunjukkan tolok ukur kinerja penyempurnaan model RoBERTa di Amazon EC2 p4d.24xlarge dengan AWS PyTorch 2.0 DLAMI + DLC.
Lihat Inferensi PyTorch 2.0 yang dioptimalkan dengan prosesor AWS Graviton untuk detail tentang tolok ukur kinerja inferensi berbasis AWS Graviton untuk PyTorch 2.0.
Dukungan untuk PyTorch 2.0 di AWS
Dukungan PyTorch2.0 tidak terbatas pada layanan dan komputasi yang ditampilkan dalam contoh kasus penggunaan di postingan ini; itu meluas ke banyak lainnya di AWS, yang kita bahas di bagian ini.
Persyaratan bisnis
Banyak pelanggan AWS, di berbagai industri, mengubah bisnis mereka dengan menggunakan kecerdasan buatan (AI), khususnya di bidang AI generatif dan model bahasa besar (LLM) yang dirancang untuk menghasilkan teks mirip manusia. Ini pada dasarnya adalah model besar berdasarkan teknik pembelajaran mendalam yang dilatih dengan ratusan miliar parameter. Pertumbuhan ukuran model meningkatkan waktu pelatihan dari hari ke minggu, dan bahkan berbulan-bulan dalam beberapa kasus. Hal ini mendorong peningkatan eksponensial dalam biaya pelatihan dan inferensi, yang membutuhkan, lebih dari sebelumnya, kerangka kerja seperti PyTorch 2.0 dengan dukungan bawaan untuk pelatihan model yang dipercepat dan infrastruktur AWS yang dioptimalkan yang disesuaikan dengan beban kerja spesifik dan kebutuhan kinerja.
Pilihan komputasi
AWS memberikan dukungan PyTorch 2.0 pada pilihan terluas komputasi canggih, jaringan berkecepatan tinggi, dan opsi penyimpanan berkinerja tinggi yang dapat diskalakan yang dapat Anda gunakan untuk proyek atau aplikasi ML apa pun dan menyesuaikannya agar sesuai dengan kebutuhan kinerja dan anggaran Anda. Ini dimanifestasikan dalam diagram di bagian selanjutnya; di tingkat paling bawah, kami menyediakan berbagai pilihan instans komputasi yang didukung oleh prosesor AWS Graviton, Nvidia, AMD, dan Intel.
Untuk penerapan model, Anda dapat menggunakan prosesor berbasis ARM seperti instans berbasis Graviton AWS yang baru-baru ini diumumkan yang memberikan kinerja inferensi untuk PyTorch 2.0 hingga 3.5 kali kecepatan untuk Resnet50 dibandingkan dengan rilis PyTorch sebelumnya, dan hingga 1.4 kali lebih cepat kecepatan untuk BERT, menjadikan instans berbasis AWS Graviton sebagai instans yang dioptimalkan komputasi tercepat di AWS untuk solusi inferensi model berbasis CPU.
Pilihan layanan ML
Untuk menggunakan komputasi AWS, Anda dapat memilih dari serangkaian luas layanan berbasis cloud global untuk pengembangan, komputasi, dan orkestrasi alur kerja ML. Pilihan ini memungkinkan Anda menyelaraskan dengan strategi bisnis dan cloud Anda serta menjalankan pekerjaan PyTorch 2.0 di platform pilihan Anda. Misalnya, jika Anda memiliki batasan lokal atau investasi yang sudah ada dalam produk sumber terbuka, Anda dapat menggunakan Amazon EC2, Kluster Paralel AWS, atau AWS UltraCluster untuk menjalankan beban kerja pelatihan terdistribusi berdasarkan pendekatan yang dikelola sendiri. Anda juga dapat menggunakan layanan terkelola penuh seperti SageMaker untuk infrastruktur pelatihan berskala produksi, terkelola sepenuhnya, dan hemat biaya. SageMaker juga terintegrasi dengan berbagai alat MLOps, yang memungkinkan Anda menskalakan penerapan model, mengurangi biaya inferensi, mengelola model secara lebih efektif dalam produksi, dan mengurangi beban operasional.
Demikian pula, jika Anda memiliki investasi Kubernetes, Anda juga dapat menggunakannya Layanan Amazon Elastic Kubernetes (Amazon EKS) dan Kubeflow di AWS untuk mengimplementasikan pipeline ML untuk pelatihan terdistribusi atau menggunakan layanan orkestrasi container asli AWS seperti Layanan Kontainer Amazon Elastic (Amazon ECS) untuk pelatihan dan penerapan model. Opsi untuk membangun platform ML Anda tidak terbatas pada layanan ini; Anda dapat memilih tergantung pada persyaratan organisasi Anda untuk pekerjaan PyTorch 2.0 Anda.
Mengaktifkan PyTorch 2.0 dengan AWS DLAMI dan AWS DLC
Untuk menggunakan tumpukan layanan AWS dan komputasi canggih yang disebutkan di atas, Anda harus menginstal versi terkompilasi yang dioptimalkan dari kerangka kerja PyTorch2.0 dan dependensi yang diperlukan, banyak di antaranya merupakan proyek independen, dan mengujinya dari ujung ke ujung. Anda mungkin juga memerlukan pustaka khusus CPU untuk rutinitas matematika yang dipercepat, pustaka khusus GPU untuk matematika yang dipercepat dan rutinitas komunikasi antar-GPU, dan driver GPU yang perlu diselaraskan dengan kompiler GPU yang digunakan untuk mengompilasi pustaka GPU. Jika pekerjaan Anda memerlukan pelatihan multi-node berskala besar, Anda memerlukan jaringan yang dioptimalkan yang dapat memberikan latensi terendah dan throughput tertinggi. Setelah Anda membangun tumpukan, Anda perlu memindai dan menambalnya secara teratur untuk kerentanan keamanan dan membangun kembali serta menguji ulang tumpukan setelah setiap peningkatan versi kerangka kerja.
AWS membantu mengurangi beban berat ini dengan menawarkan rangkaian kerangka kerja, dependensi, dan alat yang dikuratori dan aman untuk mempercepat pembelajaran mendalam di cloud. AWS DLAMI dan DLC AWS. Penampung dan image mesin pra-bangun dan teruji ini dioptimalkan untuk pembelajaran mendalam pada jenis Instans Komputasi Akselerasi EC2, memungkinkan Anda untuk meningkatkan skala ke beberapa node untuk beban kerja terdistribusi secara lebih efisien dan mudah. Ini termasuk pra-dibangun Adaptor Kain Elastis (EFA), tumpukan GPU Nvidia, dan banyak kerangka kerja pembelajaran mendalam (TensorFlow, MXNet, dan PyTorch dengan rilis terbaru 2.0) untuk pelatihan pembelajaran mendalam terdistribusi berkinerja tinggi. Anda tidak perlu menghabiskan waktu untuk menginstal dan memecahkan masalah perangkat lunak dan driver pembelajaran mendalam atau membangun infrastruktur ML, Anda juga tidak perlu mengeluarkan biaya berulang untuk menambal gambar ini untuk kerentanan keamanan atau membuat ulang gambar setelah setiap peningkatan versi kerangka kerja baru. Sebagai gantinya, Anda dapat berfokus pada upaya bernilai tambah yang lebih tinggi dari tugas pelatihan dalam skala besar dalam waktu yang lebih singkat dan iterasi pada model ML Anda lebih cepat.
Ikhtisar solusi
Mempertimbangkan bahwa pelatihan tentang GPU dan inferensi pada CPU adalah kasus penggunaan yang populer untuk pelanggan AWS, kami telah menyertakan sebagai bagian dari posting ini penerapan arsitektur hybrid langkah demi langkah (seperti yang ditunjukkan pada diagram berikut). Kami akan menjelajahi seni kemungkinan dan menggunakan instans P4 EC2 dengan dukungan BF16 yang diinisialisasi dengan Base GPU DLAMI termasuk driver NVIDIA, CUDA, NCCL, EFA stack, dan PyTorch2.0 DLC untuk menyempurnakan model analisis sentimen RoBERTa yang memberi Anda kontrol dan fleksibilitas untuk menggunakan pustaka sumber terbuka atau berpemilik apa pun. Kemudian kami menggunakan SageMaker untuk infrastruktur hosting model yang dikelola sepenuhnya untuk menghosting model kami di berbasis AWS Graviton3 Instans C7g. Kami memilih C7g di SageMaker karena terbukti mengurangi biaya inferensi hingga 50% relatif terhadap instans EC2 yang sebanding untuk inferensi waktu-nyata di SageMaker. Diagram berikut mengilustrasikan arsitektur ini.
Pelatihan model dan hosting dalam kasus penggunaan ini terdiri dari langkah-langkah berikut:
- Luncurkan instans EC2 Ubuntu berbasis GPU DLAMI di VPC Anda dan sambungkan ke instans Anda menggunakan SSH.
- Setelah Anda masuk ke instans EC2, unduh DLC AWS PyTorch 2.0.
- Jalankan wadah DLC Anda dengan skrip pelatihan model untuk menyempurnakan model RoBERTa.
- Setelah pelatihan model selesai, kemas model tersimpan, skrip inferensi, dan beberapa file metadata ke dalam file tar yang dapat digunakan inferensi SageMaker dan unggah paket model ke Layanan Penyimpanan Sederhana Amazon (Amazon S3).
- Terapkan model menggunakan SageMaker dan buat titik akhir inferensi HTTPS. Titik akhir inferensi SageMaker menyimpan penyeimbang muatan dan satu atau beberapa instans wadah inferensi Anda di Availability Zone yang berbeda. Anda dapat menerapkan beberapa versi dari model yang sama atau model yang sama sekali berbeda di balik titik akhir tunggal ini. Dalam contoh ini, kami menghosting satu model.
- Panggil endpoint model Anda dengan mengirimkannya data uji dan verifikasi output inferensi.
Di bagian berikut, kami menampilkan penyempurnaan model RoBERTa untuk analisis sentimen. RoBERTa dikembangkan oleh AI Facebook, menyempurnakan model BERT yang populer dengan memodifikasi hyperparameter utama dan pra-pelatihan pada korpus yang lebih besar. Ini mengarah pada peningkatan kinerja dibandingkan dengan vanilla BERT.
Kami menggunakan transformer perpustakaan oleh Hugging Face untuk melatih model RoBERTa pada sekitar 124 juta tweet, dan kami menyempurnakannya di kumpulan data Twitter untuk analisis sentimen.
Prasyarat
Pastikan Anda memenuhi prasyarat berikut:
- Anda punya Akun AWS.
- Pastikan Anda berada di
us-west-2
Wilayah untuk menjalankan contoh ini. (Contoh ini diuji dius-west-2
; namun, Anda dapat menjalankan di Wilayah lain mana pun.) - Buat peran dengan nama itu
sagemakerrole
. Tambahkan kebijakan terkelolaAmazonSageMakerFullAccess
danAmazonS3FullAccess
untuk memberi SageMaker akses ke bucket S3. - Buat peran EC2 dengan nama itu
ec2_role
. Gunakan kebijakan izin berikut:
1. Luncurkan instans pengembangan Anda
Kami membuat instans p4d.24xlarge yang menawarkan 8 GPU NVIDIA A100 Tensor Core di us-west-2
:
Saat memilih AMI, ikuti catatan rilis untuk menjalankan perintah ini menggunakan Antarmuka Baris Perintah AWS (AWS CLI) untuk menemukan ID AMI yang akan digunakan us-west-2
:
Pastikan ukuran volume root gp3 adalah 200 GiB.
Enkripsi volume EBS tidak diaktifkan secara default. Pertimbangkan untuk mengubahnya saat memindahkan solusi ini ke produksi.
2. Unduh Wadah Pembelajaran Mendalam
DLC AWS tersedia sebagai image Docker Registri Kontainer Elastis Amazon Publik, layanan registry image container AWS terkelola yang aman, dapat diskalakan, dan andal. Setiap gambar Docker dibuat untuk pelatihan atau inferensi pada versi kerangka kerja pembelajaran mendalam tertentu, versi Python, dengan dukungan CPU atau GPU. Pilih kerangka kerja PyTorch 2.0 dari daftar yang tersedia Gambar Wadah Pembelajaran Jauh.
Selesaikan langkah-langkah berikut untuk mengunduh DLC Anda:
A. SSH ke instance. Secara default, grup keamanan yang digunakan dengan EC2 membuka port SSH ke semua. Harap pertimbangkan ini jika Anda memindahkan solusi ini ke produksi:
Secara default, grup keamanan yang digunakan dengan Amazon EC2 membuka port SSH untuk semua. Pertimbangkan untuk mengubah ini jika Anda memindahkan solusi ini ke produksi.
B. Tetapkan variabel lingkungan yang diperlukan untuk menjalankan langkah-langkah yang tersisa dari implementasi ini:
Amazon ECR mendukung repositori gambar publik dengan izin berbasis sumber daya menggunakan Identitas AWS dan Manajemen Akses (IAM) agar pengguna atau layanan tertentu dapat mengakses gambar.
C. Masuk ke registri DLC:
D. Tarik wadah PyTorch 2.0 terbaru dengan dukungan GPU us-west-2
Jika Anda mendapatkan kesalahan "tidak ada ruang tersisa di perangkat", pastikan Anda meningkat volume EC2 EBS menjadi 200 GiB lalu memperpanjang sistem berkas Linux.
3. Klon skrip terbaru yang diadaptasi ke PyTorch 2.0
Klon skrip dengan kode berikut:
Karena kami menggunakan API transformer Hugging Face dengan versi terbaru 4.28.1, ini telah mengaktifkan dukungan PyTorch 2.0. Kami menambahkan argumen berikut ke API pelatih di train_sentiment.py
untuk mengaktifkan fitur PyTorch 2.0 baru:
- Kompilasi obor – Rasakan peningkatan rata-rata 43% pada GPU Nvidia A100 dengan satu baris perubahan.
- tipe data BF16 – Dukungan tipe data baru (Brain Floating Point) untuk Ampere atau GPU yang lebih baru.
- Pengoptimal AdamW yang menyatu – Implementasi AdamW yang menyatu untuk lebih mempercepat pelatihan. Metode pengoptimalan stokastik ini memodifikasi implementasi tipikal peluruhan berat pada Adam dengan memisahkan peluruhan berat dari pembaruan gradien.
4. Buat image Docker baru dengan dependensi
Kami memperluas image DLC PyTorch 2.0 pra-bangun untuk menginstal transformator Hugging Face dan pustaka lain yang kami perlukan untuk menyempurnakan model kami. Ini memungkinkan Anda untuk menggunakan perpustakaan dan pengaturan pembelajaran mendalam yang teruji dan dioptimalkan tanpa harus membuat gambar dari awal. Lihat kode berikut:
5. Mulai pelatihan menggunakan wadah
Jalankan perintah Docker berikut untuk mulai menyempurnakan model di tweet_eval
kumpulan data sentimen. Kami menggunakan argumen wadah Docker (ukuran memori bersama, memori terkunci maksimum, dan ukuran tumpukan) direkomendasikan oleh Nvidia untuk beban kerja pembelajaran mendalam.
Anda harus mengharapkan output berikut. Skrip pertama-tama mengunduh kumpulan data TweetEval, yang terdiri dari tujuh tugas heterogen di Twitter, semuanya dibingkai sebagai klasifikasi tweet multi-kelas. Tugas tersebut meliputi ironi, kebencian, ofensif, pendirian, emoji, emosi, dan sentimen.
Skrip kemudian mengunduh model dasar dan memulai proses penyempurnaan. Metrik pelatihan dan evaluasi dilaporkan pada akhir setiap zaman.
Statistik kinerja
Dengan PyTorch 2.0 dan perpustakaan transformer Hugging Face terbaru 4.28.1, kami mengamati peningkatan 42% pada satu instans p4d.24xlarge dengan 8 GPU A100 40GB. Peningkatan kinerja berasal dari kombinasi torch.compile, tipe data BF16, dan pengoptimal AdamW yang menyatu. Kode berikut adalah hasil akhir dari dua pelatihan yang dijalankan dengan dan tanpa fitur baru:
6. Uji model yang dilatih secara lokal sebelum menyiapkan inferensi SageMaker
Anda dapat menemukan file-file berikut di bawah $ml_working_dir/saved_model/
Setelah latihan:
Pastikan kita dapat menjalankan inferensi secara lokal sebelum menyiapkan inferensi SageMaker. Kita dapat memuat model yang disimpan dan menjalankan inferensi secara lokal menggunakan test_trained_model.py
naskah:
Anda harus mengharapkan output berikut dengan input “Kasus Covid meningkat dengan cepat!”:
7. Siapkan tarbal model untuk inferensi SageMaker
Di bawah direktori tempat model berada, buat direktori baru bernama code
:
Di direktori baru, buat file inference.py
dan tambahkan yang berikut ke dalamnya:
Pada akhirnya, Anda harus memiliki struktur folder berikut:
Model siap dikemas dan diunggah ke Amazon S3 untuk digunakan dengan inferensi SageMaker:
8. Terapkan model pada instans SageMaker AWS Graviton
CPU generasi baru menawarkan peningkatan kinerja yang signifikan dalam inferensi ML berkat instruksi bawaan khusus. Dalam kasus penggunaan ini, kami menggunakan infrastruktur hosting yang dikelola sepenuhnya SageMaker dengan instans C3g berbasis AWS Graviton7. AWS juga mengukur penghematan biaya hingga 50% untuk inferensi PyTorch dengan instans EC3 C2g berbasis AWS Graviton7 di seluruh Torch Hub ResNet50, dan beberapa model Hugging Face relatif terhadap instans EC2 yang sebanding.
Untuk menerapkan model ke instans AWS Graviton, kami menggunakan AWS DLC yang menyediakan dukungan untuk PyTorch 2.0 dan TorchServe 0.8.0, atau Anda dapat bawa wadah sendiri yang kompatibel dengan arsitektur ARMv8.2.
Kami menggunakan model yang kami latih sebelumnya: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Jika Anda belum pernah menggunakan SageMaker sebelumnya, tinjau Mulailah dengan Amazon SageMaker.
Untuk memulai, pastikan paket SageMaker terbaru:
Karena ini adalah contoh, buatlah sebuah file bernama start_endpoint.py
dan tambahkan kode berikut. Ini akan menjadi skrip Python untuk memulai titik akhir inferensi SageMaker dengan mode:
Kami menggunakan ml.c7g.4xlarge sebagai contoh dan mengambil PT 2.0 dengan cakupan gambar inference_graviton
. Ini adalah instans AWS Graviton3 kami.
Selanjutnya, kami membuat file yang menjalankan prediksi. Kami melakukan ini sebagai skrip terpisah sehingga kami dapat menjalankan prediksi sebanyak yang kami mau. Membuat predict.py
dengan kode berikut:
Dengan skrip yang dibuat, sekarang kita dapat memulai titik akhir, melakukan prediksi terhadap titik akhir, dan membersihkan setelah selesai:
9. Bersihkan
Terakhir, kami ingin membersihkan dari contoh ini. Buat cleanup.py dan tambahkan kode berikut:
Kesimpulan
AWS DLAMI dan DLC telah menjadi standar masuk untuk menjalankan beban kerja pembelajaran mendalam pada berbagai pilihan layanan komputasi dan ML di AWS. Selain menggunakan DLC khusus kerangka kerja pada layanan AWS ML, Anda juga dapat menggunakan satu kerangka kerja pada Amazon EC2, yang menghilangkan beban berat yang diperlukan pengembang untuk membangun dan memelihara aplikasi pembelajaran mendalam. Mengacu pada Catatan Rilis untuk DLAMI dan Tersedia Gambar Deep Learning Containers untuk memulai.
Posting ini menunjukkan salah satu dari banyak kemungkinan untuk melatih dan melayani model Anda berikutnya di AWS dan mendiskusikan beberapa format yang dapat Anda adopsi untuk memenuhi tujuan bisnis Anda. Berikan contoh ini untuk dicoba atau gunakan layanan AWS ML kami yang lain untuk memperluas produktivitas data untuk bisnis Anda. Kami telah menyertakan masalah analisis sentimen sederhana sehingga pelanggan yang baru mengenal ML dapat memahami betapa mudahnya memulai dengan PyTorch 2.0 di AWS. Kami akan membahas lebih lanjut kasus penggunaan, model, dan teknologi AWS di postingan blog mendatang.
Tentang penulis
Kanwaljit Khurmi adalah Arsitek Solusi Utama di Amazon Web Services. Dia bekerja dengan pelanggan AWS untuk memberikan panduan dan bantuan teknis yang membantu mereka meningkatkan nilai solusi mereka saat menggunakan AWS. Kanwaljit berspesialisasi dalam membantu pelanggan dengan aplikasi kemas dan pembelajaran mesin.
Mike Schneider adalah Pengembang Sistem, berbasis di Phoenix AZ. Dia adalah anggota wadah Deep Learning, mendukung berbagai gambar wadah Framework, termasuk Inferensi Graviton. Dia berdedikasi pada efisiensi dan stabilitas infrastruktur.
Lai Wei adalah Insinyur Perangkat Lunak Senior di Amazon Web Services. Dia berfokus pada membangun kerangka pembelajaran mendalam yang mudah digunakan, berkinerja tinggi, dan dapat diskalakan untuk mempercepat pelatihan model terdistribusi. Di luar pekerjaan, dia menikmati menghabiskan waktu bersama keluarganya, hiking, dan bermain ski.
- Konten Bertenaga SEO & Distribusi PR. Dapatkan Amplifikasi Hari Ini.
- PlatoAiStream. Kecerdasan Data Web3. Pengetahuan Diperkuat. Akses Di Sini.
- Mencetak Masa Depan bersama Adryenn Ashley. Akses Di Sini.
- Beli dan Jual Saham di Perusahaan PRE-IPO dengan PREIPO®. Akses Di Sini.
- Sumber: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :memiliki
- :adalah
- :bukan
- :Di mana
- $NAIK
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- mempercepat
- dipercepat
- mempercepat
- Setuju
- mengakses
- di seluruh
- Tindakan
- Adam
- menambahkan
- menambahkan
- mengambil
- maju
- Setelah
- terhadap
- AI
- meluruskan
- selaras
- Semua
- mengizinkan
- Membiarkan
- memungkinkan
- sepanjang
- sudah
- juga
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- jumlah
- an
- analisis
- menganalisa
- dan
- mengumumkan
- Lain
- Apa pun
- api
- Aplikasi
- aplikasi
- pendekatan
- sekitar
- arsitektur
- ADALAH
- DAERAH
- argumen
- argumen
- buatan
- kecerdasan buatan
- Kecerdasan buatan (AI)
- AS
- Bantuan
- At
- tersedianya
- tersedia
- rata-rata
- AWS
- ayunan
- mendasarkan
- berdasarkan
- Pada dasarnya
- BE
- karena
- menjadi
- menjadi
- sebelum
- mulai
- di belakang
- patokan
- Benchmark
- Besar
- miliaran
- BIN
- Blog
- Posting blog
- tubuh
- Bawah
- Otak
- luas
- anggaran belanja
- membangun
- Bangunan
- dibangun di
- built-in
- beban
- bisnis
- bisnis
- tapi
- by
- panggilan
- bernama
- panggilan
- CAN
- kemampuan
- kasus
- kasus
- CD
- perubahan
- mengubah
- pilihan
- Pilih
- klasifikasi
- klien
- awan
- kode
- COM
- kombinasi
- datang
- Komunikasi
- sebanding
- dibandingkan
- cocok
- lengkap
- menghitung
- komputer
- Visi Komputer
- komputasi
- Terhubung
- Mempertimbangkan
- terdiri
- konsul
- Wadah
- Wadah
- Konten
- pembuatan konten
- kontrol
- Core
- Biaya
- penghematan biaya
- Biaya
- bisa
- penutup
- membuat
- dibuat
- penciptaan
- Surat kepercayaan
- dikuratori
- terbaru
- pelanggan
- menyesuaikan
- data
- Tanggal
- Hari
- dedicated
- mendalam
- belajar mendalam
- Default
- menunjukkan
- Tergantung
- menyebarkan
- dikerahkan
- penyebaran
- penyebaran
- dirancang
- rincian
- dikembangkan
- Pengembang
- pengembang
- Pengembangan
- berbeda
- intisari
- membahas
- dibahas
- didistribusikan
- pelatihan terdistribusi
- beberapa
- do
- Buruh pelabuhan
- dilakukan
- Dont
- Download
- download
- pengemudi
- driver
- penggerak
- dua
- dinamis
- setiap
- Terdahulu
- memudahkan
- mudah
- Mudah
- efek
- efektif
- efisiensi
- efisien
- usaha
- antara
- aktif
- diaktifkan
- enkripsi
- akhir
- Titik akhir
- insinyur
- ditingkatkan
- sepenuhnya
- Lingkungan Hidup
- masa
- kesalahan
- mengevaluasi
- evaluasi
- Bahkan
- pERNAH
- Setiap
- contoh
- ada
- Lihat lebih lanjut
- mengharapkan
- pengalaman
- menyelidiki
- eksponensial
- ekspor
- memperpanjang
- Meluas
- kain
- Menghadapi
- keluarga
- lebih cepat
- tercepat
- Fitur
- beberapa
- Angka
- File
- File
- terakhir
- Menemukan
- Pertama
- cocok
- keluwesan
- mengambang
- Fokus
- berfokus
- mengikuti
- berikut
- Untuk
- Kerangka
- kerangka
- dari
- sepenuhnya
- lebih lanjut
- menghasilkan
- dihasilkan
- generasi
- Generasi
- generatif
- AI generatif
- mendapatkan
- pergi
- GitHub
- Memberikan
- memberikan
- Aksi
- GPU
- GPU
- Kelompok
- Pertumbuhan
- bimbingan
- Memiliki
- memiliki
- he
- berat
- angkat berat
- membantu
- membantu
- kinerja tinggi
- lebih tinggi
- paling tinggi
- -nya
- memegang
- tuan rumah
- tuan
- Seterpercayaapakah Olymp Trade? Kesimpulan
- Namun
- HTML
- http
- HTTPS
- Pusat
- Ratusan
- Hibrida
- ID
- identitas
- if
- menggambarkan
- gambar
- gambar
- melaksanakan
- implementasi
- mengimpor
- memperbaiki
- ditingkatkan
- perbaikan
- perbaikan
- meningkatkan
- in
- memasukkan
- termasuk
- termasuk
- Termasuk
- Meningkatkan
- meningkatkan
- independen
- industri
- Infrastruktur
- memasukkan
- install
- diinstal
- Instalasi
- contoh
- sebagai gantinya
- instruksi
- Terintegrasi
- Intel
- Intelijen
- ke
- Investasi
- IP
- ironi
- IT
- NYA
- Jobs
- jpg
- json
- kunci
- label
- bahasa
- besar
- besar-besaran
- lebih besar
- Latensi
- Terbaru
- rilis terbaru
- jalankan
- Memimpin
- pengetahuan
- meninggalkan
- perpustakaan
- Perpustakaan
- pengangkatan
- 'like'
- Terbatas
- baris
- linux
- Daftar
- memuat
- lokal
- terletak
- terkunci
- mencatat
- masuk
- lepas
- menurunkan
- terendah
- mesin
- Mesin belajar
- memelihara
- membuat
- Membuat
- mengelola
- berhasil
- banyak
- matematika
- max
- Mungkin..
- Pelajari
- anggota
- Memori
- bergabung
- Metadata
- metode
- Metrik
- juta
- ML
- MLOps
- mode
- model
- model
- Modul
- bulan
- lebih
- bergerak
- beberapa
- nama
- Alam
- Pengolahan Bahasa alami
- perlu
- Perlu
- dibutuhkan
- kebutuhan
- negatif
- jaringan
- jaringan
- Netral
- New
- Fitur Baru
- Teknologi baru
- berikutnya
- node
- Catatan
- Melihat..
- sekarang
- Nvidia
- target
- of
- serangan
- menawarkan
- menawarkan
- Penawaran
- on
- ONE
- open source
- membuka
- operasional
- optimasi
- dioptimalkan
- Opsi
- or
- teknik mengatur musik
- organisatoris
- OS
- Lainnya
- Lainnya
- kami
- di luar
- keluaran
- di luar
- sendiri
- paket
- dikemas
- parameter
- bagian
- tambalan
- Menambal
- prestasi
- izin
- Izin
- phoenix
- memilih
- terpilih
- pipa saluran
- Platform
- plato
- Kecerdasan Data Plato
- Data Plato
- silahkan
- Titik
- Kebijakan
- kebijaksanaan
- Populer
- kemungkinan
- Pos
- Posts
- didukung
- kuat
- meramalkan
- ramalan
- Prediksi
- Mempersiapkan
- mempersiapkan
- prasyarat
- sebelumnya
- Utama
- Masalah
- proses
- pengolahan
- prosesor
- Produksi
- produktifitas
- Produk
- proyek
- memprojeksikan
- hak milik
- terbukti
- memberikan
- menyediakan
- publik
- menempatkan
- Ular sanca
- pytorch
- siap
- baru
- baru-baru ini
- berulang
- menurunkan
- wilayah
- pendaftaran
- secara teratur
- relatif
- melepaskan
- dapat diandalkan
- yang tersisa
- Dilaporkan
- membutuhkan
- wajib
- Persyaratan
- membutuhkan
- sumber
- tanggapan
- pembatasan
- mengakibatkan
- kembali
- ulasan
- Peran
- akar
- Run
- berjalan
- pembuat bijak
- Inferensi SageMaker
- sama
- Tabungan
- terukur
- Skala
- pemindaian
- scikit-belajar
- cakupan
- skor
- menggaruk
- script
- Bagian
- bagian
- aman
- keamanan
- melihat
- memilih
- seleksi
- mengirim
- senior
- sentimen
- terpisah
- melayani
- layanan
- Layanan
- Sidang
- set
- pengaturan
- penyiapan
- tujuh
- beberapa
- SHA256
- berbagi
- harus
- menampilkan
- menunjukkan
- ditunjukkan
- Pertunjukkan
- penting
- Sederhana
- tunggal
- Ukuran
- ukuran
- So
- Perangkat lunak
- Software Engineer
- larutan
- Solusi
- beberapa
- Space
- khusus
- spesialisasi
- tertentu
- Secara khusus
- kecepatan
- kecepatan
- menghabiskan
- Pengeluaran
- Stabilitas
- tumpukan
- standar
- awal
- mulai
- dimulai
- Pernyataan
- statistika
- Langkah
- Tangga
- penyimpanan
- opsi penyimpanan
- strategi
- struktur
- seperti itu
- mendukung
- Didukung
- pendukung
- Mendukung
- sistem
- sistem
- disesuaikan
- tugas
- Teknis
- teknik
- Teknologi
- tensorflow
- uji
- diuji
- dari
- bahwa
- Grafik
- Daerah
- mereka
- Mereka
- kemudian
- Ini
- mereka
- hal
- ini
- meskipun?
- Melalui
- keluaran
- tingkat
- waktu
- kali
- untuk
- alat
- obor
- Pelatihan VE
- terlatih
- Pelatihan
- transformator
- transformer
- mengubah
- mencoba
- menciak
- tweet
- dua
- mengetik
- jenis
- khas
- Ubuntu
- bawah
- memahami
- mendatang
- Memperbarui
- diperbarui
- meningkatkan
- upload
- penggunaan
- menggunakan
- gunakan case
- bekas
- Pengguna
- menggunakan
- kegunaan
- nilai
- variasi
- berbagai
- memeriksa
- versi
- penglihatan
- volume
- Kerentanan
- ingin
- we
- jaringan
- layanan web
- minggu
- berat
- selamat datang
- ketika
- yang
- sangat
- akan
- dengan
- tanpa
- Kerja
- alur kerja
- bekerja
- menulis
- penulisan
- X
- Kamu
- Anda
- zephyrnet.dll
- zona