Di era big data dan AI, perusahaan terus mencari cara untuk menggunakan teknologi ini untuk mendapatkan keunggulan kompetitif. Salah satu bidang AI yang paling populer saat ini adalah AI generatif, dan untuk alasan yang bagus. AI Generatif menawarkan solusi canggih yang mendobrak batas-batas kreativitas dan inovasi. Inti dari solusi mutakhir ini terletak pada model dasar (FM), yaitu model pembelajaran mesin yang sangat canggih yang telah dilatih sebelumnya pada data dalam jumlah besar. Banyak dari model dasar ini telah menunjukkan kemampuan luar biasa dalam memahami dan menghasilkan teks mirip manusia, menjadikannya alat yang berharga untuk berbagai aplikasi, mulai dari pembuatan konten hingga otomatisasi dukungan pelanggan.
Namun, model-model ini bukannya tanpa tantangan. Mereka berukuran sangat besar dan memerlukan sejumlah besar data dan sumber daya komputasi untuk dilatih. Selain itu, mengoptimalkan proses pelatihan dan mengkalibrasi parameter dapat menjadi proses yang kompleks dan berulang, memerlukan keahlian dan eksperimen yang cermat. Hal ini dapat menjadi hambatan bagi banyak organisasi yang ingin membangun model landasan mereka sendiri. Untuk mengatasi tantangan ini, banyak pelanggan yang mempertimbangkan untuk menyempurnakan model pondasi yang ada. Ini adalah teknik populer untuk menyesuaikan sebagian kecil parameter model untuk aplikasi tertentu sambil tetap mempertahankan pengetahuan yang sudah dikodekan dalam model. Hal ini memungkinkan organisasi untuk menggunakan kekuatan model ini sekaligus mengurangi sumber daya yang diperlukan untuk menyesuaikan dengan domain atau tugas tertentu.
Ada dua pendekatan utama untuk menyempurnakan model pondasi: penyesuaian tradisional dan penyesuaian parameter efisien. Penyempurnaan tradisional melibatkan pembaruan semua parameter model terlatih untuk tugas hilir tertentu. Di sisi lain, penyesuaian parameter yang efisien mencakup berbagai teknik yang memungkinkan penyesuaian model tanpa memperbarui semua parameter model asli. Salah satu teknik tersebut disebut Adaptasi Tingkat Rendah (LoRA). Ini melibatkan penambahan modul kecil khusus tugas ke model yang telah dilatih sebelumnya dan melatihnya sambil menjaga parameter lainnya tetap seperti yang ditunjukkan pada gambar berikut.
Sumber: AI Generatif di AWS (O'Reilly, 2023)
LoRA mendapatkan popularitas baru-baru ini karena beberapa alasan. Ini menawarkan pelatihan yang lebih cepat, pengurangan kebutuhan memori, dan kemampuan untuk menggunakan kembali model yang telah dilatih sebelumnya untuk beberapa tugas hilir. Yang lebih penting lagi, model dasar dan adaptor dapat disimpan secara terpisah dan digabungkan kapan saja, sehingga lebih mudah untuk menyimpan, mendistribusikan, dan berbagi versi yang telah disesuaikan. Namun, hal ini menimbulkan tantangan baru: bagaimana mengelola model baru yang telah disesuaikan ini dengan benar. Haruskah Anda menggabungkan model dasar dan adaptor atau memisahkannya? Dalam postingan ini, kami membahas praktik terbaik untuk mengelola model LoRA yang telah disesuaikan Amazon SageMaker untuk menjawab pertanyaan yang muncul ini.
Bekerja dengan FM di SageMaker Model Registry
Dalam postingan ini, kita akan melihat contoh menyeluruh dalam menyempurnakan model bahasa besar (LLM) Llama2 menggunakan metode QLoRA. QLoRA menggabungkan manfaat penyempurnaan parameter yang efisien dengan kuantisasi 4-bit/8-bit untuk lebih mengurangi sumber daya yang diperlukan untuk menyempurnakan FM ke tugas atau kasus penggunaan tertentu. Untuk ini, kami akan menggunakan model Llama7 2 miliar parameter yang telah dilatih sebelumnya dan menyempurnakannya pada kumpulan data databricks-dolly-15k. LLM seperti Llama2 memiliki miliaran parameter dan telah dilatih sebelumnya pada kumpulan data teks yang sangat besar. Penyempurnaan mengadaptasi LLM ke tugas hilir menggunakan kumpulan data yang lebih kecil. Namun, menyempurnakan model besar membutuhkan biaya komputasi yang mahal. Inilah sebabnya kami akan menggunakan metode QLoRA untuk mengkuantisasi bobot selama penyempurnaan guna mengurangi biaya komputasi ini.
Dalam contoh kami, Anda akan menemukan dua buku catatan (llm-finetune-combined-with-registry.ipynb
dan llm-finetune-separate-with-registry.ipynb
). Masing-masing bekerja melalui cara berbeda untuk menangani model LoRA yang telah disesuaikan seperti yang diilustrasikan dalam diagram berikut:
- Pertama, kami mengunduh model Llama2 terlatih dengan 7 miliar parameter menggunakan SageMaker Studio Notebooks. LLM, seperti Llama2, telah menunjukkan kinerja canggih pada tugas pemrosesan bahasa alami (NLP) ketika disesuaikan dengan data spesifik domain.
- Selanjutnya, kami menyempurnakan Llama2 pada dataset databricks-dolly-15k menggunakan metode QLoRA. QLoRA mengurangi biaya komputasi untuk penyesuaian dengan mengkuantisasi bobot model.
- Selama penyesuaian, kami mengintegrasikan SageMaker Experiments Plus dengan Transformers API untuk secara otomatis mencatat metrik seperti gradien, kehilangan, dll.
- Kami kemudian membuat versi model Llama2 yang telah disempurnakan di SageMaker Model Registry menggunakan dua pendekatan:
- Menyimpan model lengkap
- Menyimpan adaptor dan model dasar secara terpisah.
- Terakhir, kami menghosting model Llama2 yang telah disempurnakan menggunakan Deep Java Library (DJL) yang Melayani pada titik akhir SageMaker Real-time.
Di bagian berikut, kami akan mendalami setiap langkah ini lebih dalam, untuk menunjukkan fleksibilitas SageMaker untuk alur kerja LLM yang berbeda dan bagaimana fitur ini dapat membantu meningkatkan pengoperasian model Anda.
Prasyarat
Selesaikan prasyarat berikut untuk mulai bereksperimen dengan kode.
- Membuat Domain SageMaker Studio: Amazon SageMaker Studio, khususnya Studio Notebooks, digunakan untuk memulai tugas penyempurnaan Llama2 lalu mendaftar dan melihat model di dalamnya Registri Model SageMaker. Eksperimen SageMaker juga digunakan untuk melihat dan membandingkan log pekerjaan penyempurnaan Llama2 (kerugian pelatihan/kerugian pengujian/dll.).
- Buat bucket Amazon Simple Storage Service (S3).: Diperlukan akses ke bucket S3 untuk menyimpan artefak pelatihan dan bobot model. Untuk instruksi, lihat Membuat ember. Kode contoh yang digunakan untuk postingan ini akan menggunakan bucket S3 default SageMaker tetapi Anda dapat menyesuaikannya untuk menggunakan bucket S3 yang relevan.
- Siapkan Koleksi Model (izin IAM): Perbarui Peran Eksekusi SageMaker Anda dengan izin ke grup sumber daya seperti yang tercantum di bawah Panduan Pengembang Koleksi Registri Model untuk mengimplementasikan pengelompokan Model Registry menggunakan Model Collections.
- Terima Syarat & Ketentuan untuk Llama2: Anda harus menerima perjanjian lisensi pengguna akhir dan kebijakan penggunaan yang dapat diterima untuk menggunakan model dasar Llama2.
Contohnya tersedia di Repositori GitHub. File notebook diuji menggunakan notebook Studio yang berjalan pada kernel PyTorch 2.0.0 Python 3.10 GPU Optimized dan tipe instans ml.g4dn.xlarge.
Eksperimen ditambah integrasi panggilan balik
Eksperimen Amazon SageMaker memungkinkan Anda mengatur, melacak, membandingkan, dan mengevaluasi eksperimen pembelajaran mesin (ML) dan versi model dari lingkungan pengembangan terintegrasi (IDE) mana pun, termasuk Notebook Jupyter lokal, menggunakan SageMaker Python SDK atau boto3. Ini memberikan fleksibilitas untuk mencatat metrik model, parameter, file, artefak, diagram plot dari metrik yang berbeda, menangkap berbagai metadata, menelusurinya, dan mendukung reproduktifitas model. Data scientist dapat dengan cepat membandingkan performa dan hyperparameter untuk evaluasi model melalui diagram dan tabel visual. Mereka juga dapat menggunakan Eksperimen SageMaker untuk mengunduh bagan yang dibuat dan membagikan evaluasi model kepada pemangku kepentingan.
Pelatihan LLM bisa menjadi proses yang lambat, mahal, dan berulang. Sangat penting bagi pengguna untuk melacak eksperimen LLM dalam skala besar untuk mencegah pengalaman penyetelan model yang tidak konsisten. API Transformator HuggingFace memungkinkan pengguna untuk melacak metrik selama tugas pelatihan melalui Telepon balik. Callback adalah potongan kode โhanya bacaโ yang dapat menyesuaikan perilaku loop pelatihan di PyTorch Trainer yang dapat memeriksa status loop pelatihan untuk pelaporan kemajuan, masuk ke TensorBoard atau SageMaker Experiments Plus melalui logika khusus (yang disertakan sebagai bagian dari basis kode ini).
Anda dapat mengimpor kode panggilan balik Eksperimen SageMaker yang disertakan dalam repositori kode postingan ini seperti yang ditunjukkan dalam blok kode berikut:
Callback ini akan secara otomatis mencatat informasi berikut ke dalam Eksperimen SageMaker sebagai bagian dari proses pelatihan:
- Parameter Pelatihan dan Hyper-Parameter
- Pelatihan Model dan Kerugian Validasi pada Langkah, Epoch, dan Final
- Artefak Input dan Output Model (set data pelatihan, set data validasi, lokasi output model, debugger pelatihan, dan lainnya)
Grafik berikut menunjukkan contoh bagan yang dapat Anda tampilkan dengan menggunakan informasi tersebut.
Hal ini memungkinkan Anda membandingkan beberapa proses dengan mudah menggunakan fitur Analisis Eksperimen SageMaker. Anda dapat memilih percobaan yang berjalan yang ingin Anda bandingkan, dan percobaan tersebut akan secara otomatis mengisi grafik perbandingan.
Daftarkan model yang telah disempurnakan ke Koleksi Registri Model
Koleksi Registri Model adalah fitur dari Registri Model SageMaker yang memungkinkan Anda mengelompokkan model terdaftar yang terkait satu sama lain dan mengaturnya dalam hierarki untuk meningkatkan kemampuan model untuk ditemukan dalam skala besar. Kami akan menggunakan Koleksi Registri Model untuk melacak model dasar dan varian yang disempurnakan.
Metode Salin Model Penuh
Metode pertama menggabungkan model dasar dan adaptor LoRA dan menyimpan model yang telah disetel sepenuhnya. Kode berikut mengilustrasikan proses penggabungan model dan menyimpan penggunaan model gabungan model.save_pretrained()
.
Menggabungkan adaptor LoRA dan model dasar menjadi artefak model tunggal setelah penyesuaian memiliki kelebihan dan kekurangan. Model gabungan ini bersifat mandiri dan dapat dikelola serta diterapkan secara mandiri tanpa memerlukan model dasar asli. Model dapat dilacak sebagai entitasnya sendiri dengan nama versi yang mencerminkan model dasar dan data penyesuaian. Kita dapat mengadopsi nomenklatur menggunakan base_model_name
+ disetel dengan baik dataset_name
untuk mengatur kelompok model. Secara opsional, koleksi model dapat mengasosiasikan model asli dan model yang telah disempurnakan, namun hal ini mungkin tidak diperlukan karena model gabungan bersifat independen. Cuplikan kode berikut menunjukkan kepada Anda cara mendaftarkan model yang telah disesuaikan.
Anda dapat menggunakan estimator pelatihan untuk mendaftarkan model ke Model Registry.
Dari Model Registry, Anda dapat mengambil paket model dan menerapkan model tersebut secara langsung.
Namun, terdapat kelemahan pada pendekatan ini. Menggabungkan model menyebabkan inefisiensi dan redundansi penyimpanan karena model dasar diduplikasi di setiap versi yang disempurnakan. Seiring bertambahnya ukuran model dan jumlah model yang disempurnakan, hal ini meningkatkan kebutuhan penyimpanan secara eksponensial. Mengambil model llama2 7b sebagai contoh, model dasar berukuran sekitar 13 GB dan model yang disempurnakan adalah 13.6 GB. 96% persen model perlu diduplikasi setelah setiap penyempurnaan. Selain itu, pendistribusian dan berbagi file model yang sangat besar juga menjadi lebih sulit dan menghadirkan tantangan operasional karena biaya transfer dan manajemen file meningkat seiring dengan meningkatnya ukuran model dan penyesuaian pekerjaan.
Pisahkan adaptor dan metode dasar
Metode kedua berfokus pada pemisahan bobot dasar dan bobot adaptor dengan menyimpannya sebagai komponen model terpisah dan memuatnya secara berurutan pada waktu proses.
Penghematan bobot dasar dan adaptor memiliki kelebihan dan kekurangan, mirip dengan metode Full Model Copy. Salah satu kelebihannya adalah dapat menghemat ruang penyimpanan. Anak timbangan dasar, yang merupakan komponen terbesar dari model yang disetel dengan baik, hanya disimpan satu kali dan dapat digunakan kembali dengan anak timbangan adaptor lain yang disetel untuk tugas berbeda. Misalnya, bobot dasar Llama2-7B adalah sekitar 13 GB, namun setiap tugas penyesuaian hanya perlu menyimpan sekitar 0.6 GB bobot adaptor, yang merupakan penghematan ruang sebesar 95%. Keuntungan lainnya adalah bobot dasar dapat dikelola secara terpisah dari bobot adaptor menggunakan registri model bobot dasar saja. Hal ini dapat berguna untuk domain SageMaker yang berjalan dalam mode VPC saja tanpa gateway internet, karena bobot dasar dapat diakses tanpa harus melalui internet.
Buat Grup Paket Model untuk bobot dasar
Buat Grup Paket Model untuk bobot QLoRA
Kode berikut menunjukkan cara memberi tag bobot QLoRA dengan himpunan data/jenis tugas dan mendaftarkan bobot delta yang telah disesuaikan ke dalam registri model terpisah dan melacak bobot delta secara terpisah.
Cuplikan berikut menunjukkan tampilan dari Model Registry di mana model dibagi menjadi bobot dasar dan bobot yang disesuaikan.
Mengelola model, kumpulan data, dan tugas untuk LLM yang sangat dipersonalisasi dapat dengan cepat menjadi hal yang membebani. Koleksi Registri Model SageMaker dapat membantu Anda mengelompokkan model terkait dan mengaturnya dalam hierarki untuk meningkatkan kemampuan model untuk ditemukan. Hal ini mempermudah pelacakan hubungan antara bobot dasar, bobot adaptor, dan kumpulan data tugas penyesuaian. Anda juga dapat membuat hubungan dan keterkaitan yang kompleks antar model.
Buat Koleksi baru dan tambahkan bobot model dasar Anda ke Koleksi ini
Tautkan semua Bobot Delta Adaptor LoRA yang Disempurnakan ke koleksi ini berdasarkan tugas dan/atau kumpulan data
Hal ini akan menghasilkan hierarki koleksi yang dihubungkan berdasarkan model/jenis tugas dan kumpulan data yang digunakan untuk menyempurnakan model dasar.
Metode pemisahan model dasar dan adaptor ini memiliki beberapa kelemahan. Salah satu kelemahannya adalah kompleksitas dalam penerapan model. Karena ada dua artefak model yang terpisah, Anda memerlukan langkah tambahan untuk mengemas ulang model alih-alih menerapkan langsung dari Model Registry. Dalam contoh kode berikut, unduh dan kemas ulang model dasar versi terbaru terlebih dahulu.
Kemudian unduh dan kemas ulang bobot adaptor LoRA terbaru yang telah disempurnakan.
Karena Anda akan menggunakan layanan DJL dengan kecepatan tinggi untuk menghosting model, direktori inferensi Anda akan terlihat seperti berikut.
Terakhir, kemas kode inferensi khusus, model dasar, dan adaptor LoRA dalam satu file .tar.gz untuk penerapan.
Membersihkan
Bersihkan sumber daya Anda dengan mengikuti petunjuk di bagian pembersihan buku catatan. Mengacu pada Harga Amazon SageMaker untuk rincian tentang biaya instans inferensi.
Kesimpulan
Postingan ini memandu Anda melalui praktik terbaik untuk mengelola model LoRA yang disempurnakan di Amazon SageMaker. Kami membahas dua metode utama: menggabungkan bobot dasar dan adaptor ke dalam satu model mandiri, dan memisahkan bobot dasar dan adaptor. Kedua pendekatan tersebut memiliki trade-off, namun memisahkan bobot membantu mengoptimalkan penyimpanan dan memungkinkan teknik manajemen model tingkat lanjut seperti SageMaker Model Registry Collections. Hal ini memungkinkan Anda membangun hierarki dan hubungan antar model untuk meningkatkan pengorganisasian dan kemudahan penemuan. Kami mendorong Anda untuk mencoba kode contoh Repositori GitHub untuk bereksperimen dengan metode ini sendiri. Seiring kemajuan AI generatif yang pesat, mengikuti praktik terbaik manajemen model akan membantu Anda melacak eksperimen, menemukan model yang tepat untuk tugas Anda, dan mengelola LLM khusus secara efisien dalam skala besar.
Referensi
Tentang penulis
James Wu adalah Arsitek Solusi Spesialis AI/ML Senior di AWS. membantu pelanggan merancang dan membangun solusi AI/ML. Pekerjaan James mencakup berbagai kasus penggunaan ML, dengan minat utama pada visi komputer, pembelajaran mendalam, dan penskalaan ML di seluruh perusahaan. Sebelum bergabung dengan AWS, James adalah seorang arsitek, pengembang, dan pemimpin teknologi selama lebih dari 10 tahun, termasuk 6 tahun di bidang teknik dan 4 tahun di industri pemasaran & periklanan.
Pranav Murthy adalah Arsitek Solusi Spesialis AI/ML di AWS. Dia berfokus membantu pelanggan membangun, melatih, menerapkan, dan memigrasikan beban kerja pembelajaran mesin (ML) ke SageMaker. Dia sebelumnya bekerja di industri semikonduktor yang mengembangkan model computer vision (CV) besar dan pemrosesan bahasa alami (NLP) untuk meningkatkan proses semikonduktor. Di waktu luangnya, ia menikmati bermain catur dan jalan-jalan.
Mecit Gungor adalah Arsitek Solusi Spesialis AI/ML di AWS yang membantu pelanggan merancang dan membangun solusi AI/ML dalam skala besar. Dia mencakup berbagai kasus penggunaan AI/ML untuk pelanggan Telekomunikasi dan saat ini berfokus pada AI Generatif, LLM, serta pelatihan dan optimalisasi inferensi. Dia sering terlihat sedang hiking di alam liar atau bermain permainan papan bersama teman-temannya di waktu luang.
Shelbee Eigenbrode adalah Arsitek Solusi Spesialis AI dan Pembelajaran Mesin Utama di Amazon Web Services (AWS). Dia telah berkecimpung dalam teknologi selama 24 tahun yang mencakup berbagai industri, teknologi, dan peran. Dia saat ini berfokus untuk menggabungkan latar belakang DevOps dan ML-nya ke dalam domain MLOps untuk membantu pelanggan memberikan dan mengelola beban kerja ML dalam skala besar. Dengan lebih dari 35 paten yang diberikan di berbagai domain teknologi, dia memiliki semangat untuk terus berinovasi dan menggunakan data untuk mendorong hasil bisnis. Shelbee adalah co-creator dan instruktur spesialisasi Ilmu Data Praktis di Coursera. Dia juga Co-Direktur Women In Big Data (WiBD), Denver chapter. Di waktu luangnya, dia suka menghabiskan waktu bersama keluarga, teman, dan anjingnya yang terlalu aktif.
- Konten Bertenaga SEO & Distribusi PR. Dapatkan Amplifikasi Hari Ini.
- PlatoData.Jaringan Vertikal Generatif Ai. Berdayakan Diri Anda. Akses Di Sini.
- PlatoAiStream. Intelijen Web3. Pengetahuan Diperkuat. Akses Di Sini.
- PlatoESG. Karbon, teknologi bersih, energi, Lingkungan Hidup, Tenaga surya, Penanganan limbah. Akses Di Sini.
- PlatoHealth. Kecerdasan Uji Coba Biotek dan Klinis. Akses Di Sini.
- Sumber: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :memiliki
- :adalah
- :bukan
- :Di mana
- $NAIK
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- kemampuan
- Tentang Kami
- Setuju
- diterima
- mengakses
- diakses
- di seluruh
- adaptasi
- beradaptasi
- menambahkan
- menambahkan
- Tambahan
- Selain itu
- alamat
- mengambil
- maju
- Keuntungan
- keuntungan
- pengiklanan
- Setelah
- Persetujuan
- AI
- AI benar
- AI / ML
- Semua
- mengizinkan
- memungkinkan
- sudah
- juga
- Amazon
- Amazon SageMaker
- Studio Amazon SageMaker
- Layanan Penyimpanan Sederhana Amazon (S3)
- Amazon Web Services
- Layanan Web Amazon (AWS)
- jumlah
- an
- menganalisa
- dan
- Lain
- Apa pun
- api
- aplikasi
- pendekatan
- pendekatan
- disetujui
- sekitar
- ADALAH
- daerah
- AS
- Menghubungkan
- At
- secara otomatis
- Otomatisasi
- tersedia
- AWS
- kembali
- latar belakang
- hambatan
- mendasarkan
- BE
- karena
- menjadi
- menjadi
- menjadi
- laku
- Manfaat
- TERBAIK
- Praktik Terbaik
- antara
- Besar
- Big data
- Milyar
- miliaran
- Memblokir
- papan
- Permainan papan
- kedua
- batas-batas
- membangun
- bisnis
- tapi
- by
- panggilan balik
- bernama
- CAN
- kemampuan
- menangkap
- hati-hati
- kasus
- kasus
- menantang
- tantangan
- Bab
- Charts
- Catur
- kelas
- jelas
- kode
- Basis kode
- koleksi
- koleksi
- menggabungkan
- bergabung
- menggabungkan
- menggabungkan
- Perusahaan
- membandingkan
- perbandingan
- kompetitif
- kompleks
- kompleksitas
- komponen
- komponen
- komputasi
- komputasi
- komputer
- Visi Komputer
- Kondisi
- mengingat
- Konten
- pembuatan konten
- terus-menerus
- kontinu
- Core
- Biaya
- bisa
- tercakup
- Meliputi
- membuat
- dibuat
- penciptaan
- kreativitas
- Sekarang
- adat
- pelanggan
- Customer Support
- pelanggan
- kustomisasi
- menyesuaikan
- canggih
- data
- ilmu data
- kumpulan data
- mendalam
- belajar mendalam
- lebih dalam
- Default
- itu
- menyampaikan
- Delta
- mendemonstrasikan
- Denver
- menyebarkan
- dikerahkan
- penggelaran
- penyebaran
- Mendesain
- rincian
- Pengembang
- berkembang
- Pengembangan
- berbeda
- sulit
- langsung
- Display
- mendistribusikan
- mendistribusikan
- menyelam
- domain
- domain
- Download
- kekurangannya
- mendorong
- selama
- setiap
- mudah
- mudah
- Tepi
- efisien
- efisien
- lain
- muncul
- memungkinkan
- mendorong
- ujung ke ujung
- Titik akhir
- Teknik
- Enterprise
- entitas
- Lingkungan Hidup
- masa
- Era
- dll
- mengevaluasi
- evaluasi
- contoh
- contoh
- sangat
- eksekusi
- ada
- mahal
- pengalaman
- eksperimen
- eksperimen
- keahlian
- eksponensial
- Menghadapi
- Kegagalan
- keluarga
- lebih cepat
- Fitur
- Fitur
- File
- File
- Menemukan
- akhir
- Pertama
- tetap
- keluwesan
- berfokus
- berfokus
- berikut
- Untuk
- ditemukan
- Prinsip Dasar
- Gratis
- teman
- dari
- penuh
- fungsi
- lebih lanjut
- masa depan
- Mendapatkan
- diperoleh
- Games
- pintu gerbang
- menghasilkan
- generatif
- AI generatif
- Go
- akan
- baik
- GPU
- diberikan
- grafik
- grafik
- Kelompok
- Grup
- tangan
- menangani
- Memiliki
- memiliki
- he
- membantu
- membantu
- membantu
- dia
- hirarki
- sangat
- -nya
- tuan rumah
- terpanas
- Seterpercayaapakah Olymp Trade? Kesimpulan
- How To
- Namun
- HTML
- HTTPS
- MemelukWajah
- menggambarkan
- gambar
- melaksanakan
- implementasi
- mengimpor
- penting
- penting
- impor
- memperbaiki
- in
- termasuk
- termasuk
- Termasuk
- Meningkatkan
- Meningkatkan
- meningkatkan
- independen
- secara mandiri
- industri
- industri
- ketidakefisienan
- mengembang
- informasi
- Innovation
- memasukkan
- contoh
- sebagai gantinya
- instruksi
- mengintegrasikan
- terpadu
- bunga
- Internet
- ke
- Memperkenalkan
- IT
- NYA
- james
- Jawa
- Pekerjaan
- Jobs
- bergabung
- jpg
- Menjaga
- pemeliharaan
- kunci
- menendang
- pengetahuan
- bahasa
- besar
- terbesar
- Terbaru
- pemimpin
- Memimpin
- pengetahuan
- Lets
- Tingkat
- Perpustakaan
- Lisensi
- terletak
- 'like'
- 'like
- LINK
- terkait
- Daftar
- LLM
- memuat
- pemuatan
- lokal
- tempat
- mencatat
- penebangan
- logika
- melihat
- terlihat seperti
- mencari
- lepas
- mesin
- Mesin belajar
- Utama
- MEMBUAT
- Membuat
- mengelola
- berhasil
- pengelolaan
- pelaksana
- banyak
- Marketing
- Pemasaran & Periklanan
- besar-besaran
- Mungkin..
- Memori
- Bergabung
- penggabungan
- Metadata
- metode
- metode
- Metrik
- bermigrasi
- ML
- MLOps
- mode
- model
- model
- Modul
- lebih
- beberapa
- nama
- Alam
- Pengolahan Bahasa alami
- perlu
- Perlu
- membutuhkan
- kebutuhan
- New
- nLP
- buku catatan
- sekarang
- jumlah
- of
- lepas
- Penawaran
- sering
- on
- sekali
- ONE
- hanya
- operasional
- Operasi
- optimasi
- Optimize
- dioptimalkan
- mengoptimalkan
- or
- organisasi
- organisasi
- asli
- Lainnya
- kami
- hasil
- keluaran
- lebih
- Mengatasi
- luar biasa
- sendiri
- paket
- parameter
- parameter
- bagian
- gairah
- Paten
- path
- persen
- prestasi
- Izin
- potongan-potongan
- plato
- Kecerdasan Data Plato
- Data Plato
- bermain
- plus
- kebijaksanaan
- Populer
- kepopuleran
- bagian
- mungkin
- Pos
- kekuasaan
- kuat
- Praktis
- praktek
- prasyarat
- hadiah
- melestarikan
- mencegah
- sebelumnya
- primer
- Utama
- Sebelumnya
- proses
- proses
- pengolahan
- Kemajuan
- tepat
- properties
- menyediakan
- Dorong
- Ular sanca
- pytorch
- pertanyaan
- segera
- jarak
- cepat
- real-time
- alasan
- alasan
- baru-baru ini
- menurunkan
- mengurangi
- mengurangi
- mengurangi
- lihat
- mencerminkan
- daftar
- terdaftar
- pendaftaran
- terkait
- Hubungan
- relevan
- luar biasa
- Pelaporan
- gudang
- membutuhkan
- wajib
- Persyaratan
- Sumber
- ISTIRAHAT
- mengakibatkan
- menggunakan kembali
- benar
- Peran
- peran
- Run
- berjalan
- berjalan
- runtime
- pembuat bijak
- Save
- disimpan
- penghematan
- Tabungan
- Skala
- skala
- Ilmu
- ilmuwan
- SDK
- Pencarian
- Kedua
- Bagian
- bagian
- pencarian
- semikonduktor
- senior
- terpisah
- memisahkan
- layanan
- Layanan
- porsi
- beberapa
- Share
- berbagi
- dia
- harus
- ditunjukkan
- Pertunjukkan
- mirip
- Sederhana
- sejak
- tunggal
- Ukuran
- lambat
- kecil
- lebih kecil
- potongan
- larutan
- Solusi
- beberapa
- sumber
- Space
- ketegangan
- spesialis
- khusus
- tertentu
- Secara khusus
- menghabiskan
- membagi
- stakeholder
- awal
- Negara
- state-of-the-art
- Status
- Langkah
- Tangga
- Masih
- penyimpanan
- menyimpan
- tersimpan
- studio
- seperti itu
- mendukung
- MENANDAI
- pengambilan
- tugas
- tugas
- teknik
- teknik
- Teknologi
- Teknologi
- telekomunikasi
- istilah
- diuji
- teks
- bahwa
- Grafik
- mereka
- Mereka
- kemudian
- Sana.
- Ini
- mereka
- ini
- Melalui
- waktu
- untuk
- bersama
- alat
- obor
- jalur
- tradisional
- Pelatihan VE
- Pelatihan
- transfer
- transformator
- transformer
- Perjalanan
- benar
- mencoba
- lagu
- disetel
- menyetel
- dua
- mengetik
- jenis
- bawah
- pemahaman
- Memperbarui
- memperbarui
- upload
- URL
- menggunakan
- gunakan case
- bekas
- Pengguna
- Pengguna
- menggunakan
- pengesahan
- Berharga
- nilai
- variasi
- berbagai
- Luas
- versi
- Versi
- sangat
- melalui
- View
- penglihatan
- visual
- berjalan
- berjalan
- ingin
- adalah
- Cara..
- cara
- we
- jaringan
- layanan web
- ketika
- yang
- sementara
- mengapa
- lebar
- Rentang luas
- akan
- dengan
- dalam
- tanpa
- Wanita
- Kerja
- bekerja
- Alur kerja
- bekerja
- tahun
- Kamu
- Anda
- diri
- zephyrnet.dll