Büyük veri ve yapay zeka çağında şirketler sürekli olarak rekabet avantajı elde etmek için bu teknolojileri kullanmanın yollarını arıyor. Şu anda yapay zekanın en sıcak alanlarından biri üretken yapay zekadır ve bunun iyi bir nedeni vardır. Üretken yapay zeka, yaratıcılık ve yenilik açısından mümkün olanın sınırlarını zorlayan güçlü çözümler sunar. Bu son teknoloji çözümlerin temelinde, büyük miktarda veri üzerinde önceden eğitilmiş, oldukça gelişmiş bir makine öğrenimi modeli olan temel model (FM) yatıyor. Bu temel modellerin çoğu, insan benzeri metinleri anlama ve oluşturma konusunda dikkate değer bir yetenek göstermiş ve bu da onları içerik oluşturmadan müşteri destek otomasyonuna kadar çeşitli uygulamalar için değerli bir araç haline getirmiştir.
Ancak bu modellerin zorlukları da yok değil. Son derece büyüktürler ve eğitilmeleri için büyük miktarda veri ve hesaplama kaynağı gerektirirler. Ayrıca, eğitim sürecinin optimize edilmesi ve parametrelerin kalibre edilmesi, uzmanlık ve dikkatli denemeler gerektiren karmaşık ve yinelenen bir süreç olabilir. Bunlar, kendi temel modellerini oluşturmak isteyen birçok kuruluş için engel teşkil edebilir. Bu zorluğun üstesinden gelmek için birçok müşteri mevcut temel modellerinde ince ayar yapmayı düşünüyor. Bu, modelde zaten kodlanmış bilgiyi korurken model parametrelerinin küçük bir bölümünü belirli uygulamalar için ayarlamak için kullanılan popüler bir tekniktir. Kuruluşların, belirli bir etki alanına veya göreve göre özelleştirmek için gereken kaynakları azaltırken bu modellerin gücünden yararlanmasına olanak tanır.
Temel modellerin ince ayarına yönelik iki temel yaklaşım vardır: geleneksel ince ayar ve parametre açısından verimli ince ayar. Geleneksel ince ayar, belirli bir aşağı akış görevi için önceden eğitilmiş modelin tüm parametrelerinin güncellenmesini içerir. Öte yandan, parametre açısından verimli ince ayar, orijinal model parametrelerinin tamamını güncellemeden bir modelin özelleştirilmesine olanak tanıyan çeşitli teknikleri içerir. Böyle bir teknik, Düşük Sıralı Adaptasyon (LoRA) olarak adlandırılır. Aşağıdaki resimde gösterildiği gibi, önceden eğitilmiş modele küçük, göreve özel modüller eklemeyi ve geri kalan parametreleri sabit tutarken bunları eğitmeyi içerir.
Kaynak: AWS'de Üretken Yapay Zeka (O'Reilly, 2023)
LoRA son zamanlarda çeşitli nedenlerden dolayı popülerlik kazanmıştır. Daha hızlı eğitim, azaltılmış bellek gereksinimleri ve önceden eğitilmiş modellerin birden fazla aşağı yönlü görev için yeniden kullanılması olanağı sunar. Daha da önemlisi, temel model ve bağdaştırıcı ayrı ayrı saklanabilir ve istenildiği zaman birleştirilebilir; bu da ince ayarlı sürümlerin saklanmasını, dağıtılmasını ve paylaşılmasını kolaylaştırır. Ancak bu, yeni bir sorunu da beraberinde getiriyor: Bu yeni türdeki ince ayarlı modellerin doğru şekilde nasıl yönetileceği. Temel modeli ve adaptörü birleştirmeli misiniz yoksa ayrı mı tutmalısınız? Bu yazıda, LoRA'nın ince ayarlı modellerini yönetmeye yönelik en iyi uygulamaları ele alıyoruz. Amazon Adaçayı Yapıcı ortaya çıkan bu soruyu yanıtlamak için.
SageMaker Model Kayıt Defterinde FM'lerle çalışma
Bu yazıda, QLoRA yöntemini kullanarak Llama2 büyük dil modeline (LLM) ince ayar yapmanın uçtan uca bir örneğini inceleyeceğiz. QLoRA, bir FM'in belirli bir göreve veya kullanım durumuna göre ince ayarını yapmak için gereken kaynakları daha da azaltmak amacıyla parametre verimli ince ayarın avantajlarını 4 bit/8 bit nicelemeyle birleştirir. Bunun için önceden eğitilmiş 7 milyar parametreli Llama2 modelini kullanacağız ve databricks-dolly-15k veri seti üzerinde ince ayar yapacağız. Llama2 gibi LLM'ler milyarlarca parametreye sahiptir ve çok büyük metin veri kümeleri üzerinde önceden eğitilmiştir. İnce ayar, bir LLM'yi daha küçük bir veri kümesi kullanarak aşağı akışlı bir göreve uyarlar. Ancak büyük modellerde ince ayar yapmak hesaplama açısından pahalıdır. Bu hesaplama maliyetini azaltmak amacıyla ince ayar sırasında ağırlıkları nicelemek için QLoRA yöntemini kullanmamızın nedeni budur.
Örneklerimizde iki not defteri bulacaksınız (llm-finetune-combined-with-registry.ipynb
ve llm-finetune-separate-with-registry.ipynb
). Her biri, aşağıdaki şemada gösterildiği gibi LoRA'nın ince ayarlı modellerini işlemek için farklı bir yöntemle çalışır:
- Öncelikle SageMaker Studio Notebooks'u kullanarak 2 milyar parametreli önceden eğitilmiş Llama7 modelini indiriyoruz. Llama2 gibi LLM'ler, alana özgü veriler üzerinde ince ayar yapıldığında doğal dil işleme (NLP) görevlerinde en gelişmiş performansı göstermiştir.
- Daha sonra, QLoRA yöntemini kullanarak databricks-dolly-2k veri kümesinde Llama15'ye ince ayar yapıyoruz. QLoRA, model ağırlıklarını ölçerek ince ayarın hesaplama maliyetini azaltır.
- İnce ayar sırasında, eğim, kayıp vb. ölçümleri otomatik olarak günlüğe kaydetmek için SageMaker Experiments Plus'ı Transformers API ile entegre ediyoruz.
- Daha sonra iki yaklaşımı kullanarak SageMaker Model Registry'de ince ayarı yapılmış Llama2 modelini sürümlendiriyoruz:
- Tam modelin saklanması
- Adaptörü ve temel modeli ayrı ayrı saklama.
- Son olarak, SageMaker Gerçek zamanlı uç noktasında Hizmet Veren Deep Java Library'yi (DJL) kullanarak ince ayarlı Llama2 modellerini barındırıyoruz.
Aşağıdaki bölümlerde, SageMaker'ın farklı LLM iş akışlarına yönelik esnekliğini ve bu özelliklerin modellerinizin operasyonlarını iyileştirmeye nasıl yardımcı olabileceğini göstermek için bu adımların her birine daha derinlemesine bakacağız.
Önkoşullar
Kodu denemeye başlamak için aşağıdaki önkoşulları tamamlayın.
- Hat için bir SageMaker Studio Alanı: Amazon SageMaker Studio, özellikle Studio Notebooks, Llama2 ince ayar görevini başlatmak ve ardından içindeki modelleri kaydetmek ve görüntülemek için kullanılır SageMaker Model Kaydı. SageMaker Deneyleri aynı zamanda Llama2'nin ince ayar iş günlüklerini (eğitim kaybı/test kaybı/vb.) görüntülemek ve karşılaştırmak için de kullanılır.
- Amazon Simple Storage Service (S3) paketi oluşturma: Eğitim yapılarını ve model ağırlıklarını depolamak için bir S3 klasörüne erişim gereklidir. Talimatlar için bkz. Bir kova oluşturma. Bu gönderi için kullanılan örnek kod, SageMaker'ın varsayılan S3 klasörünü kullanacaktır ancak bunu, ilgili herhangi bir S3 klasörünü kullanacak şekilde özelleştirebilirsiniz.
- Model Koleksiyonlarını Ayarlayın (IAM izinleri): SageMaker Yürütme Rolünüzü, aşağıda listelenen kaynak gruplarına yönelik izinlerle güncelleyin Model Kayıt Defteri Koleksiyonları Geliştirici Kılavuzu Model Koleksiyonlarını kullanarak Model Kayıt gruplamasını uygulamak.
- Llama2 Hüküm ve Koşullarını kabul edin: Llama2 temel modelini kullanmak için son kullanıcı lisans sözleşmesini ve kabul edilebilir kullanım politikasını kabul etmeniz gerekecektir.
Örnekler şurada mevcut GitHub deposu. Not defteri dosyaları, PyTorch 2.0.0 Python 3.10 GPU Optimize Edilmiş çekirdek ve ml.g4dn.xlarge örnek türü üzerinde çalışan Studio dizüstü bilgisayarlar kullanılarak test edilmiştir.
Denemeler ve geri arama entegrasyonu
Amazon SageMaker Deneyleri SageMaker Python SDK veya boto3'ü kullanarak yerel Jupyter Not Defterleri de dahil olmak üzere herhangi bir entegre geliştirme ortamından (IDE) makine öğrenimi (ML) deneylerini ve model sürümlerini düzenlemenize, izlemenize, karşılaştırmanıza ve değerlendirmenize olanak tanır. Model metriklerinizi, parametrelerinizi, dosyalarınızı, yapıtlarınızı günlüğe kaydetme, farklı metriklerden grafikleri çizme, çeşitli meta verileri yakalama, bunlar arasında arama yapma ve modelin tekrarlanabilirliğini destekleme esnekliği sağlar. Veri bilimcileri, görsel grafikler ve tablolar aracılığıyla model değerlendirmesi için performansı ve hiperparametreleri hızlı bir şekilde karşılaştırabilir. Ayrıca oluşturulan grafikleri indirmek ve model değerlendirmesini paydaşlarıyla paylaşmak için SageMaker Experiments'ı kullanabilirler.
LLM'lerin eğitimi yavaş, pahalı ve yinelenen bir süreç olabilir. Tutarsız bir model ayarlama deneyimini önlemek için kullanıcının LLM deneylerini geniş ölçekte izlemesi çok önemlidir. HuggingFace Transformer API'leri kullanıcıların eğitim görevleri sırasında metrikleri izlemesine olanak tanır Geri aramalar. Geri aramalar, PyTorch Trainer'daki eğitim döngüsünün davranışını özelleştirebilen, ilerleme raporlaması için eğitim döngüsü durumunu denetleyebilen, TensorBoard veya SageMaker Experiments Plus'ta özel mantık aracılığıyla oturum açabilen (bir parça olarak dahil edilmiştir) "salt okunur" kod parçalarıdır. bu kod tabanının).
Bu gönderinin kod deposunda bulunan SageMaker Experiments geri çağırma kodunu aşağıdaki kod bloğunda gösterildiği gibi içe aktarabilirsiniz:
Bu geri arama, eğitim çalışmasının bir parçası olarak aşağıdaki bilgileri SageMaker Experiments'a otomatik olarak kaydedecektir:
- Eğitim Parametreleri ve Hiper Parametreler
- Step, Epoch ve Final'de Model Eğitimi ve Doğrulama kaybı
- Model Giriş ve Çıkış yapıları (eğitim veri kümesi, doğrulama veri kümesi, model çıktı konumu, eğitim hata ayıklayıcısı ve daha fazlası)
Aşağıdaki grafik, bu bilgileri kullanarak görüntüleyebileceğiniz grafiklerin örneklerini göstermektedir.
Bu, SageMaker Experiments'ın Analiz özelliğini kullanarak birden fazla çalışmayı kolayca karşılaştırmanıza olanak tanır. Karşılaştırmak istediğiniz deneme çalıştırmalarını seçebilirsiniz; karşılaştırma grafikleri otomatik olarak doldurulur.
İnce ayar yapılmış modelleri Model Kayıt Koleksiyonlarına kaydedin
Model Kayıt Defteri Koleksiyonları bir özelliği SageMaker Model Kaydı Bu, birbiriyle ilişkili kayıtlı modelleri gruplandırmanıza ve model keşfedilebilirliğini geniş ölçekte geliştirmek için bunları hiyerarşiler halinde düzenlemenize olanak tanır. Temel modeli ve ince ayarlı varyantları takip etmek için Model Kayıt Koleksiyonlarını kullanacağız.
Tam Model Kopyalama yöntemi
İlk yöntem, temel modeli ve LoRA adaptörünü birleştirir ve ince ayarlı modelin tamamını kaydeder. Aşağıdaki kod, model birleştirme işlemini gösterir ve birleştirilmiş modeli kullanarak kaydeder. model.save_pretrained()
.
İnce ayardan sonra LoRA adaptörünü ve temel modeli tek bir model yapısında birleştirmenin avantajları ve dezavantajları vardır. Birleştirilmiş model bağımsızdır ve orijinal temel modele ihtiyaç duymadan bağımsız olarak yönetilip dağıtılabilir. Model, temel modeli ve ince ayar verilerini yansıtan bir sürüm adıyla kendi varlığı olarak izlenebilir. kullanarak bir terminoloji benimseyebiliriz. base_model_name
+ ince ayarlı dataset_name
model gruplarını organize etmek. İsteğe bağlı olarak model koleksiyonları orijinal ve ince ayarlı modelleri ilişkilendirebilir ancak birleştirilmiş model bağımsız olduğundan bu gerekli olmayabilir. Aşağıdaki kod parçacığı, ince ayarlı modelin nasıl kaydedileceğini gösterir.
Modeli Model Kaydına kaydetmek için eğitim tahmincisini kullanabilirsiniz.
Model Registry'den model paketini alabilir ve bu modeli doğrudan dağıtabilirsiniz.
Ancak bu yaklaşımın dezavantajları vardır. Modellerin birleştirilmesi, temel modelin her ince ayarlı versiyonda kopyalanması nedeniyle depolama verimsizliğine ve yedekliliğe yol açar. Model boyutu ve ince ayarlı modellerin sayısı arttıkça depolama ihtiyaçları katlanarak artar. Llama2 7b modelini örnek alırsak temel model yaklaşık 13 GB, ince ayarlı model ise 13.6 GB boyutundadır. Her ince ayardan sonra modelin yüzde 96'sının kopyalanması gerekiyor. Ayrıca, çok büyük model dosyalarının dağıtılması ve paylaşılması da daha zor hale geliyor ve model boyutunun artması ve işlerde ince ayar yapılmasıyla birlikte dosya aktarımı ve yönetim maliyetleri arttıkça operasyonel zorluklar ortaya çıkıyor.
Ayrı adaptör ve taban yöntemi
İkinci yöntem, temel ağırlıklar ile adaptör ağırlıklarının ayrı model bileşenleri olarak kaydedilerek ve çalışma zamanında sırayla yüklenerek ayrılmasına odaklanır.
Taban ve adaptör ağırlıklarından tasarruf etmenin, Tam Model Kopyalama yöntemine benzer şekilde avantaj ve dezavantajları vardır. Bir avantajı depolama alanından tasarruf edebilmesidir. İnce ayarlı bir modelin en büyük bileşeni olan taban ağırlıkları yalnızca bir kez kaydedilir ve farklı görevler için ayarlanmış diğer adaptör ağırlıklarıyla yeniden kullanılabilir. Örneğin, Llama2-7B'nin taban ağırlıkları yaklaşık 13 GB'tır, ancak her ince ayar görevinin yalnızca yaklaşık 0.6 GB adaptör ağırlığını depolaması gerekir; bu da %95'lik bir alan tasarrufu anlamına gelir. Diğer bir avantaj ise, yalnızca taban ağırlıkları model kaydı kullanılarak taban ağırlıklarının adaptör ağırlıklarından ayrı olarak yönetilebilmesidir. Bu, internet ağ geçidi olmadan yalnızca VPC modunda çalışan SageMaker alanları için yararlı olabilir çünkü temel ağırlıklara internetten geçmek zorunda kalmadan erişilebilir.
Taban ağırlıklar için Model Paket Grubu Oluşturun
QLoRA ağırlıkları için Model Paket Grubu Oluşturun
Aşağıdaki kod, QLoRA ağırlıklarının veri kümesi/görev türüyle nasıl etiketleneceğini ve ince ayarlı delta ağırlıklarının ayrı bir model kaydına nasıl kaydedileceğini ve delta ağırlıklarının ayrı olarak nasıl izleneceğini gösterir.
Aşağıdaki kod parçası, modellerin temel ve ince ayarlı ağırlıklara ayrıldığı Model Kaydı'ndan bir görünümü göstermektedir.
Aşırı kişiselleştirilmiş LLM'ler için modelleri, veri kümelerini ve görevleri yönetmek, hızla bunaltıcı hale gelebilir. SageMaker Model Kayıt Defteri Koleksiyonları ilgili modelleri bir arada gruplandırmanıza ve model keşfedilebilirliğini artırmak için bunları bir hiyerarşi içinde düzenlemenize yardımcı olabilir. Bu, temel ağırlıklar, bağdaştırıcı ağırlıkları ve ince ayar görev veri kümeleri arasındaki ilişkilerin izlenmesini kolaylaştırır. Ayrıca modeller arasında karmaşık ilişkiler ve bağlantılar da oluşturabilirsiniz.
Yeni bir Koleksiyon oluşturun ve temel model ağırlıklarınızı bu Koleksiyona ekleyin
Tüm İnce Ayarlı LoRA Adaptör Delta Ağırlıklarınızı göreve ve/veya veri kümesine göre bu koleksiyona bağlayın
Bu, model/görev türüne ve temel modele ince ayar yapmak için kullanılan veri kümesine göre bağlanan bir koleksiyon hiyerarşisiyle sonuçlanacaktır.
Taban ve adaptör modellerini ayırmaya yönelik bu yöntemin bazı dezavantajları vardır. Bir dezavantaj, modelin konuşlandırılmasındaki karmaşıklıktır. İki ayrı model yapısı olduğundan doğrudan Model Registry'den dağıtmak yerine modeli yeniden paketlemek için ek adımlara ihtiyacınız vardır. Aşağıdaki kod örneğinde, öncelikle temel modelin en son sürümünü indirip yeniden paketleyin.
Ardından en son ince ayarı yapılmış LoRA adaptör ağırlıklarını indirip yeniden paketleyin.
Modeli barındırmak için DJL hizmetini deepspeed ile kullanacağınız için çıkarım dizininiz aşağıdaki gibi görünmelidir.
Son olarak, dağıtım için özel çıkarım kodunu, temel modeli ve LoRA bağdaştırıcısını tek bir .tar.gz dosyasında paketleyin.
Temizlemek
Not defterinin temizleme bölümündeki talimatları izleyerek kaynaklarınızı temizleyin. Bakınız Amazon SageMaker Fiyatlandırması çıkarım örneklerinin maliyetine ilişkin ayrıntılar için.
Sonuç
Bu gönderi, Amazon SageMaker'da LoRA'nın ince ayarlı modellerini yönetmeye yönelik en iyi uygulamalar konusunda size yol gösterdi. İki ana yöntemi ele aldık: taban ve adaptör ağırlıklarını bağımsız bir modelde birleştirmek ve taban ile adaptör ağırlıklarını ayırmak. Her iki yaklaşımın da ödünleri vardır, ancak ağırlıkların ayrılması, depolamayı optimize etmeye yardımcı olur ve SageMaker Model Kayıt Defteri Koleksiyonları gibi gelişmiş model yönetimi tekniklerini mümkün kılar. Bu, organizasyonu ve keşfedilebilirliği geliştirmek için modeller arasında hiyerarşiler ve ilişkiler oluşturmanıza olanak tanır. Örnek kodu denemenizi öneririz. GitHub deposu bu yöntemleri kendiniz denemek için. Üretken yapay zeka hızla ilerledikçe, model yönetimindeki en iyi uygulamaları takip etmek deneyleri izlemenize, göreviniz için doğru modeli bulmanıza ve uzmanlaşmış LLM'leri geniş ölçekte verimli bir şekilde yönetmenize yardımcı olacaktır.
Referanslar
yazarlar hakkında
James Wu AWS'de Kıdemli AI/ML Uzman Çözüm Mimarıdır. müşterilerin AI/ML çözümleri tasarlamasına ve oluşturmasına yardımcı olur. James'in çalışması, bilgisayar vizyonu, derin öğrenme ve kurum genelinde ML'yi ölçeklendirmeye ilgi duyan çok çeşitli ML kullanım durumlarını kapsar. AWS'ye katılmadan önce James, 10 yılı mühendislik ve 6 yılı pazarlama ve reklamcılık sektörlerinde olmak üzere 4 yılı aşkın bir süredir mimar, geliştirici ve teknoloji lideriydi.
Pranav Murthy AWS'de AI/ML Uzman Çözüm Mimarıdır. Müşterilerin makine öğrenimi (ML) iş yüklerini oluşturmasına, eğitmesine, dağıtmasına ve SageMaker'a taşımasına yardımcı olmaya odaklanıyor. Daha önce yarı iletken endüstrisinde yarı iletken süreçlerini iyileştirmek için büyük bilgisayarlı görüntü (CV) ve doğal dil işleme (NLP) modelleri geliştirerek çalıştı. Boş zamanlarında satranç oynamaktan ve seyahat etmekten hoşlanıyor.
Mecit Güngör AWS'de, müşterilerin uygun ölçekte AI/ML çözümleri tasarlamasına ve oluşturmasına yardımcı olan bir AI/ML Çözüm Mimarıdır. Telekomünikasyon müşterileri için çok çeşitli AI/ML kullanım durumlarını ele alıyor ve şu anda Üretken AI, LLM'ler ve eğitim ve çıkarım optimizasyonuna odaklanıyor. Sık sık boş zamanlarında vahşi doğada yürüyüş yaparken veya arkadaşlarıyla masa oyunları oynarken bulunabilir.
Shelbee Eigenbrode Amazon Web Services'de (AWS) Baş Yapay Zeka ve Makine Öğrenimi Uzmanı Çözüm Mimarıdır. 24 yıldır birden fazla endüstriyi, teknolojiyi ve rolü kapsayan teknoloji içindedir. Şu anda müşterilerin makine öğrenimi iş yüklerini uygun ölçekte sunmasına ve yönetmesine yardımcı olmak için DevOps ve ML arka planını MLOps alanında birleştirmeye odaklanıyor. Çeşitli teknoloji alanlarında verilen 35'in üzerinde patentle, sürekli yenilik ve iş sonuçlarını yönlendirmek için verileri kullanma tutkusuna sahiptir. Shelbee, Coursera'daki Pratik Veri Bilimi uzmanlığının ortak yaratıcısı ve eğitmenidir. Aynı zamanda Women In Big Data (WiBD), Denver bölümünün Eş-Direktörüdür. Boş zamanlarında ailesi, arkadaşları ve aşırı aktif köpekleri ile vakit geçirmeyi sever.
- SEO Destekli İçerik ve Halkla İlişkiler Dağıtımı. Bugün Gücünüzü Artırın.
- PlatoData.Network Dikey Üretken Yapay Zeka. Kendine güç ver. Buradan Erişin.
- PlatoAiStream. Web3 Zekası. Bilgi Genişletildi. Buradan Erişin.
- PlatoESG. karbon, temiz teknoloji, Enerji, Çevre, Güneş, Atık Yönetimi. Buradan Erişin.
- PlatoSağlık. Biyoteknoloji ve Klinik Araştırmalar Zekası. Buradan Erişin.
- Kaynak: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :vardır
- :dır-dir
- :olumsuzluk
- :Neresi
- $UP
- 10
- 100
- 11
- 12
- 13
- İNDİRİM
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- İNDİRİM
- 7
- 8
- İNDİRİM
- a
- kabiliyet
- Hakkımızda
- Kabul et
- kabul edilebilir
- erişim
- erişilen
- karşısında
- adaptasyon
- uyarlar
- eklemek
- ekleme
- Ek
- Ayrıca
- adres
- benimsemek
- ileri
- avantaj
- avantajları
- reklâm
- Sonra
- Bireysel Üyelik Sözleşmesi
- AI
- AI hakkı
- AI / ML
- Türkiye
- izin vermek
- veriyor
- zaten
- Ayrıca
- Amazon
- Amazon Adaçayı Yapıcı
- Amazon SageMaker Stüdyosu
- Amazon Basit Depolama Hizmeti (S3)
- Amazon Web Servisleri
- Amazon Web Services (AWS)
- tutarları
- an
- çözümlemek
- ve
- Başka
- herhangi
- api
- uygulamaları
- yaklaşım
- yaklaşımlar
- onaylı
- yaklaşık olarak
- ARE
- alanlar
- AS
- Ortak
- At
- otomatik olarak
- Otomasyon
- mevcut
- AWS
- Arka
- arka fon
- engelleri
- baz
- BE
- Çünkü
- müşterimiz
- olur
- olmuştur
- davranış
- faydaları
- İYİ
- en iyi uygulamalar
- arasında
- Büyük
- büyük Veri
- Milyar
- milyarlarca
- Engellemek
- yazı tahtası
- Masa Oyunları
- her ikisi de
- sınırları
- inşa etmek
- iş
- fakat
- by
- geri aramaları
- denilen
- CAN
- kabiliyet
- ele geçirmek
- dikkatli
- dava
- durumlarda
- meydan okuma
- zorluklar
- bölüm
- Grafikler
- satranç
- sınıf
- açık
- kod
- Kod tabanı
- Toplamak
- koleksiyon
- birleştirmek
- kombine
- biçerdöverler
- birleştirme
- Şirketler
- karşılaştırmak
- karşılaştırma
- rekabet
- karmaşık
- karmaşıklık
- bileşen
- bileşenler
- hesaplama
- bilişimsel
- bilgisayar
- Bilgisayar görüşü
- koşullar
- düşünen
- içerik
- içerik yaratımı
- sürekli olarak
- sürekli
- çekirdek
- Ücret
- olabilir
- kaplı
- kapaklar
- yaratmak
- çevrimiçi kurslar düzenliyorlar.
- oluşturma
- yaratıcılık
- Şu anda
- görenek
- müşteri
- Kullanıcı Desteği
- Müşteriler
- özelleştirme
- özelleştirmek
- keskin kenar
- veri
- veri bilimi
- veri kümeleri
- derin
- derin öğrenme
- derin
- Varsayılan
- del
- teslim etmek
- Delta
- göstermek
- Denver
- dağıtmak
- konuşlandırılmış
- dağıtma
- açılma
- Dizayn
- ayrıntılar
- Geliştirici
- gelişen
- gelişme
- farklı
- zor
- direkt olarak
- ekran
- dağıtmak
- dağıtım
- dalış
- domain
- etki
- indir
- sakıncaları
- sürücü
- sırasında
- her
- kolay
- kolayca
- kenar
- verimli
- verimli biçimde
- başka
- ortaya çıkan
- sağlar
- teşvik etmek
- son uca
- Son nokta
- Mühendislik
- kuruluş
- varlık
- çevre
- çağ
- çağ
- vb
- değerlendirmek
- değerlendirme
- örnek
- örnekler
- son derece
- infaz
- mevcut
- pahalı
- deneyim
- deneme
- deneyler
- Uzmanlık
- katlanarak
- Yüz
- Başarısızlık
- aile
- Daha hızlı
- Özellikler(Hazırlık aşamasında)
- Özellikler
- fileto
- dosyalar
- bulmak
- ince
- Ad
- sabit
- Esneklik
- odaklanır
- odaklanma
- takip etme
- İçin
- bulundu
- vakıf
- Ücretsiz
- arkadaşlar
- itibaren
- tam
- işlev
- daha fazla
- gelecek
- Kazanç
- kazandı
- Games
- geçit
- üreten
- üretken
- üretken yapay zeka
- Go
- gidiş
- Tercih Etmenizin
- GPU
- verilmiş
- grafik
- grafikler
- grup
- Grubun
- el
- sap
- Var
- sahip olan
- he
- yardım et
- yardım
- yardımcı olur
- onu
- hiyerarşi
- büyük ölçüde
- onun
- ev sahibi
- sıcak
- Ne kadar
- Nasıl Yapılır
- Ancak
- HTML
- HTTPS
- SarılmaYüz
- göstermektedir
- görüntü
- uygulamak
- uygulama
- ithalat
- önemli
- önemlisi
- ithalat
- iyileştirmek
- in
- dahil
- içerir
- Dahil olmak üzere
- Artırmak
- Artışlar
- artan
- bağımsız
- bağımsız
- Endüstri
- sanayi
- verimsizlik
- şişirir
- bilgi
- Yenilikçilik
- giriş
- örnek
- yerine
- talimatlar
- entegre
- entegre
- faiz
- Internet
- içine
- Tanıtımlar
- IT
- ONUN
- james
- Java
- İş
- Mesleki Öğretiler
- birleştirme
- jpg
- tutmak
- koruma
- anahtar
- tekme
- bilgi
- dil
- büyük
- büyük
- son
- lider
- İlanlar
- öğrenme
- Lets
- seviye
- Kütüphane
- Lisans
- yalan
- sevmek
- seviyor
- LINK
- bağlantılı
- Listelenmiş
- Yüksek Lisans
- yük
- yükleme
- yerel
- yer
- log
- günlüğü
- mantık
- Bakın
- gibi görünmek
- bakıyor
- kayıp
- makine
- makine öğrenme
- Ana
- YAPAR
- Yapımı
- yönetmek
- yönetilen
- yönetim
- yönetme
- çok
- Pazarlama
- Pazarlama reklamı
- masif
- Mayıs..
- Bellek
- gitmek
- birleştirme
- Metadata
- yöntem
- yöntemleri
- Metrikleri
- göç
- ML
- MLO'lar
- Moda
- model
- modelleri
- Modüller
- Daha
- çoklu
- isim
- Doğal (Madenden)
- Doğal Dil İşleme
- gerekli
- gerek
- gerek
- ihtiyaçlar
- yeni
- nlp
- defter
- şimdi
- numara
- of
- kapalı
- Teklifler
- sık sık
- on
- bir Zamanlar
- ONE
- bir tek
- işletme
- Operasyon
- optimizasyon
- optimize
- optimize
- optimize
- or
- kuruluşlar
- organizasyonlar
- orijinal
- Diğer
- bizim
- sonuçlar
- çıktı
- tekrar
- Üstesinden gelmek
- ezici
- kendi
- paket
- parametre
- parametreler
- Bölüm
- tutku
- Patentler
- yol
- yüzde
- performans
- izinleri
- parçalar
- Platon
- Plato Veri Zekası
- PlatoVeri
- oynama
- artı
- politika
- Popüler
- popülerlik
- kısım
- mümkün
- Çivi
- güç kelimesini seçerim
- güçlü
- Pratik
- uygulamalar
- önkoşullar
- hediyeler
- korunması
- önlemek
- Önceden
- birincil
- Anapara
- Önceki
- süreç
- Süreçler
- işleme
- Ilerleme
- uygun şekilde
- özellikleri
- sağlar
- Itmek
- Python
- pytorch
- soru
- hızla
- menzil
- hızla
- gerçek zaman
- neden
- nedenleri
- geçenlerde
- azaltmak
- Indirimli
- azaltır
- azaltarak
- başvurmak
- yansıtan
- kayıt olmak
- kayıtlı
- kayıt
- ilgili
- İlişkiler
- uygun
- dikkat çekici
- Raporlama
- Depo
- gerektirir
- gereklidir
- Yer Alan Kurallar
- Kaynaklar
- DİNLENME
- sonuç
- yeniden
- krallar gibi yaşamaya
- Rol
- rolleri
- koşmak
- koşu
- ishal
- runtime
- sagemaker
- İndirim
- kaydedilmiş
- tasarruf
- Tasarruf
- ölçek
- ölçekleme
- Bilim
- bilim adamları
- sdk
- Ara
- İkinci
- Bölüm
- bölümler
- arayan
- yarıiletken
- kıdemli
- ayrı
- ayırma
- hizmet
- Hizmetler
- servis
- birkaç
- paylaş
- paylaşımı
- o
- meli
- gösterilen
- Gösteriler
- benzer
- Basit
- beri
- tek
- beden
- yavaş
- küçük
- daha küçük
- pasajı
- çözüm
- Çözümler
- biraz
- Kaynak
- uzay
- gerginlik
- uzman
- özel
- özel
- özellikle
- geçirmek
- bölmek
- paydaşlar
- başlama
- Eyalet
- state-of-the-art
- Durum
- adım
- Basamaklar
- Yine
- hafızası
- mağaza
- saklı
- stüdyo
- böyle
- destek
- TAG
- alma
- Görev
- görevleri
- teknik
- teknikleri
- Teknolojileri
- Teknoloji
- telekomünikasyon
- şartlar
- test edilmiş
- metin
- o
- The
- ve bazı Asya
- Onları
- sonra
- Orada.
- Bunlar
- onlar
- Re-Tweet
- İçinden
- zaman
- için
- birlikte
- araç
- meşale
- iz
- geleneksel
- Tren
- Eğitim
- transfer
- transformatör
- transformatörler
- Seyahat
- gerçek
- denemek
- melodi
- ayarlanmış
- ayarlama
- iki
- tip
- türleri
- altında
- anlayış
- Güncelleme
- güncellenmesi
- Yüklenen
- URL
- kullanım
- kullanım durumu
- Kullanılmış
- kullanıcı
- kullanıcılar
- kullanma
- onaylama
- Değerli
- değer
- çeşitlilik
- çeşitli
- Geniş
- versiyon
- sürümler
- çok
- üzerinden
- Görüntüle
- vizyonumuz
- görsel
- yürümek
- yürüdü
- istemek
- oldu
- Yol..
- yolları
- we
- ağ
- web hizmetleri
- ne zaman
- hangi
- süre
- neden
- geniş
- Geniş ürün yelpazesi
- irade
- ile
- içinde
- olmadan
- Kadın
- İş
- işlenmiş
- iş akışları
- çalışır
- yıl
- Sen
- kendiniz
- zefirnet