PyTorch, AWS müşterileri tarafından bilgisayar görüşü, doğal dil işleme, içerik oluşturma ve daha fazlası gibi çeşitli uygulamalar için yaygın olarak kullanılan bir makine öğrenimi (ML) çerçevesidir. En son PyTorch 2.0 sürümüyle, AWS müşterileri artık PyTorch 1.x ile yapabileceklerinin aynısını, ancak gelişmiş eğitim hızları, daha düşük bellek kullanımı ve gelişmiş dağıtılmış yeteneklerle daha hızlı ve daha geniş ölçekte yapabilirler. PyTorch2.0 sürümüne torch.compile, TorchDynamo, AOTAutograd, PrimTorch ve TorchInductor gibi birçok yeni teknoloji dahil edilmiştir. bakın PyTorch 2.0: Her zamankinden daha hızlı, daha Pythonic ve Dynamic olan yeni nesil sürümümüz Ayrıntılar için.
Bu gönderi, AWS üzerinde PyTorch 2.0 kullanarak büyük ölçekli, yüksek performanslı dağıtılmış makine öğrenimi modeli eğitimi ve devreye alma performansını ve kolaylığını gösterir. Bu gönderide ayrıca, duyarlılık analizi için bir RoBERTa (Güçlü Olarak Optimize Edilmiş BERT Ön Eğitim Yaklaşımı) modelinin hassas ayarının adım adım uygulanması anlatılmaktadır. AWS Derin Öğrenme AMI'leri (AWS DLAMI) ve AWS Derin Öğrenme Kapları (DLC'ler) açık Amazon Elastik Bilgi İşlem Bulutu (Amazon EC2 p4d.24xlarge), PyTorch 42 torch.compile + bf2.0 + birleştirilmiş AdamW ile birlikte kullanıldığında gözlemlenen %16 hızlanma ile. İnce ayarlı model daha sonra devreye alınır AWS Gravitontabanlı C7g EC2 örneği açık Amazon Adaçayı Yapıcı PyTorch 10'e kıyasla gözlemlenen %1.13 hızlanma ile.
Aşağıdaki şekilde, AWS PyTorch 2 DLAMI + DLC ile Amazon EC4 p24d.2.0xlarge üzerinde bir RoBERTa modelinin ince ayarının performans karşılaştırması gösterilmektedir.
Bakın AWS Graviton işlemcilerle optimize edilmiş PyTorch 2.0 çıkarımı PyTorch 2.0 için AWS Graviton tabanlı örnek çıkarım performansı karşılaştırmalı değerlendirmeleri hakkında ayrıntılar için.
AWS'de PyTorch 2.0 desteği
PyTorch2.0 desteği, bu gönderideki örnek kullanım örneğinde gösterilen hizmetler ve bilgi işlemle sınırlı değildir; bu bölümde tartıştığımız AWS'deki diğer birçok kişiyi de kapsar.
İş gereksinimi
Çeşitli sektörlerden birçok AWS müşterisi, özellikle insan benzeri metinler oluşturmak için tasarlanmış üretken yapay zeka ve büyük dil modelleri (LLM'ler) alanında yapay zekayı (AI) kullanarak işlerini dönüştürüyor. Bunlar temelde yüz milyarlarca parametre ile eğitilmiş derin öğrenme tekniklerine dayalı büyük modellerdir. Model boyutlarının büyümesi, eğitim süresini günlerden haftalara ve hatta bazı durumlarda aylara çıkarıyor. Bu, yerleşik hızlandırılmış model eğitimi desteğine ve belirli iş yüklerine ve performans gereksinimlerine göre uyarlanmış optimize edilmiş AWS altyapısına sahip PyTorch 2.0 gibi bir çerçeveyi her zamankinden daha fazla gerektiren eğitim ve çıkarım maliyetlerinde üstel bir artışa neden oluyor.
hesaplama seçimi
AWS, herhangi bir makine öğrenimi projesi veya uygulaması için kullanabileceğiniz ve performans ve bütçe gereksinimlerinize uyacak şekilde özelleştirebileceğiniz en geniş güçlü bilgi işlem, yüksek hızlı ağ iletişimi ve ölçeklenebilir yüksek performanslı depolama seçeneklerinde PyTorch 2.0 desteği sağlar. Bu, bir sonraki bölümdeki şemada gösterilmiştir; alt katmanda, AWS Graviton, Nvidia, AMD ve Intel işlemciler tarafından desteklenen geniş bir bilgi işlem bulut sunucusu yelpazesi sunuyoruz.
Model dağıtımları için, önceki PyTorch sürümüne kıyasla Resnet2.0 için 3.5 kata kadar ve BERT için 50 kata kadar daha yüksek hız ile PyTorch 1.4 için çıkarım performansı sağlayan ve AWS Graviton tabanlı bulut sunucularını CPU tabanlı model çıkarım çözümleri için AWS'de en hızlı işlem açısından optimize edilmiş bulut sunucuları haline getiren, yakın zamanda duyurulan AWS Graviton tabanlı bulut sunucusu gibi ARM tabanlı işlemcileri kullanabilirsiniz.
Makine öğrenimi hizmetlerinin seçimi
AWS bilgi işlemi kullanmak için makine öğrenimi geliştirme, bilgi işlem ve iş akışı düzenlemeye yönelik çok çeşitli küresel bulut tabanlı hizmetler arasından seçim yapabilirsiniz. Bu seçim, iş ve bulut stratejilerinize uyum sağlamanıza ve PyTorch 2.0 işlerini seçtiğiniz platformda çalıştırmanıza olanak tanır. Örneğin, şirket içi kısıtlamalarınız veya açık kaynaklı ürünlere yönelik mevcut yatırımlarınız varsa Amazon EC2'yi kullanabilir, AWS ParalelKümeya da AWS Ultra Kümesi kendi kendini yöneten bir yaklaşıma dayalı olarak dağıtılmış eğitim iş yüklerini çalıştırmak için. Maliyet açısından optimize edilmiş, tam olarak yönetilen ve üretim ölçeğinde bir eğitim altyapısı için SageMaker gibi tam olarak yönetilen bir hizmet de kullanabilirsiniz. SageMaker ayrıca, model dağıtımınızı ölçeklendirmenize, çıkarım maliyetlerini düşürmenize, modelleri üretimde daha etkin bir şekilde yönetmenize ve operasyonel yükü azaltmanıza olanak tanıyan çeşitli MLOps araçlarıyla da entegre olur.
Benzer şekilde, mevcut Kubernetes yatırımlarınız varsa, şunları da kullanabilirsiniz: Amazon Elastik Kubernetes Hizmeti (Amazon EKS) ve AWS'de Kubeflow dağıtılmış eğitim için bir makine öğrenimi işlem hattı uygulamak veya aşağıdaki gibi bir AWS'ye özgü kapsayıcı düzenleme hizmeti kullanmak için Amazon Elastik Konteyner Hizmeti (Amazon ECS) model eğitimi ve dağıtımları için. Makine öğrenimi platformunuzu oluşturma seçenekleri bu hizmetlerle sınırlı değildir; PyTorch 2.0 işleriniz için kurumsal gereksinimlerinize bağlı olarak seçim yapabilir ve seçim yapabilirsiniz.
AWS DLAMI ve AWS DLC ile PyTorch 2.0'ı Etkinleştirme
Yukarıda bahsedilen AWS hizmetleri yığınını ve güçlü bilgi işlemi kullanmak için PyTorch2.0 çerçevesinin optimize edilmiş bir derlenmiş sürümünü ve birçoğu bağımsız projeler olan gerekli bağımlılıklarını kurmanız ve bunları uçtan uca test etmeniz gerekir. Ayrıca hızlandırılmış matematik yordamları için CPU'ya özgü kitaplıklara, hızlandırılmış matematik ve GPU'lar arası iletişim yordamları için GPU'ya özgü kitaplıklara ve GPU kitaplıklarını derlemek için kullanılan GPU derleyicisiyle hizalanması gereken GPU sürücülerine ihtiyacınız olabilir. İşleriniz büyük ölçekli çok düğümlü eğitim gerektiriyorsa, en düşük gecikmeyi ve en yüksek verimi sağlayabilen optimize edilmiş bir ağa ihtiyacınız vardır. Yığınınızı oluşturduktan sonra, bunları güvenlik açıkları için düzenli olarak taramanız ve düzeltme eki uygulamanız ve her çerçeve sürümü yükseltmesinden sonra yığını yeniden oluşturmanız ve yeniden test etmeniz gerekir.
AWS, bulutta derin öğrenmeyi hızlandırmak için derlenmiş ve güvenli bir dizi çerçeve, bağımlılık ve araç sunarak bu ağır yükün azaltılmasına yardımcı olur. AWS DLAMI'leri ve AWS DLC'leri. Bu önceden oluşturulmuş ve test edilmiş makine görüntüleri ve kapsayıcılar, EC2 Accelerated Computing Instance türlerinde derin öğrenme için optimize edilmiştir ve dağıtılmış iş yükleri için daha verimli ve kolay bir şekilde birden çok düğüme ölçeklendirme yapmanıza olanak tanır. Önceden oluşturulmuş bir içerir Elastik Kumaş Adaptörü (EFA), Nvidia GPU yığını ve yüksek performanslı dağıtılmış derin öğrenme eğitimi için birçok derin öğrenme çerçevesi (TensorFlow, MXNet ve en son 2.0 sürümüne sahip PyTorch). Derin öğrenme yazılımlarını ve sürücülerini yüklemek ve sorunlarını gidermek veya makine öğrenimi altyapısı oluşturmak için zaman harcamanız veya bu görüntülere güvenlik açıkları için yama uygulamak veya her yeni çerçeve sürümü yükseltmesinden sonra görüntüleri yeniden oluşturmak için tekrarlayan maliyetlere katlanmak zorunda değilsiniz. Bunun yerine, işleri daha kısa sürede geniş ölçekte eğitmek ve makine öğrenimi modellerinizi daha hızlı yinelemek gibi daha yüksek katma değerli çabaya odaklanabilirsiniz.
Çözüme genel bakış
GPU eğitiminin ve CPU üzerinde çıkarım yapmanın AWS müşterileri için popüler bir kullanım örneği olduğunu göz önünde bulundurarak, bu yazının bir parçası olarak hibrit bir mimarinin (aşağıdaki şemada gösterildiği gibi) adım adım uygulanmasını ekledik. Mümkün olan sanatı keşfedeceğiz ve size herhangi bir açık kaynak veya tescilli kitaplığı kullanmak için kontrol ve esneklik sağlayan bir RoBERTa duyarlılık analizi modelinde ince ayar yapmak için NVIDIA sürücüleri, CUDA, NCCL, EFA yığını ve PyTorch4 DLC dahil Temel GPU DLAMI ile başlatılan BF2 desteğine sahip bir P16 EC2.0 bulut sunucusu kullanacağız. Ardından, modelimizi AWS Graviton3 tabanlı üzerinde barındırmak üzere tam olarak yönetilen bir model barındırma altyapısı için SageMaker'ı kullanıyoruz. C7g örnekleri. SageMaker'da C7g'yi seçtik çünkü karşılaştırılabilir EC50 bulut sunucularına kıyasla çıkarım maliyetlerini %2'ye kadar azalttığı kanıtlanmıştır. gerçek zamanlı çıkarım SageMaker'da. Aşağıdaki diyagram bu mimariyi göstermektedir.
Bu kullanım durumunda model eğitimi ve barındırma aşağıdaki adımlardan oluşur:
- VPC'nizde GPU DLAMI tabanlı bir EC2 Ubuntu örneği başlatın ve SSH kullanarak bulut sunucunuza bağlanın.
- EC2 bulut sunucunuzda oturum açtıktan sonra AWS PyTorch 2.0 DLC'yi indirin.
- RoBERTa modelinde ince ayar yapmak için DLC kapsayıcınızı bir model eğitim komut dosyasıyla çalıştırın.
- Model eğitimi tamamlandıktan sonra, kaydedilmiş modeli, çıkarım betiklerini ve birkaç meta veri dosyasını SageMaker çıkarımının kullanabileceği bir tar dosyasına paketleyin ve model paketini bir tar dosyasına yükleyin. Amazon Basit Depolama Hizmeti (Amazon S3) kovası.
- Modeli SageMaker kullanarak dağıtın ve bir HTTPS çıkarım uç noktası oluşturun. SageMaker çıkarım uç noktası, bir yük dengeleyiciyi ve çıkarım kapsayıcınızın bir veya daha fazla örneğini farklı Erişilebilirlik Alanlarında tutar. Aynı modelin birden çok sürümünü veya tamamen farklı modelleri bu tek uç noktanın arkasına dağıtabilirsiniz. Bu örnekte, tek bir model barındırıyoruz.
- Test verilerini göndererek model uç noktanızı çağırın ve çıkarım çıktısını doğrulayın.
Aşağıdaki bölümlerde, duyarlılık analizi için bir RoBERTa modelinde ince ayar yapmayı gösteriyoruz. RoBERTa, Facebook AI tarafından geliştirilmiştir ve temel hiperparametreleri değiştirerek ve daha büyük bir korpusta ön eğitim vererek popüler BERT modelini geliştirmektedir. Bu, vanilya BERT'e kıyasla gelişmiş performansa yol açar.
Biz kullanın transformatörler RoBERTa modelini yaklaşık 124 milyon tweet üzerinde önceden eğitmek için Hugging Face tarafından sağlanan kitaplık ve duygu analizi için Twitter veri kümesinde ince ayar yapıyoruz.
Önkoşullar
Aşağıdaki ön koşulları karşıladığınızdan emin olun:
- Bir var AWS hesabı.
- İçinde olduğunuzdan emin olun
us-west-2
Bu örneği çalıştırmak için bölge. (Bu örnek test edilmiştir.us-west-2
; ancak başka herhangi bir Bölgede koşabilirsiniz.) - Bir rol oluşturun isimle
sagemakerrole
. Yönetilen politikalar ekleAmazonSageMakerFullAccess
veAmazonS3FullAccess
SageMaker'a S3 klasörlerine erişim vermek için. - Bir EC2 rolü oluşturun isimle
ec2_role
. Aşağıdaki izin politikasını kullanın:
1. Geliştirme örneğinizi başlatın
4 NVIDIA A24 Tensor Core GPU sunan bir p8d.100xlarge örneği oluşturuyoruz. us-west-2
:
AMI'yi seçerken aşağıdakileri izleyin: sürüm notları kullanarak bu komutu çalıştırmak için AWS Komut Satırı Arayüzü (AWS CLI) içinde kullanılacak AMI kimliğini bulmak için us-west-2
:
gp3 kök birimi boyutunun 200 GiB olduğundan emin olun.
EBS birim şifrelemesi varsayılan olarak etkin değildir. Bu çözümü üretime taşırken bunu değiştirmeyi düşünün.
2. Bir Derin Öğrenme Kapsayıcısı İndirin
AWS DLC'leri şu adreste Docker görüntüleri olarak mevcuttur: Amazon Elastic Container Registry Herkese Açık, güvenli, ölçeklenebilir ve güvenilir bir yönetilen AWS kapsayıcı görüntüsü kayıt hizmeti. Her Docker görüntüsü, CPU veya GPU destekli belirli bir derin öğrenme çerçevesi sürümü olan Python sürümünde eğitim veya çıkarım için oluşturulmuştur. Mevcut listeden PyTorch 2.0 çerçevesini seçin Derin Öğrenme Kapsayıcıları görüntüleri.
DLC'nizi indirmek için aşağıdaki adımları tamamlayın:
A. Örneğe SSH. Varsayılan olarak, EC2 ile kullanılan güvenlik grubu SSH portunu herkese açar. Bu çözümü üretime taşıyorsanız lütfen şunu göz önünde bulundurun:
Varsayılan olarak, Amazon EC2 ile kullanılan güvenlik grubu SSH bağlantı noktasını herkese açar. Bu çözümü üretime taşıyorsanız bunu değiştirmeyi düşünün.
B. Bu uygulamanın geri kalan adımlarını çalıştırmak için gereken ortam değişkenlerini ayarlayın:
Amazon ECR, aşağıdakileri kullanarak kaynak tabanlı izinlere sahip genel görüntü havuzlarını destekler: AWS Kimlik ve Erişim Yönetimi (IAM), böylece belirli kullanıcılar veya hizmetler görüntülere erişebilir.
C. DLC kayıt defterinde oturum açın:
D. GPU desteği ile en son PyTorch 2.0 kapsayıcısını çekin us-west-2
"Cihazda yer kalmadı" hatası alıyorsanız, emin olun artırmak EC2 EBS hacmini 200 GiB'ye ve ardından uzatmak Linux dosya sistemi.
3. PyTorch 2.0'a uyarlanmış en son komut dosyalarını kopyalayın
Komut dosyalarını aşağıdaki kodla klonlayın:
En son sürüm 4.28.1 ile Hugging Face Transformers API kullandığımız için, PyTorch 2.0 desteğini zaten etkinleştirmiştir. Trainer API'sine aşağıdaki argümanı ekledik. train_sentiment.py
yeni PyTorch 2.0 özelliklerini etkinleştirmek için:
- Meşale derlemesi – Tek satırlık değişiklikle Nvidia A43 GPU'larda ortalama %100 hızlanma elde edin.
- BF16 veri türü – Amper veya daha yeni GPU'lar için yeni veri türü desteği (Beyin Kayan Nokta).
- Sigortalı AdamW optimize edici – Eğitimi daha da hızlandırmak için kaynaşmış AdamW uygulaması. Bu stokastik optimizasyon yöntemi, ağırlık azalmasını gradyan güncellemesinden ayırarak Adam'daki tipik ağırlık azalması uygulamasını değiştirir.
4. Bağımlılıklarla yeni bir Docker görüntüsü oluşturun
Hugging Face transformatörünü ve modelimize ince ayar yapmak için ihtiyaç duyduğumuz diğer kitaplıkları yüklemek için önceden oluşturulmuş PyTorch 2.0 DLC görüntüsünü genişletiyoruz. Bu, sıfırdan bir görüntü oluşturmak zorunda kalmadan dahil edilen test edilmiş ve optimize edilmiş derin öğrenme kitaplıklarını ve ayarlarını kullanmanıza olanak tanır. Aşağıdaki koda bakın:
5. Konteyneri kullanarak eğitime başlayın
Model üzerinde ince ayar yapmaya başlamak için aşağıdaki Docker komutunu çalıştırın. tweet_eval
duygu veri kümesi. Docker konteyner bağımsız değişkenlerini kullanıyoruz (paylaşılan bellek boyutu, maksimum kilitli bellek ve yığın boyutu) Nvidia'nın önerdiği derin öğrenme iş yükleri için.
Aşağıdaki çıktıyı beklemelisiniz. Komut dosyası önce, tümü çok sınıflı tweet sınıflandırması olarak çerçevelenmiş, Twitter'da yedi heterojen görevden oluşan TweetEval veri kümesini indirir. Görevler arasında ironi, nefret, saldırganlık, duruş, emoji, duygu ve duygu bulunur.
Betik daha sonra temel modeli indirir ve ince ayar sürecini başlatır. Eğitim ve değerlendirme ölçütleri her dönemin sonunda raporlanır.
Performans istatistikleri
PyTorch 2.0 ve en yeni Hugging Face Transformers kitaplığı 4.28.1 ile, 42 A4 24 GB GPU'lu tek bir p8d.100xlarge bulut sunucusunda %40 hız artışı gözlemledik. Performans iyileştirmeleri, torch.compile, BF16 veri türü ve birleştirilmiş AdamW iyileştirici kombinasyonundan gelir. Aşağıdaki kod, yeni özellikler içeren ve içermeyen iki eğitim çalışmasının nihai sonucudur:
6. SageMaker çıkarımına hazırlanmadan önce eğitilen modeli yerel olarak test edin
Aşağıdaki dosyaları altında bulabilirsiniz $ml_working_dir/saved_model/
alıştırmadan sonra:
SageMaker çıkarımına hazırlanmadan önce yerel olarak çıkarım yapabileceğimizden emin olalım. Kaydedilmiş modeli yükleyebilir ve çıkarımı yerel olarak çalıştırabiliriz. test_trained_model.py
senaryo:
“Covid vakaları hızla artıyor!” girişi ile şu çıktıyı beklemelisiniz:
7. SageMaker çıkarımı için model tarball'ını hazırlayın
Modelin bulunduğu dizinin altında, adında yeni bir dizin oluşturun. code
:
Yeni dizinde dosyayı oluşturun inference.py
ve ona şunu ekleyin:
Sonunda, aşağıdaki klasör yapısına sahip olmalısınız:
Model paketlenmeye ve SageMaker çıkarımıyla kullanılmak üzere Amazon S3'e yüklenmeye hazırdır:
8. Modeli bir SageMaker AWS Graviton örneğine dağıtın
Yeni nesil CPU'lar, özel yerleşik yönergeler sayesinde makine öğrenimi çıkarımında önemli bir performans artışı sunar. Bu kullanım durumunda, AWS Graviton3 tabanlı C7g bulut sunucuları ile SageMaker tam olarak yönetilen barındırma altyapısını kullanıyoruz. AWS ayrıca, Torch Hub ResNet50'deki AWS Graviton3 tabanlı EC2 C7g bulut sunucuları ve karşılaştırılabilir EC50 bulut sunucularına göre birden çok Hugging Face modeli ile PyTorch çıkarımı için %2'ye varan maliyet tasarrufu ölçmüştür.
Modelleri AWS Graviton bulut sunucularına dağıtmak için PyTorch 2.0 ve TorchServe 0.8.0 desteği sağlayan AWS DLC'leri kullanıyoruz veya siz şunları yapabilirsiniz: kendi kaplarını getir ARMv8.2 mimarisi ile uyumlu olan.
Daha önce eğittiğimiz modeli kullanıyoruz: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. SageMaker'ı daha önce kullanmadıysanız, inceleyin Amazon SageMaker'ı Kullanmaya Başlayın.
Başlamak için SageMaker paketinin güncel olduğundan emin olun:
Bu bir örnek olduğundan, adlı bir dosya oluşturun. start_endpoint.py
ve aşağıdaki kodu ekleyin. Bu, şu modla bir SageMaker çıkarım bitiş noktası başlatmak için Python betiği olacaktır:
Örnek için ml.c7g.4xlarge kullanıyoruz ve görüntü kapsamıyla PT 2.0'ı alıyoruz inference_graviton
. Bu bizim AWS Graviton3 örneğimizdir.
Ardından, tahmini çalıştıran dosyayı oluşturuyoruz. Tahminleri istediğimiz kadar çalıştırabilmek için bunları ayrı komut dosyaları olarak yapıyoruz. Yaratmak predict.py
aşağıdaki kodla:
Oluşturulan betiklerle artık bir uç nokta başlatabilir, uç noktaya karşı tahminler yapabilir ve işimiz bittiğinde temizleyebiliriz:
9. temizlemek
Son olarak, bu örneği temizlemek istiyoruz. cleanup.py oluşturun ve aşağıdaki kodu ekleyin:
Sonuç
AWS DLAMI'leri ve DLC'leri, AWS'deki geniş bir bilgi işlem ve makine öğrenimi hizmet yelpazesinde derin öğrenme iş yüklerini çalıştırmak için başvurulacak standart haline geldi. AWS ML hizmetlerinde çerçeveye özgü DLC'leri kullanmanın yanı sıra, geliştiricilerin derin öğrenme uygulamaları oluşturması ve sürdürmesi için gereken ağır yükü ortadan kaldıran Amazon EC2'de tek bir çerçeve de kullanabilirsiniz. bakın DLAMI için Sürüm Notları ve Kullanılabilir Derin Öğrenme Kapsayıcıları Resimleri Başlamak için.
Bu gönderi, AWS'de bir sonraki modelinizi eğitmek ve sunmak için birçok olanaktan birini gösterdi ve iş hedeflerinize ulaşmak için benimseyebileceğiniz birkaç formattan bahsetti. İşletmeniz için veri üretkenliğini artırmak üzere bu örneği deneyin veya diğer AWS ML hizmetlerimizi kullanın. Makine öğreniminde yeni olan müşterilerin AWS'de PyTorch 2.0'ı kullanmaya başlamanın ne kadar basit olduğunu anlayabilmesi için basit bir duyarlılık analizi sorunu ekledik. Gelecek blog gönderilerinde daha gelişmiş kullanım durumlarını, modelleri ve AWS teknolojilerini ele alacağız.
yazarlar hakkında
Kanwaljit Khurmi Amazon Web Services'ta Baş Çözüm Mimarıdır. AWS'yi kullanırken çözümlerinin değerini artırmalarına yardımcı olan rehberlik ve teknik yardım sağlamak için AWS müşterileriyle birlikte çalışır. Kanwaljit, kapsayıcılı ve makine öğrenimi uygulamalarında müşterilere yardımcı olma konusunda uzmanlaşmıştır.
Mike Schneider Phoenix AZ merkezli bir Sistem Geliştiricisidir. Graviton Inference'ı dahil etmek için çeşitli Çerçeve kapsayıcı görüntülerini destekleyen Derin Öğrenme kapsayıcılarının bir üyesidir. Kendisini altyapı verimliliğine ve istikrarına adamıştır.
Lai Wei Amazon Web Services'ta Kıdemli Yazılım Mühendisidir. Dağıtılmış model eğitimini hızlandırmak için kullanımı kolay, yüksek performanslı ve ölçeklenebilir derin öğrenme çerçeveleri oluşturmaya odaklanıyor. İş dışında ailesiyle vakit geçirmekten, yürüyüş yapmaktan ve kayak yapmaktan hoşlanıyor.
- SEO Destekli İçerik ve Halkla İlişkiler Dağıtımı. Bugün Gücünüzü Artırın.
- PlatoAiStream. Web3 Veri Zekası. Bilgi Genişletildi. Buradan Erişin.
- Adryenn Ashley ile Geleceği Basmak. Buradan Erişin.
- PREIPO® ile PRE-IPO Şirketlerinde Hisse Al ve Sat. Buradan Erişin.
- Kaynak: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :vardır
- :dır-dir
- :olumsuzluk
- :Neresi
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- %15
- 16
- 17
- 20
- 200
- 23
- 25
- %26
- 28
- 31
- 7
- 8
- 9
- a
- hızlandırmak
- hızlandırılmış
- hızlanan
- Kabul et
- erişim
- karşısında
- Action
- Adem
- eklemek
- katma
- benimsemek
- ileri
- Sonra
- karşı
- AI
- hizalamak
- hizalı
- Türkiye
- izin vermek
- Izin
- veriyor
- boyunca
- zaten
- Ayrıca
- Amazon
- Amazon EC2
- Amazon Web Servisleri
- AMD
- miktar
- an
- analiz
- çözümlemek
- ve
- açıkladı
- Başka
- herhangi
- api
- Uygulama
- uygulamaları
- yaklaşım
- yaklaşık olarak
- mimari
- ARE
- ALAN
- tartışma
- argümanlar
- yapay
- yapay zeka
- Yapay zeka (AI)
- AS
- Yardım
- At
- kullanılabilirliği
- mevcut
- ortalama
- AWS
- salıncak
- baz
- merkezli
- temel olarak
- BE
- Çünkü
- müşterimiz
- olmuştur
- önce
- başlamak
- arkasında
- kıyaslama
- kriterler
- Büyük
- milyarlarca
- BIN
- Blog
- Blog Yazıları
- vücut
- Alt
- Beyin
- geniş
- bütçe
- inşa etmek
- bina
- yapılı
- yerleşik
- yük
- iş
- işletmeler
- fakat
- by
- çağrı
- denilen
- çağrı
- CAN
- yetenekleri
- dava
- durumlarda
- CD
- değişiklik
- değiştirme
- seçim
- Klinik
- sınıflandırma
- müşteri
- bulut
- kod
- COM
- kombinasyon
- geliyor
- Yakın İletişim
- karşılaştırılabilir
- karşılaştırıldığında
- uyumlu
- tamamlamak
- hesaplamak
- bilgisayar
- Bilgisayar görüşü
- bilgisayar
- Sosyal medya
- Düşünmek
- oluşur
- konsolos
- Konteyner
- Konteynerler
- içerik
- içerik yaratımı
- kontrol
- çekirdek
- Ücret
- tasarruf
- maliyetler
- olabilir
- kaplama
- yaratmak
- çevrimiçi kurslar düzenliyorlar.
- oluşturma
- Tanıtım
- küratörlüğünü
- akım
- Müşteriler
- özelleştirmek
- veri
- Tarih
- Günler
- adanmış
- derin
- derin öğrenme
- Varsayılan
- gösteriyor
- bağlı
- dağıtmak
- konuşlandırılmış
- açılma
- dağıtımları
- tasarlanmış
- ayrıntılar
- gelişmiş
- Geliştirici
- geliştiriciler
- gelişme
- farklı
- özet
- tartışmak
- tartışılan
- dağıtıldı
- dağıtılmış eğitim
- çeşitli
- do
- liman işçisi
- yapılmış
- Dont
- indir
- indirme
- sürücü
- sürücüler
- sürme
- gereken
- dinamik
- her
- Daha erken
- kolaylaştırmak
- kolayca
- kolay
- Efekt
- etkili bir şekilde
- verim
- verimli biçimde
- çaba
- ya
- etkinleştirmek
- etkin
- şifreleme
- son
- Son nokta
- mühendis
- gelişmiş
- Baştan sona
- çevre
- çağ
- hata
- değerlendirmek
- değerlendirme
- Hatta
- hİÇ
- Her
- örnek
- mevcut
- Genişletmek
- beklemek
- deneyim
- keşfetmek
- üstel
- ihracat
- uzatmak
- uzanır
- kumaş
- Yüz
- aile
- Daha hızlı
- hızlı
- Özellikler
- az
- şekil
- fileto
- dosyalar
- son
- bulmak
- Ad
- uygun
- Esneklik
- yüzer
- odak
- odaklanma
- takip et
- takip etme
- İçin
- iskelet
- çerçeveler
- itibaren
- tamamen
- daha fazla
- oluşturmak
- oluşturulan
- nesil
- nesiller
- üretken
- üretken yapay zeka
- almak
- Git
- GitHub
- Vermek
- verir
- Küresel
- GPU
- GPU'lar
- grup
- Büyüme
- rehberlik
- Var
- sahip olan
- he
- ağır
- ağırlık kaldırma
- yardım
- yardımcı olur
- yüksek performans
- daha yüksek
- en yüksek
- onun
- tutar
- ev sahibi
- hosting
- Ne kadar
- Ancak
- HTML
- http
- HTTPS
- merkez
- Yüzlerce
- melez
- ID
- Kimlik
- if
- göstermektedir
- görüntü
- görüntüleri
- uygulamak
- uygulama
- ithalat
- iyileştirmek
- gelişmiş
- iyileşme
- iyileştirmeler
- geliştirme
- in
- dahil
- dahil
- içerir
- Dahil olmak üzere
- Artırmak
- artan
- bağımsız
- Endüstri
- Altyapı
- giriş
- kurmak
- yüklü
- yükleme
- örnek
- yerine
- talimatlar
- Entegre
- Intel
- İstihbarat
- içine
- Yatırımlar
- IP
- alay
- IT
- ONUN
- Mesleki Öğretiler
- jpg
- json
- anahtar
- etiket
- dil
- büyük
- büyük ölçekli
- büyük
- Gecikme
- son
- En son sürüm
- başlatmak
- İlanlar
- öğrenme
- sol
- kütüphaneler
- Kütüphane
- kaldırma
- sevmek
- Sınırlı
- çizgi
- linux
- Liste
- yük
- lokal olarak
- bulunan
- kilitli
- log
- giriş
- kayıp
- alt
- en düşük
- makine
- makine öğrenme
- korumak
- yapmak
- Yapımı
- yönetmek
- yönetilen
- çok
- matematik
- maksimum
- Mayıs..
- Neden
- üye
- Bellek
- birleştirmeleri
- Metadata
- yöntem
- Metrikleri
- milyon
- ML
- MLO'lar
- Moda
- model
- modelleri
- Modüller
- ay
- Daha
- hareketli
- çoklu
- isim
- Doğal (Madenden)
- Doğal Dil İşleme
- gerekli
- gerek
- gerekli
- ihtiyaçlar
- negatif
- ağ
- ağ
- Nötr
- yeni
- Yeni Özellikler
- Yeni teknolojiler
- sonraki
- düğümler
- notlar
- Fark etme..
- şimdi
- Nvidia
- hedefleri
- of
- saldırgan
- teklif
- teklif
- Teklifler
- on
- ONE
- açık kaynak
- açılır
- işletme
- optimizasyon
- optimize
- Opsiyonlar
- or
- orkestrasyon
- örgütsel
- OS
- Diğer
- Diğer
- bizim
- dışarı
- çıktı
- dışında
- kendi
- paket
- paketlenmiş
- parametreler
- Bölüm
- Patch
- Yama
- performans
- izin
- izinleri
- anka kuşu
- seçmek
- seçilmiş
- boru hattı
- platform
- Platon
- Plato Veri Zekası
- PlatoVeri
- Lütfen
- Nokta
- politikaları
- politika
- Popüler
- olanakları
- Çivi
- Mesajlar
- powered
- güçlü
- tahmin
- tahmin
- Tahminler
- Hazırlamak
- hazırlanması
- önkoşullar
- önceki
- Anapara
- Sorun
- süreç
- işleme
- işlemciler
- üretim
- verimlilik
- Ürünler
- proje
- Projeler
- özel
- kanıtlanmış
- sağlamak
- sağlar
- halka açık
- koymak
- Python
- pytorch
- hazır
- son
- geçenlerde
- yinelenen
- azaltmak
- bölge
- kayıt
- düzenli
- bağıl
- serbest
- güvenilir
- kalan
- Bildirilen
- gerektirir
- gereklidir
- Yer Alan Kurallar
- gerektirir
- kaynak
- yanıt
- kısıtlamaları
- sonuç
- dönüş
- yorum
- Rol
- kök
- koşmak
- koşu
- sagemaker
- SageMaker Çıkarımı
- aynı
- Tasarruf
- ölçeklenebilir
- ölçek
- taramak
- scikit-öğrenme
- kapsam
- Gol
- çizik
- scriptler
- Bölüm
- bölümler
- güvenli
- güvenlik
- görmek
- seçme
- seçim
- gönderme
- kıdemli
- duygu
- ayrı
- hizmet vermek
- hizmet
- Hizmetler
- Oturum
- set
- ayarlar
- kurulum
- Yedi
- birkaç
- SHA256
- Paylaşılan
- meli
- vitrin
- gösterdi
- gösterilen
- Gösteriler
- önemli
- Basit
- tek
- beden
- boyutları
- So
- Yazılım
- Yazılım Mühendisi
- çözüm
- Çözümler
- biraz
- uzay
- özel
- uzmanlaşmış
- özel
- özellikle
- hız
- hızları
- geçirmek
- Harcama
- istikrar
- yığın
- standart
- başlama
- başladı
- başlar
- Açıklama
- istatistik
- adım
- Basamaklar
- hafızası
- depolama seçenekleri
- stratejileri
- yapı
- böyle
- destek
- destekli
- Destek
- Destekler
- sistem
- Sistemler
- ısmarlama
- görevleri
- Teknik
- teknikleri
- Teknolojileri
- tensorflow
- test
- test edilmiş
- göre
- o
- The
- Alan
- ve bazı Asya
- Onları
- sonra
- Bunlar
- onlar
- işler
- Re-Tweet
- gerçi?
- İçinden
- verim
- aşama
- zaman
- zamanlar
- için
- araçlar
- meşale
- Tren
- eğitilmiş
- Eğitim
- transformatör
- transformatörler
- dönüşüm
- denemek
- Retweet
- tweets
- iki
- tip
- türleri
- tipik
- Ubuntu
- altında
- anlamak
- yaklaşan
- Güncelleme
- güncellenmiş
- yükseltmek
- Yüklenen
- kullanım
- kullanım
- kullanım durumu
- Kullanılmış
- kullanıcılar
- kullanma
- yarar
- değer
- çeşitlilik
- çeşitli
- doğrulamak
- versiyon
- vizyonumuz
- hacim
- güvenlik açıkları
- istemek
- we
- ağ
- web hizmetleri
- Haftalar
- ağırlık
- karşılama
- ne zaman
- hangi
- geniş ölçüde
- irade
- ile
- olmadan
- İş
- iş akışı
- çalışır
- yazmak
- yazı yazıyor
- X
- Sen
- zefirnet
- bölgeleri