Perakende, bankacılık, finans, sağlık, üretim ve borç verme gibi sektörlerdeki kuruluşlar genellikle haberler, bloglar, ürün incelemeleri, müşteri destek kanalları ve sosyal medya gibi çeşitli kaynaklardan gelen çok sayıda yapılandırılmamış metin belgesiyle uğraşmak zorunda kalır. Bu belgeler, önemli iş kararları vermenin anahtarı olan kritik bilgiler içerir. Bir kuruluş büyüdükçe, bu belgelerden kritik bilgileri çıkarmak zor bir iş haline gelir. Doğal dil işleme (NLP) ve makine öğrenimi (ML) tekniklerinin gelişmesiyle, bu metinsel belgelerden değerli içgörüleri ve bağlantıları hızlı ve yüksek doğrulukla ortaya çıkararak şirketlerin zamanında kaliteli iş kararları almasına yardımcı oluyoruz. Tamamen yönetilen NLP hizmetleri de NLP'nin benimsenmesini hızlandırdı. Amazon Kavramak herhangi bir makine öğrenimi uzmanlığına ihtiyaç duymadan gereksinimlerinize özel özel NLP modelleri oluşturmanıza olanak sağlayan, tam olarak yönetilen bir hizmettir.
Bu gönderide, beş farklı NLP görevini çözmek için en son makine öğrenimi tekniklerinin nasıl kullanılacağını gösteriyoruz: belge özetleme, metin sınıflandırma, soru yanıtlama, adlandırılmış varlık tanıma ve ilişki çıkarma. Bu NLP görevlerinin her biri için nasıl kullanılacağını gösteriyoruz. Amazon Adaçayı Yapıcı aşağıdaki eylemleri gerçekleştirmek için:
- Önceden eğitilmiş bir model üzerinde çıkarımı devreye alın ve çalıştırın
- Önceden eğitilmiş modelde yeni bir özel veri kümesinde ince ayar yapın
- ile ince ayar performansını daha da iyileştirin SageMaker otomatik model ayarı
- Çeşitli değerlendirme metrikleri ile uzatma testi verilerinde model performansını değerlendirin
Bu gönderide beş belirli NLP görevini ele almamıza rağmen, bu çözümü önceden eğitilmiş modellerin ince ayarını kendi veri kümenizle genelleştirmek için bir şablon olarak kullanabilir ve ardından doğruluğu artırmak için hiperparametre optimizasyonu çalıştırabilirsiniz.
JumpStart çözüm şablonları
Amazon SageMaker Hızlı Başlangıç birçok yaygın makine öğrenimi kullanım durumu için tek tıklamayla uçtan uca çözümler sunar. Kullanılabilir çözüm şablonları hakkında daha fazla bilgi için aşağıdaki kullanım durumlarını keşfedin:
JumpStart çözüm şablonları, her biri altında birkaç farklı çözüm şablonunun sunulduğu çeşitli kullanım durumlarını kapsar (bu Belge Anlama çözümü, "Belgelerden verileri ayıkla ve analiz et" kullanım örneği altındadır).
JumpStart açılış sayfasından kullanım durumunuza en uygun çözüm şablonunu seçin. Her bir kullanım durumu altındaki belirli çözümler ve bir JumpStart çözümünün nasıl başlatılacağı hakkında daha fazla bilgi için, bkz. Çözüm Şablonları.
Çözüme genel bakış
Aşağıdaki görüntü, bu çözümü SageMaker bileşenleriyle nasıl kullanabileceğinizi göstermektedir. SageMaker eğitim işleri, çeşitli NLP modelini eğitmek için kullanılır ve SageMaker uç noktaları, modelleri her aşamada dağıtmak için kullanılır. Kullanırız Amazon Basit Depolama Hizmeti (Amazon S3), eğitim verilerini ve model yapıtlarını depolamak için SageMaker ile birlikte ve Amazon Bulut İzleme eğitim ve uç nokta çıktılarını günlüğe kaydetmek için.
Belge Anlama çözümünü açın
JumpStart'ta Belge Anlama çözümüne gidin.
Şimdi demo not defterinden başlayarak bu çözüme dahil olan bazı varlıklara daha yakından bakabiliriz.
Demo not defteri
Belge özetleme ve soru yanıtlama görevleri için önceden konuşlandırılmış model uç noktalarına örnek veriler göndermek için demo not defterini kullanabilirsiniz. Demo not defteri, örnek verileri sorgulayarak hızlı bir şekilde uygulamalı deneyim elde etmenizi sağlar.
Belge Anlama çözümünü başlattıktan sonra, seçerek demo not defterini açın. Not Defterinde Uç Noktayı Kullan.
Bu çözüm için beş ana not defterinin her birini daha ayrıntılı olarak inceleyelim.
Önkoşullar
In Amazon SageMaker Stüdyosu, kullandığınızdan emin olun PyTorch 1.10 Python 3.8 CPU Optimized
not defterlerini açmak için image/kernel. Eğitim, beş ml.g4dn.2xlarge örneği kullanır, bu nedenle hizmet limiti artırma talebi hesabınız bu tür için artırılmış limitler gerektiriyorsa.
Metin sınıflandırması
Metin sınıflandırması, bir giriş cümlesinin eğitim veri kümesinin sınıf etiketlerinden birine göre sınıflandırılmasını ifade eder. Bu not defteri nasıl kullanılacağını gösterir JumpStart API'sı metin sınıflandırması için
Önceden eğitilmiş model üzerinde çıkarımı devreye alın ve çalıştırın
Kullanmayı seçtiğimiz metin sınıflandırma modeli, bir metin gömme (tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2
) modeli TensorFlow Merkezi, Wikipedia ve BookCorpus veri kümelerinde önceden eğitilmiştir.
Dağıtım için uygun olan model, metin gömme modelinin çıktısına bir ikili sınıflandırma katmanı eklenerek ve ardından modelin tamamında ince ayar yapılarak oluşturulur. SST-2 olumlu ve olumsuz film incelemelerinden oluşan veri kümesi.
Bu model üzerinde çıkarım yapmak için önce çıkarım kapsayıcısını indirmemiz gerekir (deploy_image_uri
), çıkarım betiği (deploy_source_uri
) ve önceden eğitilmiş model (base_model_uri
). Daha sonra bunları konuşlandırabileceğimiz bir SageMaker model nesnesini somutlaştırmak için parametre olarak iletiyoruz:
Aşağıdaki kod yanıtlarımızı gösterir:
Özel bir veri kümesinde önceden eğitilmiş modelde ince ayar yapın
Önceden eğitilmiş bir BERT modelinde çalışan çıkarımdan az önce geçtik. SST-2
Veri kümesi.
Ardından, herhangi bir sayıda sınıf içeren özel bir veri kümesinde bir modelde nasıl ince ayar yapılacağını tartışacağız. İnce ayar için kullandığımız veri seti hala SST-2
veri kümesi. Bu veri kümesini, ilgilendiğiniz herhangi bir veri kümesiyle değiştirebilirsiniz.
Eğitim Docker kapsayıcısını, eğitim algoritması kaynağını ve önceden eğitilmiş modeli alıyoruz:
Algoritmaya özgü hiperparametreler için, algoritmanın varsayılan değerleri ile kabul ettiği eğitim hiperparametrelerinin bir Python sözlüğünü getirerek başlıyoruz. Aşağıdaki kodda gösterildiği gibi bunları özel değerlerle geçersiz kılabilirsiniz:
veri seti (SST-2
) eğitim, doğrulama ve test setlerine ayrılır; burada eğitim seti modele uymak için kullanılır, doğrulama seti HPO için kullanılabilecek değerlendirme metriklerini hesaplamak için kullanılır ve test seti uzatma verileri olarak kullanılır Model performansını değerlendirmek için. Ardından, tren ve doğrulama veri seti Amazon S3'e yüklenir ve ince ayar eğitim işini başlatmak için kullanılır:
İnce ayar işi tamamlandıktan sonra, modeli dağıtırız, uzatma testi veri kümesi üzerinde çıkarım yaparız ve değerlendirme ölçümlerini hesaplarız. Bu bir ikili sınıflandırma görevi olduğundan, doğruluk puanı ve F1 skoru değerlendirme ölçütleri olarak Daha büyük bir değer, daha iyi performansı gösterir. Aşağıdaki ekran görüntüsü sonuçlarımızı göstermektedir.
SageMaker otomatik model ayarıyla ince ayar performansını daha da iyileştirin
Bu adımda, SageMaker otomatik model ayarıyla modelde ince ayar yaparak model performansını nasıl daha da iyileştirebileceğinizi gösteriyoruz. Hiperparametre optimizasyonu (HPO) olarak da bilinen otomatik model ayarlama, belirlediğiniz bir dizi hiperparametre ile veri kümenizde birden çok eğitim işi çalıştırarak bir modelin en iyi sürümünü bulur. Ardından, doğrulama veri kümesinde seçtiğiniz bir metrik tarafından ölçüldüğü üzere en iyi performansı gösteren bir modelle sonuçlanan hiperparametre değerlerini seçer.
İlk olarak, hedefi doğrulama verilerindeki doğruluk puanı olarak belirledik (val_accuracy
) ve objektif metrik adı ve bir normal ifade (regex) belirterek ayarlama işi için tanımlanmış metrikler. Normal ifade, algoritmanın günlük çıktısını eşleştirmek ve metriklerin sayısal değerlerini yakalamak için kullanılır. Ardından, en iyi hiperparametre değerlerini seçmek için hiperparametre aralıklarını belirliyoruz. Toplam tuning işi sayısını altı olarak belirledik ve bu işleri üç farklı işe dağıttık. Amazon Elastik Bilgi İşlem Bulutu Paralel ayarlama işlerini çalıştırmak için (Amazon EC2) bulut sunucuları. Aşağıdaki koda bakın:
Önceki ince ayar adımında yaptığımıza benzer şekilde, bir SageMaker Estimator nesnesini somutlaştırmak için bu değerleri iletiyoruz. aramak yerine fit
işlevi Estimator
nesneyi geçiyoruz Estimator
parametre olarak nesne HiperparametreTuner yapıcı ve çağırın fit
Ayarlama işlerini başlatma işlevi:
Ayarlama işleri tamamlandıktan sonra, doğrulama veri kümesinde en iyi değerlendirme metriği puanını veren modeli dağıtır, önceki bölümde yaptığımız aynı uzatma testi veri kümesinde çıkarım gerçekleştirir ve değerlendirme metriklerini hesaplarız.
Sonuçlar, otomatik model ayarıyla seçilen modelin, bir uzatma testi veri kümesinde önceki bölümde ince ayarı yapılan modelden önemli ölçüde daha iyi performans gösterdiğini gösteriyor.
Adlandırılmış varlık tanıma
Adlandırılmış varlık tanıma (NER), adlandırılmış varlıkları algılama ve kişilerin, kuruluşların, konumların ve miktarların adları gibi önceden tanımlanmış kategorilere ayırma işlemidir. Öneri motorları, müşteri destek biletlerinin sınıflandırılması ve doğru departmana atanması, sağlık hizmetlerindeki hasta raporlarından temel bilgilerin çıkarılması ve haber ve bloglardan içerik sınıflandırması gibi NER için birçok gerçek dünya kullanım durumu vardır.
Önceden eğitilmiş model üzerinde çıkarımı devreye alın ve çalıştırın
Biz konuşlandırıyoruz Tr_core_web_md model spacy kütüphane. spaCy, çeşitli görevler için kullanılabilen ve NER için yerleşik yöntemlere sahip açık kaynaklı bir NLP kitaplığıdır. Komut dosyası moduyla bir AWS PyTorch Derin Öğrenme Kapsayıcısı (DLC) kullanıyoruz ve kapsayıcının üstüne bir bağımlılık olarak spaCy kitaplığını yüklüyoruz.
Ardından, betik için bir giriş noktası (argüman entry_point.py
), indirmek ve yüklemek için tüm kodu içeren belirtilir. En_core_web_md
uç noktaya gönderilen verileri modelleyin ve bunlar üzerinde çıkarım yapın. Son olarak, hala sağlamamız gerekiyor model_data
çıkarım için önceden eğitilmiş model olarak. Çünkü önceden eğitilmiş En_core_web_md
giriş komut dosyasında belirtilen model anında indirildiğinde, boş bir arşiv dosyası sağlıyoruz. Uç nokta devreye alındıktan sonra, SageMaker Python SDK'sını kullanarak uç noktayı doğrudan not defterinden çağırabilirsiniz. Predictor
. Aşağıdaki koda bakın:
Model için girdi verileri metinsel bir belgedir. Adlandırılmış varlık modeli, metin belgesindeki isim parçalarını ve adlandırılmış varlıkları çıkarır ve bunları bir dizi farklı türde (insanlar, yerler ve kuruluşlar gibi) sınıflandırır. Örnek giriş ve çıkış aşağıdaki kodda gösterilmiştir. bu start_char
parametresi, aralığın başlangıcı için karakter ofsetini gösterir ve end_char
aralığın sonunu gösterir.
Özel bir veri kümesinde önceden eğitilmiş modelde ince ayar yapın
Bu adımda, kendi veri kümenizde NER için önceden eğitilmiş bir dil modeline nasıl ince ayar yapacağınızı gösteriyoruz. İnce ayar adımı, kendi verilerinizin özelliklerini yakalamak ve doğruluğu artırmak için model parametrelerini günceller. biz kullanıyoruz VikiANN ince ayar yapmak için (PAN-X) veri kümesi DistilBERT-baz-kasasız Hugging Face'den Transformer modeli.
Veri kümesi eğitim, doğrulama ve test kümelerine ayrılmıştır.
Ardından, modelin hiperparametrelerini belirliyoruz ve komut dosyası moduyla (bağımsız değişken) bir AWS Hugging Face DLC kullanıyoruz. entry_point
) ince ayar işini tetiklemek için:
İnce ayar işi tamamlandıktan sonra, bir uç nokta dağıtırız ve bu uç noktayı bekletme testi verileriyle sorgularız. Bitiş noktasını sorgulamak için, her bir metin dizisinin bir veya daha fazla belirteç halinde belirteçleştirilmesi ve dönüştürücü modele gönderilmesi gerekir. Her belirteç, tahmin edilen bir adlandırılmış varlık etiketi alır. Her bir metin dizesi bir veya daha fazla belirteç olarak belirtilebileceğinden, dizenin varlık etiketi adlı temel gerçeği kendisiyle ilişkilendirilmiş tüm belirteçlere çoğaltmamız gerekir. Sağlanan not defteri, bunu başarmak için size adım adım yol gösterir.
Son olarak, Hugging Face yerleşik değerlendirme metriklerini kullanıyoruz ardıl bekletme testi verilerinde değerlendirme puanlarını hesaplamak için. Kullanılan değerlendirme ölçütleri genel kesinlik, genel hatırlama, genel F1 ve doğruluktur. Aşağıdaki ekran görüntüsü sonuçlarımızı göstermektedir.
SageMaker otomatik model ayarıyla ince ayar performansını daha da iyileştirin
Metin sınıflandırmaya benzer şekilde, SageMaker otomatik model ayarıyla modelde ince ayar yaparak model performansını nasıl daha da iyileştirebileceğinizi gösteriyoruz. Ayarlama işini çalıştırmak için, doğrulama veri kümesindeki (bu durumda F1 puanı), en iyi hiperparametre değerlerini seçmek için hiperparametre aralıklarındaki model performansını değerlendirmek için kullanmak istediğimiz objektif bir metrik tanımlamamız ve ayrıca aşağıdaki gibi ayarlama işi yapılandırmaları tanımlamamız gerekir: Bir seferde başlatılacak maksimum ayarlama işi ve paralel iş sayısı:
Ayarlama işleri tamamlandıktan sonra, doğrulama veri kümesinde en iyi değerlendirme metriği puanını veren modeli dağıtır, önceki bölümde yaptığımız aynı uzatma testi veri kümesinde çıkarım gerçekleştirir ve değerlendirme metriklerini hesaplarız.
HPO'lu modelin tüm ölçümlerde önemli ölçüde daha iyi performans elde ettiğini görebiliriz.
Soru cevaplama
Belirli bilgiler için büyük miktarda metin sorgulamak istediğinizde soru yanıtlama yararlıdır. Bir kullanıcının bir soruyu doğal dilde ifade etmesine ve anında ve kısa bir yanıt almasına olanak tanır. NLP ile desteklenen soru yanıtlama sistemleri, arama motorlarında ve telefon görüşme arayüzlerinde kullanılabilir.
Önceden eğitilmiş model üzerinde çıkarımı devreye alın ve çalıştırın
Önceden eğitilmiş modelimiz, çıkarımsal soru yanıtlama (DKD) modelidir. bert-büyük-kasasız-tüm-kelime-maskeleme-ince ayarlı-takım Hugging Face'ten bir Transformer modeli üzerine inşa edilmiştir. Komut dosyası moduyla bir AWS PyTorch DLC kullanıyoruz ve transformatörler kitaplığı kabın üstüne bir bağımlılık olarak. NER görevine benzer şekilde, bağımsız değişkende boş bir arşiv dosyası sağlıyoruz model_data
çünkü önceden eğitilmiş model anında indirilir. Uç nokta devreye alındıktan sonra, SageMaker Python SDK'sını kullanarak uç noktayı doğrudan not defterinden çağırabilirsiniz. Predictor
. Aşağıdaki koda bakın:
Tek yapmamız gereken iki anahtarlı bir sözlük nesnesi oluşturmak. context
bilgi almak istediğimiz metindir. question
hangi bilgileri ayıklamak istediğimizi belirten doğal dil sorgusudur. Biz ararız predict
tahmincimize bağlı ve uç noktadan en olası yanıtları içeren bir yanıt almalıyız:
Yanıtı aldık ve önceki metinden çıkarılan en olası yanıtları yazdırabiliriz. Her yanıtın sıralama için kullanılan bir güven puanı vardır (ancak bu puan gerçek bir olasılık olarak yorumlanmamalıdır). Sözlü cevaba ek olarak, orijinal bağlamdan cevabın başlangıç ve bitiş karakter dizinlerini de alırsınız:
Şimdi daha iyi sonuçlar elde etmek için bu modele kendi özel veri kümemizle ince ayar yapıyoruz.
Özel bir veri kümesinde önceden eğitilmiş modelde ince ayar yapın
Bu adımda, kendi veri kümenizde EQA için önceden eğitilmiş bir dil modeline nasıl ince ayar yapacağınızı gösteriyoruz. İnce ayar adımı, kendi verilerinizin özelliklerini yakalamak ve doğruluğu artırmak için model parametrelerini günceller. biz kullanıyoruz SQuAD2.0 bir metin gömme modelinde ince ayar yapmak için veri kümesi bert-base-kasasız Hugging Face'ten. İnce ayar için mevcut olan model, metin gömme modeline bir yanıt ayıklama katmanı ekler ve katman parametrelerini rastgele değerlere sıfırlar. İnce ayar adımı, girdi verilerindeki tahmin hatasını en aza indirmek için tüm model parametrelerinde ince ayar yapar ve ince ayarlı modeli döndürür.
Metin sınıflandırma görevine benzer şekilde, veri kümesi (SQuAD2.0) eğitim, doğrulama ve test kümesine bölünmüştür.
Ardından, modelin hiperparametrelerini belirliyoruz ve JumpStart API'sı bir ince ayar işini tetiklemek için:
İnce ayar işi tamamlandıktan sonra, modeli dağıtırız, uzatma testi veri kümesi üzerinde çıkarım yaparız ve değerlendirme ölçümlerini hesaplarız. Kullanılan değerlendirme ölçütleri, ortalama tam eşleştirme puanı ve ortalama F1 puanıdır. Aşağıdaki ekran görüntüsü sonuçları göstermektedir.
SageMaker otomatik model ayarıyla ince ayar performansını daha da iyileştirin
Önceki bölümlere benzer şekilde, bir HyperparameterTuner
ayarlama işlerini başlatmak için nesne:
Ayarlama işleri tamamlandıktan sonra, doğrulama veri kümesinde en iyi değerlendirme metriği puanını veren modeli dağıtır, önceki bölümde yaptığımız aynı uzatma testi veri kümesinde çıkarım gerçekleştirir ve değerlendirme metriklerini hesaplarız.
HPO'lu modelin, uzatma testi verilerinde önemli ölçüde daha iyi performans gösterdiğini görebiliriz.
ilişki çıkarma
İlişki çıkarma, genellikle iki veya daha fazla varlık arasında meydana gelen anlamsal ilişkileri metinden çıkarma görevidir. İlişki çıkarımı, ham metin gibi yapılandırılmamış kaynaklardan yapılandırılmış bilgilerin çıkarılmasında önemli bir rol oynar. Bu not defterinde, ilişki ayıklamanın iki kullanım durumunu gösteriyoruz.
Özel bir veri kümesinde önceden eğitilmiş modelde ince ayar yapın
üzerine inşa edilmiş bir ilişki çıkarım modeli kullanıyoruz. BERT tabanlı kasasız trafo kullanan model Sarılma Yüz transformatörleri kütüphane. İnce ayar modeli, metin gömme modeli tarafından çıkarılan bir çift belirteç gömmeyi alan ve katman parametrelerini rasgele değerlere başlatan bir doğrusal sınıflandırma katmanı ekler. İnce ayar adımı, girdi verilerindeki tahmin hatasını en aza indirmek için tüm model parametrelerinde ince ayar yapar ve ince ayarlı modeli döndürür.
Modelde ince ayar yaptığımız veri kümesi SemEval-2010 Görev 8. İnce ayar tarafından döndürülen model, çıkarım için daha fazla konuşlandırılabilir.
Veri seti, eğitim, doğrulama ve test setlerini içerir.
AWS PyTorch DLC'yi SageMaker Python SDK'dan bir betik moduyla kullanıyoruz; transformers
kitaplık, kapsayıcının üstüne bağımlılık olarak kurulur. SageMaker'ı tanımlıyoruz PyTorch
ince ayarı gerçekleştirmek için tahmin edici ve önceden eğitilmiş model, öğrenme hızı ve dönem sayıları gibi bir dizi hiperparametre. İlişki çıkarma modelinde ince ayar yapma kodu, entry_point.py
. Aşağıdaki koda bakın:
SageMaker otomatik model ayarıyla ince ayar performansını daha da iyileştirin
Önceki bölümlere benzer şekilde, bir HyperparameterTuner
SageMaker hiperparametre ayarlama API'leri ile etkileşim kurmak için nesne. çağırarak hiperparametre ayarlama işini başlatabiliriz. fit
yöntem:
Hiperparametre ayarlama işi tamamlandığında çıkarım yapıyoruz ve değerlendirme puanını kontrol ediyoruz.
Bekletme test verilerinde HPO'lu modelin daha iyi performans gösterdiğini görebiliriz.
Belge özeti
Belge veya metin özetleme, büyük miktarda metin verisini, orijinal içerikteki en önemli veya ilgili bilgileri temsil eden anlamlı cümlelerin daha küçük bir alt kümesine yoğunlaştırma görevidir. Belge özetleme, önemli bilgileri büyük miktarda metin verisinden birkaç cümleye ayırmak için yararlı bir tekniktir. Metin özetleme, belge işleme ve bloglardan, makalelerden ve haberlerden bilgi çıkarma gibi birçok kullanım durumunda kullanılır.
Bu not defteri, belge özetleme modelinin konuşlandırılmasını gösterir. T5 tabanlı itibaren Sarılma Yüz transformatörleri kütüphane. Ayrıca bir metin makalesi kullanarak dağıtılan uç noktaları test ediyoruz ve Hugging Face yerleşik değerlendirme metriğini kullanarak sonuçları değerlendiriyoruz. ROUGE.
Soru cevaplama ve NER not defterlerine benzer şekilde, PyTorchModel
ile birlikte SageMaker Python SDK'dan entry_point.py
T5 tabanlı modeli bir HTTPS uç noktasına yüklemek için komut dosyası. Uç nokta başarıyla konuşlandırıldıktan sonra, bir tahmin yanıtı almak için uç noktaya bir metin makalesi gönderebiliriz:
Ardından, ROUGE metriğini kullanarak metin makalesini ve özetleme sonucunu değerlendirip karşılaştırıyoruz. Üç değerlendirme ölçütü hesaplanır: rougeN
, rougeL
, ve rougeLsum
. rougeN
eşleşen sayısını ölçer n-grams
model tarafından oluşturulan metin (özetleme sonucu) ile bir reference
(giriş metni). Metrikler rougeL
ve rougeLsum
oluşturulan ve referans özetlerinde en uzun ortak alt dizileri arayarak kelimelerin en uzun eşleşen dizilerini ölçün. Her metrik için kesinlik, hatırlama ve F1 puanı için güven aralıkları hesaplanır. Aşağıdaki koda bakın:
Temizlemek
Bu çözüm için oluşturulan kaynaklar kullanılarak silinebilir. Tüm kaynakları sil SageMaker Studio IDE'den düğme. Her not defteri ayrıca uç noktaları silmek için kodu içeren bir temizleme bölümü sağlar.
Sonuç
Bu gönderide, beş farklı NLP görevini çözmek için en son makine öğrenimi tekniklerinin nasıl kullanılacağını gösterdik: belge özetleme, metin sınıflandırma, soru ve yanıtlama, adlandırılmış varlık tanıma ve Jumpstart kullanarak ilişki çıkarma. Jumpstart'ı hemen kullanmaya başlayın!
Yazarlar Hakkında
Doktor Xin Huang Amazon SageMaker JumpStart ve Amazon SageMaker yerleşik algoritmaları için Uygulamalı Bilim Adamıdır. Ölçeklenebilir makine öğrenimi algoritmaları geliştirmeye odaklanmaktadır. Araştırma ilgi alanları, doğal dil işleme, tablo verileri üzerinde açıklanabilir derin öğrenme ve parametrik olmayan uzay-zaman kümelemesinin sağlam analizidir. ACL, ICDM, KDD konferansları ve Royal Statistical Society: Series A dergisinde birçok makalesi yayınlanmıştır.
Vivek Gangasani Amazon Web Services'ta Kıdemli Makine Öğrenimi Çözümleri Mimarıdır. Startup'ların AI/ML uygulamalarını oluşturmasına ve çalıştırmasına yardımcı olur. Şu anda MLOps, ML Inference ve düşük kodlu ML'de çözümler sunmak için Konteynerler ve Makine Öğrenimindeki geçmişini birleştirmeye odaklanmıştır. Boş zamanlarında yeni restoranlar denemekten ve yapay zeka ve derin öğrenmede ortaya çıkan trendleri keşfetmekten keyif alıyor.
Geremy Cohen AWS'ye sahip bir Çözüm Mimarıdır ve müşterilerin en yeni, bulut tabanlı çözümler oluşturmasına yardımcı olur. Boş zamanlarında sahilde kısa yürüyüşler yapmaktan, ailesiyle körfez bölgesini keşfetmekten, evin etrafındaki şeyleri tamir etmekten, evin etrafındaki şeyleri kırmaktan ve barbekü yapmaktan hoşlanıyor.
Neelam Koshiya AWS'de kurumsal çözüm mimarıdır. Şu anki odak noktası, kurumsal müşterilere stratejik iş sonuçları için bulut benimseme yolculuklarında yardımcı olmaktır. Boş zamanlarında okumaktan ve dışarıda olmaktan hoşlanır.
- Gelişmiş (300)
- AI
- yapay zeka
- AI sanat üreteci
- yapay zeka robotu
- Amazon Adaçayı Yapıcı
- Amazon SageMaker Hızlı Başlangıç
- yapay zeka
- yapay zeka sertifikası
- bankacılıkta yapay zeka
- yapay zeka robotu
- yapay zeka robotları
- yapay zeka yazılımı
- AWS Makine Öğrenimi
- blockchain
- blockchain konferans ai
- zeka
- konuşma yapay zekası
- kripto konferans ai
- dal-e
- derin öğrenme
- Uzman (400)
- google ai
- makine öğrenme
- Platon
- plato yapay zekası
- Plato Veri Zekası
- Plato Oyunu
- PlatoVeri
- plato oyunu
- ölçek ai
- sözdizimi
- zefirnet