ในโพสต์นี้ เราจะแสดงให้คุณเห็นถึงวิธีการใช้โมเดลที่ได้รับการฝึกฝนล่วงหน้าของ Hugging Face ที่ดาวน์โหลดมากที่สุดซึ่งใช้ในการสรุปข้อความ กลั่นBART-CNN-12-6, ภายในสมุดบันทึก Jupyter โดยใช้ อเมซอน SageMaker และ ชุดเครื่องมืออนุมานใบหน้ากอด SageMaker. ตามขั้นตอนที่แสดงในโพสต์นี้ คุณสามารถลองสรุปข้อความจาก วิกิข้อความ-2 ชุด จัดการโดย fast.ai, มีจำหน่ายที่ การลงทะเบียนข้อมูลเปิดบน AWS.
ปริมาณข้อมูลทั่วโลกกำลังเติบโตในระดับเซตตะไบต์ เนื่องจากบริษัทและผู้บริโภคขยายการใช้ผลิตภัณฑ์ดิจิทัลและบริการออนไลน์ เพื่อให้เข้าใจข้อมูลที่เพิ่มขึ้นนี้ได้ดีขึ้น เทคนิคการประมวลผลภาษาธรรมชาติ (NLP) ของแมชชีนเลิร์นนิง (ML) สำหรับการวิเคราะห์ข้อความได้พัฒนาขึ้นเพื่อจัดการกับกรณีการใช้งานที่เกี่ยวข้องกับการสรุปข้อความ การจดจำเอนทิตี การจัดประเภท การแปล และอื่นๆ AWS เสนอการฝึกอบรมล่วงหน้า บริการ AWS AI ที่สามารถรวมเข้ากับแอปพลิเคชันโดยใช้การเรียก API และไม่จำเป็นต้องมีประสบการณ์ ML ตัวอย่างเช่น, เข้าใจ Amazon สามารถทำงาน NLP เช่น การรู้จำเอนทิตีแบบกำหนดเอง การวิเคราะห์ความคิดเห็น การแยกวลีสำคัญ การสร้างแบบจำลองหัวข้อ และอื่นๆ เพื่อรวบรวมข้อมูลเชิงลึกจากข้อความ สามารถทำได้ การวิเคราะห์ข้อความในภาษาที่หลากหลาย สำหรับคุณสมบัติต่างๆ
การสรุปข้อความเป็นเทคนิคที่เป็นประโยชน์ในการทำความเข้าใจข้อมูลข้อความจำนวนมาก เนื่องจากจะสร้างชุดย่อยของข้อมูลที่มีความหมายตามบริบทจากเอกสารต้นฉบับ คุณสามารถใช้เทคนิค NLP นี้กับเอกสารข้อความและบทความที่มีรูปแบบยาวขึ้น ทำให้การบริโภคเร็วขึ้นและจัดทำดัชนีเอกสารได้อย่างมีประสิทธิภาพมากขึ้น ตัวอย่างเช่น เพื่อสรุปบันทึกการโทรจากการประชุม
กอดหน้า เป็นไลบรารีโอเพนซอร์ซยอดนิยมสำหรับ NLP โดยมีโมเดลที่ผ่านการฝึกอบรมมาแล้วกว่า 49,000 รุ่นในมากกว่า 185 ภาษา พร้อมรองรับเฟรมเวิร์กที่แตกต่างกัน AWS และ Hugging Face มี ห้างหุ้นส่วน ที่อนุญาตการผสานรวมอย่างราบรื่นผ่าน SageMaker กับชุด AWS Deep Learning Containers (DLC) สำหรับการฝึกอบรมและการอนุมานใน PyTorch หรือ TensorFlow และตัวประมาณการและตัวคาดการณ์ของ Hugging Face สำหรับ SageMaker Python SDK ความสามารถเหล่านี้ใน SageMaker ช่วยให้นักพัฒนาและนักวิทยาศาสตร์ข้อมูลเริ่มต้นใช้งาน NLP บน AWS ได้ง่ายขึ้น การประมวลผลข้อความด้วยหม้อแปลงไฟฟ้าในเฟรมเวิร์กการเรียนรู้เชิงลึก เช่น PyTorch มักจะเป็นงานที่ซับซ้อนและใช้เวลานานสำหรับนักวิทยาศาสตร์ด้านข้อมูล ซึ่งมักจะนำไปสู่ความยุ่งยากและขาดประสิทธิภาพในการพัฒนาโครงการ NLP การเพิ่มขึ้นของชุมชน AI เช่น Hugging Face รวมกับพลังของบริการ ML ในระบบคลาวด์ เช่น SageMaker จะช่วยเร่งความเร็วและทำให้การพัฒนางานประมวลผลข้อความเหล่านี้ง่ายขึ้น SageMaker ช่วยให้คุณสร้าง ฝึกฝน ปรับใช้ และใช้งานโมเดล Hugging Face
ภาพรวมการสรุปข้อความ
คุณสามารถใช้การสรุปข้อความเพื่อระบุประโยคสำคัญภายในเอกสารหรือระบุประโยคสำคัญในเอกสารหลายฉบับ การสรุปข้อความสามารถสร้างการสรุปได้สองประเภท: การแยกส่วนและนามธรรม ข้อมูลสรุปแบบแยกส่วนไม่มีข้อความที่เครื่องสร้างขึ้นและเป็นชุดของประโยคสำคัญที่เลือกจากเอกสารที่ป้อน บทสรุปเชิงนามธรรมประกอบด้วยวลีและประโยคที่มนุษย์อ่านได้ซึ่งสร้างขึ้นโดยแบบจำลองการสรุปข้อความ ระบบการสรุปข้อความส่วนใหญ่ใช้การสรุปแบบแยกส่วน เพราะการสรุปข้อความเชิงนามธรรมที่แม่นยำนั้นทำได้ยาก
Hugging Face มีอุปกรณ์ล้ำสมัยที่ผ่านการฝึกอบรมมาแล้วกว่า 400 รายการ รูปแบบการสรุปข้อความที่มีอยู่การนำเทคนิค NLP มาใช้ร่วมกัน โมเดลเหล่านี้ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลต่างๆ อัปโหลดและดูแลโดยบริษัทเทคโนโลยีและสมาชิกของชุมชน Hugging Face คุณสามารถกรองโมเดลตามการดาวน์โหลดมากที่สุดหรือชอบมากที่สุด และโหลดโดยตรงเมื่อใช้ ไปป์ไลน์การสรุป Hugging Face Transformer API. หม้อแปลง Hugging Face ช่วยลดความยุ่งยากในกระบวนการปรับใช้ NLP เพื่อให้สามารถปรับแต่งโมเดล NLP ที่มีประสิทธิภาพสูงเพื่อส่งสรุปข้อความ โดยไม่ต้องมีความรู้ด้านการทำงานของ ML อย่างกว้างขวาง
โมเดลการสรุปข้อความกอดใบหน้าบน AWS
SageMaker เสนอตัวเลือกเครื่องมือให้กับนักวิเคราะห์ธุรกิจ นักวิทยาศาสตร์ข้อมูล และวิศวกร MLOps เพื่อออกแบบและดำเนินการปริมาณงาน ML บน AWS เครื่องมือเหล่านี้ช่วยให้คุณใช้งานและทดสอบโมเดล ML ได้เร็วขึ้น เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด
จาก ชุดเครื่องมืออนุมานใบหน้ากอด SageMakerซึ่งเป็นไลบรารีโอเพนซอร์ซ เราได้สรุปวิธีการใช้งานและโฮสต์โมเดลการสรุปข้อความ Hugging Face โดยใช้โน้ตบุ๊ก Jupyter สามวิธี:
- ไปป์ไลน์สรุปใบหน้ากอด - สร้าง ไปป์ไลน์สรุปใบหน้ากอด ใช้ "
summarization
ตัวระบุงานเพื่อใช้รูปแบบการสรุปข้อความเริ่มต้นสำหรับการอนุมานภายในสมุดบันทึก Jupyter ของคุณ ไปป์ไลน์เหล่านี้ตัดทอนโค้ดที่ซับซ้อนออกไป ทำให้ผู้ปฏิบัติงาน ML มือใหม่มี API แบบง่ายเพื่อใช้งานการสรุปข้อความอย่างรวดเร็วโดยไม่ต้องกำหนดค่าจุดสิ้นสุดการอนุมาน ไปป์ไลน์ยังช่วยให้ผู้ปฏิบัติงาน ML สามารถเลือกแบบจำลองก่อนการฝึกอบรมที่เฉพาะเจาะจงและโทเค็นไลเซอร์ที่เกี่ยวข้องได้ Tokenizers เตรียมข้อความให้พร้อมเป็นอินพุตสำหรับโมเดลโดยแยกข้อความออกเป็นคำหรือคำย่อย ซึ่งจะถูกแปลงเป็น ID ผ่านตารางค้นหา เพื่อความง่าย ข้อมูลโค้ดต่อไปนี้จัดเตรียมกรณีเริ่มต้นเมื่อใช้ไพพ์ไลน์ ดิ กลั่นBART-CNN-12-6 โมเดลเป็นหนึ่งในโมเดลสรุปที่ดาวน์โหลดมากที่สุดใน Hugging Face และเป็น โมเดลเริ่มต้นสำหรับไปป์ไลน์การสรุปผล. บรรทัดสุดท้ายเรียกโมเดลที่ฝึกไว้ล่วงหน้าเพื่อรับข้อมูลสรุปสำหรับข้อความที่ส่งผ่านโดยให้อาร์กิวเมนต์สองตัวที่ให้มา - ตำแหน่งข้อมูล SageMaker พร้อมโมเดลที่ผ่านการฝึกอบรมมาแล้ว – สร้างจุดสิ้นสุด SageMaker ด้วยโมเดลที่ผ่านการฝึกอบรมล่วงหน้าจาก กอดหน้านางแบบฮับ และปรับใช้บนจุดสิ้นสุดการอนุมาน เช่น อินสแตนซ์ ml.m5.xlarge ในข้อมูลโค้ดต่อไปนี้ วิธีนี้ช่วยให้ผู้ปฏิบัติงาน ML ที่มีประสบการณ์สามารถเลือกโมเดลโอเพนซอร์สที่เฉพาะเจาะจง ปรับแต่ง และปรับใช้โมเดลบนอินสแตนซ์การอนุมานที่มีประสิทธิภาพสูงได้อย่างรวดเร็ว
- ตำแหน่งข้อมูล SageMaker พร้อมโมเดลที่ผ่านการฝึกอบรม – สร้างจุดสิ้นสุดของโมเดล SageMaker ด้วยโมเดลที่ผ่านการฝึกอบรมซึ่งจัดเก็บไว้ในan บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon บัคเก็ต (Amazon S3) และปรับใช้บนจุดสิ้นสุดการอนุมาน วิธีนี้ช่วยให้ผู้ปฏิบัติงาน ML ที่มีประสบการณ์สามารถปรับใช้โมเดลของตนเองที่จัดเก็บไว้ใน Amazon S3 ได้อย่างรวดเร็วบนอินสแตนซ์การอนุมานที่มีประสิทธิภาพสูง ตัวโมเดลนั้นถูกดาวน์โหลดจาก Hugging Face และบีบอัด จากนั้นสามารถอัปโหลดไปยัง Amazon S3 ได้ ขั้นตอนนี้แสดงให้เห็นในข้อมูลโค้ดต่อไปนี้:
AWS มีแหล่งข้อมูลมากมายที่จะช่วยคุณในการปรับใช้ปริมาณงาน ML ของคุณ ดิ เลนส์การเรียนรู้ของเครื่อง ของ กรอบงานสถาปัตยกรรมอย่างดีของ AWS แนะนำแนวทางปฏิบัติที่ดีที่สุดสำหรับเวิร์กโหลด ML รวมถึงการเพิ่มประสิทธิภาพทรัพยากรและลดต้นทุน หลักการออกแบบที่แนะนำเหล่านี้ช่วยให้แน่ใจว่าปริมาณงาน ML ที่ออกแบบอย่างดีบน AWS ถูกปรับใช้กับการผลิต ผู้แนะนำการอนุมานของ Amazon SageMaker ช่วยให้คุณเลือกอินสแตนซ์ที่เหมาะสมในการปรับใช้โมเดล ML ของคุณด้วยประสิทธิภาพและต้นทุนการอนุมานที่เหมาะสมที่สุด Inference Recommender ช่วยเพิ่มความเร็วในการปรับใช้โมเดลและลดเวลาในการออกสู่ตลาดโดยการทดสอบโหลดอัตโนมัติและเพิ่มประสิทธิภาพการทำงานของโมเดลในอินสแตนซ์ ML
ในหัวข้อถัดไป เราสาธิตวิธีโหลดโมเดลที่ได้รับการฝึกจากบัคเก็ต S3 และปรับใช้กับอินสแตนซ์การอนุมานที่เหมาะสม
เบื้องต้น
สำหรับคำแนะนำนี้ คุณควรมีข้อกำหนดเบื้องต้นต่อไปนี้:
- An บัญชี AWS.
- สมุดบันทึก Jupyter ภายใน สตูดิโอ Amazon SageMaker หรืออินสแตนซ์โน้ตบุ๊ก SageMaker ในโพสต์นี้ เราใช้รูปภาพ "Python 3 (PyTorch 1.4 Python 3.6 CPU Optimized)" พร้อมข้อมูลโค้ดที่ให้มา แต่คุณสามารถใช้รูปภาพ PyTorch เวอร์ชันที่สูงกว่าจาก เมล็ด SageMaker ที่มีจำหน่าย.
- ชุดข้อมูลในบัคเก็ต S3 ของคุณ เช่น the วิกิข้อความ-2 ชุดข้อมูลจาก การลงทะเบียนข้อมูลเปิดบน AWS.
โหลดโมเดล Hugging Face ไปยัง SageMaker สำหรับการอนุมานข้อความสรุป
ใช้รหัสต่อไปนี้เพื่อดาวน์โหลดแบบจำลองการสรุปข้อความที่ฝึกไว้ล่วงหน้าของ Hugging Face กลั่นBART-CNN-12-6 และ tokenizer ของมัน และบันทึกไว้ใน SageMaker ไปยังไดเร็กทอรีสมุดบันทึก Jupyter ของคุณ:
บีบอัดโมเดลการสรุปข้อความที่บันทึกไว้และ tokenizer เป็นรูปแบบ tar.gz และอัปโหลดสิ่งประดิษฐ์ของโมเดลที่บีบอัดไปยังบัคเก็ต S3:
เลือก a การอนุมานอิมเมจคอนเทนเนอร์ Docker เพื่อทำการอนุมานข้อความสรุป กำหนดระบบปฏิบัติการ Linux, เฟรมเวิร์ก PyTorch และเวอร์ชัน Hugging Face Transformer และระบุ อเมซอน อีลาสติก คอมพิวท์ คลาวด์ ประเภทอินสแตนซ์ (Amazon EC2) เพื่อเรียกใช้คอนเทนเนอร์
อิมเมจ Docker มีอยู่ใน การลงทะเบียน Amazon Elastic Container (Amazon ECR) ของบัญชี AWS เดียวกัน และลิงก์สำหรับอิมเมจคอนเทนเนอร์นั้นจะถูกส่งคืนเป็น URI
กำหนดรูปแบบการสรุปข้อความที่จะปรับใช้โดยการอนุมานอิมเมจคอนเทนเนอร์ที่เลือกไว้ ในข้อมูลโค้ดต่อไปนี้ โมเดลบีบอัดที่อัปโหลดไปยัง Amazon S3 จะถูกปรับใช้:
ทดสอบโมเดลการสรุปข้อความที่ปรับใช้กับอินพุตตัวอย่าง:
ใช้ Inference Recommender เพื่อประเมินอินสแตนซ์ EC2 ที่เหมาะสมที่สุดสำหรับงานอนุมาน
ถัดไป สร้างตัวอย่างข้อความอินพุตหลายรายการในรูปแบบ JSON และบีบอัดเป็นไฟล์เพย์โหลดไฟล์เดียว ตัวอย่างเพย์โหลดเหล่านี้ถูกใช้โดย Inference Recommender เพื่อเปรียบเทียบประสิทธิภาพการอนุมานระหว่างประเภทอินสแตนซ์ EC2 ที่แตกต่างกัน เพย์โหลดตัวอย่างแต่ละรายการต้องตรงกับรูปแบบ JSON ที่แสดงไว้ก่อนหน้านี้ คุณสามารถรับตัวอย่างจาก วิกิข้อความ-2 ชุด จัดการโดย fast.ai, มีจำหน่ายที่ การลงทะเบียนข้อมูลเปิดบน AWS.
อัปโหลดสิ่งประดิษฐ์โมเดลการสรุปข้อความที่บีบอัดและไฟล์เพย์โหลดตัวอย่างที่บีบอัดไปยังบัคเก็ต S3 เราอัปโหลดแบบจำลองในขั้นตอนก่อนหน้านี้ แต่เพื่อความชัดเจน เราได้รวมรหัสเพื่ออัปโหลดอีกครั้ง:
ตรวจสอบรายการรุ่น ML มาตรฐานที่มีใน SageMaker ทั่ว สวนสัตว์จำลองทั่วไปเช่น NLP และคอมพิวเตอร์วิทัศน์ เลือกโมเดล NLP เพื่อทำการอนุมานข้อความสรุป:
ตัวอย่างต่อไปนี้ใช้ bert-base-cased
แบบจำลอง NLP ลงทะเบียนรูปแบบการสรุปข้อความลงใน การลงทะเบียนรุ่น SageMaker ด้วยโดเมน กรอบงาน และงานที่ระบุอย่างถูกต้องจากขั้นตอนที่แล้ว พารามิเตอร์สำหรับตัวอย่างนี้จะแสดงที่จุดเริ่มต้นของข้อมูลโค้ดต่อไปนี้
สังเกตช่วงของประเภทอินสแตนซ์ EC2 ที่จะประเมินโดย Inference Recommender ภายใต้ SupportedRealtimeInferenceInstanceTypes
ในรหัสต่อไปนี้ ตรวจสอบให้แน่ใจว่า ขีดจำกัดบริการสำหรับบัญชี AWS อนุญาตให้ปรับใช้โหนดอนุมานประเภทนี้
สร้างงานเริ่มต้นของผู้แนะนำการอนุมานโดยใช้ ModelPackageVersion
อันเป็นผลจากขั้นตอนที่แล้ว ดิ uuid
ไลบรารี Python ถูกใช้เพื่อสร้างชื่อเฉพาะสำหรับงาน
คุณสามารถรับสถานะของงาน Inference Recommender ได้โดยการรันโค้ดต่อไปนี้:
เมื่อสถานะงานคือ COMPLETED
เปรียบเทียบเวลาแฝงการอนุมาน รันไทม์ และตัววัดอื่นๆ ของประเภทอินสแตนซ์ EC2 ที่ประเมินโดยงานเริ่มต้นของผู้แนะนำการอนุมาน เลือกประเภทโหนดที่เหมาะสมตามความต้องการกรณีการใช้งานของคุณ
สรุป
SageMaker มีหลายวิธีในการใช้โมเดล Hugging Face สำหรับตัวอย่างเพิ่มเติม โปรดดูที่ ตัวอย่าง AWS GitHub. คุณสามารถเลือกวิธีที่ดีที่สุดในการใช้โมเดลเหล่านี้ได้ ทั้งนี้ขึ้นอยู่กับความซับซ้อนของกรณีการใช้งานและความจำเป็นในการปรับแต่งโมเดล ท่อส่ง Hugging Face อาจเป็นจุดเริ่มต้นที่ดีในการทดลองและเลือกรุ่นที่เหมาะสมอย่างรวดเร็ว เมื่อคุณต้องการปรับแต่งและสร้างพารามิเตอร์ให้กับโมเดลที่เลือก คุณสามารถดาวน์โหลดโมเดลและปรับใช้โมเดลเหล่านี้ไปยังปลายทางการอนุมานที่ปรับแต่งได้ หากต้องการปรับแต่งโมเดลอย่างละเอียดมากขึ้นสำหรับกรณีการใช้งานเฉพาะ คุณจะต้องฝึกโมเดลหลังจากดาวน์โหลด
โมเดล NLP โดยทั่วไป รวมถึงโมเดลการสรุปข้อความ จะทำงานได้ดีขึ้นหลังจากได้รับการฝึกกับชุดข้อมูลที่เฉพาะเจาะจงสำหรับกรณีการใช้งาน MLOP และคุณลักษณะการตรวจสอบโมเดลของ SageMaker ตรวจสอบให้แน่ใจว่าโมเดลที่ปรับใช้ยังคงทำงานภายใต้ความคาดหวัง ในโพสต์นี้ เราใช้ Inference Recommender เพื่อประเมินประเภทอินสแตนซ์ที่เหมาะสมที่สุดในการปรับใช้โมเดลการสรุปข้อความ คำแนะนำเหล่านี้สามารถปรับประสิทธิภาพและต้นทุนให้เหมาะสมสำหรับกรณีการใช้งาน ML ของคุณ
เกี่ยวกับผู้เขียน
ดร.นิดาล อัลเบรูติ เป็นสถาปนิกโซลูชันอาวุโสที่ Amazon Web Services ด้วยความหลงใหลในโซลูชันแมชชีนเลิร์นนิง Nidal มีประสบการณ์มากกว่า 25 ปีในการทำงานในบทบาทไอทีระดับโลกที่หลากหลายในระดับและแนวดิ่งที่แตกต่างกัน Nidal ทำหน้าที่เป็นที่ปรึกษาที่เชื่อถือได้สำหรับลูกค้า AWS จำนวนมากในการสนับสนุนและเร่งเส้นทางการนำระบบคลาวด์ไปใช้
ดาร์เรน โค เป็นสถาปนิกโซลูชั่นที่ตั้งอยู่ในลอนดอน เขาแนะนำลูกค้า SMB ในสหราชอาณาจักรและไอร์แลนด์เกี่ยวกับการปรับโครงสร้างใหม่และสร้างสรรค์บนคลาวด์ Darren สนใจในแอปพลิเคชันที่สร้างด้วยสถาปัตยกรรมแบบไร้เซิร์ฟเวอร์ และเขาหลงใหลในการแก้ปัญหาด้านความยั่งยืนด้วยแมชชีนเลิร์นนิง
- '
- "
- 000
- 10
- 100
- 28
- a
- เกี่ยวกับเรา
- บทคัดย่อ
- เร่งความเร็ว
- ลงชื่อเข้าใช้
- ถูกต้อง
- บรรลุ
- ข้าม
- ที่อยู่
- การนำมาใช้
- กุนซือ
- AI
- ช่วยให้
- อเมซอน
- Amazon Web Services
- จำนวน
- การวิเคราะห์
- API
- Apple
- การใช้งาน
- ใช้
- ข้อโต้แย้ง
- บทความ
- ที่เกี่ยวข้อง
- โดยอัตโนมัติ
- ใช้ได้
- ที่ได้รับรางวัล
- AWS
- เพราะ
- การเริ่มต้น
- กำลัง
- ที่ดีที่สุด
- ปฏิบัติที่ดีที่สุด
- ระหว่าง
- สร้าง
- ธุรกิจ
- โทรศัพท์
- สามารถรับ
- ความสามารถในการ
- กรณี
- กรณี
- ความท้าทาย
- ทางเลือก
- ชั้น
- การจัดหมวดหมู่
- เมฆ
- รหัส
- ชุด
- รวม
- รวม
- ชุมชน
- ชุมชน
- บริษัท
- ซับซ้อน
- คำนวณ
- คอมพิวเตอร์
- องค์ประกอบ
- ผู้บริโภค
- การบริโภค
- ภาชนะ
- ภาชนะบรรจุ
- อย่างต่อเนื่อง
- สร้าง
- สร้าง
- ประเพณี
- ลูกค้า
- ปรับแต่ง
- ข้อมูล
- วัน
- ลึก
- การจัดส่ง
- สาธิต
- แสดงให้เห็นถึง
- ทั้งนี้ขึ้นอยู่กับ
- ปรับใช้
- นำไปใช้
- ปรับใช้
- การใช้งาน
- ออกแบบ
- นักพัฒนา
- ที่กำลังพัฒนา
- พัฒนาการ
- ต่าง
- ยาก
- ดิจิตอล
- โดยตรง
- แสดง
- นักเทียบท่า
- คุณหมอ
- เอกสาร
- โดเมน
- โดเมน
- ดาวน์โหลด
- แต่ละ
- อย่างง่ายดาย
- มีประสิทธิภาพ
- อย่างมีประสิทธิภาพ
- การเปิดใช้งาน
- ปลายทาง
- วิศวกร
- เอกลักษณ์
- สิ่งแวดล้อม
- ประเมินค่า
- ตัวอย่าง
- ตัวอย่าง
- แสดง
- ความคาดหวัง
- ประสบการณ์
- มีประสบการณ์
- การทดลอง
- กว้างขวาง
- ใบหน้า
- FAST
- เร็วขึ้น
- คุณสมบัติ
- ดังต่อไปนี้
- รูป
- กรอบ
- กรอบ
- ราคาเริ่มต้นที่
- General
- สร้าง
- สร้าง
- เหตุการณ์ที่
- ดี
- การเจริญเติบโต
- ช่วย
- เป็นประโยชน์
- จะช่วยให้
- สูงกว่า
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- HTTPS
- Hub
- มนุษย์สามารถอ่านได้
- แยกแยะ
- ภาพ
- การดำเนินการ
- การดำเนินงาน
- การดำเนินการ
- สำคัญ
- ประกอบด้วย
- รวมทั้ง
- ข้อมูล
- นวัตกรรม
- อินพุต
- ข้อมูลเชิงลึก
- ตัวอย่าง
- แบบบูรณาการ
- บูรณาการ
- สนใจ
- ไอร์แลนด์
- IT
- ตัวเอง
- การสัมภาษณ์
- การเดินทาง
- คีย์
- ความรู้
- ภาษา
- ภาษา
- ใหญ่
- ชั้นนำ
- การเรียนรู้
- ระดับ
- ห้องสมุด
- ขีด จำกัด
- Line
- LINK
- ลินุกซ์
- รายการ
- โหลด
- ในท้องถิ่น
- ลอนดอน
- ค้นหา
- เครื่อง
- เรียนรู้เครื่อง
- ทำ
- ตลาด
- การจับคู่
- มีความหมาย
- การประชุม
- สมาชิก
- ตัวชี้วัด
- ML
- แบบ
- โมเดล
- การตรวจสอบ
- ข้อมูลเพิ่มเติม
- มากที่สุด
- หลาย
- โดยธรรมชาติ
- ถัดไป
- โหนด
- สมุดบันทึก
- หมายเหตุ / รายละเอียดเพิ่มเติม
- การเสนอ
- เสนอ
- ออนไลน์
- เปิด
- ทำงาน
- การดำเนินการ
- เพิ่มประสิทธิภาพ
- การปรับให้เหมาะสม
- การเพิ่มประสิทธิภาพ
- อื่นๆ
- ของตนเอง
- กิเลส
- หลงใหล
- การปฏิบัติ
- ที่มีประสิทธิภาพ
- วลี
- จุด
- ยอดนิยม
- อำนาจ
- เตรียมการ
- ก่อน
- กระบวนการ
- การประมวลผล
- ก่อ
- การผลิต
- ผลิตภัณฑ์
- โครงการ
- ให้
- ให้
- ให้
- อย่างรวดเร็ว
- พิสัย
- แนะนำ
- ลด
- ภูมิภาค
- ทะเบียน
- ขอ
- ต้องการ
- ความต้องการ
- แหล่งข้อมูล
- ส่งผลให้
- บทบาท
- วิ่ง
- วิ่ง
- เดียวกัน
- ขนาด
- นักวิทยาศาสตร์
- SDK
- ไร้รอยต่อ
- เลือก
- ความรู้สึก
- serverless
- บริการ
- ชุด
- หลาย
- แสดง
- ง่าย
- เดียว
- So
- โซลูชัน
- โดยเฉพาะ
- ความเร็ว
- มาตรฐาน
- ข้อความที่เริ่ม
- รัฐของศิลปะ
- Status
- การเก็บรักษา
- สนับสนุน
- การพัฒนาอย่างยั่งยืน
- ระบบ
- งาน
- เทคนิค
- เทคโนโลยี
- การทดสอบ
- พื้นที่
- สาม
- ตลอด
- เวลา
- ต้องใช้เวลามาก
- เครื่องมือ
- หัวข้อ
- การฝึกอบรม
- การแปลภาษา
- ที่เชื่อถือ
- ชนิด
- เป็นปกติ
- Uk
- ภายใต้
- เข้าใจ
- ความเข้าใจ
- เป็นเอกลักษณ์
- ใช้
- ความหลากหลาย
- ต่างๆ
- รุ่น
- แนวดิ่ง
- วิสัยทัศน์
- ไดรฟ์
- วิธี
- เว็บ
- บริการเว็บ
- ภายใน
- ไม่มี
- คำ
- การทำงาน
- X
- ปี
- ของคุณ