การสนทนาออนไลน์มีอยู่ทั่วไปในชีวิตสมัยใหม่ ครอบคลุมอุตสาหกรรมต่างๆ ตั้งแต่วิดีโอเกมไปจนถึงโทรคมนาคม สิ่งนี้นำไปสู่การเติบโตแบบทวีคูณของปริมาณข้อมูลการสนทนาออนไลน์ ซึ่งช่วยในการพัฒนาระบบการประมวลผลภาษาธรรมชาติ (NLP) ที่ล้ำสมัย เช่น แชทบอทและโมเดลการสร้างภาษาธรรมชาติ (NLG) เมื่อเวลาผ่านไป เทคนิค NLP ต่างๆ สำหรับการวิเคราะห์ข้อความก็มีการพัฒนาเช่นกัน สิ่งนี้จำเป็นสำหรับบริการที่มีการจัดการเต็มรูปแบบซึ่งสามารถรวมเข้ากับแอปพลิเคชันโดยใช้การเรียก API โดยไม่ต้องมีความเชี่ยวชาญด้านการเรียนรู้ของเครื่อง (ML) อย่างกว้างขวาง AWS เสนอบริการ AWS AI ที่ผ่านการฝึกอบรมล่วงหน้า เช่น เข้าใจ Amazonซึ่งสามารถจัดการกับกรณีการใช้งาน NLP ที่เกี่ยวข้องกับการจัดประเภท การสรุปข้อความ การรับรู้เอนทิตี และอื่นๆ เพื่อรวบรวมข้อมูลเชิงลึกจากข้อความได้อย่างมีประสิทธิภาพ
นอกจากนี้ การสนทนาออนไลน์ยังนำไปสู่ปรากฏการณ์การใช้ภาษาที่ไม่ใช่แบบดั้งเดิมอย่างกว้างขวาง เทคนิค NLP แบบดั้งเดิมมักจะทำงานได้ไม่ดีกับข้อมูลที่เป็นข้อความนี้ เนื่องจากมีการพัฒนาอย่างต่อเนื่องและคำศัพท์เฉพาะโดเมนที่มีอยู่ภายในแพลตฟอร์มต่างๆ รวมถึงการเบี่ยงเบนคำศัพท์ที่สำคัญจากภาษาอังกฤษที่เหมาะสม ไม่ว่าจะโดยบังเอิญหรือโดยเจตนาในรูปแบบของการโจมตีจากฝ่ายตรงข้าม .
ในโพสต์นี้ เราอธิบายวิธีการ ML ที่หลากหลายสำหรับการจัดประเภทข้อความของการสนทนาออนไลน์ด้วยเครื่องมือและบริการที่มีให้ใน AWS
เบื้องต้น
ก่อนเจาะลึกกรณีการใช้งานนี้ โปรดปฏิบัติตามข้อกำหนดเบื้องต้นต่อไปนี้:
- ตั้งค่าไฟล์ บัญชี AWS และ สร้างผู้ใช้ IAM.
- ตั้งค่า AWS CLI และ AWS SDK.
- (ไม่บังคับ) ตั้งค่า .ของคุณ สภาพแวดล้อม Cloud9 IDE.
ชุด
สำหรับโพสต์นี้เราใช้ ชุดข้อมูล Jigsaw Unintended Bias in Toxicity Classification datasetซึ่งเป็นเกณฑ์มาตรฐานสำหรับปัญหาเฉพาะของการจำแนกความเป็นพิษในการสนทนาออนไลน์ ชุดข้อมูลมีป้ายกำกับความเป็นพิษรวมถึงแอตทริบิวต์กลุ่มย่อยหลายอย่าง เช่น อนาจาร การโจมตีเอกลักษณ์ ดูหมิ่น การคุกคาม และเรื่องเพศอย่างโจ่งแจ้ง ป้ายระบุเป็นค่าเศษส่วน ซึ่งแสดงถึงสัดส่วนของผู้ใส่คำอธิบายประกอบที่เป็นมนุษย์ซึ่งเชื่อว่าคุณลักษณะนี้ใช้กับข้อความส่วนที่กำหนด ซึ่งแทบจะไม่เป็นเอกฉันท์ ในการสร้างป้ายกำกับไบนารี (เช่น เป็นพิษหรือไม่เป็นพิษ) เกณฑ์ 0.5 จะถูกนำไปใช้กับค่าที่เป็นเศษส่วน และความคิดเห็นที่มีค่ามากกว่าเกณฑ์จะถือว่าเป็นระดับบวกสำหรับป้ายกำกับนั้น
การฝังคำย่อยและ RNNs
สำหรับแนวทางการสร้างแบบจำลองแรกของเรา เราใช้การรวมกันของ subword embedding และ recurrent neural networks (RNNs) เพื่อฝึกโมเดลการจัดประเภทข้อความ แนะนำการฝังคำย่อยโดย Bojanowski และคณะ ในปี 2017 เป็นการปรับปรุงวิธีการฝังระดับคำก่อนหน้า โมเดลการข้ามแกรมของ Word2Vec แบบดั้งเดิมได้รับการฝึกฝนเพื่อเรียนรู้การแสดงเวกเตอร์แบบคงที่ของคำเป้าหมายที่คาดการณ์บริบทของคำนั้นได้อย่างเหมาะสม ในทางกลับกัน โมเดลคำย่อยจะแสดงแต่ละคำเป้าหมายเป็นถุงของอักขระ n-grams ที่ประกอบเป็นคำ โดยที่ n-gram ประกอบด้วยชุดอักขระ n ตัวที่ต่อเนื่องกัน วิธีนี้ช่วยให้โมเดลการฝังแสดงสัณฐานวิทยาพื้นฐานของคำที่เกี่ยวข้องในคลังข้อมูลได้ดีขึ้น เช่นเดียวกับการคำนวณการฝังสำหรับคำที่แปลกใหม่และไม่ใช้คำศัพท์ (OOV) สิ่งนี้มีความสำคัญอย่างยิ่งในบริบทของการสนทนาออนไลน์ ซึ่งเป็นพื้นที่ปัญหาที่ผู้ใช้มักสะกดคำผิด (บางครั้งจงใจหลบเลี่ยงการตรวจจับ) และยังใช้คำศัพท์เฉพาะที่พัฒนาอย่างต่อเนื่องซึ่งอาจไม่ได้รวบรวมไว้ในคลังข้อมูลการฝึกอบรมทั่วไป
อเมซอน SageMaker ทำให้ง่ายต่อการฝึกอบรมและเพิ่มประสิทธิภาพโมเดลการฝังคำย่อยที่ไม่มีผู้ดูแลในคลังข้อมูลข้อความเฉพาะโดเมนของคุณเองด้วยในตัว อัลกอริธึม BlazingText. นอกจากนี้เรายังสามารถดาวน์โหลดแบบจำลองเอนกประสงค์ที่มีอยู่ซึ่งได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดใหญ่ของข้อความออนไลน์ เช่น ข้อมูลต่อไปนี้ โมเดลภาษาอังกฤษมีให้โดยตรงจาก fastText. จากอินสแตนซ์โน้ตบุ๊ก SageMaker ของคุณ เพียงเรียกใช้สิ่งต่อไปนี้เพื่อดาวน์โหลดโมเดล fastText ที่ฝึกไว้ล่วงหน้า:
ไม่ว่าคุณจะฝึกการฝังของคุณเองด้วย BlazingText หรือดาวน์โหลดโมเดลที่ฝึกไว้ล่วงหน้า ผลลัพธ์ที่ได้คือไบนารีโมเดลซิปที่คุณสามารถใช้กับไลบรารี gensim เพื่อฝังคำเป้าหมายที่กำหนดเป็นเวกเตอร์ตามคำย่อยที่เป็นส่วนประกอบ:
หลังจากที่เราประมวลผลส่วนข้อความที่กำหนดล่วงหน้าแล้ว เราสามารถใช้วิธีนี้เพื่อสร้างการแสดงเวกเตอร์สำหรับคำที่เป็นส่วนประกอบแต่ละคำ (โดยคั่นด้วยช่องว่าง) จากนั้นเราใช้ SageMaker และเฟรมเวิร์กการเรียนรู้เชิงลึก เช่น PyTorch เพื่อฝึก RNN ที่กำหนดเองโดยมีวัตถุประสงค์การจัดหมวดหมู่แบบไบนารีหรือหลายป้ายกำกับเพื่อคาดการณ์ว่าข้อความนั้นเป็นพิษหรือไม่ และประเภทย่อยเฉพาะของความเป็นพิษตามตัวอย่างการฝึกอบรมที่มีป้ายกำกับ
ในการอัปโหลดข้อความที่ประมวลผลล่วงหน้าของคุณไปที่ บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (Amazon S3) ใช้รหัสต่อไปนี้:
หากต้องการเริ่มต้นการฝึกโมเดล GPU หลายตัวที่ปรับขนาดได้ด้วย SageMaker ให้ป้อนรหัสต่อไปนี้:
ภายใน เรากำหนดชุดข้อมูล PyTorch ที่ใช้โดย train.py
เพื่อเตรียมข้อมูลข้อความสำหรับการฝึกอบรมและการประเมินแบบจำลอง:
โปรดทราบว่ารหัสนี้คาดการณ์ว่า vectors.zip
ไฟล์ที่มีการฝัง fastText หรือ BlazingText ของคุณจะถูกเก็บไว้ใน .
นอกจากนี้ คุณยังสามารถปรับใช้โมเดล fastText ที่ฝึกไว้ล่วงหน้าด้วยตัวเองเพื่อใช้งานปลายทางของ SageMaker เพื่อคำนวณเวกเตอร์การฝังได้ทันทีเพื่อใช้ในงานระดับคำที่เกี่ยวข้อง ดูต่อไปนี้ ตัวอย่าง GitHub .
ทรานส์ฟอเมอร์พร้อมหน้ากอด
สำหรับแนวทางการสร้างแบบจำลองที่สองของเรา เราเปลี่ยนไปใช้ Transformers ที่แนะนำในบทความ ความสนใจคือสิ่งที่คุณต้องการ. Transformers เป็นโมเดลการเรียนรู้เชิงลึกที่ออกแบบมาเพื่อหลีกเลี่ยงหลุมพรางของ RNN โดยเจตนาโดยอาศัยกลไกการเอาใจใส่ตนเองเพื่อดึงการพึ่งพาทั่วโลกระหว่างอินพุตและเอาต์พุต สถาปัตยกรรมรุ่น Transformer ช่วยให้เกิดการขนานที่ดีขึ้นอย่างมาก และสามารถบรรลุประสิทธิภาพสูงในเวลาฝึกอบรมที่ค่อนข้างสั้น
สร้างขึ้นจากความสำเร็จของ Transformers, BERT นำเสนอในกระดาษ BERT: การฝึกอบรมล่วงหน้าของหม้อแปลงสองทิศทางเชิงลึกเพื่อการทำความเข้าใจภาษาเพิ่มการฝึกอบรมล่วงหน้าแบบสองทิศทางสำหรับการแสดงภาษา โดยได้รับแรงบันดาลใจจากงาน Cloze BERT ได้รับการฝึกอบรมล่วงหน้าด้วยการสร้างแบบจำลองภาษาที่ปิดบัง (MLM) ซึ่งโมเดลจะเรียนรู้ที่จะกู้คืนคำดั้งเดิมสำหรับโทเค็นที่ปกปิดแบบสุ่ม แบบจำลอง BERT ยังได้รับการฝึกฝนล่วงหน้าในงานทำนายประโยคถัดไป (NSP) เพื่อทำนายว่าสองประโยคอยู่ในลำดับการอ่านที่ถูกต้องหรือไม่ นับตั้งแต่การถือกำเนิดขึ้นในปี 2018 BERT และรูปแบบต่างๆ ก็ได้ถูกใช้อย่างแพร่หลายในงานจัดประเภทข้อความ
โซลูชันของเราใช้รูปแบบต่างๆ ของ BERT ที่เรียกว่า RoBERTa ซึ่งได้รับการแนะนำในกระดาษ RoBERTa: วิธีการเตรียมการฝึกอบรม BERT ที่ได้รับการเพิ่มประสิทธิภาพอย่างแข็งแกร่ง. RoBERTa ปรับปรุงประสิทธิภาพของ BERT ในงานภาษาธรรมชาติที่หลากหลายด้วยการฝึกโมเดลที่เหมาะสมที่สุด รวมถึงโมเดลการฝึกที่ยาวขึ้นในคลังข้อมูลขนาดใหญ่กว่า 10 เท่า โดยใช้ไฮเปอร์พารามิเตอร์ที่ปรับให้เหมาะสม การมาสก์แบบสุ่มแบบไดนามิก การลบงาน NSP และอื่นๆ
โมเดลที่ใช้ RoBERTa ของเราใช้ กอดใบหน้า Transformers ไลบรารี ซึ่งเป็นเฟรมเวิร์ก Python แบบโอเพ่นซอร์สยอดนิยมที่ให้การใช้งานคุณภาพสูงของโมเดล Transformer ที่ล้ำสมัยทุกประเภทสำหรับงาน NLP ที่หลากหลาย Hugging Face ได้ร่วมมือกับ AWS เพื่อให้คุณสามารถฝึกฝนและปรับใช้โมเดล Transformer บน SageMaker ได้อย่างง่ายดาย ฟังก์ชันนี้สามารถใช้ได้ผ่าน รูปภาพคอนเทนเนอร์การเรียนรู้ AWS Deep Learning กอดใบหน้าซึ่งรวมถึงไลบรารี Transformers, Tokenizers และ Datasets และการผสานรวมกับ SageMaker ที่ปรับให้เหมาะสมสำหรับการฝึกโมเดลและการอนุมาน
ในการใช้งานของเรา เราสืบทอดโครงสร้างแกนหลักสถาปัตยกรรม RoBERTa จากเฟรมเวิร์ก Hugging Face Transformers และใช้ SageMaker เพื่อฝึกและปรับใช้โมเดลการจัดประเภทข้อความของเราเอง ซึ่งเราเรียกว่า RoBERTox RoBERTox ใช้การเข้ารหัสคู่ไบต์ (BPE) ที่นำมาใช้ใน การแปลคำศัพท์ที่หายากด้วยเครื่องประสาทด้วยหน่วยคำย่อย, เพื่อแปลงข้อความอินพุตเป็นการแสดงคำย่อย จากนั้น เราสามารถฝึกโมเดลและโทเค็นไนเซอร์ของเราบนข้อมูล Jigsaw หรือคลังข้อมูลเฉพาะโดเมนขนาดใหญ่ (เช่น บันทึกการสนทนาจากเกมใดเกมหนึ่ง) และใช้สำหรับการจัดประเภทข้อความที่กำหนดเอง เรากำหนดคลาสโมเดลการจัดหมวดหมู่แบบกำหนดเองของเราในรหัสต่อไปนี้:
ก่อนการฝึกอบรม เราเตรียมข้อมูลข้อความและป้ายกำกับโดยใช้ไลบรารีชุดข้อมูลของ Hugging Face และอัปโหลดผลลัพธ์ไปยัง Amazon S3:
เราเริ่มการฝึกโมเดลในลักษณะเดียวกันกับ RNN:
สุดท้าย ข้อมูลโค้ด Python ต่อไปนี้แสดงขั้นตอนการให้บริการ RoBERTox ผ่านจุดสิ้นสุด SageMaker แบบสดสำหรับการจัดประเภทข้อความแบบเรียลไทม์สำหรับคำขอ JSON:
การประเมินประสิทธิภาพของแบบจำลอง: Jigsaw unintended bias dataset
ตารางต่อไปนี้ประกอบด้วยตัวชี้วัดประสิทธิภาพสำหรับแบบจำลองที่ได้รับการฝึกอบรมและประเมินจากข้อมูลจากการแข่งขัน Jigsaw Unintended Bias ในการแข่งขัน Toxicity Detection Kaggle เราฝึกอบรมแบบจำลองสำหรับงานที่แตกต่างกันสามงานแต่สัมพันธ์กัน:
- กรณีไบนารี – โมเดลได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลการฝึกอบรมเต็มรูปแบบเพื่อทำนาย
toxicity
ป้ายเท่านั้น - เคสเนื้อละเอียด – ชุดย่อยของข้อมูลการฝึกอบรมที่
toxicity>=0.5
ใช้เพื่อทำนายฉลากประเภทย่อยความเป็นพิษอื่น ๆ (obscene
,threat
,insult
,identity_attack
,sexual_explicit
) - เคสมัลติทาสก์ – ชุดข้อมูลการฝึกอบรมเต็มรูปแบบใช้เพื่อทำนายทั้ง XNUMX ป้ายพร้อมกัน
เราฝึกโมเดล RNN และ RoBERTa สำหรับแต่ละงานทั้งสามนี้โดยใช้ป้ายกำกับเศษส่วนที่มีให้โดย Jigsaw ซึ่งสอดคล้องกับสัดส่วนของผู้ใส่คำอธิบายประกอบที่คิดว่าป้ายกำกับนั้นเหมาะสมกับข้อความ เช่นเดียวกับป้ายกำกับไบนารีที่รวมกับน้ำหนักของคลาสในเครือข่าย ฟังก์ชั่นการสูญเสีย ในรูปแบบการติดฉลากไบนารี สัดส่วนถูกกำหนดไว้ที่ 0.5 สำหรับป้ายชื่อแต่ละป้ายที่มีอยู่ (1 ถ้าป้าย >=0.5, 0 มิฉะนั้น) และฟังก์ชันการสูญเสียแบบจำลองจะถ่วงน้ำหนักตามสัดส่วนสัมพัทธ์ของป้ายไบนารีแต่ละป้ายในชุดข้อมูลการฝึก ในทุกกรณี เราพบว่าการใช้ป้ายกำกับแบบเศษส่วนทำให้เกิดประสิทธิภาพสูงสุดโดยตรง ซึ่งบ่งชี้ถึงมูลค่าเพิ่มของข้อมูลที่มีอยู่ในระดับของข้อตกลงระหว่างผู้ทำหมายเหตุประกอบ
เราแสดงตัววัดแบบจำลองสองแบบ: ความแม่นยำเฉลี่ย (AP) ซึ่งให้ข้อมูลสรุปของเส้นโค้งการเรียกคืนที่แม่นยำโดยการคำนวณค่าเฉลี่ยถ่วงน้ำหนักของค่าความแม่นยำที่ได้รับในแต่ละเกณฑ์การจำแนกประเภท และพื้นที่ใต้เส้นโค้งลักษณะการทำงานของตัวรับ (AUC) ซึ่งรวมประสิทธิภาพของแบบจำลองตามเกณฑ์การจัดประเภทโดยคำนึงถึงอัตราผลบวกที่แท้จริงและอัตราผลบวกลวง โปรดทราบว่าคลาสจริงสำหรับอินสแตนซ์ข้อความที่กำหนดในชุดทดสอบจะสอดคล้องกับว่าสัดส่วนที่แท้จริงมากกว่าหรือเท่ากับ 0.5 (1 ถ้าป้ายกำกับ>=0.5, 0 มิฉะนั้น)
. | การฝังคำย่อย + RNN | โรเบอร์ต้า | ||
. | ป้ายเศษส่วน | ป้ายกำกับไบนารี + การถ่วงน้ำหนักคลาส | ป้ายเศษส่วน | ป้ายกำกับไบนารี + การถ่วงน้ำหนักคลาส |
เลขฐานสอง | เอพี=0.746, AUC=0.966 | AP=0.730, AUC=0.963 | AP=0.758, AUC=0.966 | AP=0.747, AUC=0.963 |
เนื้อละเอียด | AP=0.906, AUC=0.909 | AP=0.850, AUC=0.851 | AP=0.913, AUC=0.913 | AP=0.911, AUC=0.912 |
มัลติทาสก์ | เอพี=0.721, AUC=0.972 | AP=0.535, AUC=0.907 | AP=0.740, AUC=0.972 | AP=0.711, AUC=0.961 |
สรุป
ในโพสต์นี้ เรานำเสนอวิธีการจัดประเภทข้อความสองวิธีสำหรับการสนทนาออนไลน์โดยใช้บริการ AWS ML คุณสามารถสรุปโซลูชันเหล่านี้ได้ทั่วทั้งแพลตฟอร์มการสื่อสารออนไลน์ โดยอุตสาหกรรมต่างๆ เช่น เกมจะได้รับประโยชน์จากความสามารถในการตรวจจับเนื้อหาที่เป็นอันตรายที่ปรับปรุงให้ดียิ่งขึ้น ในโพสต์ต่อๆ ไป เราวางแผนที่จะหารือเพิ่มเติมเกี่ยวกับสถาปัตยกรรมแบบ end-to-end เพื่อการปรับใช้โมเดลอย่างราบรื่นในบัญชี AWS ของคุณ
หากคุณต้องการความช่วยเหลือในการเร่งการใช้ ML ในผลิตภัณฑ์และกระบวนการของคุณ โปรดติดต่อ ห้องปฏิบัติการโซลูชัน Amazon ML.
เกี่ยวกับผู้เขียน
ไรอัน แบรนด์ เป็นนักวิทยาศาสตร์ข้อมูลใน Amazon Machine Learning Solutions Lab เขามีประสบการณ์เฉพาะด้านในการนำแมชชีนเลิร์นนิงมาใช้กับปัญหาด้านสุขภาพและวิทยาศาสตร์เพื่อชีวิต และในเวลาว่าง เขาชอบอ่านประวัติศาสตร์และนิยายวิทยาศาสตร์
ซูราฟ บาเบช เป็นนักวิทยาศาสตร์ข้อมูลที่ Amazon ML Solutions Lab เขาพัฒนาโซลูชัน AI/ML สำหรับลูกค้า AWS ในอุตสาหกรรมต่างๆ ความเชี่ยวชาญพิเศษของเขาคือการประมวลผลภาษาธรรมชาติ (NLP) และหลงใหลในการเรียนรู้อย่างลึกซึ้ง นอกงานเขาชอบอ่านหนังสือและท่องเที่ยว
หลิวตง โจว เป็นนักวิทยาศาสตร์ประยุกต์ที่ Amazon ML Solutions Lab เขาสร้างโซลูชัน AI/ML ตามความต้องการของลูกค้า AWS ในอุตสาหกรรมต่างๆ เขาเชี่ยวชาญด้านการประมวลผลภาษาธรรมชาติ (NLP) และหลงใหลเกี่ยวกับการเรียนรู้เชิงลึกหลายรูปแบบ เขาเป็นนักร้องอายุน้อยและชอบร้องเพลงโอเปร่านอกเวลางาน
เสี่ยโกลามิ เป็นนักวิทยาศาสตร์ข้อมูลอาวุโสที่ Amazon ML Solutions Lab ซึ่งเขาสร้างโซลูชัน AI/ML สำหรับลูกค้าในอุตสาหกรรมต่างๆ เขาหลงใหลในการประมวลผลภาษาธรรมชาติ (NLP) และการเรียนรู้อย่างลึกซึ้ง นอกเวลางาน เซียะชอบใช้เวลากับธรรมชาติและเล่นเทนนิส
แดเนียล โฮโรวิตซ์ เป็นผู้จัดการฝ่ายวิทยาศาสตร์ AI ประยุกต์ เขาเป็นผู้นำทีมนักวิทยาศาสตร์ใน Amazon ML Solutions Lab ที่ทำงานเพื่อแก้ปัญหาของลูกค้าและผลักดันการนำระบบคลาวด์ไปใช้ด้วย ML
- '
- "
- 10
- 100
- 7
- a
- ความสามารถ
- เกี่ยวกับเรา
- เร่ง
- ลงชื่อเข้าใช้
- บรรลุ
- ประสบความสำเร็จ
- ข้าม
- ที่เพิ่ม
- การนำมาใช้
- ข้อตกลง
- AI
- บริการ AI
- ทั้งหมด
- ช่วยให้
- อเมซอน
- จำนวน
- การวิเคราะห์
- API
- การใช้งาน
- ประยุกต์
- ใช้
- การประยุกต์ใช้
- เข้าใกล้
- วิธีการ
- เหมาะสม
- สถาปัตยกรรม
- AREA
- แอตทริบิวต์
- ใช้ได้
- เฉลี่ย
- AWS
- ถุง
- มาตรฐาน
- ประโยชน์
- ที่ดีที่สุด
- ดีกว่า
- ระหว่าง
- ที่ใหญ่กว่า
- ร้านหนังสือเกาหลี
- สร้าง
- built-in
- โทรศัพท์
- กรณี
- กรณี
- อักขระ
- ชั้น
- การจัดหมวดหมู่
- เมฆ
- รหัส
- การผสมผสาน
- รวม
- ความคิดเห็น
- การสื่อสาร
- การแข่งขัน
- สมบูรณ์
- สงบ
- การคำนวณ
- คำนวณ
- การคำนวณ
- ติดต่อกัน
- ไม่หยุดหย่อน
- ติดต่อเรา
- ภาชนะ
- มี
- เนื้อหา
- การสนทนา
- การสนทนา
- สร้าง
- เส้นโค้ง
- ประเพณี
- ลูกค้า
- ลูกค้า
- ข้อมูล
- นักวิทยาศาสตร์ข้อมูล
- ลึก
- ปรับใช้
- การใช้งาน
- บรรยาย
- ได้รับการออกแบบ
- รายละเอียด
- การตรวจพบ
- กำหนด
- พัฒนาการ
- ต่าง
- Dimension
- โดยตรง
- สนทนา
- แสดง
- ดาวน์โหลด
- ขับรถ
- ในระหว่าง
- พลวัต
- แต่ละ
- อย่างง่ายดาย
- มีประสิทธิภาพ
- ทำให้สามารถ
- จบสิ้น
- ปลายทาง
- ภาษาอังกฤษ
- เข้าสู่
- เอกลักษณ์
- การประเมินผล
- การพัฒนา
- ตัวอย่าง
- ตัวอย่าง
- ที่มีอยู่
- ประสบการณ์
- ความชำนาญ
- กว้างขวาง
- ใบหน้า
- ร้านแฟชั่นเกาหลี
- นิยาย
- ชื่อจริง
- ดังต่อไปนี้
- ฟอร์ม
- ข้างหน้า
- พบ
- เป็นเศษส่วน
- กรอบ
- ฟรี
- ราคาเริ่มต้นที่
- เต็ม
- ฟังก์ชัน
- ฟังก์ชั่น
- ฟังก์ชั่น
- ต่อไป
- อนาคต
- เกม
- เกม
- การเล่นเกม
- General
- จุดประสงค์ทั่วไป
- สร้าง
- รุ่น
- เหตุการณ์ที่
- มากขึ้น
- การเจริญเติบโต
- จัดการ
- หัว
- การดูแลสุขภาพ
- ช่วย
- ช่วย
- จุดสูง
- ที่มีคุณภาพสูง
- ประวัติ
- HTTPS
- เป็นมนุษย์
- เอกลักษณ์
- การดำเนินงาน
- สำคัญ
- การปรับปรุง
- การปรับปรุง
- ประกอบด้วย
- รวมทั้ง
- อุตสาหกรรม
- ข้อมูล
- โดยธรรมชาติ
- อินพุต
- ข้อมูลเชิงลึก
- แรงบันดาลใจ
- ตัวอย่าง
- ดูถูก
- แบบบูรณาการ
- บูรณาการ
- IT
- เลื่อยเล็ก
- การสัมภาษณ์
- กุญแจ
- ที่รู้จักกัน
- ห้องปฏิบัติการ
- ฉลาก
- การติดฉลาก
- ป้ายกำกับ
- ภาษา
- ใหญ่
- ที่มีขนาดใหญ่
- ชั้น
- นำไปสู่
- เรียนรู้
- การเรียนรู้
- นำ
- ห้องสมุด
- วิทยาศาสตร์สิ่งมีชีวิต
- น่าจะ
- สด
- โหลด
- เครื่อง
- เรียนรู้เครื่อง
- ทำ
- ทำให้
- การจัดการ
- ผู้จัดการ
- หน้ากาก
- มาสก์
- การจับคู่
- มดลูก
- กลไก
- หน่วยความจำ
- วิธีการ
- ตัวชี้วัด
- อาจ
- ML
- แบบ
- โมเดล
- ข้อมูลเพิ่มเติม
- หลาย
- โดยธรรมชาติ
- ธรรมชาติ
- เครือข่าย
- เครือข่าย
- ถัดไป
- สมุดบันทึก
- จำนวน
- เสนอ
- ออนไลน์
- การดำเนินงาน
- เพิ่มประสิทธิภาพ
- การปรับให้เหมาะสม
- ใบสั่ง
- เป็นต้นฉบับ
- อื่นๆ
- มิฉะนั้น
- ของตนเอง
- กระดาษ
- โดยเฉพาะ
- ร่วมมือ
- หลงใหล
- รูปแบบไฟล์ PDF
- การปฏิบัติ
- ชิ้น
- แพลตฟอร์ม
- เล่น
- กรุณา
- ยอดนิยม
- บวก
- โพสต์
- คาดการณ์
- คำทำนาย
- เตรียมการ
- ก่อน
- ปัญหา
- ปัญหาที่เกิดขึ้น
- กระบวนการ
- กระบวนการ
- การประมวลผล
- ผลิตภัณฑ์
- เงื้อม
- ให้
- ให้
- การอ่าน
- เรียลไทม์
- กู้
- ตรงประเด็น
- ลบ
- แสดง
- การแสดง
- เป็นตัวแทนของ
- ขอ
- กลับ
- รับคืน
- บทบาท
- วิ่ง
- ที่ปรับขนาดได้
- โครงการ
- วิทยาศาสตร์
- วิทยาศาสตร์
- นักวิทยาศาสตร์
- นักวิทยาศาสตร์
- ไร้รอยต่อ
- ส่วน
- บริการ
- บริการ
- การให้บริการ
- ชุด
- หลาย
- สั้น
- สำคัญ
- คล้ายคลึงกัน
- ง่าย
- ตั้งแต่
- หก
- ขนาด
- ทางออก
- โซลูชัน
- แก้
- ช่องว่าง
- ช่องว่าง
- ความเชี่ยวชาญ
- พิเศษ
- โดยเฉพาะ
- การใช้จ่าย
- รัฐของศิลปะ
- สหรัฐอเมริกา
- การเก็บรักษา
- ความสำเร็จ
- ระบบ
- เป้า
- งาน
- ทีม
- เทคนิค
- โทรคมนาคม
- ทดสอบ
- พื้นที่
- สาม
- ธรณีประตู
- ตลอด
- เวลา
- ครั้ง
- ราชสกุล
- เครื่องมือ
- ไฟฉาย
- แบบดั้งเดิม
- รถไฟ
- การฝึกอบรม
- การเปลี่ยนแปลง
- การแปล
- การเดินทาง
- ภายใต้
- เป็นเอกลักษณ์
- ใช้
- ผู้ใช้
- การตรวจสอบ
- ความคุ้มค่า
- ความหลากหลาย
- ต่างๆ
- วีดีโอ
- วิดีโอเกม
- ว่า
- WHO
- ภายใน
- ไม่มี
- คำ
- งาน
- การทำงาน
- ของคุณ