นี่เป็นโพสต์รับเชิญโดย Ian Lantzy วิศวกรอาวุโสด้านซอฟต์แวร์และเครื่องจักรของ Kustomer และทีม AWS Umesh Kalaspurkar, Prasad Shetty และ Jonathan Greifenberger
ในคำพูดของ Kustomer เอง “Kustomer เป็นแพลตฟอร์ม SaaS CRM แบบ Omnichannel ที่จำลองการบริการลูกค้าระดับองค์กรเพื่อมอบประสบการณ์ที่โดดเด่น สร้างขึ้นด้วยระบบอัตโนมัติที่ชาญฉลาด เราปรับขนาดเพื่อตอบสนองความต้องการของศูนย์การติดต่อและธุรกิจใดๆ โดยการรวมข้อมูลจากหลายแหล่ง และทำให้บริษัทต่างๆ สามารถให้บริการและการสนับสนุนที่ปรับให้เหมาะกับแต่ละบุคคลได้อย่างง่ายดาย สม่ำเสมอ และเป็นส่วนตัวผ่านมุมมองไทม์ไลน์เดียว”
Kustomer ต้องการความสามารถในการวิเคราะห์การสื่อสารการสนับสนุนจำนวนมากอย่างรวดเร็วสำหรับลูกค้าธุรกิจ — ประสบการณ์ลูกค้าและองค์กรบริการ — และทำการค้นหาข้อมูลโดยอัตโนมัติ เช่น ความตั้งใจของลูกค้าปลายทาง ปัญหาการบริการลูกค้า และข้อมูลเชิงลึกอื่นๆ ที่เกี่ยวข้องกับผู้บริโภค การทำความเข้าใจลักษณะเฉพาะเหล่านี้สามารถช่วยให้องค์กร CX จัดการอีเมลสนับสนุนขาเข้านับพันโดยการจัดประเภทและจัดหมวดหมู่เนื้อหาโดยอัตโนมัติ Kustomer ยกระดับ อเมซอน SageMaker เพื่อจัดการการวิเคราะห์การสื่อสารสนับสนุนที่เข้ามาผ่านทาง AI ของพวกเขา คัสโตเมอร์ ไอคิว แพลตฟอร์ม. บริการการจัดประเภทการสนทนาของ Kustomer IQ สามารถกำหนดบริบทของการสนทนาและทำให้งานที่น่าเบื่อและซ้ำซากเป็นไปโดยอัตโนมัติ ช่วยลดความฟุ้งซ่านของเจ้าหน้าที่และต้นทุนโดยรวมต่อการติดต่อ บริการนี้และบริการ IQ อื่นๆ ของ Kustomer ได้เพิ่มประสิทธิภาพการทำงานและระบบอัตโนมัติสำหรับลูกค้าธุรกิจ
ในโพสต์นี้ เราจะพูดถึงวิธีที่ Kustomer ใช้อิมเมจ Docker แบบกำหนดเองสำหรับการฝึกอบรมและการอนุมานของ SageMaker ซึ่งช่วยลดการผสานรวมและทำให้กระบวนการคล่องตัวขึ้น ด้วยวิธีการนี้ ลูกค้าธุรกิจของ Kustomer จะจำแนกอีเมลสนับสนุนมากกว่า 50 ฉบับโดยอัตโนมัติในแต่ละเดือนด้วยความแม่นยำสูงสุด 70%
ความเป็นมาและความท้าทาย
Kustomer ใช้ไปป์ไลน์การจัดประเภทข้อความที่กำหนดเองสำหรับบริการการจัดประเภทการสนทนา ซึ่งช่วยให้พวกเขาจัดการคำขอนับพันรายการต่อวันผ่านการจำแนกประเภทอัตโนมัติและการจัดหมวดหมู่โดยใช้การฝึกอบรมและการอนุมานของ SageMaker เอ็นจิ้นการฝึกอบรมการจำแนกการสนทนาใช้อิมเมจ Docker แบบกำหนดเองเพื่อประมวลผลข้อมูลและฝึกโมเดลโดยใช้การสนทนาในอดีต จากนั้นจึงคาดการณ์หัวข้อ หมวดหมู่ หรือป้ายกำกับที่กำหนดเองอื่นๆ ที่เจ้าหน้าที่เฉพาะต้องการเพื่อจัดประเภทการสนทนา จากนั้นเอ็นจิ้นการคาดคะเนจะใช้โมเดลที่ได้รับการฝึกอบรมพร้อมอิมเมจ Docker ที่กำหนดเองเพื่อจัดหมวดหมู่การสนทนา ซึ่งองค์กรใช้ในการรายงานอัตโนมัติหรือกำหนดเส้นทางการสนทนาไปยังทีมใดทีมหนึ่งตามหัวข้อ
กระบวนการจัดหมวดหมู่ SageMaker เริ่มต้นด้วยการสร้างไปป์ไลน์การฝึกอบรมและการอนุมานที่สามารถจัดประเภทข้อความและคำแนะนำตามบริบท การตั้งค่าทั่วไปจะดำเนินการด้วยวิธีการแบบไร้เซิร์ฟเวอร์เช่น AWS แลมบ์ดา สำหรับการประมวลผลข้อมูลล่วงหน้าและการประมวลผลภายหลัง เนื่องจากมีข้อกำหนดในการเตรียมใช้งานขั้นต่ำพร้อมรูปแบบการกำหนดราคาแบบออนดีมานด์ที่มีประสิทธิภาพ อย่างไรก็ตาม การใช้ SageMaker กับการพึ่งพา เช่น TensorFlow, NumPy และ Pandas สามารถเพิ่มขนาดแพ็คเกจโมเดลได้อย่างรวดเร็ว ทำให้กระบวนการปรับใช้โดยรวมยุ่งยากและจัดการได้ยาก Kustomer ใช้อิมเมจ Docker แบบกำหนดเองเพื่อเอาชนะความท้าทายเหล่านี้
อิมเมจ Docker แบบกำหนดเองมีข้อดีหลายประการ:
- อนุญาตให้ใช้ขนาดแพ็คเกจบีบอัดที่ใหญ่ขึ้น (มากกว่า 10 GB) ซึ่งสามารถมีเฟรมเวิร์กการเรียนรู้ของเครื่อง (ML) ที่ได้รับความนิยม เช่น TensorFlow, MXNet, PyTorch หรืออื่นๆ
- ให้คุณนำโค้ดที่กำหนดเองหรืออัลกอริธึมที่พัฒนาในเครื่องมาที่ สตูดิโอ Amazon SageMaker โน้ตบุ๊กสำหรับการทำซ้ำอย่างรวดเร็วและการฝึกโมเดล
- หลีกเลี่ยงความล่าช้าในการประมวลผลล่วงหน้าที่เกิดขึ้นในแลมบ์ดาขณะเปิดแพ็กเกจการปรับใช้
- นำเสนอความยืดหยุ่นในการผสานรวมกับระบบภายในได้อย่างราบรื่น
- ความเข้ากันได้และความสามารถในการปรับขนาดในอนาคตทำให้การแปลงบริการโดยใช้ Docker ทำได้ง่ายขึ้น แทนที่จะต้องจัดแพ็คเกจไฟล์ .zip ในฟังก์ชัน Lambda
- ลดเวลาตอบสนองสำหรับไปป์ไลน์การปรับใช้ CI/CD
- ให้ความคุ้นเคยกับ Docker ภายในทีมและใช้งานง่าย
- ให้การเข้าถึงที่เก็บข้อมูลผ่าน API และแบ็กเอนด์รันไทม์
- ให้การสนับสนุนที่ดีกว่าสำหรับการแทรกแซงสำหรับการประมวลผลล่วงหน้าหรือหลังการประมวลผลใดๆ ที่ Lambda ต้องการบริการประมวลผลแยกต่างหากสำหรับแต่ละกระบวนการ (เช่น การฝึกอบรมหรือการปรับใช้)
ภาพรวมโซลูชัน
การจัดหมวดหมู่และการติดป้ายกำกับอีเมลสนับสนุนเป็นขั้นตอนสำคัญในกระบวนการสนับสนุนลูกค้า ช่วยให้บริษัทต่างๆ สามารถกำหนดเส้นทางการสนทนาไปยังทีมที่เหมาะสม และเข้าใจในระดับสูงว่าลูกค้าของตนติดต่อพวกเขาเกี่ยวกับอะไร ลูกค้าธุรกิจของ Kustomer สามารถจัดการการสนทนาได้หลายพันรายการทุกวัน ดังนั้นการจำแนกตามขนาดจึงเป็นความท้าทาย กระบวนการนี้เป็นอัตโนมัติช่วยให้ตัวแทนมีประสิทธิภาพมากขึ้นและให้การสนับสนุนที่เหนียวแน่นยิ่งขึ้น และช่วยลูกค้าด้วยการเชื่อมต่อกับคนที่เหมาะสมได้เร็วขึ้น
ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมโซลูชัน:
กระบวนการจัดประเภทการสนทนาเริ่มต้นด้วยลูกค้าธุรกิจที่อนุญาตให้ Kustomer ตั้งค่าไปป์ไลน์การฝึกอบรมและการอนุมานที่สามารถช่วยพวกเขาในการจัดประเภทข้อความและคำแนะนำตามบริบท Kustomer เปิดเผยส่วนต่อประสานผู้ใช้ให้กับลูกค้าเพื่อตรวจสอบกระบวนการฝึกอบรมและการอนุมาน ซึ่งใช้งานโดยใช้ SageMaker ร่วมกับโมเดล TensorFlow และอิมเมจ Docker ที่กำหนดเอง ขั้นตอนการสร้างและใช้งานลักษณนามแบ่งออกเป็น XNUMX ขั้นตอนหลัก ซึ่งประสานกันโดยบริการผู้ปฏิบัติงานที่ทำงานอยู่ อเมซอน อีซีเอส. ในการประสานงานเหตุการณ์ไปป์ไลน์และกระตุ้นการฝึกอบรมและการปรับใช้โมเดล ผู้ปฏิบัติงานใช้ an อเมซอน SQS เข้าคิวและผสานรวมกับ SageMaker โดยตรงโดยใช้ Node.js SDK ที่ AWS จัดหาให้ เวิร์กโฟลว์คือ:
- การส่งออกข้อมูล
- การประมวลผลข้อมูลล่วงหน้า
- การฝึกอบรม
- การใช้งาน
- การอนุมาน
การส่งออกข้อมูล
กระบวนการส่งออกข้อมูลดำเนินการตามต้องการและเริ่มต้นด้วยกระบวนการอนุมัติจากลูกค้าธุรกิจของ Kustomer เพื่อยืนยันการใช้ข้อมูลอีเมลเพื่อการวิเคราะห์ ข้อมูลที่เกี่ยวข้องกับกระบวนการจัดหมวดหมู่จะถูกบันทึกผ่านอีเมลเริ่มต้นที่ได้รับจากลูกค้าปลายทาง ตัวอย่างเช่น โดยทั่วไปอีเมลสนับสนุนจะมีแนวคิดที่เชื่อมโยงกันอย่างสมบูรณ์เกี่ยวกับปัญหาพร้อมรายละเอียดเกี่ยวกับปัญหา ในกระบวนการส่งออก อีเมลจะถูกจัดเรียงจากที่เก็บข้อมูล (MongoDB และ อเมซอน โอเพนเสิร์ช) และบันทึกไว้ใน บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (อเมซอน เอส3).
การประมวลผลข้อมูลล่วงหน้า
ขั้นตอนก่อนการประมวลผลข้อมูลจะล้างชุดข้อมูลสำหรับเวิร์กโฟลว์การฝึกอบรมและการอนุมานโดยดึงแท็ก HTML ออกจากอีเมลของลูกค้าและป้อนผ่านขั้นตอนการทำความสะอาดและฆ่าเชื้อหลายขั้นตอนเพื่อตรวจจับ HTML ที่มีรูปแบบไม่ถูกต้อง กระบวนการนี้รวมถึงการใช้ Hugging Face tokenizers และหม้อแปลงไฟฟ้า. เมื่อกระบวนการล้างเสร็จสิ้น โทเค็นที่กำหนดเองเพิ่มเติมที่จำเป็นสำหรับการฝึกอบรมจะถูกเพิ่มไปยังชุดข้อมูลเอาต์พุต
ในระหว่างขั้นตอนก่อนการประมวลผล ฟังก์ชัน Lambda จะเรียกใช้อิมเมจ Docker แบบกำหนดเอง ภาพนี้ประกอบด้วยฐานที่บางของ Python 3.8, the ไคลเอ็นต์อินเทอร์เฟซรันไทม์ AWS Lambda Pythonและการพึ่งพาเช่น นำพาย และ นุ่น. อิมเมจ Docker แบบกำหนดเองจะถูกเก็บไว้ที่ การลงทะเบียน Amazon Elastic Container (Amazon ECR) แล้วป้อนผ่านไปป์ไลน์ CI/CD เพื่อปรับใช้ ฟังก์ชัน Lambda ที่ปรับใช้จะสุ่มตัวอย่างข้อมูลเพื่อสร้างชุดข้อมูลที่แตกต่างกันสามชุดต่อตัวแยกประเภท:
- การฝึกอบรม – ใช้สำหรับขั้นตอนการฝึกจริง
- การตรวจสอบ – ใช้สำหรับการตรวจสอบระหว่างกระบวนการฝึกอบรม TensorFlow
- ทดสอบ – ใช้เมื่อสิ้นสุดกระบวนการฝึกอบรมสำหรับการเปรียบเทียบแบบจำลองเมตริก
ชุดข้อมูลเอาต์พุตที่สร้างขึ้นคือไฟล์ Pandas Pickle ซึ่งจัดเก็บไว้ใน Amazon S3 เพื่อใช้ในขั้นตอนการฝึกอบรม
การฝึกอบรม
อิมเมจการฝึกแบบกำหนดเองของ Kustomer ใช้ตัวเชื่อมต่อ TensorFlow 2.7 GPU ที่ปรับให้เหมาะสม ภาพ เป็นฐาน รวมโค้ดที่กำหนดเอง การขึ้นต่อกัน และโมเดลพื้นฐานก่อนที่จะอัปโหลดอิมเมจการฝึกนักเทียบท่าที่กำหนดเองไปยัง ECR ประเภทอินสแตนซ์ P3 ใช้สำหรับกระบวนการฝึกอบรม และการใช้อิมเมจพื้นฐานที่ปรับให้เหมาะสมกับ GPU จะช่วยให้กระบวนการฝึกอบรมมีประสิทธิภาพมากที่สุด Amazon SageMaker ใช้กับอิมเมจ Docker แบบกำหนดเองนี้เพื่อฝึกโมเดล TensorFlow ที่จัดเก็บไว้ใน S3 เมตริกที่กำหนดเองยังได้รับการคำนวณและบันทึกเพื่อช่วยในด้านความสามารถเพิ่มเติม เช่น การเปรียบเทียบแบบจำลองและการฝึกซ้ำอัตโนมัติ เมื่อขั้นตอนการฝึกอบรมเสร็จสิ้น พนักงาน AI จะได้รับแจ้งและลูกค้าธุรกิจสามารถเริ่มเวิร์กโฟลว์การปรับใช้ได้
การใช้งาน
สำหรับเวิร์กโฟลว์การปรับใช้ อิมเมจการอนุมานของนักเทียบท่าแบบกำหนดเองจะถูกสร้างขึ้นโดยใช้อิมเมจพื้นฐานที่ให้บริการ TensorFlow (สร้างมาเพื่อการอนุมานที่รวดเร็วโดยเฉพาะ) โค้ดและการขึ้นต่อกันเพิ่มเติม เช่น numPy, Pandas, NL แบบกำหนดเอง ฯลฯ ถูกรวมไว้เพื่อให้ฟังก์ชันการทำงานเพิ่มเติม เช่น การจัดรูปแบบและการล้างอินพุตก่อนการอนุมาน FastAPI ยังรวมอยู่ในอิมเมจที่กำหนดเอง และใช้เพื่อจัดเตรียมตำแหน่งข้อมูล REST API สำหรับการอนุมานและการตรวจสอบสภาพ จากนั้น SageMaker จะได้รับการกำหนดค่าให้ปรับใช้โมเดล TensorFlow ที่บันทึกไว้ใน S3 ด้วยอิมเมจการอนุมานไปยังอินสแตนซ์ AWS ml.c5 ที่เพิ่มประสิทธิภาพการประมวลผลเพื่อสร้างจุดสิ้นสุดการอนุมานที่มีประสิทธิภาพสูง ปลายทางแต่ละจุดถูกสร้างขึ้นเพื่อใช้โดยลูกค้ารายเดียวเพื่อแยกแบบจำลองและข้อมูลของตน
การอนุมาน
เมื่อเวิร์กโฟลว์การปรับใช้เสร็จสิ้น เวิร์กโฟลว์การอนุมานจะเข้ามาแทนที่ อีเมลสนับสนุนขาเข้าฉบับแรกทั้งหมดจะถูกส่งผ่าน API การอนุมานสำหรับตัวแยกประเภทที่ปรับใช้เฉพาะสำหรับลูกค้ารายนั้น ตัวแยกประเภทที่ปรับใช้จะทำการจัดประเภทข้อความในอีเมลแต่ละฉบับ โดยแต่ละฉบับจะสร้างป้ายกำกับการจัดประเภทสำหรับลูกค้า
การปรับปรุงและการปรับแต่งที่เป็นไปได้
Kustomer กำลังพิจารณาขยายโซลูชันด้วยการปรับปรุงต่อไปนี้:
- กอดใบหน้า DLCs – ปัจจุบัน Kustomer ใช้อิมเมจ Docker พื้นฐานของ TensorFlow สำหรับขั้นตอนการประมวลผลข้อมูลล่วงหน้าและวางแผนที่จะย้ายไปยัง คอนเทนเนอร์การเรียนรู้เชิงลึกของใบหน้ากอด (DLC). ซึ่งจะช่วยให้คุณเริ่มโมเดลการฝึกอบรมได้ทันที โดยข้ามขั้นตอนที่ซับซ้อนในการสร้างและปรับสภาพแวดล้อมการฝึกอบรมให้เหมาะสมตั้งแต่เริ่มต้น ดูข้อมูลเพิ่มเติมได้ที่ กอดใบหน้าบน Amazon SageMaker.
- ลูปข้อเสนอแนะ – คุณสามารถใช้วงจรป้อนกลับโดยใช้การเรียนรู้เชิงรุกหรือเทคนิคการเรียนรู้แบบเสริมกำลังเพื่อเพิ่มประสิทธิภาพโดยรวมของแบบจำลอง
- บูรณาการกับระบบภายในอื่นๆ – Kustomer ต้องการความสามารถในการรวมการจัดประเภทข้อความกับระบบอื่นๆ เช่น Smart Suggestions ซึ่งเป็นบริการ Kustomer IQ อีกบริการหนึ่งที่ตรวจสอบทางลัดหลายร้อยรายการและแนะนำทางลัดที่เกี่ยวข้องกับการสืบค้นข้อมูลของลูกค้ามากที่สุด ปรับปรุงเวลาตอบสนองและประสิทธิภาพของเจ้าหน้าที่
สรุป
ในโพสต์นี้ เราได้พูดถึงวิธีที่ Kustomer ใช้อิมเมจ Docker แบบกำหนดเองสำหรับการฝึกอบรมและการอนุมานของ SageMaker ซึ่งช่วยลดการผสานรวมและทำให้กระบวนการคล่องตัวขึ้น เราสาธิตวิธีที่ Kustomer ใช้ประโยชน์จาก Lambda และ SageMaker ด้วยอิมเมจ Docker แบบกำหนดเองที่ช่วยนำกระบวนการจัดหมวดหมู่ข้อความไปใช้ด้วยเวิร์กโฟลว์ก่อนการประมวลผลและหลังการประมวลผล ซึ่งให้ความยืดหยุ่นในการใช้ภาพที่ใหญ่ขึ้นสำหรับการสร้างแบบจำลอง การฝึกอบรม และการอนุมาน การรองรับอิมเมจคอนเทนเนอร์สำหรับ Lambda ช่วยให้คุณปรับแต่งฟังก์ชันของคุณได้มากขึ้น เปิดกรณีการใช้งานใหม่ๆ มากมายสำหรับ ML แบบไร้เซิร์ฟเวอร์ โซลูชันใช้ประโยชน์จากบริการต่างๆ ของ AWS รวมถึง SageMaker, Lambda, Docker images, Amazon ECR, Amazon ECS, Amazon SQS และ Amazon S3
หากคุณต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ Kustomer เราขอแนะนำให้คุณไปที่ เว็บไซต์ Kustomer และสำรวจของพวกเขา กรณีศึกษา.
คลิก โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม เพื่อเริ่มต้นการเดินทางของคุณด้วย Amazon SageMaker สำหรับประสบการณ์ตรง คุณสามารถอ้างอิง Amazon SageMaker การประชุมเชิงปฏิบัติการ
เกี่ยวกับผู้เขียน
อูเมช กาลาสปูรการ์ เป็นสถาปนิกโซลูชันในนิวยอร์กสำหรับ AWS เขานำประสบการณ์มากกว่า 20 ปีในการออกแบบและส่งมอบโครงการนวัตกรรมดิจิทัลและการปฏิรูปทั่วทั้งองค์กรและสตาร์ทอัพ เขามีแรงจูงใจจากการช่วยลูกค้าระบุและเอาชนะความท้าทาย นอกงาน Umesh สนุกกับการเป็นพ่อคน เล่นสกี และท่องเที่ยว
เอียน ลันท์ซี่ เป็นวิศวกรอาวุโสด้านซอฟต์แวร์และแมชชีนเลิร์นนิ่งของ Kustomer และเชี่ยวชาญด้านการวิจัยแมชชีนเลิร์นนิงและเปลี่ยนให้เป็นบริการด้านการผลิต
ปราสาด เชตตี้ เป็นสถาปนิกโซลูชันในบอสตันสำหรับ AWS เขาได้สร้างผลิตภัณฑ์ซอฟต์แวร์และเป็นผู้นำด้านนวัตกรรมดิจิทัลในผลิตภัณฑ์และบริการทั่วทั้งองค์กรมาเป็นเวลากว่า 20 ปี เขาหลงใหลในการขับเคลื่อนกลยุทธ์และการนำระบบคลาวด์ไปใช้ และใช้ประโยชน์จากเทคโนโลยีเพื่อสร้างประสบการณ์ที่ยอดเยี่ยมให้กับลูกค้า ในยามว่าง Prasad สนุกกับการขี่จักรยานและท่องเที่ยว
โจนาธาน ไกรเฟนเบอร์เกอร์ เป็นผู้จัดการบัญชีอาวุโสในนิวยอร์กของ AWS ซึ่งมีประสบการณ์ในอุตสาหกรรมไอทีกว่า 25 ปี Jonathan เป็นผู้นำทีมที่ช่วยเหลือลูกค้าจากหลากหลายอุตสาหกรรมและแนวดิ่งเกี่ยวกับการนำระบบคลาวด์ไปใช้และความทันสมัย
- คอยน์สมาร์ท การแลกเปลี่ยน Bitcoin และ Crypto ที่ดีที่สุดในยุโรป
- เพลโตบล็อคเชน Web3 Metaverse ข่าวกรอง ขยายความรู้. เข้าฟรี
- คริปโตฮอว์ก เรดาร์ Altcoin ทดลองฟรี.
- ที่มา: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 7
- เกี่ยวกับเรา
- เข้า
- ลงชื่อเข้าใช้
- ข้าม
- คล่องแคล่ว
- เพิ่มเติม
- การนำมาใช้
- ความได้เปรียบ
- ข้อได้เปรียบ
- ตัวแทน
- AI
- อัลกอริทึม
- ทั้งหมด
- อเมซอน
- การวิเคราะห์
- อื่น
- API
- APIs
- เข้าใกล้
- สถาปัตยกรรม
- อัตโนมัติ
- AWS
- กำลัง
- สร้าง
- การก่อสร้าง
- ธุรกิจ
- ความสามารถในการ
- กรณี
- ที่เกิดจาก
- ท้าทาย
- ความท้าทาย
- การตรวจสอบ
- การจัดหมวดหมู่
- การทำความสะอาด
- เมฆ
- รหัส
- คมนาคม
- บริษัท
- คำนวณ
- ผู้บริโภค
- ภาชนะ
- ภาชนะบรรจุ
- มี
- เนื้อหา
- การสนทนา
- การสนทนา
- ประสบการณ์ของลูกค้า
- บริการลูกค้า
- Customer Support
- ลูกค้า
- ข้อมูล
- วัน
- ความล่าช้า
- การจัดส่ง
- ความต้องการ
- การใช้งาน
- ออกแบบ
- พัฒนา
- ดิจิตอล
- การค้นพบ
- นักเทียบท่า
- การขับขี่
- มีประสิทธิภาพ
- อย่างมีประสิทธิภาพ
- อีเมล
- การเปิดใช้งาน
- ส่งเสริม
- ปลายทาง
- วิศวกร
- Enterprise
- เหตุการณ์
- ตัวอย่าง
- ที่ขยาย
- ประสบการณ์
- ประสบการณ์
- ใบหน้า
- FAST
- เฟด
- ข้อเสนอแนะ
- ชื่อจริง
- ความยืดหยุ่น
- ดังต่อไปนี้
- ฟังก์ชัน
- ฟังก์ชั่น
- สร้าง
- ให้
- GPU
- ยิ่งใหญ่
- แขก
- โพสต์ของผู้เข้าพัก
- มี
- สุขภาพ
- ช่วย
- จะช่วยให้
- จุดสูง
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- HTTPS
- ร้อย
- แยกแยะ
- ภาพ
- การดำเนินการ
- การดำเนินการ
- รวม
- รวมทั้ง
- เพิ่ม
- เพิ่มขึ้น
- อุตสาหกรรม
- อุตสาหกรรม
- ข้อมูล
- นักวิเคราะห์ส่วนบุคคลที่หาโอกาสให้เป็นไปได้มากที่สุด
- ข้อมูลเชิงลึก
- รวบรวม
- บูรณาการ
- ฉลาด
- ความตั้งใจ
- อินเตอร์เฟซ
- ปัญหา
- IT
- การติดฉลาก
- ป้ายกำกับ
- ใหญ่
- ที่มีขนาดใหญ่
- เรียนรู้
- การเรียนรู้
- นำ
- ชั้น
- ยกระดับ
- ในท้องถิ่น
- เครื่อง
- เรียนรู้เครื่อง
- การทำ
- ผู้จัดการ
- ตัวชี้วัด
- ML
- แบบ
- โมเดล
- MongoDB
- มากที่สุด
- นิวยอร์ก
- ประสาน
- ใบสั่ง
- องค์กร
- อื่นๆ
- มิฉะนั้น
- คน
- การปฏิบัติ
- เวที
- ยอดนิยม
- เป็นไปได้
- คำทำนาย
- การตั้งราคา
- ปัญหา
- กระบวนการ
- ผลิตภัณฑ์
- การผลิต
- ผลผลิต
- ผลิตภัณฑ์
- โครงการ
- ให้
- ให้
- อย่างรวดเร็ว
- ลด
- ต้องการ
- จำเป็นต้องใช้
- การวิจัย
- คำตอบ
- REST
- เส้นทาง
- วิ่ง
- วิ่ง
- scalability
- ขนาด
- SDK
- serverless
- บริการ
- บริการ
- การให้บริการ
- ชุด
- ง่าย
- ขนาด
- สมาร์ท
- So
- ซอฟต์แวร์
- โซลูชัน
- ความเชี่ยวชาญ
- เฉพาะ
- แยก
- ระยะ
- เริ่มต้น
- startups
- การเก็บรักษา
- จัดเก็บ
- ร้านค้า
- กลยุทธ์
- การปอก
- การศึกษา
- เป็นกอบเป็นกำ
- สนับสนุน
- ระบบ
- คุย
- งาน
- ทีม
- เทคนิค
- เทคโนโลยี
- พัน
- ตลอด
- เวลา
- ราชสกุล
- หัวข้อ
- การฝึกอบรม
- การแปลง
- เข้าใจ
- รายละเอียด
- อะไร
- ภายใน
- คำ
- งาน
- ปี