แมนเที่ยม เป็นผู้ให้บริการแพลตฟอร์มคลาวด์ระดับโลกสำหรับสร้างแอปพลิเคชัน AI และจัดการตามขนาด แพลตฟอร์มการพัฒนาแบบ end-to-end ของ Mantium ช่วยให้องค์กรและธุรกิจทุกขนาดสร้างแอปพลิเคชัน AI และระบบอัตโนมัติได้เร็วและง่ายกว่าที่เคยเป็นมา ด้วย Mantium ทีมงานด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคสามารถสร้างต้นแบบ พัฒนา ทดสอบ และปรับใช้แอปพลิเคชัน AI ได้ทั้งหมดด้วยวิธีการที่ใช้โค้ดน้อย ด้วยคุณสมบัติการบันทึกอัตโนมัติ การตรวจสอบ และความปลอดภัย Mantium ยังเผยแพร่ซอฟต์แวร์และวิศวกร DevOps จากการใช้เวลาสร้างวงล้อใหม่ ในระดับสูง Mantium มอบ:
- AI ที่ทันสมัยที่สุด – ทดลองและพัฒนาด้วยโมเดลภาษาขนาดใหญ่แบบโอเพนซอร์สและส่วนตัวที่มีให้เลือกมากมายพร้อม UI หรือ API ที่เรียบง่าย
- กระบวนการอัตโนมัติของ AI – สร้างแอปพลิเคชันที่ขับเคลื่อนด้วย AI ได้อย่างง่ายดายด้วยไลบรารีการผสานรวมที่เพิ่มขึ้นและ AI Builder แบบกราฟิกของ Mantium
- การปรับใช้อย่างรวดเร็ว – ลดระยะเวลาการผลิตจากเดือนเป็นสัปดาห์หรือเป็นวันด้วยการปรับใช้เพียงคลิกเดียว ฟีเจอร์นี้เปลี่ยนแอปพลิเคชัน AI ให้เป็นเว็บแอปที่แชร์ได้ด้วยคลิกเดียว
- ความปลอดภัยและกฎระเบียบ – รับรองความปลอดภัยและการปฏิบัติตามนโยบายการกำกับดูแลและการสนับสนุนสำหรับกระบวนการของมนุษย์ในวง
ด้วย Mantium AI Builder คุณสามารถพัฒนาเวิร์กโฟลว์ที่ซับซ้อนที่รวม API ภายนอก การดำเนินการทางตรรกะ และโมเดล AI ภาพหน้าจอต่อไปนี้แสดงตัวอย่างแอป Mantium AI ซึ่งเชื่อมโยงอินพุต Twilio นโยบายการกำกับดูแล บล็อก AI (ซึ่งสามารถพึ่งพาโมเดลโอเพนซอร์สเช่น GPT-J) และเอาต์พุต Twilio ได้
เพื่อสนับสนุนแอปนี้ Mantium ให้การเข้าถึงที่ครอบคลุมและสม่ำเสมอไม่เพียงแต่ API โมเดลจากผู้ให้บริการ AI เช่น Open AI, Co:here และ AI21 แต่ยังรวมถึงโมเดลโอเพ่นซอร์สที่ล้ำสมัยอีกด้วย ที่ Mantium เราเชื่อว่าทุกคนควรสามารถสร้างแอปพลิเคชัน AI สมัยใหม่ที่พวกเขาเป็นเจ้าของได้ตั้งแต่ต้นทางถึงปลายทาง และเราสนับสนุนสิ่งนี้โดยให้การเข้าถึงแบบไม่มีโค้ดและโค้ดต่ำแก่โมเดลโอเพนซอร์สที่เพิ่มประสิทธิภาพการทำงาน
ตัวอย่างเช่น หนึ่งในโมเดลโอเพนซอร์สหลักของ Mantium คือ GPT-เจ, โมเดลการประมวลผลภาษาธรรมชาติ (NLP) ล้ำสมัยที่พัฒนาโดย Eleuther AI. ด้วยพารามิเตอร์ 6 พันล้านรายการ GPT-J เป็นหนึ่งในโมเดลการสร้างข้อความโอเพนซอร์สที่ใหญ่ที่สุดและมีประสิทธิภาพดีที่สุด ผู้ใช้ Mantium สามารถรวม GPT-J เข้ากับแอปพลิเคชัน AI ผ่าน AI Builder ของ Mantium ในกรณีของ GPT-J สิ่งนี้เกี่ยวข้องกับการระบุ a รวดเร็ว (การแสดงภาษาธรรมชาติของสิ่งที่โมเดลควรทำ) และการกำหนดค่าพารามิเตอร์ทางเลือกบางอย่าง
ตัวอย่างเช่น ภาพหน้าจอต่อไปนี้แสดงการสาธิตโดยย่อของการแจ้งเตือนการวิเคราะห์ความคิดเห็นที่สร้างคำอธิบายและการคาดคะเนความรู้สึก ในตัวอย่างนี้ ผู้เขียนเขียนว่า "อาหารยอดเยี่ยม" และ "บริการของพวกเขายอดเยี่ยมมาก" ดังนั้น ข้อความนี้จึงแสดงความรู้สึกเชิงบวก
อย่างไรก็ตาม ความท้าทายอย่างหนึ่งของโมเดลโอเพนซอร์ซก็คือว่าไม่ค่อยได้รับการออกแบบมาเพื่อประสิทธิภาพระดับการผลิต ในกรณีของโมเดลขนาดใหญ่ เช่น GPT-J จะทำให้การปรับใช้งานจริงในเวอร์ชันที่ใช้งานจริงทำไม่ได้และแม้แต่จะเป็นไปไม่ได้ ทั้งนี้ขึ้นอยู่กับกรณีการใช้งาน
เพื่อให้แน่ใจว่าผู้ใช้ของเราสามารถเข้าถึงประสิทธิภาพที่ดีที่สุดในระดับเดียวกัน เราจึงมองหาวิธีที่จะลดเวลาแฝงของโมเดลหลักของเราอยู่เสมอ ในโพสต์นี้ เราอธิบายผลลัพธ์ของการทดสอบการเพิ่มประสิทธิภาพการอนุมาน ซึ่งเราใช้เอ็นจิ้นการอนุมานของ DeepSpeed เพื่อเพิ่มความเร็วในการอนุมานของ GPT-J ประมาณ 116% นอกจากนี้เรายังอธิบายวิธีที่เราใช้การนำ GPT-J ไปใช้ Hugging Face Transformers ด้วย DeepSpeed ของเรา อเมซอน SageMaker จุดสิ้นสุดการอนุมาน
ภาพรวมของรุ่น GPT-J
GPT-J คือโมเดลภาษา generative pretrained (GPT) และในแง่ของสถาปัตยกรรม มันเทียบได้กับโมเดลภาษาขนาดใหญ่ที่เป็นที่นิยมและเป็นส่วนตัว เช่น GPT-3 ของ Open AI ตามที่ระบุไว้ก่อนหน้านี้ ประกอบด้วยพารามิเตอร์ประมาณ 6 พันล้านรายการและ 28 เลเยอร์ ซึ่งประกอบด้วย feedforward block และ self-attention block เมื่อเปิดตัวครั้งแรก GPT-J เป็นหนึ่งในโมเดลภาษาขนาดใหญ่รุ่นแรกๆ ที่ใช้ ฝังโรตารี่กลยุทธ์การเข้ารหัสตำแหน่งใหม่ที่รวมตัวเข้ารหัสตำแหน่งแบบสัมบูรณ์และแบบสัมพันธ์เข้าด้วยกัน นอกจากนี้ยังใช้กลยุทธ์การขนานที่เป็นนวัตกรรมใหม่ที่รวมเลเยอร์หนาแน่นและฟีดฟอร์เวิร์ดในเลเยอร์เดียว ซึ่งลดค่าใช้จ่ายในการสื่อสารให้เหลือน้อยที่สุด
แม้ว่า GPT-J อาจไม่ถือว่าใหญ่เท่ากับมาตรฐานในปัจจุบัน—โมเดลขนาดใหญ่โดยทั่วไปประกอบด้วยพารามิเตอร์มากกว่า 100 พันล้านตัว—ยังคงมีประสิทธิภาพที่น่าประทับใจ และด้วยวิศวกรรมที่รวดเร็วหรือการปรับแต่งเพียงเล็กน้อย คุณจึงสามารถใช้ GPT-J เพื่อแก้ปัญหาต่างๆ ได้ นอกจากนี้ ขนาดที่ค่อนข้างเจียมเนื้อเจียมตัว หมายความว่าคุณสามารถปรับใช้ได้อย่างรวดเร็วและมีค่าใช้จ่ายต่ำกว่ารุ่นใหญ่มาก
ที่กล่าวว่า GPT-J ยังค่อนข้างใหญ่ ตัวอย่างเช่น การฝึก GPT-J ใน FP32 ด้วยการอัปเดตน้ำหนักเต็ม และเครื่องมือเพิ่มประสิทธิภาพ Adam ต้องใช้หน่วยความจำมากกว่า 200 GB: 24 GB สำหรับพารามิเตอร์โมเดล 24 GB สำหรับการไล่ระดับสี 24 GB สำหรับการไล่ระดับสีของ Adam 24 GB สำหรับสถานะเครื่องมือเพิ่มประสิทธิภาพ และข้อกำหนดหน่วยความจำเพิ่มเติมสำหรับการโหลดชุดการฝึกและการเปิดใช้งานการจัดเก็บ แน่นอน การฝึกอบรมใน FP16 ช่วยลดความต้องการหน่วยความจำเหล่านี้ได้เกือบครึ่งหนึ่ง แต่พื้นที่หน่วยความจำมากกว่า 100 GB ยังคงต้องใช้กลยุทธ์การฝึกอบรมที่เป็นนวัตกรรมใหม่ ตัวอย่างเช่น ในความร่วมมือกับ SageMaker ทีม NLP ของ Mantium ได้พัฒนา a เวิร์กโฟลว์ สำหรับการฝึกอบรม (การปรับละเอียด) GPT-J โดยใช้ไลบรารีแบบขนานของแบบจำลอง SageMaker แบบกระจาย
ในทางตรงกันข้าม การให้บริการ GPT-J สำหรับการอนุมานนั้นมีความต้องการหน่วยความจำที่ต่ำกว่ามาก—ใน FP16 น้ำหนักของโมเดลนั้นใช้พื้นที่น้อยกว่า 13 GB ซึ่งหมายความว่าสามารถทำการอนุมานได้อย่างง่ายดายบน GPU ขนาด 16 GB เพียงตัวเดียว อย่างไรก็ตาม การอนุมานด้วยการใช้งาน GPT-J แบบนอกกรอบ เช่น Hugging Face Transformers การดำเนินงาน ที่เราใช้ค่อนข้างช้า เพื่อรองรับกรณีการใช้งานที่ต้องการการสร้างข้อความที่ตอบสนองได้ดี เราจึงมุ่งเน้นที่การลดเวลาแฝงในการอนุมานของ GPT-J
การตอบสนองที่ท้าทายของ GPT-J
เวลาแฝงในการตอบสนองเป็นอุปสรรคสำคัญสำหรับหม้อแปลงไฟฟ้าแบบสำเร็จรูป (GPT) เช่น GPT-J ที่ขับเคลื่อนการสร้างข้อความสมัยใหม่ โมเดล GPT สร้างข้อความผ่านลำดับขั้นตอนการอนุมาน ในแต่ละขั้นตอนการอนุมาน โมเดลจะได้รับข้อความเป็นอินพุต และตามเงื่อนไขของอินพุตนี้ โมเดลจะสุ่มตัวอย่างคำจากคำศัพท์เพื่อผนวกเข้ากับข้อความ ตัวอย่างเช่น เมื่อให้ลำดับของโทเค็น "ฉันต้องการร่มเพราะมันเป็น" โทเค็นถัดไปที่มีแนวโน้มสูงอาจเป็น "ฝนตก" อย่างไรก็ตาม อาจเป็น "แดดจัด" หรือ "ถูกผูกมัด" ซึ่งอาจเป็นก้าวแรกในลำดับข้อความ เช่น "ฉันต้องการร่มเพราะฝนกำลังจะตก"
สถานการณ์เช่นนี้ทำให้เกิดความท้าทายที่น่าสนใจในการปรับใช้โมเดล GPT เนื่องจากกรณีการใช้งานจริงอาจเกี่ยวข้องกับขั้นตอนการอนุมานหลายสิบ หลายร้อย หรือแม้แต่หลายพันขั้นตอน ตัวอย่างเช่น การสร้างการตอบสนอง 1,000 โทเค็น จำเป็นต้องมี 1,000 ขั้นตอนการอนุมาน! ดังนั้น แม้ว่าแบบจำลองอาจมีความเร็วในการอนุมานที่ดูเหมือนเร็วพอเมื่อแยกจากกัน แต่เวลาแฝงจะไปถึงระดับที่ไม่สามารถป้องกันได้เมื่อสร้างข้อความขนาดยาว เราสังเกตพบเวลาแฝงเฉลี่ย 280 มิลลิวินาทีต่อขั้นตอนการอนุมานบน V100 GPU อาจดูรวดเร็วสำหรับโมเดลพารามิเตอร์ 6.7 พันล้าน แต่ด้วยเวลาแฝงดังกล่าว ใช้เวลาประมาณ 30 วินาทีในการสร้างการตอบสนอง 500 โทเค็น ซึ่งไม่เหมาะจากมุมมองของประสบการณ์ผู้ใช้
การเพิ่มประสิทธิภาพความเร็วในการอนุมานด้วย DeepSpeed Inference
ความเร็วลึก เป็นไลบรารีการเพิ่มประสิทธิภาพการเรียนรู้เชิงลึกแบบโอเพนซอร์สที่พัฒนาโดย Microsoft แม้ว่าจะเน้นไปที่การปรับให้เหมาะสมสำหรับการฝึกโมเดลขนาดใหญ่เป็นหลัก แต่ DeepSpeed ยังมีเฟรมเวิร์กการปรับให้เหมาะสมโดยอนุมานซึ่งสนับสนุนชุดของโมเดลที่เลือก ซึ่งรวมถึง BERT, Megatron, GPT-Neo, GPT2 และ GPT-J การอนุมานแบบ DeepSpeed ช่วยอำนวยความสะดวกในการอนุมานที่มีประสิทธิภาพสูงด้วยสถาปัตยกรรมขนาดใหญ่ที่ใช้ Transformer ผ่านการผสมผสานระหว่างแบบจำลองขนานกัน เคอร์เนล CUDA ที่ปรับให้เหมาะสมที่สุดสำหรับการอนุมาน และการหาปริมาณ
เพื่อเพิ่มความเร็วในการอนุมานด้วย GPT-J เราใช้เครื่องมือการอนุมานของ DeepSpeed เพื่อฉีดเคอร์เนล CUDA ที่ปรับให้เหมาะสมลงในการใช้งาน Hugging Face Transformers GPT-J
ในการประเมินประโยชน์ด้านความเร็วของกลไกการอนุมานของ DeepSpeed เราได้ทำการทดสอบความหน่วงหลายชุด ซึ่งเรากำหนดเวลา GPT-J ภายใต้การกำหนดค่าต่างๆ โดยเฉพาะอย่างยิ่ง เราเปลี่ยนแปลงว่ามีการใช้ DeepSpeed หรือไม่ ฮาร์ดแวร์ ความยาวลำดับเอาต์พุต และความยาวลำดับอินพุต เราเน้นที่ความยาวของลำดับเอาต์พุตและอินพุต เนื่องจากทั้งคู่ส่งผลต่อความเร็วในการอนุมาน ในการสร้างลำดับเอาต์พุต 50 โทเค็น โมเดลต้องดำเนินการ 50 ขั้นตอนการอนุมาน นอกจากนี้ เวลาที่ต้องใช้ในการดำเนินการขั้นตอนการอนุมานจะขึ้นอยู่กับขนาดของลำดับอินพุต—อินพุตที่ใหญ่ขึ้นต้องใช้เวลาในการประมวลผลมากกว่า แม้ว่าผลกระทบของขนาดลำดับเอาต์พุตจะมากกว่าเอฟเฟกต์ของขนาดลำดับอินพุตอย่างมาก แต่ก็ยังจำเป็นต้องคำนึงถึงปัจจัยทั้งสองด้วย
ในการทดลองของเรา เราใช้การออกแบบต่อไปนี้:
- เอ็นจิ้นการอนุมาน DeepSpeed - เปิดปิด
- ฮาร์ดแวร์ – T4 (มล.g4dn.2xlarge), V100 (ml.p3.2xlarge)
- ความยาวของลำดับอินพุต – 50, 200, 500, 1000
- ความยาวลำดับเอาต์พุต – 50, 100, 150, 200
โดยรวมแล้ว การออกแบบนี้มี 64 ชุดของปัจจัยสี่เหล่านี้ และสำหรับแต่ละชุด เราได้ทำการทดสอบเวลาในการตอบสนอง 20 รายการ การทดสอบแต่ละครั้งดำเนินการบนจุดสิ้นสุดการอนุมานของ SageMaker ที่กำหนดค่าเริ่มต้นล่วงหน้า เพื่อให้มั่นใจว่าการทดสอบเวลาแฝงของเราสะท้อนถึงเวลาในการผลิต ซึ่งรวมถึงการแลกเปลี่ยน API และการประมวลผลล่วงหน้า
การทดสอบของเราแสดงให้เห็นว่าเอ็นจิ้นการอนุมาน GPT-J ของ DeepSpeed นั้นเร็วกว่าการใช้งาน Hugging Face Transformers PyTorch พื้นฐานอย่างมาก รูปภาพต่อไปนี้แสดงเวลาแฝงของการสร้างข้อความเฉลี่ยสำหรับ GPT-J โดยมีและไม่มีการเร่งความเร็ว DeepSpeed บน ml.g4dn.2xlarge และ ml.p3.2xlarge จุดสิ้นสุดการอนุมาน SageMaker
ในอินสแตนซ์ ml.g4dn.2xlarge ซึ่งติดตั้ง NVIDIA T16 GPU ขนาด 4 GB เราสังเกตเห็นการลดเวลาในการตอบสนองเฉลี่ยประมาณ 24% [ค่าเบี่ยงเบนมาตรฐาน (SD) = 0.05] ซึ่งสอดคล้องกับการเพิ่มขึ้นของโทเค็นเฉลี่ย 12.5 (SD = 0.91) ต่อวินาทีเป็นโทเค็นเฉลี่ย 16.5 (SD = 2.13) ต่อวินาที โดยเฉพาะอย่างยิ่ง เอฟเฟกต์การเร่งความเร็วของ DeepSpeed นั้นแข็งแกร่งยิ่งขึ้นในอินสแตนซ์ ml.p3.2xlarge ซึ่งมาพร้อมกับ NVIDIA V100 GPU สำหรับฮาร์ดแวร์นั้น เราสังเกตพบว่าเวลาแฝงเฉลี่ยลดลง 53% (SD = .07) ในแง่ของโทเค็นต่อวินาที สิ่งนี้สอดคล้องกับการเพิ่มขึ้นจากโทเค็นเฉลี่ย 21.9 (SD = 1.97) ต่อวินาทีเป็นโทเค็นเฉลี่ย 47.5 (SD = 5.8) ต่อวินาที
เรายังสังเกตด้วยว่าการเร่งความเร็วที่ DeepSpeed นำเสนอนั้นลดทอนลงเล็กน้อยในการกำหนดค่าฮาร์ดแวร์ทั้งสองแบบเมื่อขนาดของลำดับอินพุตเพิ่มขึ้น อย่างไรก็ตาม ในทุกสภาวะ การอนุมานด้วยการปรับแต่ง GPT-J ของ DeepSpeed ยังคงเร็วกว่าค่าพื้นฐานอย่างมาก ตัวอย่างเช่น ในอินสแตนซ์ g4dn การลดเวลาในการตอบสนองสูงสุดและต่ำสุดคือ 31% (ขนาดลำดับอินพุต = 50) และ 15% (ขนาดลำดับอินพุต = 1000) ตามลำดับ และในอินสแตนซ์ p3 การลดเวลาในการตอบสนองสูงสุดและต่ำสุดคือ 62% (ขนาดลำดับอินพุต = 50) และ 40% (ขนาดลำดับอินพุต = 1000) ตามลำดับ
การปรับใช้ GPT-J ด้วย DeepSpeed บนจุดสิ้นสุดการอนุมานของ SageMaker
นอกเหนือจากการเพิ่มความเร็วในการสร้างข้อความสำหรับ GPT-J อย่างมากแล้ว เอ็นจิ้นการอนุมานของ DeepSpeed ยังสามารถรวมเข้ากับจุดสิ้นสุดการอนุมานของ SageMaker ได้อย่างง่ายดาย ก่อนเพิ่ม DeepSpeed ลงในสแต็กการอนุมาน จุดปลายของเราทำงานบนอิมเมจ Docker ที่กำหนดเองโดยอิงจากอิมเมจ PyTorch อย่างเป็นทางการ SageMaker ช่วยให้ปรับใช้ปลายทางการอนุมานแบบกำหนดเองได้ง่ายมาก และการผสานรวม DeepSpeed นั้นง่ายพอๆ กับการรวมการพึ่งพาและการเขียนโค้ดสองสามบรรทัด มีคู่มือโอเพนซอร์สสำหรับเวิร์กโฟลว์การปรับใช้เพื่อปรับใช้ GPT-J ด้วย DeepSpeed ที่ GitHub.
สรุป
Mantium ทุ่มเทให้กับนวัตกรรมชั้นนำเพื่อให้ทุกคนสามารถสร้างด้วย AI ได้อย่างรวดเร็ว ตั้งแต่กระบวนการอัตโนมัติที่ขับเคลื่อนด้วย AI ไปจนถึงการตั้งค่าความปลอดภัยและการปฏิบัติตามข้อกำหนดที่เข้มงวด แพลตฟอร์มที่สมบูรณ์ของเรามีเครื่องมือทั้งหมดที่จำเป็นในการพัฒนาและจัดการแอปพลิเคชัน AI ที่มีประสิทธิภาพและมีความรับผิดชอบตามขนาด และลดอุปสรรคในการเข้า SageMaker ช่วยให้บริษัทต่างๆ เช่น Mantium เข้าสู่ตลาดได้อย่างรวดเร็ว
หากต้องการเรียนรู้ว่า Mantium สามารถช่วยคุณสร้างเวิร์กโฟลว์ที่ขับเคลื่อนด้วย AI ที่ซับซ้อนสำหรับองค์กรของคุณได้อย่างไร โปรดไปที่ www.mantiumai.com.
เกี่ยวกับผู้แต่ง
โจ ฮูเวอร์ เป็นนักวิทยาศาสตร์ประยุกต์อาวุโสในทีมวิจัยและพัฒนา AI ของ Mantium เขาหลงใหลในการพัฒนาแบบจำลอง วิธีการ และโครงสร้างพื้นฐานที่ช่วยให้ผู้คนแก้ปัญหาในโลกแห่งความเป็นจริงด้วยระบบ NLP ที่ล้ำสมัย ในเวลาว่าง เขาชอบแบกเป้เที่ยว ทำสวน ทำอาหาร และไปเที่ยวกับครอบครัว
ดาวัล พาเทล เป็นหัวหน้าสถาปนิก Machine Learning ที่ AWS เขาได้ทำงานร่วมกับองค์กรต่างๆ ตั้งแต่องค์กรขนาดใหญ่ไปจนถึงสตาร์ทอัพขนาดกลางในปัญหาที่เกี่ยวข้องกับการคำนวณแบบกระจายและปัญญาประดิษฐ์ เขามุ่งเน้นไปที่การเรียนรู้อย่างลึกซึ้งรวมถึงโดเมน NLP และ Computer Vision เขาช่วยให้ลูกค้าบรรลุการอนุมานแบบจำลองประสิทธิภาพสูงบน SageMaker
สุนิล ปัทมนาภรณ์ เป็นสถาปนิก Startup Solutions ที่ AWS ในฐานะอดีตผู้ก่อตั้งและ CTO ของสตาร์ทอัพ เขาหลงใหลเกี่ยวกับแมชชีนเลิร์นนิงและมุ่งเน้นที่การช่วยเหลือสตาร์ทอัพใช้ประโยชน์จาก AI/ML สำหรับผลลัพธ์ทางธุรกิจ และออกแบบและปรับใช้โซลูชัน ML/AI ในวงกว้าง
- "
- 000
- 100
- 28
- 7
- 9
- a
- เกี่ยวกับเรา
- แน่นอน
- เข้า
- ตาม
- ลงชื่อเข้าใช้
- บรรลุ
- ข้าม
- นอกจากนี้
- เพิ่มเติม
- มีผลต่อ
- AI
- ทั้งหมด
- แม้ว่า
- เสมอ
- อเมซอน
- การวิเคราะห์
- ทุกคน
- API
- APIs
- app
- การใช้งาน
- ประยุกต์
- เข้าใกล้
- ประมาณ
- ปพลิเคชัน
- สถาปัตยกรรม
- เทียม
- ปัญญาประดิษฐ์
- อัตโนมัติ
- อัตโนมัติ
- ใช้ได้
- เฉลี่ย
- AWS
- อุปสรรค
- baseline
- เพราะ
- ก่อน
- ประโยชน์ที่ได้รับ
- พันล้าน
- ปิดกั้น
- สร้าง
- สร้าง
- การก่อสร้าง
- ธุรกิจ
- ธุรกิจ
- กรณี
- ท้าทาย
- ความท้าทาย
- เมฆ
- แพลตฟอร์มคลาวด์
- รหัส
- การทำงานร่วมกัน
- การผสมผสาน
- รวม
- รวม
- การสื่อสาร
- บริษัท
- สมบูรณ์
- ซับซ้อน
- การปฏิบัติตาม
- ครอบคลุม
- คอมพิวเตอร์
- การคำนวณ
- เงื่อนไข
- แกน
- ได้
- CTO
- ประเพณี
- ลูกค้า
- ตัดขอบ
- ทุ่มเท
- ลึก
- มอบ
- สาธิต
- ทั้งนี้ขึ้นอยู่กับ
- ขึ้นอยู่กับ
- ปรับใช้
- นำไปใช้
- ปรับใช้
- การใช้งาน
- บรรยาย
- ออกแบบ
- ได้รับการออกแบบ
- พัฒนา
- พัฒนา
- ที่กำลังพัฒนา
- พัฒนาการ
- กระจาย
- คอมพิวเตอร์แบบกระจาย
- นักเทียบท่า
- โดเมน
- เป็นคุ้งเป็นแคว
- อย่างง่ายดาย
- ผล
- พนักงาน
- ช่วยให้
- จบสิ้น
- ปลายทาง
- เครื่องยนต์
- ชั้นเยี่ยม
- วิศวกร
- การสร้างความมั่นใจ
- ผู้ประกอบการ
- พร้อม
- ประเมินค่า
- ทุกคน
- ตัวอย่าง
- แลกเปลี่ยน
- ประสบการณ์
- การทดลอง
- กว้างขวาง
- พิเศษ
- ใบหน้า
- ปัจจัย
- ครอบครัว
- FAST
- เร็วขึ้น
- ลักษณะ
- คุณสมบัติ
- รูป
- ชื่อจริง
- มุ่งเน้น
- มุ่งเน้นไปที่
- ดังต่อไปนี้
- รอยพระบาท
- ผู้สร้าง
- กรอบ
- ราคาเริ่มต้นที่
- เต็ม
- นอกจากนี้
- สร้าง
- การสร้าง
- รุ่น
- กำเนิด
- เหตุการณ์ที่
- การกำกับดูแล
- GPU
- การเจริญเติบโต
- ให้คำแนะนำ
- ฮาร์ดแวร์
- ช่วย
- การช่วยเหลือ
- จะช่วยให้
- โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม
- จุดสูง
- อย่างสูง
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- อย่างไรก็ตาม
- HTTPS
- ร้อย
- ในอุดมคติ
- ภาพ
- การดำเนินงาน
- รวมทั้ง
- เพิ่ม
- ที่เพิ่มขึ้น
- นักวิเคราะห์ส่วนบุคคลที่หาโอกาสให้เป็นไปได้มากที่สุด
- นวัตกรรม
- อินพุต
- ตัวอย่าง
- รวบรวม
- การผสานรวม
- Intelligence
- ความเหงา
- IT
- ภาษา
- ใหญ่
- ที่มีขนาดใหญ่
- ใหญ่ที่สุด
- ชั้น
- ชั้นนำ
- เรียนรู้
- การเรียนรู้
- ชั้น
- ระดับ
- เลฟเวอเรจ
- ห้องสมุด
- เส้น
- โหลด
- นาน
- ที่ต้องการหา
- เครื่อง
- เรียนรู้เครื่อง
- ทำ
- ทำให้
- จัดการ
- การจัดการ
- ตลาด
- วิธี
- หน่วยความจำ
- วิธีการ
- ไมโครซอฟท์
- อาจ
- ขั้นต่ำ
- ML
- แบบ
- โมเดล
- การตรวจสอบ
- เดือน
- ข้อมูลเพิ่มเติม
- โดยธรรมชาติ
- จำเป็น
- Nvidia
- อุปสรรค
- เสนอ
- เสนอ
- เป็นทางการ
- เปิด
- โอเพนซอร์ส
- การดำเนินการ
- การเพิ่มประสิทธิภาพ
- การปรับให้เหมาะสม
- การเพิ่มประสิทธิภาพ
- organizacja
- องค์กร
- ของตนเอง
- หลงใหล
- คน
- การปฏิบัติ
- มุมมอง
- เวที
- นโยบาย
- นโยบาย
- ยอดนิยม
- ตำแหน่ง
- บวก
- เป็นไปได้
- อำนาจ
- การคาดการณ์
- สวย
- หลัก
- ส่วนตัว
- ปัญหาที่เกิดขึ้น
- กระบวนการ
- กระบวนการอัตโนมัติ
- กระบวนการ
- การประมวลผล
- การผลิต
- ผู้จัดหา
- ผู้ให้บริการ
- ให้
- การให้
- แก้ไข
- อย่างรวดเร็ว
- วิจัยและพัฒนา
- ยก
- ตั้งแต่
- มาถึง
- ลด
- สะท้อน
- การเผยแพร่
- สัมพันธ์
- การแสดง
- ต้องการ
- จำเป็นต้องใช้
- ความต้องการ
- ต้อง
- คำตอบ
- รับผิดชอบ
- ผลสอบ
- วิ่ง
- วิ่ง
- ความปลอดภัย
- กล่าวว่า
- ขนาด
- นักวิทยาศาสตร์
- วินาที
- การเลือก
- ความรู้สึก
- ชุด
- การให้บริการ
- ชุด
- ง่าย
- เดียว
- ขนาด
- So
- ซอฟต์แวร์
- โซลูชัน
- แก้
- บาง
- ซับซ้อน
- เฉพาะ
- ความเร็ว
- ความเร็ว
- การใช้จ่าย
- กอง
- มาตรฐาน
- เริ่มต้น
- การเริ่มต้น
- startups
- รัฐของศิลปะ
- สหรัฐอเมริกา
- ยังคง
- กลยุทธ์
- กลยุทธ์
- แข็งแกร่ง
- สนับสนุน
- รองรับ
- ระบบ
- ทีม
- วิชาการ
- เงื่อนไขการใช้บริการ
- ทดสอบ
- การทดสอบ
- พื้นที่
- ดังนั้น
- พัน
- ตลอด
- เวลา
- ครั้ง
- วันนี้
- ร่วมกัน
- โทเค็น
- ราชสกุล
- เครื่องมือ
- ตามธรรมเนียม
- การฝึกอบรม
- เป็นปกติ
- ui
- ภายใต้
- การปรับปรุง
- ใช้
- ผู้ใช้
- ต่างๆ
- วิสัยทัศน์
- วิธี
- เว็บ
- อะไร
- ล้อ
- ว่า
- ไม่มี
- ทำงาน
- ขั้นตอนการทำงาน
- การเขียน
- ของคุณ