โพสต์นี้ร่วมเขียนโดย Marios Skevofylakas, Jason Ramchandani และ Haykaz Aramyan จาก Refinitiv, An LSEG Business
ผู้ให้บริการทางการเงินมักจะจำเป็นต้องระบุข่าวที่เกี่ยวข้อง วิเคราะห์ ดึงข้อมูลเชิงลึก และดำเนินการตามเวลาจริง เช่น การซื้อขายตราสารเฉพาะ (เช่น สินค้าโภคภัณฑ์ หุ้น กองทุน) ตามข้อมูลเพิ่มเติมหรือบริบทของรายการข่าว ข้อมูลเพิ่มเติมอย่างหนึ่ง (ซึ่งเราใช้เป็นตัวอย่างในโพสต์นี้) คือความรู้สึกของข่าว
Refinitiv Data (RD) Libraries จัดเตรียมชุดอินเทอร์เฟซที่ครอบคลุมสำหรับการเข้าถึงแค็ตตาล็อกข้อมูล Refinitiv อย่างสม่ำเสมอ ไลบรารีนำเสนอสิ่งที่เป็นนามธรรมหลายชั้นโดยให้รูปแบบและเทคนิคการเขียนโปรแกรมที่แตกต่างกันซึ่งเหมาะสำหรับนักพัฒนาทุกคน ตั้งแต่เวลาแฝงต่ำ การเข้าถึงตามเวลาจริง ไปจนถึงการส่งผ่านข้อมูล Refinitiv เป็นชุด
ในโพสต์นี้ เรานำเสนอสถาปัตยกรรม AWS ต้นแบบที่นำเข้าฟีดข่าวของเราโดยใช้ RD Libraries และปรับปรุงด้วยการคาดคะเนโมเดลแมชชีนเลิร์นนิง (ML) โดยใช้ อเมซอน SageMakerซึ่งเป็นบริการ ML ที่มีการจัดการเต็มรูปแบบจาก AWS
ในความพยายามที่จะออกแบบสถาปัตยกรรมโมดูลาร์ที่สามารถใช้ในกรณีการใช้งานที่หลากหลาย เช่น การวิเคราะห์ความรู้สึก การจดจำชื่อเอนทิตี และอื่นๆ โดยไม่คำนึงถึงโมเดล ML ที่ใช้ในการปรับปรุง เราตัดสินใจที่จะมุ่งเน้นไปที่พื้นที่เรียลไทม์ เหตุผลสำหรับการตัดสินใจนี้คือกรณีการใช้งานตามเวลาจริงมักจะซับซ้อนกว่า และสามารถใช้สถาปัตยกรรมเดียวกันได้ด้วยการปรับเปลี่ยนเพียงเล็กน้อยสำหรับการอนุมานแบบกลุ่ม ในกรณีการใช้งานของเรา เราใช้สถาปัตยกรรมที่รับฟีดข่าวตามเวลาจริง คำนวณความรู้สึกในแต่ละหัวข้อข่าวโดยใช้ ML และให้บริการฟีดที่ได้รับการปรับปรุงด้วย AI อีกครั้งผ่านสถาปัตยกรรมผู้เผยแพร่/ผู้สมัครสมาชิก
ยิ่งไปกว่านั้น เพื่อนำเสนอวิธีการผลิตโมเดล ML ที่ครอบคลุมและใช้ซ้ำได้โดยใช้แนวทางปฏิบัติของ MLOps เราได้แนะนำแนวคิดของโครงสร้างพื้นฐานในรูปแบบโค้ด (IaC) ตลอดวงจรชีวิต MLOps ทั้งหมดของต้นแบบ ด้วยการใช้ Terraform และสคริปต์ที่กำหนดค่าจุดเข้าใช้งานเพียงจุดเดียว เราจึงสามารถสร้างอินสแตนซ์ของโครงสร้างพื้นฐานทั้งหมด ในโหมดการผลิต บน AWS ได้ในเวลาเพียงไม่กี่นาที
ในโซลูชันนี้ เราไม่ได้กล่าวถึงแง่มุม MLOps ของการพัฒนา การฝึกอบรม และการปรับใช้โมเดลแต่ละรายการ หากคุณสนใจที่จะเรียนรู้เพิ่มเติมเกี่ยวกับเรื่องนี้ โปรดดูที่ แผนงานพื้นฐาน MLOps สำหรับองค์กรด้วย Amazon SageMakerซึ่งอธิบายรายละเอียดกรอบงานสำหรับการสร้างแบบจำลอง การฝึกอบรม และการปรับใช้ตามแนวทางปฏิบัติที่ดีที่สุด
ภาพรวมโซลูชัน
ในต้นแบบนี้ เราปฏิบัติตามวิธีการจัดเตรียมแบบอัตโนมัติโดยสมบูรณ์ตาม IaC ปฏิบัติที่ดีที่สุด. IaC เป็นกระบวนการจัดเตรียมทรัพยากรโดยใช้โปรแกรมโดยใช้สคริปต์อัตโนมัติ แทนที่จะใช้เครื่องมือกำหนดค่าแบบโต้ตอบ ทรัพยากรสามารถเป็นได้ทั้งฮาร์ดแวร์และซอฟต์แวร์ที่จำเป็น ในกรณีของเรา เราใช้ Terraform เพื่อใช้งานจุดเข้าใช้งานที่กำหนดค่าได้จุดเดียวซึ่งสามารถหมุนโครงสร้างพื้นฐานทั้งหมดที่เราต้องการโดยอัตโนมัติ รวมถึงนโยบายความปลอดภัยและการเข้าถึง เช่นเดียวกับการตรวจสอบอัตโนมัติ ด้วยจุดเข้าใช้งานเพียงจุดเดียวที่ทริกเกอร์ชุดของสคริปต์ Terraform หนึ่งรายการต่อเอนทิตีบริการหรือทรัพยากร เราสามารถทำให้วงจรชีวิตของส่วนประกอบทั้งหมดหรือบางส่วนของสถาปัตยกรรมเป็นแบบอัตโนมัติได้อย่างสมบูรณ์ ทำให้เราสามารถใช้การควบคุมแบบละเอียดทั้งบน DevOps และ ด้าน MLOps หลังจากติดตั้ง Terraform อย่างถูกต้องและรวมเข้ากับ AWS แล้ว เราสามารถทำซ้ำการดำเนินการส่วนใหญ่ที่สามารถทำได้บนแดชบอร์ดบริการของ AWS
ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมโซลูชันของเรา
สถาปัตยกรรมประกอบด้วยสามขั้นตอน: การส่งผ่าน การเพิ่มคุณค่า และการเผยแพร่ ในช่วงแรก ฟีดตามเวลาจริงจะถูกนำเข้าบน อเมซอน อีลาสติก คอมพิวท์ คลาวด์ อินสแตนซ์ (Amazon EC2) ที่สร้างขึ้นผ่าน AMI ที่พร้อมใช้งาน Refinitiv Data Library อินสแตนซ์ยังเชื่อมต่อกับสตรีมข้อมูลผ่านทาง สตรีมข้อมูล Amazon Kinesisซึ่งทำให้เกิดไฟล์ AWS แลมบ์ดา ฟังก์ชัน
ในขั้นตอนที่สอง ฟังก์ชัน Lambda ที่เรียกใช้จาก Kinesis Data Streams จะเชื่อมต่อและส่งหัวข้อข่าวไปยัง SageMaker ฟินเบิร์ต จุดสิ้นสุด ซึ่งจะส่งคืนความเชื่อมั่นที่คำนวณได้สำหรับรายการข่าว ความรู้สึกที่คำนวณได้นี้เป็นการเพิ่มคุณค่าให้กับข้อมูลตามเวลาจริง ซึ่งฟังก์ชันแลมบ์ดาจะรวมรายการข่าวและจัดเก็บไว้ใน อเมซอน ไดนาโมดีบี ตาราง
ในขั้นตอนที่สามของสถาปัตยกรรม สตรีม DynamoDB จะทริกเกอร์ฟังก์ชัน Lambda ในการแทรกรายการใหม่ ซึ่งรวมเข้ากับ เซิร์ฟเวอร์ Amazon MQ ใช้ RabbitMQ ซึ่งให้บริการสตรีมที่ปรับปรุงแล้วของ AI อีกครั้ง
การตัดสินใจเกี่ยวกับการออกแบบทางวิศวกรรมแบบสามขั้นตอนนี้ แทนที่จะเป็นเลเยอร์ Lambda แรกที่สื่อสารโดยตรงกับเซิร์ฟเวอร์ Amazon MQ หรือใช้ฟังก์ชันการทำงานเพิ่มเติมในอินสแตนซ์ EC2 นั้นถูกสร้างขึ้นเพื่อให้สามารถสำรวจสถาปัตยกรรมการออกแบบ AI ที่ซับซ้อนและน้อยลงได้ในอนาคต
การสร้างและปรับใช้ต้นแบบ
เรานำเสนอต้นแบบนี้ในชุดพิมพ์เขียวที่มีรายละเอียดสามชุด ในพิมพ์เขียวแต่ละรายการและสำหรับทุกบริการที่ใช้ คุณจะพบภาพรวมและข้อมูลที่เกี่ยวข้องเกี่ยวกับการใช้งานด้านเทคนิค ตลอดจนสคริปต์ Terraform ที่ให้คุณเริ่มต้น กำหนดค่า และผสานรวมบริการเข้ากับโครงสร้างส่วนที่เหลือได้โดยอัตโนมัติ ในตอนท้ายของพิมพ์เขียวแต่ละรายการ คุณจะพบคำแนะนำเกี่ยวกับวิธีตรวจสอบให้แน่ใจว่าทุกอย่างทำงานตามที่คาดไว้ในแต่ละขั้นตอน พิมพ์เขียวมีดังนี้:
ในการเริ่มต้นใช้งานต้นแบบนี้ เราขอแนะนำให้สร้างสภาพแวดล้อม Python ใหม่โดยเฉพาะและติดตั้งแพ็คเกจและเครื่องมือที่จำเป็นแยกต่างหากจากสภาพแวดล้อมอื่นที่คุณอาจมี ในการดำเนินการดังกล่าว ให้สร้างและเปิดใช้งานสภาพแวดล้อมใหม่ใน Anaconda โดยใช้คำสั่งต่อไปนี้:
ตอนนี้เราพร้อมที่จะติดตั้ง อินเทอร์เฟซบรรทัดคำสั่ง AWS AWS ชุดเครื่องมือ (AWS CLI) ที่จะช่วยให้เราสามารถสร้างการโต้ตอบทางโปรแกรมที่จำเป็นทั้งหมดในและระหว่างบริการของ AWS:
เมื่อติดตั้ง AWS CLI แล้ว เราจำเป็นต้องติดตั้ง Terraform HashiCorp ให้บริการ Terraform ด้วยโปรแกรมติดตั้งแบบไบนารี ซึ่งคุณสามารถทำได้ ดาวน์โหลด และติดตั้ง
หลังจากที่คุณติดตั้งเครื่องมือทั้งสองแล้ว ตรวจสอบให้แน่ใจว่าเครื่องมือเหล่านี้ทำงานได้อย่างถูกต้องโดยใช้คำสั่งต่อไปนี้:
ตอนนี้คุณพร้อมที่จะปฏิบัติตามพิมพ์เขียวโดยละเอียดในแต่ละขั้นตอนของการดำเนินการทั้งสามขั้นตอนแล้ว
พิมพ์เขียวนี้แสดงถึงขั้นตอนเริ่มต้นของสถาปัตยกรรมที่ช่วยให้เราสามารถรับฟีดข่าวตามเวลาจริงได้ ประกอบด้วยส่วนประกอบดังต่อไปนี้:
- Amazon EC2 กำลังเตรียมอินสแตนซ์ของคุณสำหรับการส่งผ่านข้อมูล RD News – ส่วนนี้ตั้งค่าอินสแตนซ์ EC2 ในวิธีที่เปิดใช้งานการเชื่อมต่อกับ RD Libraries API และสตรีมตามเวลาจริง นอกจากนี้ เรายังแสดงวิธีบันทึกอิมเมจของอินสแตนซ์ที่สร้างขึ้นเพื่อให้แน่ใจว่าสามารถนำมาใช้ซ้ำได้และปรับขนาดได้
- การรับข่าวสารตามเวลาจริงจาก Amazon EC2 – การใช้งานโดยละเอียดของการกำหนดค่าที่จำเป็นในการเปิดใช้งาน Amazon EC2 เพื่อเชื่อมต่อไลบรารี RD รวมถึงสคริปต์เพื่อเริ่มการนำเข้า
- การสร้างและเปิดใช้งาน Amazon EC2 จาก AMI – เปิดตัวอินสแตนซ์ใหม่โดยการถ่ายโอนไฟล์การนำเข้าไปยังอินสแตนซ์ที่สร้างขึ้นใหม่พร้อมกัน ทั้งหมดนี้ใช้ Terraform โดยอัตโนมัติ
- การสร้างสตรีมข้อมูล Kinesis – ส่วนนี้ให้ภาพรวมของ Kinesis Data Streams และวิธีตั้งค่าสตรีมบน AWS
- เชื่อมต่อและส่งข้อมูลไปยัง Kinesis – เมื่อรหัสการส่งผ่านข้อมูลทำงาน เราจำเป็นต้องเชื่อมต่อและส่งข้อมูลไปยังสตรีม Kinesis
- การทดสอบต้นแบบจนถึงปัจจุบัน - เราใช้ อเมซอน คลาวด์วอตช์ และเครื่องมือบรรทัดคำสั่งเพื่อตรวจสอบว่าต้นแบบทำงานได้จนถึงจุดนี้ และเราสามารถดำเนินการต่อไปยังพิมพ์เขียวถัดไปได้ บันทึกของข้อมูลที่นำเข้าควรมีลักษณะเหมือนภาพหน้าจอต่อไปนี้
ในพิมพ์เขียวที่สองนี้ เรามุ่งเน้นไปที่ส่วนหลักของสถาปัตยกรรม: ฟังก์ชันแลมบ์ดาที่นำเข้าและวิเคราะห์สตรีมรายการข่าว แนบการอนุมานของ AI เข้าไปด้วย และเก็บไว้เพื่อใช้งานต่อไป ประกอบด้วยส่วนประกอบต่อไปนี้:
- แลมบ์ดา – กำหนดค่า Terraform Lambda เพื่อให้เชื่อมต่อกับปลายทาง SageMaker
- Amazon S3 – ในการนำ Lambda ไปใช้ เราจำเป็นต้องอัปโหลดโค้ดที่เหมาะสม บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (Amazon S3) และอนุญาตให้ฟังก์ชัน Lambda ส่งผ่านข้อมูลในสภาพแวดล้อมของมัน ส่วนนี้อธิบายถึงวิธีที่เราสามารถใช้ Terraform เพื่อทำสิ่งนั้นให้สำเร็จ
- การใช้ฟังก์ชัน Lambda: ขั้นตอนที่ 1 จัดการเหตุการณ์ Kinesis – ในส่วนนี้ เราจะเริ่มสร้างฟังก์ชันแลมบ์ดา ที่นี่ เราสร้างเฉพาะส่วนตัวจัดการการตอบสนองสตรีมข้อมูล Kinesis
- SageMaker – ในต้นแบบนี้ เราใช้แบบจำลอง Hugging Face ที่ได้รับการฝึกฝนล่วงหน้าซึ่งเราจัดเก็บไว้ในตำแหน่งข้อมูล SageMaker ที่นี่ เราจะนำเสนอวิธีการบรรลุผลสำเร็จโดยใช้สคริปต์ Terraform และการผสานรวมที่เหมาะสมเกิดขึ้นเพื่อให้จุดสิ้นสุดของ SageMaker และฟังก์ชัน Lambda ทำงานร่วมกันได้อย่างไร
- ณ จุดนี้ คุณสามารถใช้โมเดลอื่นที่คุณพัฒนาและปรับใช้หลังตำแหน่งข้อมูล SageMaker แทนได้ โมเดลดังกล่าวสามารถปรับปรุงข้อมูลข่าวต้นฉบับให้แตกต่างออกไปตามความต้องการของคุณ ตัวเลือกนี้สามารถอนุมานได้กับหลายรุ่นสำหรับการปรับปรุงหลายรายการหากมีอยู่ ด้วยสถาปัตยกรรมที่เหลือ โมเดลดังกล่าวจะเพิ่มคุณค่าให้กับแหล่งข้อมูลของคุณในแบบเรียลไทม์
- การสร้างฟังก์ชัน Lambda: ขั้นตอนที่ 2 การเรียกใช้ตำแหน่งข้อมูล SageMaker – ในส่วนนี้ เราสร้างฟังก์ชัน Lambda ดั้งเดิมของเราโดยเพิ่มบล็อก SageMaker เพื่อรับพาดหัวข่าวที่ปรับปรุงความรู้สึกโดยเรียกใช้จุดสิ้นสุด SageMaker
- DynamoDB – สุดท้าย เมื่อการอนุมานของ AI อยู่ในหน่วยความจำของฟังก์ชัน Lambda ก็จะรวมรายการอีกครั้งและส่งไปยังตาราง DynamoDB เพื่อจัดเก็บ ในที่นี้ เราจะพูดถึงทั้งโค้ด Python ที่เหมาะสมซึ่งจำเป็นสำหรับการดำเนินการดังกล่าว รวมถึงสคริปต์ Terraform ที่จำเป็นซึ่งเปิดใช้งานการโต้ตอบเหล่านี้
- การสร้างฟังก์ชัน Lambda: ขั้นตอนที่ 3 พุชข้อมูลที่ปรับปรุงแล้วไปยัง DynamoDB – ที่นี่ เรายังคงสร้างฟังก์ชัน Lambda ของเราต่อไปโดยเพิ่มส่วนสุดท้ายที่สร้างรายการในตารางไดนาโม
- การทดสอบต้นแบบจนถึงปัจจุบัน – เราสามารถนำทางไปยังตาราง DynamoDB บนคอนโซล DynamoDB เพื่อยืนยันว่าการปรับปรุงของเราปรากฏในตาราง
พิมพ์เขียวที่สามนี้สรุปต้นแบบนี้ โดยมุ่งเน้นที่การกระจายรายการข้อมูล AI ที่ปรับปรุงใหม่ที่สร้างขึ้นใหม่ไปยังเซิร์ฟเวอร์ RabbitMQ ใน Amazon MQ ทำให้ผู้บริโภคเชื่อมต่อและเรียกค้นรายการข่าวที่ปรับปรุงแล้วได้แบบเรียลไทม์ ประกอบด้วยส่วนประกอบต่อไปนี้:
- สตรีม DynamoDB – เมื่อรายการข่าวที่ปรับปรุงแล้วอยู่ใน DynamoDB เราจะตั้งค่าเหตุการณ์ที่จะถูกทริกเกอร์ซึ่งสามารถบันทึกได้จากฟังก์ชัน Lambda ที่เหมาะสม
- เขียนผู้ผลิตแลมบ์ดา – ฟังก์ชัน Lambda นี้จับภาพเหตุการณ์และทำหน้าที่เป็นโปรดิวเซอร์ของสตรีม RabbitMQ ฟังก์ชันใหม่นี้แนะนำแนวคิดของเลเยอร์แลมบ์ดาเนื่องจากใช้ไลบรารีของ Python เพื่อใช้งานฟังก์ชันโปรดิวเซอร์
- ผู้บริโภค Amazon MQ และ RabbitMQ – ขั้นตอนสุดท้ายของต้นแบบคือการตั้งค่าบริการ RabbitMQ และใช้งานผู้บริโภคตัวอย่างที่จะเชื่อมต่อกับสตรีมข้อความและรับรายการข่าวที่ปรับปรุงโดย AI
- การทดสอบขั้นสุดท้ายของต้นแบบ – เราใช้กระบวนการแบบ end-to-end เพื่อตรวจสอบว่าต้นแบบทำงานได้อย่างสมบูรณ์ ตั้งแต่การส่งผ่านข้อมูลไปจนถึงการเสิร์ฟซ้ำและการบริโภคสตรีมใหม่ที่ปรับปรุงด้วย AI
ในขั้นตอนนี้ คุณสามารถตรวจสอบว่าทุกอย่างใช้งานได้โดยไปที่แดชบอร์ด RabbitMQ ดังที่แสดงในภาพหน้าจอต่อไปนี้
ในพิมพ์เขียวขั้นสุดท้าย คุณยังพบเวกเตอร์การทดสอบโดยละเอียดเพื่อให้แน่ใจว่าสถาปัตยกรรมทั้งหมดทำงานตามที่วางแผนไว้
สรุป
ในโพสต์นี้ เราได้แชร์โซลูชันโดยใช้ ML บนระบบคลาวด์กับบริการของ AWS เช่น SageMaker (ML), Lambda (แบบไร้เซิร์ฟเวอร์) และ Kinesis Data Streams (สตรีมมิง) เพื่อเพิ่มคุณค่าข้อมูลข่าวแบบสตรีมโดย Refinitiv Data Libraries โซลูชันจะเพิ่มคะแนนความเชื่อมั่นให้กับรายการข่าวแบบเรียลไทม์ และปรับขนาดโครงสร้างพื้นฐานโดยใช้โค้ด
ประโยชน์ของสถาปัตยกรรมโมดูลาร์นี้คือคุณสามารถใช้ซ้ำกับโมเดลของคุณเองเพื่อดำเนินการเสริมข้อมูลประเภทอื่นๆ ด้วยวิธีไร้เซิร์ฟเวอร์ ปรับขยายได้ และประหยัดค่าใช้จ่าย ซึ่งสามารถนำไปใช้กับ Refinitiv Data Library ได้ สิ่งนี้สามารถเพิ่มมูลค่าให้กับเวิร์กโฟลว์การซื้อขาย/การลงทุน/การบริหารความเสี่ยง
หากคุณมีความคิดเห็นหรือคำถามใด ๆ โปรดทิ้งไว้ในส่วนความคิดเห็น
ข้อมูลที่เกี่ยวข้อง
เกี่ยวกับผู้เขียน
มาริโอส สเกโวฟีลาคัส มาจากบริการทางการเงิน วาณิชธนกิจ และเทคโนโลยีการให้คำปรึกษา เขาสำเร็จการศึกษาระดับปริญญาเอกด้านวิศวกรรมศาสตร์ ในปัญญาประดิษฐ์และวท.ม. ในแมชชีนวิชัน ตลอดอาชีพของเขา เขาได้มีส่วนร่วมในโครงการ AI และ DLT แบบสหสาขาวิชาชีพมากมาย ปัจจุบันเขาเป็นผู้สนับสนุนนักพัฒนาที่ Refinitiv ซึ่งเป็นธุรกิจ LSEG โดยเน้นที่แอปพลิเคชัน AI และควอนตัมในบริการทางการเงิน
เจสัน รามจันดานี เคยทำงานที่ Refinitiv ซึ่งเป็นธุรกิจ LSEG เป็นเวลา 8 ปีในตำแหน่ง Lead Developer Advocate ที่ช่วยสร้างชุมชนนักพัฒนาของพวกเขา ก่อนหน้านี้เขาเคยทำงานในตลาดการเงินมากว่า 15 ปี โดยมีความรู้พื้นฐานในด้านตราสารทุน/ส่วนที่เกี่ยวข้องกับตราสารทุนที่ Okasan Securities, Sakura Finance และ Jefferies LLC โรงเรียนเก่าของเขาคือ UCL
เฮย์กัซ อารามยัน มาจากพื้นฐานทางการเงินและเทคโนโลยี เขาจบปริญญาเอก สาขาการเงิน และ วท.ม. ในด้านการเงิน เทคโนโลยี และนโยบาย ด้วยประสบการณ์ระดับมืออาชีพกว่า 10 ปี Haykaz ได้ทำงานในโครงการสหสาขาวิชาชีพหลายโครงการที่เกี่ยวข้องกับเงินบำนาญ กองทุน VC และธุรกิจสตาร์ทอัพด้านเทคโนโลยี ปัจจุบันเขาเป็นนักพัฒนาที่สนับสนุน Refinitiv ซึ่งเป็นธุรกิจ LSEG โดยเน้นที่แอปพลิเคชัน AI ในบริการทางการเงิน
จอร์จิออส ชินาส เป็นสถาปนิกผู้เชี่ยวชาญด้านโซลูชันอาวุโสสำหรับ AI/ML ในภูมิภาค EMEA เขาประจำอยู่ในลอนดอนและทำงานใกล้ชิดกับลูกค้าในสหราชอาณาจักรและไอร์แลนด์ Georgios ช่วยลูกค้าออกแบบและปรับใช้แอปพลิเคชันแมชชีนเลิร์นนิงในการผลิตบน AWS โดยมีความสนใจเป็นพิเศษในแนวทางปฏิบัติของ MLOps และทำให้ลูกค้าสามารถดำเนินการแมชชีนเลิร์นนิงในวงกว้างได้ ในเวลาว่าง เขาชอบท่องเที่ยว ทำอาหาร และใช้เวลากับเพื่อนและครอบครัว
มูทูเวลัน สวามินาธาน เป็น Enterprise Solutions Architect จากนิวยอร์ก เขาทำงานร่วมกับลูกค้าระดับองค์กรโดยให้คำแนะนำด้านสถาปัตยกรรมในการสร้างโซลูชันนวัตกรรมที่ยืดหยุ่น ประหยัดต้นทุน และตอบสนองความต้องการทางธุรกิจของพวกเขา และช่วยให้พวกเขาดำเนินการตามขนาดโดยใช้ผลิตภัณฑ์และบริการของ AWS
มยุร อูเดอร์นานี เป็นผู้นำธุรกิจ AWS AI & ML กับองค์กรการค้าในสหราชอาณาจักรและไอร์แลนด์ ในบทบาทของเขา Mayur ใช้เวลาส่วนใหญ่กับลูกค้าและคู่ค้าเพื่อช่วยสร้างโซลูชันที่มีประสิทธิภาพซึ่งช่วยแก้ปัญหาความต้องการเร่งด่วนที่สุดของลูกค้าหรือสำหรับอุตสาหกรรมที่กว้างขึ้นโดยใช้ประโยชน์จากบริการ AWS Cloud, AI & ML Mayur อาศัยอยู่ในพื้นที่ลอนดอน เขาสำเร็จการศึกษา MBA จาก Indian Institute of Management และปริญญาตรีสาขาวิศวกรรมคอมพิวเตอร์จากมหาวิทยาลัยมุมไบ
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- เพลโตบล็อคเชน Web3 Metaverse ข่าวกรอง ขยายความรู้. เข้าถึงได้ที่นี่.
- ที่มา: https://aws.amazon.com/blogs/machine-learning/enriching-real-time-news-streams-with-the-refinitiv-data-library-aws-services-and-amazon-sagemaker/
- 1
- 10
- 100
- 7
- a
- สามารถ
- เกี่ยวกับเรา
- เข้า
- ประสบความสำเร็จ
- การปฏิบัติ
- การกระทำ
- เพิ่มเติม
- ข้อมูลเพิ่มเติม
- ที่อยู่
- เพิ่ม
- การนำ
- ผู้สนับสนุน
- หลังจาก
- AI
- AI / ML
- ทั้งหมด
- การอนุญาต
- อัลมา
- อเมซอน
- Amazon EC2
- อเมซอน SageMaker
- การวิเคราะห์
- วิเคราะห์
- การวิเคราะห์
- และ
- API
- การใช้งาน
- ประยุกต์
- เหมาะสม
- ในเชิงสถาปัตยกรรม
- สถาปัตยกรรม
- AREA
- เทียม
- ปัญญาประดิษฐ์
- แง่มุม
- โดยอัตโนมัติ
- อัตโนมัติ
- อัตโนมัติ
- AWS
- พื้นหลัง
- การธนาคาร
- ตาม
- หลัง
- ประโยชน์
- ที่ดีที่สุด
- ปฏิบัติที่ดีที่สุด
- ระหว่าง
- ปิดกั้น
- สร้าง
- การก่อสร้าง
- ธุรกิจ
- คำนวณ
- คำนวณ
- จับ
- ความก้าวหน้า
- กรณี
- กรณี
- อย่างใกล้ชิด
- เมฆ
- รหัส
- ชุด
- ความคิดเห็น
- เชิงพาณิชย์
- สินค้าโภคภัณฑ์
- การติดต่อสื่อสาร
- ชุมชน
- ซับซ้อน
- ส่วนประกอบ
- ครอบคลุม
- คำนวณ
- คอมพิวเตอร์
- วิศวกรรมคอมพิวเตอร์
- แนวคิด
- องค์ประกอบ
- เชื่อมต่อ
- การเชื่อมต่อ
- เชื่อมต่อ
- ปลอบใจ
- การให้คำปรึกษา
- ผู้บริโภค
- ผู้บริโภค
- สิ่งแวดล้อม
- ต่อ
- ควบคุม
- ค่าใช้จ่ายที่มีประสิทธิภาพ
- ได้
- ควบคู่
- สร้าง
- ที่สร้างขึ้น
- สร้าง
- การสร้าง
- ขณะนี้
- ลูกค้า
- ลูกค้า
- หน้าปัด
- ข้อมูล
- ตัดสินใจ
- การตัดสินใจ
- ทุ่มเท
- ปรับใช้
- นำไปใช้
- ปรับใช้
- การใช้งาน
- ออกแบบ
- รายละเอียด
- รายละเอียด
- พัฒนา
- ผู้พัฒนา
- นักพัฒนา
- พัฒนาการ
- ต่าง
- โดยตรง
- สนทนา
- DLT
- Dont
- ในระหว่าง
- แต่ละ
- ความพยายาม
- EMEA
- ทำให้สามารถ
- ช่วยให้
- การเปิดใช้งาน
- จบสิ้น
- ปลายทาง
- ชั้นเยี่ยม
- ที่เพิ่มขึ้น
- ช่วย
- ประเทือง
- เพิ่มคุณค่า
- ทำให้มั่นใจ
- Enterprise
- ผู้ประกอบการ
- ทั้งหมด
- เอกลักษณ์
- การเข้า
- สิ่งแวดล้อม
- สภาพแวดล้อม
- เหตุการณ์
- ทุกอย่าง
- ตัวอย่าง
- ดำเนินการ
- ที่คาดหวัง
- ประสบการณ์
- อธิบาย
- การสำรวจ
- สารสกัด
- ใบหน้า
- ครอบครัว
- สองสาม
- ไฟล์
- สุดท้าย
- ในที่สุด
- เงินทุน
- ทางการเงิน
- บริการทางการเงิน
- หา
- ชื่อจริง
- โฟกัส
- มุ่งเน้นไปที่
- โดยมุ่งเน้น
- ปฏิบัติตาม
- ดังต่อไปนี้
- ดังต่อไปนี้
- รากฐาน
- กรอบ
- เพื่อน
- ราคาเริ่มต้นที่
- อย่างเต็มที่
- ฟังก์ชัน
- ฟังก์ชั่น
- ฟังก์ชั่น
- เงิน
- ต่อไป
- อนาคต
- โดยทั่วไป
- ได้รับ
- ได้รับ
- การจัดการ
- ฮาร์ดแวร์
- พาดหัว
- พาดหัวข่าว
- ช่วย
- การช่วยเหลือ
- จะช่วยให้
- โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม
- ถือ
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- HTML
- HTTPS
- แยกแยะ
- ภาพ
- มีประสิทธิภาพ
- การดำเนินการ
- การดำเนินงาน
- การดำเนินการ
- in
- รวมถึง
- รวมทั้ง
- ชาวอินเดีย
- เป็นรายบุคคล
- อุตสาหกรรม
- ข้อมูล
- โครงสร้างพื้นฐาน
- แรกเริ่ม
- นวัตกรรม
- แทรก
- ข้อมูลเชิงลึก
- ติดตั้ง
- การติดตั้ง
- ตัวอย่าง
- แทน
- สถาบัน
- คำแนะนำการใช้
- เครื่องมือ
- รวบรวม
- แบบบูรณาการ
- การผสานรวม
- Intelligence
- ปฏิสัมพันธ์
- การโต้ตอบ
- อยากเรียนรู้
- สนใจ
- อินเตอร์เฟซ
- แนะนำ
- เปิดตัว
- การลงทุน
- วาณิชธนกิจ
- ไอร์แลนด์
- IT
- รายการ
- สตรีมข้อมูล Kinesis
- ชื่อสกุล
- เปิดตัว
- การเปิดตัว
- ชั้น
- ชั้น
- นำ
- นำไปสู่
- การเรียนรู้
- ทิ้ง
- การใช้ประโยชน์
- ห้องสมุด
- ห้องสมุด
- Line
- ชีวิต
- LLC
- ลอนดอน
- ดู
- ดูเหมือน
- แอลเอสอีจี
- เครื่อง
- เรียนรู้เครื่อง
- ทำ
- หลัก
- ส่วนใหญ่
- ทำ
- การจัดการ
- การจัดการ
- ตลาด
- หน่วยความจำ
- ข่าวสาร
- ระเบียบวิธี
- ต่ำสุด
- นาที
- ML
- ม.ป.ป
- โหมด
- แบบ
- โมเดล
- โมดูลาร์
- การตรวจสอบ
- ข้อมูลเพิ่มเติม
- มากที่สุด
- สหสาขาวิชาชีพ
- หลาย
- มุมไบ
- ที่มีชื่อ
- นำทาง
- การนำทาง
- จำเป็น
- จำเป็นต้อง
- ความต้องการ
- ใหม่
- นิวยอร์ก
- ข่าว
- ถัดไป
- มากมาย
- เสนอ
- ONE
- การดำเนินการ
- เป็นต้นฉบับ
- อื่นๆ
- ภาพรวม
- ของตนเอง
- แพคเกจ
- ส่วนหนึ่ง
- เข้าร่วม
- ในสิ่งที่สนใจ
- พาร์ทเนอร์
- ส่วน
- รูปแบบไฟล์ PDF
- บำนาญ
- ดำเนินการ
- ชิ้น
- สถานที่
- การวางแผน
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- กรุณา
- จุด
- นโยบาย
- นโยบาย
- โพสต์
- การปฏิบัติ
- การคาดการณ์
- การเตรียมความพร้อม
- นำเสนอ
- ก่อนหน้านี้
- กระบวนการ
- ผู้ผลิต
- การผลิต
- ผลิตภัณฑ์
- มืออาชีพ
- การเขียนโปรแกรม
- การเขียนโปรแกรม
- โครงการ
- อย่างถูกต้อง
- ต้นแบบ
- ให้
- ให้
- ผู้ให้บริการ
- ให้
- การให้
- การประกาศ
- ใจเร่งเร้า
- หลาม
- ควอนท์
- ควอนตัม
- คำถาม
- พร้อม
- จริง
- เรียลไทม์
- ข้อมูลตามเวลาจริง
- เหตุผล
- รับ
- การรับรู้
- ไม่คำนึงถึง
- ภูมิภาค
- ตรงประเด็น
- แสดงให้เห็นถึง
- ยืดหยุ่น
- ทรัพยากร
- แหล่งข้อมูล
- คำตอบ
- REST
- รับคืน
- นำมาใช้ใหม่
- แผนงาน
- บทบาท
- วิ่ง
- sagemaker
- เดียวกัน
- ลด
- SC
- scalability
- ที่ปรับขนาดได้
- ขนาด
- ตาชั่ง
- สคริปต์
- ที่สอง
- Section
- หลักทรัพย์
- ความปลอดภัย
- ระดับอาวุโส
- ความรู้สึก
- ชุด
- serverless
- บริการ
- ผู้ให้บริการ
- บริการ
- ชุด
- ชุดอุปกรณ์
- การตั้งค่า
- หลาย
- ที่ใช้ร่วมกัน
- หุ้น
- น่า
- โชว์
- แสดง
- ด้าน
- ง่าย
- พร้อมกัน
- เดียว
- So
- ซอฟต์แวร์
- ทางออก
- โซลูชัน
- แก้
- แหล่งที่มา
- ช่องว่าง
- ผู้เชี่ยวชาญ
- โดยเฉพาะ
- การใช้จ่าย
- สปิน
- ระยะ
- ขั้นตอน
- เริ่มต้น
- startups
- ขั้นตอน
- การเก็บรักษา
- จัดเก็บ
- ร้านค้า
- กระแส
- ที่พริ้ว
- ลำธาร
- โครงสร้าง
- อย่างเช่น
- เหมาะสม
- ตาราง
- เอา
- วิชาการ
- เทคนิค
- เทคโนโลยี
- terraform
- ทดสอบ
- พื้นที่
- ของพวกเขา
- ที่สาม
- สาม
- ตลอด
- ตลอด
- เวลา
- ไปยัง
- ร่วมกัน
- เครื่องมือ
- ด้านบน
- เทรด
- การฝึกอบรม
- การถ่ายโอน
- การเดินทาง
- ทริกเกอร์
- ชนิด
- Uk
- มหาวิทยาลัย
- us
- ใช้
- ใช้กรณี
- ตรวจสอบความถูกต้อง
- ความคุ้มค่า
- ความหลากหลาย
- VC
- ตรวจสอบ
- ผ่านทาง
- วิสัยทัศน์
- ที่
- กว้าง
- จะ
- งาน
- ทำงานด้วยกัน
- ทำงาน
- ขั้นตอนการทำงาน
- การทำงาน
- โรงงาน
- ปี
- คุณ
- ของคุณ
- ลมทะเล