เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการ AWS และ Amazon SageMaker

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการ AWS และ Amazon SageMaker

โพสต์นี้ร่วมเขียนโดย Marios Skevofylakas, Jason Ramchandani และ Haykaz Aramyan จาก Refinitiv, An LSEG Business

ผู้ให้บริการทางการเงินมักจะจำเป็นต้องระบุข่าวที่เกี่ยวข้อง วิเคราะห์ ดึงข้อมูลเชิงลึก และดำเนินการตามเวลาจริง เช่น การซื้อขายตราสารเฉพาะ (เช่น สินค้าโภคภัณฑ์ หุ้น กองทุน) ตามข้อมูลเพิ่มเติมหรือบริบทของรายการข่าว ข้อมูลเพิ่มเติมอย่างหนึ่ง (ซึ่งเราใช้เป็นตัวอย่างในโพสต์นี้) คือความรู้สึกของข่าว

Refinitiv Data (RD) Libraries จัดเตรียมชุดอินเทอร์เฟซที่ครอบคลุมสำหรับการเข้าถึงแค็ตตาล็อกข้อมูล Refinitiv อย่างสม่ำเสมอ ไลบรารีนำเสนอสิ่งที่เป็นนามธรรมหลายชั้นโดยให้รูปแบบและเทคนิคการเขียนโปรแกรมที่แตกต่างกันซึ่งเหมาะสำหรับนักพัฒนาทุกคน ตั้งแต่เวลาแฝงต่ำ การเข้าถึงตามเวลาจริง ไปจนถึงการส่งผ่านข้อมูล Refinitiv เป็นชุด

ในโพสต์นี้ เรานำเสนอสถาปัตยกรรม AWS ต้นแบบที่นำเข้าฟีดข่าวของเราโดยใช้ RD Libraries และปรับปรุงด้วยการคาดคะเนโมเดลแมชชีนเลิร์นนิง (ML) โดยใช้ อเมซอน SageMakerซึ่งเป็นบริการ ML ที่มีการจัดการเต็มรูปแบบจาก AWS

ในความพยายามที่จะออกแบบสถาปัตยกรรมโมดูลาร์ที่สามารถใช้ในกรณีการใช้งานที่หลากหลาย เช่น การวิเคราะห์ความรู้สึก การจดจำชื่อเอนทิตี และอื่นๆ โดยไม่คำนึงถึงโมเดล ML ที่ใช้ในการปรับปรุง เราตัดสินใจที่จะมุ่งเน้นไปที่พื้นที่เรียลไทม์ เหตุผลสำหรับการตัดสินใจนี้คือกรณีการใช้งานตามเวลาจริงมักจะซับซ้อนกว่า และสามารถใช้สถาปัตยกรรมเดียวกันได้ด้วยการปรับเปลี่ยนเพียงเล็กน้อยสำหรับการอนุมานแบบกลุ่ม ในกรณีการใช้งานของเรา เราใช้สถาปัตยกรรมที่รับฟีดข่าวตามเวลาจริง คำนวณความรู้สึกในแต่ละหัวข้อข่าวโดยใช้ ML และให้บริการฟีดที่ได้รับการปรับปรุงด้วย AI อีกครั้งผ่านสถาปัตยกรรมผู้เผยแพร่/ผู้สมัครสมาชิก

ยิ่งไปกว่านั้น เพื่อนำเสนอวิธีการผลิตโมเดล ML ที่ครอบคลุมและใช้ซ้ำได้โดยใช้แนวทางปฏิบัติของ MLOps เราได้แนะนำแนวคิดของโครงสร้างพื้นฐานในรูปแบบโค้ด (IaC) ตลอดวงจรชีวิต MLOps ทั้งหมดของต้นแบบ ด้วยการใช้ Terraform และสคริปต์ที่กำหนดค่าจุดเข้าใช้งานเพียงจุดเดียว เราจึงสามารถสร้างอินสแตนซ์ของโครงสร้างพื้นฐานทั้งหมด ในโหมดการผลิต บน AWS ได้ในเวลาเพียงไม่กี่นาที

ในโซลูชันนี้ เราไม่ได้กล่าวถึงแง่มุม MLOps ของการพัฒนา การฝึกอบรม และการปรับใช้โมเดลแต่ละรายการ หากคุณสนใจที่จะเรียนรู้เพิ่มเติมเกี่ยวกับเรื่องนี้ โปรดดูที่ แผนงานพื้นฐาน MLOps สำหรับองค์กรด้วย Amazon SageMakerซึ่งอธิบายรายละเอียดกรอบงานสำหรับการสร้างแบบจำลอง การฝึกอบรม และการปรับใช้ตามแนวทางปฏิบัติที่ดีที่สุด

ภาพรวมโซลูชัน

ในต้นแบบนี้ เราปฏิบัติตามวิธีการจัดเตรียมแบบอัตโนมัติโดยสมบูรณ์ตาม IaC ปฏิบัติที่ดีที่สุด. IaC เป็นกระบวนการจัดเตรียมทรัพยากรโดยใช้โปรแกรมโดยใช้สคริปต์อัตโนมัติ แทนที่จะใช้เครื่องมือกำหนดค่าแบบโต้ตอบ ทรัพยากรสามารถเป็นได้ทั้งฮาร์ดแวร์และซอฟต์แวร์ที่จำเป็น ในกรณีของเรา เราใช้ Terraform เพื่อใช้งานจุดเข้าใช้งานที่กำหนดค่าได้จุดเดียวซึ่งสามารถหมุนโครงสร้างพื้นฐานทั้งหมดที่เราต้องการโดยอัตโนมัติ รวมถึงนโยบายความปลอดภัยและการเข้าถึง เช่นเดียวกับการตรวจสอบอัตโนมัติ ด้วยจุดเข้าใช้งานเพียงจุดเดียวที่ทริกเกอร์ชุดของสคริปต์ Terraform หนึ่งรายการต่อเอนทิตีบริการหรือทรัพยากร เราสามารถทำให้วงจรชีวิตของส่วนประกอบทั้งหมดหรือบางส่วนของสถาปัตยกรรมเป็นแบบอัตโนมัติได้อย่างสมบูรณ์ ทำให้เราสามารถใช้การควบคุมแบบละเอียดทั้งบน DevOps และ ด้าน MLOps หลังจากติดตั้ง Terraform อย่างถูกต้องและรวมเข้ากับ AWS แล้ว เราสามารถทำซ้ำการดำเนินการส่วนใหญ่ที่สามารถทำได้บนแดชบอร์ดบริการของ AWS

ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมโซลูชันของเรา

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

สถาปัตยกรรมประกอบด้วยสามขั้นตอน: การส่งผ่าน การเพิ่มคุณค่า และการเผยแพร่ ในช่วงแรก ฟีดตามเวลาจริงจะถูกนำเข้าบน อเมซอน อีลาสติก คอมพิวท์ คลาวด์ อินสแตนซ์ (Amazon EC2) ที่สร้างขึ้นผ่าน AMI ที่พร้อมใช้งาน Refinitiv Data Library อินสแตนซ์ยังเชื่อมต่อกับสตรีมข้อมูลผ่านทาง สตรีมข้อมูล Amazon Kinesisซึ่งทำให้เกิดไฟล์ AWS แลมบ์ดา ฟังก์ชัน

ในขั้นตอนที่สอง ฟังก์ชัน Lambda ที่เรียกใช้จาก Kinesis Data Streams จะเชื่อมต่อและส่งหัวข้อข่าวไปยัง SageMaker ฟินเบิร์ต จุดสิ้นสุด ซึ่งจะส่งคืนความเชื่อมั่นที่คำนวณได้สำหรับรายการข่าว ความรู้สึกที่คำนวณได้นี้เป็นการเพิ่มคุณค่าให้กับข้อมูลตามเวลาจริง ซึ่งฟังก์ชันแลมบ์ดาจะรวมรายการข่าวและจัดเก็บไว้ใน อเมซอน ไดนาโมดีบี ตาราง

ในขั้นตอนที่สามของสถาปัตยกรรม สตรีม DynamoDB จะทริกเกอร์ฟังก์ชัน Lambda ในการแทรกรายการใหม่ ซึ่งรวมเข้ากับ เซิร์ฟเวอร์ Amazon MQ ใช้ RabbitMQ ซึ่งให้บริการสตรีมที่ปรับปรุงแล้วของ AI อีกครั้ง

การตัดสินใจเกี่ยวกับการออกแบบทางวิศวกรรมแบบสามขั้นตอนนี้ แทนที่จะเป็นเลเยอร์ Lambda แรกที่สื่อสารโดยตรงกับเซิร์ฟเวอร์ Amazon MQ หรือใช้ฟังก์ชันการทำงานเพิ่มเติมในอินสแตนซ์ EC2 นั้นถูกสร้างขึ้นเพื่อให้สามารถสำรวจสถาปัตยกรรมการออกแบบ AI ที่ซับซ้อนและน้อยลงได้ในอนาคต

การสร้างและปรับใช้ต้นแบบ

เรานำเสนอต้นแบบนี้ในชุดพิมพ์เขียวที่มีรายละเอียดสามชุด ในพิมพ์เขียวแต่ละรายการและสำหรับทุกบริการที่ใช้ คุณจะพบภาพรวมและข้อมูลที่เกี่ยวข้องเกี่ยวกับการใช้งานด้านเทคนิค ตลอดจนสคริปต์ Terraform ที่ให้คุณเริ่มต้น กำหนดค่า และผสานรวมบริการเข้ากับโครงสร้างส่วนที่เหลือได้โดยอัตโนมัติ ในตอนท้ายของพิมพ์เขียวแต่ละรายการ คุณจะพบคำแนะนำเกี่ยวกับวิธีตรวจสอบให้แน่ใจว่าทุกอย่างทำงานตามที่คาดไว้ในแต่ละขั้นตอน พิมพ์เขียวมีดังนี้:

ในการเริ่มต้นใช้งานต้นแบบนี้ เราขอแนะนำให้สร้างสภาพแวดล้อม Python ใหม่โดยเฉพาะและติดตั้งแพ็คเกจและเครื่องมือที่จำเป็นแยกต่างหากจากสภาพแวดล้อมอื่นที่คุณอาจมี ในการดำเนินการดังกล่าว ให้สร้างและเปิดใช้งานสภาพแวดล้อมใหม่ใน Anaconda โดยใช้คำสั่งต่อไปนี้:

conda create —name rd_news_aws_terraform python=3.7
conda activate rd_news_aws_terraform

ตอนนี้เราพร้อมที่จะติดตั้ง อินเทอร์เฟซบรรทัดคำสั่ง AWS AWS ชุดเครื่องมือ (AWS CLI) ที่จะช่วยให้เราสามารถสร้างการโต้ตอบทางโปรแกรมที่จำเป็นทั้งหมดในและระหว่างบริการของ AWS:

pip install awscli

เมื่อติดตั้ง AWS CLI แล้ว เราจำเป็นต้องติดตั้ง Terraform HashiCorp ให้บริการ Terraform ด้วยโปรแกรมติดตั้งแบบไบนารี ซึ่งคุณสามารถทำได้ ดาวน์โหลด และติดตั้ง

หลังจากที่คุณติดตั้งเครื่องมือทั้งสองแล้ว ตรวจสอบให้แน่ใจว่าเครื่องมือเหล่านี้ทำงานได้อย่างถูกต้องโดยใช้คำสั่งต่อไปนี้:

terraform -help
AWS – version

ตอนนี้คุณพร้อมที่จะปฏิบัติตามพิมพ์เขียวโดยละเอียดในแต่ละขั้นตอนของการดำเนินการทั้งสามขั้นตอนแล้ว

พิมพ์เขียวนี้แสดงถึงขั้นตอนเริ่มต้นของสถาปัตยกรรมที่ช่วยให้เราสามารถรับฟีดข่าวตามเวลาจริงได้ ประกอบด้วยส่วนประกอบดังต่อไปนี้:

  • Amazon EC2 กำลังเตรียมอินสแตนซ์ของคุณสำหรับการส่งผ่านข้อมูล RD News – ส่วนนี้ตั้งค่าอินสแตนซ์ EC2 ในวิธีที่เปิดใช้งานการเชื่อมต่อกับ RD Libraries API และสตรีมตามเวลาจริง นอกจากนี้ เรายังแสดงวิธีบันทึกอิมเมจของอินสแตนซ์ที่สร้างขึ้นเพื่อให้แน่ใจว่าสามารถนำมาใช้ซ้ำได้และปรับขนาดได้
  • การรับข่าวสารตามเวลาจริงจาก Amazon EC2 – การใช้งานโดยละเอียดของการกำหนดค่าที่จำเป็นในการเปิดใช้งาน Amazon EC2 เพื่อเชื่อมต่อไลบรารี RD รวมถึงสคริปต์เพื่อเริ่มการนำเข้า
  • การสร้างและเปิดใช้งาน Amazon EC2 จาก AMI – เปิดตัวอินสแตนซ์ใหม่โดยการถ่ายโอนไฟล์การนำเข้าไปยังอินสแตนซ์ที่สร้างขึ้นใหม่พร้อมกัน ทั้งหมดนี้ใช้ Terraform โดยอัตโนมัติ
  • การสร้างสตรีมข้อมูล Kinesis – ส่วนนี้ให้ภาพรวมของ Kinesis Data Streams และวิธีตั้งค่าสตรีมบน AWS
  • เชื่อมต่อและส่งข้อมูลไปยัง Kinesis – เมื่อรหัสการส่งผ่านข้อมูลทำงาน เราจำเป็นต้องเชื่อมต่อและส่งข้อมูลไปยังสตรีม Kinesis
  • การทดสอบต้นแบบจนถึงปัจจุบัน - เราใช้ อเมซอน คลาวด์วอตช์ และเครื่องมือบรรทัดคำสั่งเพื่อตรวจสอบว่าต้นแบบทำงานได้จนถึงจุดนี้ และเราสามารถดำเนินการต่อไปยังพิมพ์เขียวถัดไปได้ บันทึกของข้อมูลที่นำเข้าควรมีลักษณะเหมือนภาพหน้าจอต่อไปนี้

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ในพิมพ์เขียวที่สองนี้ เรามุ่งเน้นไปที่ส่วนหลักของสถาปัตยกรรม: ฟังก์ชันแลมบ์ดาที่นำเข้าและวิเคราะห์สตรีมรายการข่าว แนบการอนุมานของ AI เข้าไปด้วย และเก็บไว้เพื่อใช้งานต่อไป ประกอบด้วยส่วนประกอบต่อไปนี้:

  • แลมบ์ดา – กำหนดค่า Terraform Lambda เพื่อให้เชื่อมต่อกับปลายทาง SageMaker
  • Amazon S3 – ในการนำ Lambda ไปใช้ เราจำเป็นต้องอัปโหลดโค้ดที่เหมาะสม บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (Amazon S3) และอนุญาตให้ฟังก์ชัน Lambda ส่งผ่านข้อมูลในสภาพแวดล้อมของมัน ส่วนนี้อธิบายถึงวิธีที่เราสามารถใช้ Terraform เพื่อทำสิ่งนั้นให้สำเร็จ
  • การใช้ฟังก์ชัน Lambda: ขั้นตอนที่ 1 จัดการเหตุการณ์ Kinesis – ในส่วนนี้ เราจะเริ่มสร้างฟังก์ชันแลมบ์ดา ที่นี่ เราสร้างเฉพาะส่วนตัวจัดการการตอบสนองสตรีมข้อมูล Kinesis
  • SageMaker – ในต้นแบบนี้ เราใช้แบบจำลอง Hugging Face ที่ได้รับการฝึกฝนล่วงหน้าซึ่งเราจัดเก็บไว้ในตำแหน่งข้อมูล SageMaker ที่นี่ เราจะนำเสนอวิธีการบรรลุผลสำเร็จโดยใช้สคริปต์ Terraform และการผสานรวมที่เหมาะสมเกิดขึ้นเพื่อให้จุดสิ้นสุดของ SageMaker และฟังก์ชัน Lambda ทำงานร่วมกันได้อย่างไร
    • ณ จุดนี้ คุณสามารถใช้โมเดลอื่นที่คุณพัฒนาและปรับใช้หลังตำแหน่งข้อมูล SageMaker แทนได้ โมเดลดังกล่าวสามารถปรับปรุงข้อมูลข่าวต้นฉบับให้แตกต่างออกไปตามความต้องการของคุณ ตัวเลือกนี้สามารถอนุมานได้กับหลายรุ่นสำหรับการปรับปรุงหลายรายการหากมีอยู่ ด้วยสถาปัตยกรรมที่เหลือ โมเดลดังกล่าวจะเพิ่มคุณค่าให้กับแหล่งข้อมูลของคุณในแบบเรียลไทม์
  • การสร้างฟังก์ชัน Lambda: ขั้นตอนที่ 2 การเรียกใช้ตำแหน่งข้อมูล SageMaker – ในส่วนนี้ เราสร้างฟังก์ชัน Lambda ดั้งเดิมของเราโดยเพิ่มบล็อก SageMaker เพื่อรับพาดหัวข่าวที่ปรับปรุงความรู้สึกโดยเรียกใช้จุดสิ้นสุด SageMaker
  • DynamoDB – สุดท้าย เมื่อการอนุมานของ AI อยู่ในหน่วยความจำของฟังก์ชัน Lambda ก็จะรวมรายการอีกครั้งและส่งไปยังตาราง DynamoDB เพื่อจัดเก็บ ในที่นี้ เราจะพูดถึงทั้งโค้ด Python ที่เหมาะสมซึ่งจำเป็นสำหรับการดำเนินการดังกล่าว รวมถึงสคริปต์ Terraform ที่จำเป็นซึ่งเปิดใช้งานการโต้ตอบเหล่านี้
  • การสร้างฟังก์ชัน Lambda: ขั้นตอนที่ 3 พุชข้อมูลที่ปรับปรุงแล้วไปยัง DynamoDB – ที่นี่ เรายังคงสร้างฟังก์ชัน Lambda ของเราต่อไปโดยเพิ่มส่วนสุดท้ายที่สร้างรายการในตารางไดนาโม
  • การทดสอบต้นแบบจนถึงปัจจุบัน – เราสามารถนำทางไปยังตาราง DynamoDB บนคอนโซล DynamoDB เพื่อยืนยันว่าการปรับปรุงของเราปรากฏในตาราง

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

พิมพ์เขียวที่สามนี้สรุปต้นแบบนี้ โดยมุ่งเน้นที่การกระจายรายการข้อมูล AI ที่ปรับปรุงใหม่ที่สร้างขึ้นใหม่ไปยังเซิร์ฟเวอร์ RabbitMQ ใน Amazon MQ ทำให้ผู้บริโภคเชื่อมต่อและเรียกค้นรายการข่าวที่ปรับปรุงแล้วได้แบบเรียลไทม์ ประกอบด้วยส่วนประกอบต่อไปนี้:

  • สตรีม DynamoDB – เมื่อรายการข่าวที่ปรับปรุงแล้วอยู่ใน DynamoDB เราจะตั้งค่าเหตุการณ์ที่จะถูกทริกเกอร์ซึ่งสามารถบันทึกได้จากฟังก์ชัน Lambda ที่เหมาะสม
  • เขียนผู้ผลิตแลมบ์ดา – ฟังก์ชัน Lambda นี้จับภาพเหตุการณ์และทำหน้าที่เป็นโปรดิวเซอร์ของสตรีม RabbitMQ ฟังก์ชันใหม่นี้แนะนำแนวคิดของเลเยอร์แลมบ์ดาเนื่องจากใช้ไลบรารีของ Python เพื่อใช้งานฟังก์ชันโปรดิวเซอร์
  • ผู้บริโภค Amazon MQ และ RabbitMQ – ขั้นตอนสุดท้ายของต้นแบบคือการตั้งค่าบริการ RabbitMQ และใช้งานผู้บริโภคตัวอย่างที่จะเชื่อมต่อกับสตรีมข้อความและรับรายการข่าวที่ปรับปรุงโดย AI
  • การทดสอบขั้นสุดท้ายของต้นแบบ – เราใช้กระบวนการแบบ end-to-end เพื่อตรวจสอบว่าต้นแบบทำงานได้อย่างสมบูรณ์ ตั้งแต่การส่งผ่านข้อมูลไปจนถึงการเสิร์ฟซ้ำและการบริโภคสตรีมใหม่ที่ปรับปรุงด้วย AI

ในขั้นตอนนี้ คุณสามารถตรวจสอบว่าทุกอย่างใช้งานได้โดยไปที่แดชบอร์ด RabbitMQ ดังที่แสดงในภาพหน้าจอต่อไปนี้

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ในพิมพ์เขียวขั้นสุดท้าย คุณยังพบเวกเตอร์การทดสอบโดยละเอียดเพื่อให้แน่ใจว่าสถาปัตยกรรมทั้งหมดทำงานตามที่วางแผนไว้

สรุป

ในโพสต์นี้ เราได้แชร์โซลูชันโดยใช้ ML บนระบบคลาวด์กับบริการของ AWS เช่น SageMaker (ML), Lambda (แบบไร้เซิร์ฟเวอร์) และ Kinesis Data Streams (สตรีมมิง) เพื่อเพิ่มคุณค่าข้อมูลข่าวแบบสตรีมโดย Refinitiv Data Libraries โซลูชันจะเพิ่มคะแนนความเชื่อมั่นให้กับรายการข่าวแบบเรียลไทม์ และปรับขนาดโครงสร้างพื้นฐานโดยใช้โค้ด

ประโยชน์ของสถาปัตยกรรมโมดูลาร์นี้คือคุณสามารถใช้ซ้ำกับโมเดลของคุณเองเพื่อดำเนินการเสริมข้อมูลประเภทอื่นๆ ด้วยวิธีไร้เซิร์ฟเวอร์ ปรับขยายได้ และประหยัดค่าใช้จ่าย ซึ่งสามารถนำไปใช้กับ Refinitiv Data Library ได้ สิ่งนี้สามารถเพิ่มมูลค่าให้กับเวิร์กโฟลว์การซื้อขาย/การลงทุน/การบริหารความเสี่ยง

หากคุณมีความคิดเห็นหรือคำถามใด ๆ โปรดทิ้งไว้ในส่วนความคิดเห็น

ข้อมูลที่เกี่ยวข้อง


 เกี่ยวกับผู้เขียน

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.มาริโอส สเกโวฟีลาคัส มาจากบริการทางการเงิน วาณิชธนกิจ และเทคโนโลยีการให้คำปรึกษา เขาสำเร็จการศึกษาระดับปริญญาเอกด้านวิศวกรรมศาสตร์ ในปัญญาประดิษฐ์และวท.ม. ในแมชชีนวิชัน ตลอดอาชีพของเขา เขาได้มีส่วนร่วมในโครงการ AI และ DLT แบบสหสาขาวิชาชีพมากมาย ปัจจุบันเขาเป็นผู้สนับสนุนนักพัฒนาที่ Refinitiv ซึ่งเป็นธุรกิจ LSEG โดยเน้นที่แอปพลิเคชัน AI และควอนตัมในบริการทางการเงิน

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.เจสัน รามจันดานี เคยทำงานที่ Refinitiv ซึ่งเป็นธุรกิจ LSEG เป็นเวลา 8 ปีในตำแหน่ง Lead Developer Advocate ที่ช่วยสร้างชุมชนนักพัฒนาของพวกเขา ก่อนหน้านี้เขาเคยทำงานในตลาดการเงินมากว่า 15 ปี โดยมีความรู้พื้นฐานในด้านตราสารทุน/ส่วนที่เกี่ยวข้องกับตราสารทุนที่ Okasan Securities, Sakura Finance และ Jefferies LLC โรงเรียนเก่าของเขาคือ UCL

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.เฮย์กัซ อารามยัน มาจากพื้นฐานทางการเงินและเทคโนโลยี เขาจบปริญญาเอก สาขาการเงิน และ วท.ม. ในด้านการเงิน เทคโนโลยี และนโยบาย ด้วยประสบการณ์ระดับมืออาชีพกว่า 10 ปี Haykaz ได้ทำงานในโครงการสหสาขาวิชาชีพหลายโครงการที่เกี่ยวข้องกับเงินบำนาญ กองทุน VC และธุรกิจสตาร์ทอัพด้านเทคโนโลยี ปัจจุบันเขาเป็นนักพัฒนาที่สนับสนุน Refinitiv ซึ่งเป็นธุรกิจ LSEG โดยเน้นที่แอปพลิเคชัน AI ในบริการทางการเงิน

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.จอร์จิออส ชินาส เป็นสถาปนิกผู้เชี่ยวชาญด้านโซลูชันอาวุโสสำหรับ AI/ML ในภูมิภาค EMEA เขาประจำอยู่ในลอนดอนและทำงานใกล้ชิดกับลูกค้าในสหราชอาณาจักรและไอร์แลนด์ Georgios ช่วยลูกค้าออกแบบและปรับใช้แอปพลิเคชันแมชชีนเลิร์นนิงในการผลิตบน AWS โดยมีความสนใจเป็นพิเศษในแนวทางปฏิบัติของ MLOps และทำให้ลูกค้าสามารถดำเนินการแมชชีนเลิร์นนิงในวงกว้างได้ ในเวลาว่าง เขาชอบท่องเที่ยว ทำอาหาร และใช้เวลากับเพื่อนและครอบครัว

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.มูทูเวลัน สวามินาธาน เป็น Enterprise Solutions Architect จากนิวยอร์ก เขาทำงานร่วมกับลูกค้าระดับองค์กรโดยให้คำแนะนำด้านสถาปัตยกรรมในการสร้างโซลูชันนวัตกรรมที่ยืดหยุ่น ประหยัดต้นทุน และตอบสนองความต้องการทางธุรกิจของพวกเขา และช่วยให้พวกเขาดำเนินการตามขนาดโดยใช้ผลิตภัณฑ์และบริการของ AWS

เพิ่มคุณค่าให้กับสตรีมข่าวแบบเรียลไทม์ด้วย Refinitiv Data Library, บริการของ AWS และ Amazon SageMaker PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.มยุร อูเดอร์นานี เป็นผู้นำธุรกิจ AWS AI & ML กับองค์กรการค้าในสหราชอาณาจักรและไอร์แลนด์ ในบทบาทของเขา Mayur ใช้เวลาส่วนใหญ่กับลูกค้าและคู่ค้าเพื่อช่วยสร้างโซลูชันที่มีประสิทธิภาพซึ่งช่วยแก้ปัญหาความต้องการเร่งด่วนที่สุดของลูกค้าหรือสำหรับอุตสาหกรรมที่กว้างขึ้นโดยใช้ประโยชน์จากบริการ AWS Cloud, AI & ML Mayur อาศัยอยู่ในพื้นที่ลอนดอน เขาสำเร็จการศึกษา MBA จาก Indian Institute of Management และปริญญาตรีสาขาวิศวกรรมคอมพิวเตอร์จากมหาวิทยาลัยมุมไบ

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS