เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | อเมซอนเว็บเซอร์วิส

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | อเมซอนเว็บเซอร์วิส

การฝังมีบทบาทสำคัญในการประมวลผลภาษาธรรมชาติ (NLP) และการเรียนรู้ของเครื่อง (ML) การฝังข้อความ หมายถึงกระบวนการแปลงข้อความให้เป็นตัวแทนตัวเลขที่อยู่ในปริภูมิเวกเตอร์มิติสูง เทคนิคนี้ทำได้โดยการใช้อัลกอริธึม ML ที่ช่วยให้เข้าใจความหมายและบริบทของข้อมูล (ความสัมพันธ์เชิงความหมาย) และการเรียนรู้ความสัมพันธ์และรูปแบบที่ซับซ้อนภายในข้อมูล (ความสัมพันธ์เชิงวากยสัมพันธ์) คุณสามารถใช้การแสดงเวกเตอร์ที่ได้เพื่อการใช้งานที่หลากหลาย เช่น การดึงข้อมูล การจัดหมวดหมู่ข้อความ การประมวลผลภาษาธรรมชาติ และอื่นๆ อีกมากมาย

การฝังข้อความ Amazon Titan คือโมเดลการฝังข้อความที่แปลงข้อความภาษาธรรมชาติซึ่งประกอบด้วยคำเดี่ยวๆ วลี หรือแม้แต่เอกสารขนาดใหญ่ ให้กลายเป็นการแสดงตัวเลขที่สามารถใช้เพื่อขับเคลื่อนกรณีการใช้งาน เช่น การค้นหา การทำให้เป็นส่วนตัว และการจัดกลุ่มตามความคล้ายคลึงกันทางความหมาย

ในโพสต์นี้ เราจะพูดถึงโมเดล Amazon Titan Text Embeddings คุณลักษณะ และกรณีการใช้งานตัวอย่าง

แนวคิดหลักบางประการ ได้แก่:

  • การแสดงตัวเลขของข้อความ (เวกเตอร์) จะจับความหมายและความสัมพันธ์ระหว่างคำ
  • การฝังแบบสมบูรณ์สามารถใช้เพื่อเปรียบเทียบความคล้ายคลึงกันของข้อความ
  • การฝังข้อความหลายภาษาสามารถระบุความหมายในภาษาต่างๆ ได้

ข้อความถูกแปลงเป็นเวกเตอร์ได้อย่างไร?

มีเทคนิคหลายประการในการแปลงประโยคให้เป็นเวกเตอร์ วิธีหนึ่งที่ได้รับความนิยมคือการใช้อัลกอริธึมการฝังคำ เช่น Word2Vec, GloVe หรือ FastText จากนั้นจึงรวมคำที่ฝังไว้เพื่อสร้างการแสดงเวกเตอร์ระดับประโยค

วิธีการทั่วไปอีกวิธีหนึ่งคือการใช้โมเดลภาษาขนาดใหญ่ (LLM) เช่น BERT หรือ GPT ซึ่งสามารถจัดเตรียมการฝังตามบริบทสำหรับทั้งประโยคได้ โมเดลเหล่านี้อิงตามสถาปัตยกรรมการเรียนรู้เชิงลึก เช่น Transformers ซึ่งสามารถรวบรวมข้อมูลตามบริบทและความสัมพันธ์ระหว่างคำในประโยคได้อย่างมีประสิทธิภาพมากขึ้น

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

เหตุใดเราจึงต้องมีโมเดลการฝัง

การฝังเวกเตอร์เป็นพื้นฐานสำหรับ LLM ในการทำความเข้าใจระดับความหมายของภาษา และยังช่วยให้ LLM ทำงานได้ดีในงาน NLP ขั้นปลาย เช่น การวิเคราะห์ความรู้สึก การจดจำเอนทิตีที่มีชื่อ และการจัดประเภทข้อความ

นอกเหนือจากการค้นหาความหมายแล้ว คุณยังสามารถใช้การฝังเพื่อเพิ่มข้อความแจ้งของคุณเพื่อให้ได้ผลลัพธ์ที่แม่นยำยิ่งขึ้นผ่านการดึงข้อมูล Augmented Generation (RAG) แต่เพื่อที่จะใช้งาน คุณจะต้องจัดเก็บไว้ในฐานข้อมูลที่มีความสามารถแบบเวกเตอร์

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

โมเดล Amazon Titan Text Embeddings ได้รับการปรับให้เหมาะสมสำหรับการดึงข้อความเพื่อเปิดใช้งานกรณีการใช้งาน RAG ช่วยให้คุณสามารถแปลงข้อมูลข้อความของคุณเป็นการแสดงตัวเลขหรือเวกเตอร์ได้ก่อน จากนั้นจึงใช้เวกเตอร์เหล่านั้นเพื่อค้นหาข้อความที่เกี่ยวข้องจากฐานข้อมูลเวกเตอร์อย่างแม่นยำ ช่วยให้คุณสามารถใช้ประโยชน์จากข้อมูลที่เป็นกรรมสิทธิ์ของคุณร่วมกับโมเดลพื้นฐานอื่นๆ ได้อย่างเต็มที่

เนื่องจาก Amazon Titan Text Embeddings เป็นโมเดลที่ได้รับการจัดการ อเมซอน เบดร็อคมันถูกนำเสนอเป็นประสบการณ์แบบไร้เซิร์ฟเวอร์โดยสิ้นเชิง คุณสามารถใช้งานได้ผ่าน Amazon Bedrock REST API หรือ AWS SDK พารามิเตอร์ที่จำเป็นคือข้อความที่คุณต้องการสร้างการฝังและ modelID พารามิเตอร์ซึ่งแสดงถึงชื่อของโมเดล Amazon Titan Text Embeddings โค้ดต่อไปนี้เป็นตัวอย่างการใช้ AWS SDK สำหรับ Python (Boto3):

import boto3
import json #Create the connection to Bedrock
bedrock = boto3.client( service_name='bedrock', region_name='us-west-2', ) bedrock_runtime = boto3.client( service_name='bedrock-runtime', region_name='us-west-2', ) # Let's see all available Amazon Models
available_models = bedrock.list_foundation_models() for model in available_models['modelSummaries']: if 'amazon' in model['modelId']: print(model) # Define prompt and model parameters
prompt_data = """Write me a poem about apples""" body = json.dumps({ "inputText": prompt_data,
}) model_id = 'amazon.titan-embed-text-v1' #look for embeddings in the modelID
accept = 'application/json' content_type = 'application/json' # Invoke model response = bedrock_runtime.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type
) # Print response
response_body = json.loads(response['body'].read())
embedding = response_body.get('embedding') #Print the Embedding print(embedding)

ผลลัพธ์จะมีลักษณะดังนี้:

[-0.057861328, -0.15039062, -0.4296875, 0.31054688, ..., -0.15625]

เอ่ยถึง การตั้งค่า boto3 ของ Amazon Bedrock สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับวิธีการติดตั้งแพ็คเกจที่จำเป็น เชื่อมต่อกับ Amazon Bedrock และเรียกใช้โมเดล

คุณลักษณะของการฝังข้อความของ Amazon Titan

ด้วย Amazon Titan Text Embeddings คุณสามารถป้อนโทเค็นได้มากถึง 8,000 โทเค็น ทำให้เหมาะสำหรับการทำงานกับคำเดียว วลี หรือเอกสารทั้งหมดตามกรณีการใช้งานของคุณ อเมซอนไททัน ส่งคืนเวกเตอร์เอาท์พุตขนาด 1536 ทำให้มีความแม่นยำในระดับสูง ในขณะเดียวกันก็ปรับให้เหมาะสมเพื่อให้ได้ผลลัพธ์ที่มีความหน่วงต่ำและคุ้มค่า

Amazon Titan Text Embeddings รองรับการสร้างและสืบค้นการฝังข้อความในภาษาต่างๆ มากกว่า 25 ภาษา ซึ่งหมายความว่าคุณสามารถใช้โมเดลกับกรณีการใช้งานของคุณได้โดยไม่จำเป็นต้องสร้างและดูแลรักษาโมเดลแยกกันสำหรับแต่ละภาษาที่คุณต้องการรองรับ

การมีโมเดลการฝังตัวเดียวที่ได้รับการฝึกในหลายภาษาให้ประโยชน์ที่สำคัญดังต่อไปนี้:

  • เข้าถึงได้กว้างขึ้น – ด้วยการสนับสนุนมากกว่า 25 ภาษา คุณสามารถขยายขอบเขตการเข้าถึงแอปพลิเคชันของคุณไปยังผู้ใช้และเนื้อหาในตลาดต่างประเทศจำนวนมาก
  • ประสิทธิภาพที่สอดคล้อง – ด้วยโมเดลแบบครบวงจรที่ครอบคลุมหลายภาษา คุณจะได้รับผลลัพธ์ที่สอดคล้องกันในภาษาต่างๆ แทนที่จะเพิ่มประสิทธิภาพแยกกันตามภาษา โมเดลนี้ได้รับการฝึกฝนแบบองค์รวมเพื่อให้คุณได้รับประโยชน์จากภาษาต่างๆ
  • การสนับสนุนแบบสอบถามหลายภาษา – Amazon Titan Text Embeddings ช่วยให้สามารถสืบค้นข้อความที่ฝังในภาษาใดๆ ที่รองรับได้ ซึ่งให้ความยืดหยุ่นในการเรียกเนื้อหาที่คล้ายคลึงกันทางความหมายในภาษาต่างๆ โดยไม่ถูกจำกัดไว้เพียงภาษาเดียว คุณสามารถสร้างแอปพลิเคชันที่สืบค้นและวิเคราะห์ข้อมูลหลายภาษาโดยใช้พื้นที่การฝังแบบรวมเดียวกัน

ในขณะที่เขียนนี้ รองรับภาษาต่อไปนี้:

  • อาหรับ
  • จีน (ดั้งเดิม)
  • จีน (ดั้งเดิม)
  • สาธารณรัฐเช็ก
  • Dutch
  • ภาษาอังกฤษ
  • ภาษาฝรั่งเศส
  • ภาษาเยอรมัน
  • ชาวอิสราเอล
  • ภาษาฮินดี
  • ภาษาอิตาลี
  • ภาษาญี่ปุ่น
  • ดา
  • เกาหลี
  • มาลายาลัม
  • ฐี
  • ขัด
  • โปรตุเกส
  • รัสเซีย
  • สเปน
  • สวีเดน
  • ตากาล็อกฟิลิปปินส์
  • มิลักขะ
  • กู
  • ตุรกี

การใช้การฝังข้อความ Amazon Titan กับ LangChain

หลังเชน เป็นเฟรมเวิร์กโอเพ่นซอร์สยอดนิยมสำหรับการทำงานด้วย AI กำเนิด รุ่นและเทคโนโลยีที่รองรับ ประกอบด้วยก ไคลเอ็นต์ BedrockEmbeddings ที่ล้อม Boto3 SDK ไว้อย่างสะดวกด้วยเลเยอร์นามธรรม ที่ BedrockEmbeddings ไคลเอ็นต์อนุญาตให้คุณทำงานกับข้อความและการฝังได้โดยตรง โดยไม่ต้องทราบรายละเอียดของคำขอ JSON หรือโครงสร้างการตอบกลับ ต่อไปนี้เป็นตัวอย่างง่ายๆ:

from langchain.embeddings import BedrockEmbeddings #create an Amazon Titan Text Embeddings client
embeddings_client = BedrockEmbeddings() #Define the text from which to create embeddings
text = "Can you please tell me how to get to the bakery?" #Invoke the model
embedding = embeddings_client.embed_query(text) #Print response
print(embedding)

คุณยังสามารถใช้ LangChain's ได้ BedrockEmbeddings ไคลเอนต์ควบคู่ไปกับไคลเอนต์ Amazon Bedrock LLM เพื่อลดความซับซ้อนในการใช้ RAG การค้นหาความหมาย และรูปแบบที่เกี่ยวข้องกับการฝังอื่นๆ

กรณีการใช้งานสำหรับการฝัง

แม้ว่าในปัจจุบัน RAG จะเป็นกรณีการใช้งานที่ได้รับความนิยมมากที่สุดสำหรับการทำงานกับการฝัง แต่ก็มีกรณีการใช้งานอื่นๆ อีกมากมายที่สามารถใช้การฝังได้ ต่อไปนี้เป็นสถานการณ์เพิ่มเติมบางส่วนที่คุณสามารถใช้การฝังเพื่อแก้ไขปัญหาเฉพาะได้ ไม่ว่าจะด้วยตนเองหรือร่วมมือกับ LLM:

  • คำถามและคำตอบ – การฝังสามารถช่วยสนับสนุนอินเทอร์เฟซคำถามและคำตอบผ่านรูปแบบ RAG การสร้างการฝังที่จับคู่กับฐานข้อมูลเวกเตอร์ทำให้คุณสามารถค้นหาการจับคู่ที่ใกล้เคียงกันระหว่างคำถามและเนื้อหาในคลังความรู้
  • คำแนะนำส่วนบุคคล – เช่นเดียวกับคำถามและคำตอบ คุณสามารถใช้การฝังเพื่อค้นหาสถานที่พักผ่อน วิทยาลัย ยานพาหนะ หรือผลิตภัณฑ์อื่นๆ ตามเกณฑ์ที่ผู้ใช้กำหนด ซึ่งอาจอยู่ในรูปแบบของรายการการจับคู่ง่ายๆ หรือคุณสามารถใช้ LLM เพื่อประมวลผลคำแนะนำแต่ละรายการและอธิบายว่าคำแนะนำนั้นเป็นไปตามเกณฑ์ของผู้ใช้อย่างไร คุณยังสามารถใช้วิธีการนี้เพื่อสร้างบทความ "ที่ดีที่สุด 10 อันดับ" ที่กำหนดเองสำหรับผู้ใช้ตามความต้องการเฉพาะของพวกเขา
  • การจัดการข้อมูล – เมื่อคุณมีแหล่งข้อมูลที่ไม่ได้แมปซึ่งกันและกันอย่างสมบูรณ์ แต่คุณมีเนื้อหาข้อความที่อธิบายเรกคอร์ดข้อมูล คุณสามารถใช้การฝังเพื่อระบุเรกคอร์ดที่อาจซ้ำกัน ตัวอย่างเช่น คุณสามารถใช้การฝังเพื่อระบุผู้สมัครที่ซ้ำกันซึ่งอาจใช้การจัดรูปแบบ ตัวย่อ หรือแม้แต่ชื่อที่แปลต่างกัน
  • การหาเหตุผลเข้าข้างตนเองของพอร์ตโฟลิโอแอปพลิเคชัน – เมื่อต้องการจัดพอร์ตโฟลิโอแอปพลิเคชันของบริษัทแม่และการเข้าซื้อกิจการ อาจไม่ชัดเจนเสมอไปว่าจะเริ่มค้นหาความทับซ้อนกันที่อาจเกิดขึ้นได้จากจุดใด คุณภาพของข้อมูลการจัดการการกำหนดค่าอาจเป็นปัจจัยจำกัด และการประสานงานระหว่างทีมเพื่อทำความเข้าใจภาพรวมของแอปพลิเคชันอาจเป็นเรื่องยาก ด้วยการใช้การจับคู่ความหมายกับการฝัง เราสามารถทำการวิเคราะห์อย่างรวดเร็วทั่วทั้งพอร์ตโฟลิโอของแอปพลิเคชัน เพื่อระบุแอปพลิเคชันที่มีศักยภาพสูงสำหรับการหาเหตุผลเข้าข้างตนเอง
  • การจัดกลุ่มเนื้อหา – คุณสามารถใช้การฝังเพื่อช่วยจัดกลุ่มเนื้อหาที่คล้ายกันเป็นหมวดหมู่ที่คุณอาจไม่ทราบล่วงหน้าได้ ตัวอย่างเช่น สมมติว่าคุณมีคอลเลกชั่นอีเมลลูกค้าหรือบทวิจารณ์ผลิตภัณฑ์ออนไลน์ คุณสามารถสร้างการฝังสำหรับแต่ละรายการ จากนั้นเรียกใช้การฝังเหล่านั้นผ่าน k-หมายถึงการจัดกลุ่ม เพื่อระบุการจัดกลุ่มตามตรรกะของข้อกังวลของลูกค้า คำชมหรือข้อร้องเรียนเกี่ยวกับผลิตภัณฑ์ หรือประเด็นอื่นๆ จากนั้นคุณสามารถสร้างบทสรุปที่เจาะจงจากเนื้อหาของการจัดกลุ่มเหล่านั้นโดยใช้ LLM

ตัวอย่างการค้นหาความหมาย

ในของเรา ตัวอย่างบน GitHubเราจะสาธิตแอปพลิเคชันการค้นหาการฝังแบบง่ายๆ ด้วย Amazon Titan Text Embeddings, LangChain และ Streamlit

ตัวอย่างนี้จับคู่คำค้นหาของผู้ใช้กับรายการที่ใกล้เคียงที่สุดในฐานข้อมูลเวกเตอร์ในหน่วยความจำ จากนั้นเราจะแสดงรายการที่ตรงกันเหล่านั้นโดยตรงในส่วนติดต่อผู้ใช้ สิ่งนี้มีประโยชน์หากคุณต้องการแก้ไขปัญหาแอปพลิเคชัน RAG หรือประเมินโมเดลการฝังโดยตรง

เพื่อความง่าย เราใช้หน่วยความจำใน ไฟส ฐานข้อมูลเพื่อจัดเก็บและค้นหาเวกเตอร์การฝัง ในสถานการณ์จริงในวงกว้าง คุณอาจต้องการใช้ที่เก็บข้อมูลถาวรเช่น เอ็นจิ้นเวกเตอร์สำหรับ Amazon OpenSearch Serverless หรือ pgvector ส่วนขยายสำหรับ PostgreSQL

ลองใช้ข้อความแจ้งจากเว็บแอปพลิเคชันในภาษาต่างๆ เช่น:

  • ฉันจะติดตามการใช้งานของฉันได้อย่างไร?
  • ฉันจะปรับแต่งโมเดลได้อย่างไร
  • ฉันสามารถใช้ภาษาโปรแกรมใดได้บ้าง
  • แสดงความคิดเห็นเกี่ยวกับ données sont-elles sécurisées ?
  • 私のデーTAHAどのように保護されていますか?
  • Quais fornecedores de modelos estão disponíveis por meio do Bedrock?
  • ใน welchen Regionen มี Amazon Bedrock verfügbar หรือไม่?
  • มี哪些级别的支持?

โปรดทราบว่าแม้ว่าแหล่งข้อมูลจะเป็นภาษาอังกฤษ แต่ข้อความค้นหาในภาษาอื่นก็ตรงกับรายการที่เกี่ยวข้อง

สรุป

ความสามารถในการสร้างข้อความของโมเดลพื้นฐานนั้นน่าตื่นเต้นมาก แต่สิ่งสำคัญคือต้องจำไว้ว่าการทำความเข้าใจข้อความ การค้นหาเนื้อหาที่เกี่ยวข้องจากองค์ความรู้ และการเชื่อมโยงระหว่างข้อความต่างๆ มีความสำคัญอย่างยิ่งในการบรรลุคุณค่าทั้งหมดของ generative AI เราจะยังคงเห็นกรณีการใช้งานใหม่ๆ ที่น่าสนใจสำหรับการฝังเกิดขึ้นในปีต่อๆ ไป เนื่องจากโมเดลเหล่านี้ได้รับการปรับปรุงอย่างต่อเนื่อง

ขั้นตอนถัดไป

คุณสามารถดูตัวอย่างเพิ่มเติมของการฝังเป็นสมุดบันทึกหรือแอปพลิเคชันสาธิตได้ในเวิร์กช็อปต่อไปนี้:


เกี่ยวกับผู้เขียน

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.เจสัน สตีห์ล เป็นสถาปนิกโซลูชันอาวุโสที่ AWS ซึ่งตั้งอยู่ในนิวอิงแลนด์ เขาทำงานร่วมกับลูกค้าเพื่อปรับความสามารถของ AWS ให้สอดคล้องกับความท้าทายทางธุรกิจที่ยิ่งใหญ่ที่สุดของพวกเขา นอกเหนือจากงาน เขาใช้เวลาสร้างสิ่งต่างๆ และชมภาพยนตร์หนังสือการ์ตูนกับครอบครัว

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.นิติน ยูเซบิอุส เป็นสถาปนิกโซลูชันระดับองค์กรอาวุโสที่ AWS ซึ่งมีประสบการณ์ในด้านวิศวกรรมซอฟต์แวร์ สถาปัตยกรรมองค์กร และ AI/ML เขามีความหลงใหลอย่างลึกซึ้งในการสำรวจความเป็นไปได้ของ AI เชิงสร้างสรรค์ เขาทำงานร่วมกับลูกค้าเพื่อช่วยพวกเขาสร้างแอปพลิเคชันที่มีสถาปัตยกรรมอย่างดีบนแพลตฟอร์ม AWS และทุ่มเทให้กับการแก้ปัญหาความท้าทายด้านเทคโนโลยีและช่วยเหลือในการเดินทางบนระบบคลาวด์

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ราชปฏัก เป็น Principal Solutions Architect และที่ปรึกษาทางเทคนิคของบริษัทขนาดใหญ่ในทำเนียบ Fortune 50 และสถาบันการเงินขนาดกลาง (FSI) ทั่วแคนาดาและสหรัฐอเมริกา เขาเชี่ยวชาญในแอปพลิเคชันการเรียนรู้ของเครื่อง เช่น AI เชิงสร้างสรรค์ การประมวลผลภาษาธรรมชาติ การประมวลผลเอกสารอัจฉริยะ และ MLOps

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.มณี ขันุจา เป็นหัวหน้าฝ่ายเทคโนโลยี – ผู้เชี่ยวชาญด้าน AI ทั่วไป ผู้เขียนหนังสือ – Applied Machine Learning และ High Performance Computing บน AWS และเป็นสมาชิกของคณะกรรมการบริหารสำหรับสตรีในคณะกรรมการมูลนิธิการศึกษาด้านการผลิต เธอเป็นผู้นำโครงการการเรียนรู้ของเครื่อง (ML) ในโดเมนต่างๆ เช่น คอมพิวเตอร์วิทัศน์ การประมวลผลภาษาธรรมชาติ และ AI เชิงสร้างสรรค์ เธอช่วยลูกค้าในการสร้าง ฝึกอบรม และปรับใช้โมเดลแมชชีนเลิร์นนิงขนาดใหญ่ในวงกว้าง เธอพูดในการประชุมภายในและภายนอก เช่น re:Invent, Women in Manufacturing West, การสัมมนาผ่านเว็บของ YouTube และ GHC 23 ในเวลาว่าง เธอชอบวิ่งระยะยาวไปตามชายหาด

เริ่มต้นใช้งาน Amazon Titan Text Embeddings ใน Amazon Bedrock | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.มาร์ครอย Ro เป็น Principal Machine Learning Architect สำหรับ AWS ช่วยลูกค้าออกแบบและสร้างโซลูชัน AI/ML งานของ Mark ครอบคลุมกรณีการใช้งาน ML ที่หลากหลาย โดยมีความสนใจหลักในด้านการมองเห็นของคอมพิวเตอร์ การเรียนรู้เชิงลึก และการปรับขนาด ML ทั่วทั้งองค์กร เขาได้ช่วยเหลือบริษัทต่างๆ ในหลายอุตสาหกรรม รวมถึงการประกันภัย บริการทางการเงิน สื่อและความบันเทิง การดูแลสุขภาพ สาธารณูปโภค และการผลิต Mark มี AWS Certification หกรายการ รวมถึง ML Specialty Certification ก่อนเข้าร่วม AWS มาร์คเป็นสถาปนิก นักพัฒนา และผู้นำด้านเทคโนโลยีมากว่า 25 ปี รวมถึงบริการทางการเงิน 19 ปี

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS