ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | อเมซอนเว็บเซอร์วิส

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | อเมซอนเว็บเซอร์วิส

โพสต์นี้จะนำคุณผ่านความท้าทายทั่วไปที่ลูกค้าเผชิญเมื่อค้นหาเอกสารภายใน และให้คำแนะนำที่เป็นรูปธรรมเกี่ยวกับวิธีการใช้บริการของ AWS เพื่อสร้างบอทการสนทนา AI ที่สร้างซึ่งจะทำให้ข้อมูลภายในมีประโยชน์มากขึ้น

ข้อมูลที่ไม่มีโครงสร้างคิดเป็น 80% ของข้อมูลทั้งหมด พบได้ภายในองค์กรประกอบด้วยคลังคู่มือ PDF คำถามที่พบบ่อย อีเมล และเอกสารอื่นๆ ที่เพิ่มมากขึ้นทุกวัน ธุรกิจในปัจจุบันพึ่งพาพื้นที่เก็บข้อมูลภายในที่เติบโตอย่างต่อเนื่อง และปัญหาเกิดขึ้นเมื่อปริมาณข้อมูลที่ไม่มีโครงสร้างไม่สามารถจัดการได้ บ่อยครั้งที่ผู้ใช้พบว่าตนเองอ่านและตรวจสอบแหล่งข้อมูลภายในต่างๆ มากมายเพื่อค้นหาคำตอบที่ต้องการ

ฟอรัมคำถามและคำตอบภายในสามารถช่วยให้ผู้ใช้ได้รับคำตอบที่เฉพาะเจาะจงมาก แต่ยังต้องใช้เวลารอนานกว่าอีกด้วย ในกรณีของคำถามที่พบบ่อยภายในบริษัท การรอนานส่งผลให้ประสิทธิภาพการทำงานของพนักงานลดลง ฟอรัมคำถามและคำตอบนั้นขยายขนาดได้ยากเนื่องจากต้องใช้คำตอบที่เขียนด้วยตนเอง ด้วย generative AI ปัจจุบันมีการเปลี่ยนแปลงกระบวนทัศน์ในวิธีที่ผู้ใช้ค้นหาและค้นหาข้อมูล ขั้นตอนต่อไปคือการใช้ AI เจนเนอเรชั่นเพื่อย่อเอกสารขนาดใหญ่ให้เป็นข้อมูลที่มีขนาดเล็กลงเพื่อให้ผู้ใช้ใช้งานได้ง่ายขึ้น แทนที่จะใช้เวลานานในการอ่านข้อความหรือรอคำตอบ ผู้ใช้สามารถสร้างข้อมูลสรุปแบบเรียลไทม์โดยอิงจากที่เก็บข้อมูลภายในที่มีอยู่หลายแห่ง

ภาพรวมโซลูชัน

โซลูชันดังกล่าวช่วยให้ลูกค้าสามารถดึงข้อมูลคำตอบที่รวบรวมไว้สำหรับคำถามที่ถามเกี่ยวกับเอกสารภายในได้ โดยใช้โมเดลหม้อแปลงไฟฟ้าเพื่อสร้างคำตอบสำหรับคำถามเกี่ยวกับข้อมูลที่ไม่ได้รับการฝึกอบรม ซึ่งเป็นเทคนิคที่เรียกว่า Zero-shot prompting การนำโซลูชันนี้มาใช้ ลูกค้าจะได้รับประโยชน์ดังต่อไปนี้:

  • ค้นหาคำตอบที่ถูกต้องสำหรับคำถามตามแหล่งที่มาของเอกสารภายในที่มีอยู่
  • ลดเวลาที่ผู้ใช้ใช้ในการค้นหาคำตอบโดยใช้ Large Language Models (LLM) เพื่อให้คำตอบที่เกือบจะทันทีสำหรับคำถามที่ซับซ้อนโดยใช้เอกสารที่มีข้อมูลที่อัปเดตล่าสุด
  • ค้นหาคำตอบก่อนหน้านี้ผ่านแดชบอร์ดส่วนกลาง
  • ลดความเครียดที่เกิดจากการใช้เวลาอ่านข้อมูลด้วยตนเองเพื่อค้นหาคำตอบ

การดึงข้อมูล Augmented Generation (RAG)

การดึงข้อมูล Augmented Generation (RAG) ช่วยลดข้อบกพร่องบางประการของการสืบค้นที่ใช้ LLM โดยการค้นหาคำตอบจากฐานความรู้ของคุณ และใช้ LLM เพื่อสรุปเอกสารให้เป็นคำตอบที่กระชับ โปรดอ่านข้อความนี้ เสา เพื่อเรียนรู้วิธีการนำแนวทาง RAG ไปใช้ด้วย อเมซอน เคนดรา. ความเสี่ยงและข้อจำกัดต่อไปนี้เกี่ยวข้องกับการสืบค้นแบบ LLM ซึ่งแนวทาง RAG กับที่อยู่ Amazon Kendra:

  • ภาพหลอนและการตรวจสอบย้อนกลับ – LLMS ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดใหญ่และสร้างการตอบสนองต่อความน่าจะเป็น สิ่งนี้สามารถนำไปสู่คำตอบที่ไม่ถูกต้องซึ่งเรียกว่าภาพหลอน
  • ไซโลข้อมูลที่หลากหลาย – ในการที่จะอ้างอิงข้อมูลจากหลายแหล่งภายในการตอบสนองของคุณ เราจำเป็นต้องตั้งค่าระบบนิเวศของตัวเชื่อมต่อเพื่อรวบรวมข้อมูล การเข้าถึงที่เก็บข้อมูลหลายแห่งต้องทำด้วยตนเองและใช้เวลานาน
  • ความปลอดภัย – ความปลอดภัยและความเป็นส่วนตัวถือเป็นข้อพิจารณาที่สำคัญเมื่อปรับใช้บอทสนทนาที่ขับเคลื่อนโดย RAG และ LLM ทั้งๆที่ใช้. เข้าใจ Amazon เพื่อกรองข้อมูลส่วนบุคคลที่อาจได้รับจากการสอบถามของผู้ใช้ ยังคงมีความเป็นไปได้ที่จะเปิดเผยข้อมูลส่วนบุคคลหรือข้อมูลที่ละเอียดอ่อนโดยไม่ได้ตั้งใจ ทั้งนี้ขึ้นอยู่กับข้อมูลที่นำเข้า ซึ่งหมายความว่าการควบคุมการเข้าถึงแชทบอทเป็นสิ่งสำคัญในการป้องกันการเข้าถึงข้อมูลที่ละเอียดอ่อนโดยไม่ได้ตั้งใจ
  • ความเกี่ยวข้องของข้อมูล – LLMS ได้รับการฝึกอบรมเกี่ยวกับข้อมูลจนถึงวันที่กำหนด ซึ่งหมายความว่าข้อมูลมักจะไม่เป็นปัจจุบัน ค่าใช้จ่ายที่เกี่ยวข้องกับโมเดลการฝึกอบรมเกี่ยวกับข้อมูลล่าสุดนั้นสูง เพื่อให้มั่นใจถึงการตอบสนองที่ถูกต้องและทันสมัย ​​องค์กรต่างๆ จึงมีหน้าที่รับผิดชอบในการอัปเดตและเพิ่มคุณค่าเนื้อหาของเอกสารที่จัดทำดัชนีเป็นประจำ
  • ต้นทุน – ต้นทุนที่เกี่ยวข้องกับการปรับใช้โซลูชันนี้ควรเป็นข้อพิจารณาสำหรับธุรกิจ ธุรกิจจำเป็นต้องประเมินงบประมาณและข้อกำหนดด้านประสิทธิภาพอย่างรอบคอบเมื่อนำโซลูชันนี้ไปใช้ การดำเนิน LLM อาจต้องใช้ทรัพยากรการคำนวณจำนวนมาก ซึ่งอาจเพิ่มต้นทุนการดำเนินงานได้ ต้นทุนเหล่านี้อาจกลายเป็นข้อจำกัดสำหรับแอปพลิเคชันที่ต้องดำเนินการในวงกว้าง อย่างไรก็ตามข้อดีประการหนึ่งของ AWS Cloud คือความยืดหยุ่นในการจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น AWS นำเสนอโมเดลราคาที่เรียบง่าย สม่ำเสมอ และจ่ายตามการใช้งาน ดังนั้นคุณจะถูกเรียกเก็บเงินเฉพาะทรัพยากรที่คุณใช้เท่านั้น

การใช้งาน Amazon SageMaker JumpStart

สำหรับโมเดลภาษาที่ใช้ Transformer องค์กรจะได้รับประโยชน์จากการใช้งาน อเมซอน SageMaker JumpStart ซึ่งมีคอลเลกชันโมเดลการเรียนรู้ของเครื่องที่สร้างไว้ล่วงหน้า Amazon SageMaker JumpStart นำเสนอโมเดลพื้นฐานการสร้างข้อความและการตอบคำถาม (ถามตอบ) ที่หลากหลาย ซึ่งสามารถติดตั้งและใช้งานได้อย่างง่ายดาย โซลูชันนี้รวมโมเดล FLAN T5-XL Amazon SageMaker JumpStart เข้าด้วยกัน แต่มีแง่มุมต่างๆ ที่ต้องคำนึงถึงเมื่อ การเลือกแบบจำลองรากฐาน.

บูรณาการความปลอดภัยในขั้นตอนการทำงานของเรา

ปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดของเสาหลักความมั่นคงของ กรอบงานที่มีสถาปัตยกรรมอย่างดี, Amazon Cognito Co ใช้สำหรับการรับรองความถูกต้อง พูลผู้ใช้ Amazon Cognito สามารถผสานรวมกับผู้ให้บริการข้อมูลประจำตัวบุคคลที่สามที่รองรับเฟรมเวิร์กต่างๆ ที่ใช้สำหรับการควบคุมการเข้าถึง รวมถึง Open Authorization (OAuth), OpenID Connect (OIDC) หรือ Security Assertion Markup Language (SAML) การระบุผู้ใช้และการดำเนินการช่วยให้โซลูชันสามารถรักษาความสามารถในการตรวจสอบย้อนกลับได้ โซลูชันนี้ยังใช้ การตรวจจับข้อมูลส่วนบุคคลที่สามารถระบุตัวตนได้ (PII) ของ Amazon Comprehend คุณลักษณะเพื่อระบุตัวตนและตรวจทาน PII โดยอัตโนมัติ PII ที่ปกปิดประกอบด้วยที่อยู่ หมายเลขประกันสังคม ที่อยู่อีเมล และข้อมูลที่ละเอียดอ่อนอื่นๆ การออกแบบนี้ช่วยให้แน่ใจว่า PII ใดๆ ที่ผู้ใช้ให้มาผ่านการสืบค้นอินพุตจะถูกแก้ไข PII จะไม่ถูกจัดเก็บ ใช้โดย Amazon Kendra หรือป้อนไปยัง LLM

แนวทางการแก้ปัญหา

ขั้นตอนต่อไปนี้จะอธิบายเวิร์กโฟลว์ของการตอบคำถามผ่านโฟลว์เอกสาร:

  1. ผู้ใช้ส่งแบบสอบถามผ่านเว็บอินเตอร์เฟส
  2. Amazon Cognito Co ใช้สำหรับการรับรองความถูกต้องทำให้มั่นใจในการเข้าถึงเว็บแอปพลิเคชันอย่างปลอดภัย
  3. ส่วนหน้าของแอปพลิเคชันบนเว็บโฮสต์อยู่บน AWS ขยาย.
  4. Amazon API Gateway Amazon โฮสต์ REST API ด้วยตำแหน่งข้อมูลต่างๆ เพื่อจัดการคำขอของผู้ใช้ที่ได้รับการตรวจสอบสิทธิ์โดยใช้ Amazon Cognito
  5. การแก้ไข PII ด้วย เข้าใจ Amazon:
    • การประมวลผลคำค้นหาของผู้ใช้: เมื่อผู้ใช้ส่งคำค้นหาหรืออินพุต คำค้นหานั้นจะถูกส่งผ่าน Amazon Comprehend ก่อน บริการวิเคราะห์ข้อความและระบุเอนทิตี PII ใดๆ ที่มีอยู่ในแบบสอบถาม
    • การดึงข้อมูล PII: Amazon Comprehend จะแยกเอนทิตี PII ที่ตรวจพบออกจากคำค้นหาของผู้ใช้
  6. การสืบค้นข้อมูลที่เกี่ยวข้องด้วย อเมซอน เคนดรา:
    • Amazon Kendra ใช้เพื่อจัดการดัชนีเอกสารที่มีข้อมูลที่ใช้ในการสร้างคำตอบสำหรับคำถามของผู้ใช้
    • พื้นที่ การดึงข้อมูล LangChain QA โมดูลใช้เพื่อสร้างห่วงโซ่การสนทนาที่มีข้อมูลที่เกี่ยวข้องกับคำถามของผู้ใช้
  7. บูรณาการกับ Amazon SageMaker JumpStart:
    • ฟังก์ชัน AWS Lambda ใช้ไลบรารี LangChain และเชื่อมต่อกับตำแหน่งข้อมูล Amazon SageMaker JumpStart ด้วยการสืบค้นแบบยัดบริบท ตำแหน่งข้อมูล Amazon SageMaker JumpStart ทำหน้าที่เป็นอินเทอร์เฟซของ LLM ที่ใช้สำหรับการอนุมาน
  8. การจัดเก็บคำตอบและส่งคืนให้กับผู้ใช้:
    • การตอบสนองจาก LLM จะถูกเก็บไว้ใน อเมซอน ไดนาโมดีบี พร้อมด้วยข้อความค้นหาของผู้ใช้ การประทับเวลา ตัวระบุที่ไม่ซ้ำกัน และตัวระบุที่กำหนดเองอื่นๆ สำหรับรายการ เช่น หมวดหมู่คำถาม การจัดเก็บคำถามและคำตอบเป็นรายการแยกกันทำให้ฟังก์ชัน AWS Lambda สามารถสร้างประวัติการสนทนาของผู้ใช้ขึ้นใหม่ตามเวลาที่ถามคำถามได้อย่างง่ายดาย
    • สุดท้าย การตอบสนองจะถูกส่งกลับไปยังผู้ใช้ผ่านคำขอ HTTP ผ่านการตอบกลับการรวม Amazon API Gateway REST API

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ขั้นตอนต่อไปนี้จะอธิบายฟังก์ชัน AWS Lambda และโฟลว์ของฟังก์ชันตลอดกระบวนการ:

  1. ตรวจสอบและแก้ไขข้อมูล PII / ข้อมูลที่ละเอียดอ่อน
  2. ห่วงโซ่การดึงข้อมูล QA ของ LangChain
    • ค้นหาและดึงข้อมูลที่เกี่ยวข้อง
  3. การบรรจุบริบทและวิศวกรรมพร้อมท์
  4. การอนุมานกับ LLM
  5. ตอบกลับและบันทึก

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ใช้กรณี

มีกรณีการใช้งานทางธุรกิจมากมายที่ลูกค้าสามารถใช้เวิร์กโฟลว์นี้ได้ ส่วนต่อไปนี้จะอธิบายวิธีการใช้เวิร์กโฟลว์ในอุตสาหกรรมและแนวดิ่งต่างๆ

การช่วยเหลือพนักงาน

การฝึกอบรมระดับองค์กรที่ออกแบบมาอย่างดีสามารถปรับปรุงความพึงพอใจของพนักงานและลดเวลาที่ต้องใช้ในการเริ่มต้นพนักงานใหม่ เมื่อองค์กรเติบโตและความซับซ้อนเพิ่มขึ้น พนักงานพบว่าเป็นเรื่องยากที่จะเข้าใจแหล่งที่มาของเอกสารภายในจำนวนมาก เอกสารภายในในบริบทนี้ประกอบด้วยแนวปฏิบัติของบริษัท นโยบาย และขั้นตอนการปฏิบัติงานมาตรฐาน สำหรับสถานการณ์นี้ พนักงานมีคำถามเกี่ยวกับวิธีการดำเนินการและแก้ไขตั๋วการออกตั๋วภายใน พนักงานสามารถเข้าถึงและใช้บอทสนทนาอัจฉริยะประดิษฐ์ (AI) เพื่อถามและดำเนินการขั้นตอนถัดไปสำหรับตั๋วเฉพาะ

กรณีการใช้งานเฉพาะ: แก้ไขปัญหาโดยอัตโนมัติสำหรับพนักงานตามหลักเกณฑ์ขององค์กร

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ขั้นตอนต่อไปนี้จะอธิบายฟังก์ชัน AWS Lambda และโฟลว์ของฟังก์ชันตลอดกระบวนการ:

  1. ตัวแทน LangChain เพื่อระบุเจตนา
  2. ส่งการแจ้งเตือนตามคำขอของพนักงาน
  3. แก้ไขสถานะตั๋ว

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ในแผนภาพสถาปัตยกรรมนี้ คุณสามารถนำเข้าวิดีโอการฝึกอบรมขององค์กรได้ ถอดความจากอเมซอน เพื่อรวบรวมบันทึกสคริปต์วิดีโอเหล่านี้ นอกจากนี้ เนื้อหาการฝึกอบรมขององค์กรที่จัดเก็บไว้ในแหล่งต่างๆ (เช่น Confluence, Microsoft SharePoint, Google Drive, Jira ฯลฯ) สามารถใช้เพื่อสร้างดัชนีผ่านตัวเชื่อมต่อ Amazon Kendra อ่านบทความนี้เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับคอลเล็กชันภาษาพื้นเมือง การเชื่อมต่อ คุณสามารถใช้ใน Amazon Kendra เป็นจุดต้นทางได้ จากนั้นโปรแกรมรวบรวมข้อมูลของ Amazon Kendra จะสามารถใช้ทั้งสคริปต์วิดีโอการฝึกอบรมขององค์กรและเอกสารที่จัดเก็บไว้ในแหล่งข้อมูลอื่นๆ เหล่านี้ เพื่อช่วยบอทสนทนาในการตอบคำถามเฉพาะเกี่ยวกับแนวทางการฝึกอบรมขององค์กรของบริษัท เอเจนต์ LangChain ตรวจสอบสิทธิ์ แก้ไขสถานะตั๋ว และแจ้งบุคคลที่ถูกต้องโดยใช้ Amazon Simple Notification Service (อเมซอน SNS).

ทีมสนับสนุนลูกค้า

การแก้ไขข้อซักถามของลูกค้าอย่างรวดเร็วช่วยปรับปรุงประสบการณ์ของลูกค้าและส่งเสริมความภักดีต่อแบรนด์ ฐานลูกค้าประจำช่วยกระตุ้นยอดขาย ซึ่งส่งผลต่อผลกำไรและเพิ่มการมีส่วนร่วมของลูกค้า ทีมสนับสนุนลูกค้าใช้พลังงานจำนวนมากในการอ้างอิงเอกสารภายในจำนวนมากและซอฟต์แวร์การจัดการลูกค้าสัมพันธ์เพื่อตอบคำถามของลูกค้าเกี่ยวกับผลิตภัณฑ์และบริการ เอกสารภายในในบริบทนี้อาจรวมถึงสคริปต์การโทรสนับสนุนลูกค้าทั่วไป คู่มือกลยุทธ์ แนวทางการยกระดับ และข้อมูลทางธุรกิจ บอทสนทนา AI เจนเนอเรชั่นช่วยในการเพิ่มประสิทธิภาพต้นทุน เนื่องจากจะจัดการคำถามในนามของทีมสนับสนุนลูกค้า

กรณีการใช้งานเฉพาะ: การจัดการคำขอเปลี่ยนถ่ายน้ำมันเครื่องตามประวัติการบริการและแผนการบริการลูกค้าที่ซื้อ

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ในแผนภาพสถาปัตยกรรมนี้ ลูกค้าจะถูกส่งไปยังบอทสนทนา AI แบบสร้างหรือ อเมซอน คอนเนค ศูนย์ติดต่อ การตัดสินใจนี้อาจขึ้นอยู่กับระดับการสนับสนุนที่ต้องการหรือความพร้อมของตัวแทนฝ่ายสนับสนุนลูกค้า ตัวแทน LangChain ระบุความตั้งใจของลูกค้าและยืนยันตัวตน ตัวแทน LangChain ยังตรวจสอบประวัติการบริการและซื้อแผนการสนับสนุนอีกด้วย

ขั้นตอนต่อไปนี้จะอธิบายฟังก์ชัน AWS Lambda และโฟลว์ของฟังก์ชันตลอดกระบวนการ:

  1. ตัวแทน LangChain ระบุเจตนา
  2. ดึงข้อมูลลูกค้า
  3. ตรวจสอบประวัติการบริการลูกค้าและข้อมูลการรับประกัน
  4. จองนัดหมาย ให้ข้อมูลเพิ่มเติม หรือสอบถามเส้นทางไปยังศูนย์ติดต่อ
  5. ส่งอีเมลยืนยัน

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

Amazon Connect ใช้เพื่อรวบรวมบันทึกเสียงและการแชท และ Amazon Comprehend ใช้เพื่อลบข้อมูลส่วนบุคคล (PII) ออกจากบันทึกเหล่านี้ จากนั้นโปรแกรมรวบรวมข้อมูลของ Amazon Kendra จะสามารถใช้บันทึกเสียงสนทนาและการแชทที่แก้ไข สคริปต์การโทรของลูกค้า และนโยบายแผนสนับสนุนการบริการลูกค้าเพื่อสร้างดัชนี เมื่อตัดสินใจได้แล้ว บอทสนทนา AI ทั่วไปจะตัดสินใจว่าจะจองการนัดหมาย ให้ข้อมูลเพิ่มเติม หรือกำหนดเส้นทางลูกค้าไปยังศูนย์ติดต่อเพื่อขอความช่วยเหลือเพิ่มเติม สำหรับการเพิ่มประสิทธิภาพต้นทุน ตัวแทน LangChain ยังสามารถสร้างคำตอบโดยใช้โทเค็นน้อยลงและโมเดลภาษาขนาดใหญ่ที่มีราคาถูกกว่าสำหรับการสืบค้นของลูกค้าที่มีลำดับความสำคัญต่ำกว่า

บริการทางการเงิน

บริษัทผู้ให้บริการทางการเงินพึ่งพาการใช้ข้อมูลอย่างทันท่วงทีเพื่อรักษาความสามารถในการแข่งขันและปฏิบัติตามกฎระเบียบทางการเงิน การใช้บอทการสนทนาแบบ generative AI นักวิเคราะห์ทางการเงินและที่ปรึกษาสามารถโต้ตอบกับข้อมูลที่เป็นข้อความในลักษณะการสนทนา และลดเวลาและความพยายามในการตัดสินใจโดยมีข้อมูลดีขึ้น นอกเหนือจากการลงทุนและการวิจัยตลาด บอทสนทนาแบบ AI ทั่วไปยังสามารถเพิ่มขีดความสามารถของมนุษย์ด้วยการจัดการงานที่แต่เดิมต้องใช้ความพยายามและเวลาของมนุษย์มากขึ้น ตัวอย่างเช่น สถาบันการเงินที่เชี่ยวชาญด้านสินเชื่อส่วนบุคคลสามารถเพิ่มอัตราการประมวลผลสินเชื่อในขณะที่ให้ความโปร่งใสแก่ลูกค้าได้ดีขึ้น

กรณีการใช้งานเฉพาะ: ใช้ประวัติทางการเงินของลูกค้าและการสมัครสินเชื่อก่อนหน้าเพื่อตัดสินใจและอธิบายการตัดสินใจสินเชื่อ

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ขั้นตอนต่อไปนี้จะอธิบายฟังก์ชัน AWS Lambda และโฟลว์ของฟังก์ชันตลอดกระบวนการ:

  1. ตัวแทน LangChain เพื่อระบุเจตนา
  2. ตรวจสอบประวัติทางการเงินและคะแนนเครดิตของลูกค้า
  3. ตรวจสอบระบบการจัดการลูกค้าสัมพันธ์ภายใน
  4. ตรวจสอบนโยบายสินเชื่อมาตรฐานและเสนอแนะการตัดสินใจสำหรับพนักงานที่มีคุณสมบัติเหมาะสมในการกู้ยืม
  5. ส่งการแจ้งเตือนไปยังลูกค้า

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

สถาปัตยกรรมนี้รวมข้อมูลทางการเงินของลูกค้าที่จัดเก็บไว้ในฐานข้อมูลและข้อมูลที่จัดเก็บไว้ในเครื่องมือการจัดการลูกค้าสัมพันธ์ (CRM) จุดข้อมูลเหล่านี้ใช้เพื่อประกอบการตัดสินใจตามนโยบายสินเชื่อภายในของบริษัท ลูกค้าสามารถถามคำถามที่ชัดเจนเพื่อทำความเข้าใจว่าพวกเขามีสิทธิ์ได้รับสินเชื่อประเภทใดและเงื่อนไขของสินเชื่อที่พวกเขาสามารถรับได้ หากบอทการสนทนาแบบ generative AI ไม่สามารถอนุมัติการสมัครสินเชื่อได้ ผู้ใช้ยังสามารถถามคำถามเกี่ยวกับการปรับปรุงคะแนนเครดิตหรือตัวเลือกทางการเงินอื่น ๆ ได้

รัฐบาล

บอทสนทนา Generative AI สามารถให้ประโยชน์อย่างมากต่อสถาบันภาครัฐ โดยการเร่งกระบวนการสื่อสาร ประสิทธิภาพ และการตัดสินใจ บอทสนทนา Generative AI ยังให้การเข้าถึงฐานความรู้ภายในได้ทันที เพื่อช่วยให้พนักงานของรัฐดึงข้อมูล นโยบาย และขั้นตอนต่างๆ ได้อย่างรวดเร็ว (เช่น เกณฑ์คุณสมบัติ กระบวนการสมัคร และบริการและการสนับสนุนของพลเมือง) โซลูชันหนึ่งคือระบบโต้ตอบ ซึ่งช่วยให้ผู้เสียภาษีและผู้เชี่ยวชาญด้านภาษีสามารถค้นหารายละเอียดและสิทธิประโยชน์ที่เกี่ยวข้องกับภาษีได้อย่างง่ายดาย สามารถใช้เพื่อทำความเข้าใจคำถามของผู้ใช้ สรุปเอกสารภาษี และให้คำตอบที่ชัดเจนผ่านการสนทนาเชิงโต้ตอบ

ผู้ใช้สามารถถามคำถามเช่น:

  • ภาษีมรดกทำงานอย่างไร และเกณฑ์ภาษีมีอะไรบ้าง?
  • ช่วยอธิบายแนวคิดเรื่องภาษีเงินได้หน่อยได้ไหม?
  • ผลกระทบทางภาษีเมื่อขายอสังหาริมทรัพย์แห่งที่สองมีอะไรบ้าง?

นอกจากนี้ผู้ใช้สามารถส่งแบบฟอร์มภาษีเข้าระบบได้สะดวกซึ่งสามารถช่วยตรวจสอบความถูกต้องของข้อมูลที่ให้ไว้ได้

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

สถาปัตยกรรมนี้แสดงให้เห็นว่าผู้ใช้สามารถอัปโหลดแบบฟอร์มภาษีที่กรอกเรียบร้อยแล้วไปยังโซลูชันได้อย่างไร และใช้สำหรับการตรวจสอบเชิงโต้ตอบและคำแนะนำเกี่ยวกับวิธีการกรอกข้อมูลที่จำเป็นอย่างถูกต้อง

การดูแลสุขภาพ

ธุรกิจด้านการดูแลสุขภาพมีโอกาสที่จะทำให้การใช้ข้อมูลภายในของผู้ป่วยจำนวนมากเป็นไปโดยอัตโนมัติ ขณะเดียวกันก็ตอบคำถามทั่วไปเกี่ยวกับกรณีการใช้งาน เช่น ตัวเลือกการรักษา การเคลมประกัน การทดลองทางคลินิก และการวิจัยทางเภสัชกรรม การใช้บอทสนทนา AI เจนเนอเรชั่นช่วยให้สร้างคำตอบเกี่ยวกับข้อมูลด้านสุขภาพได้อย่างรวดเร็วและแม่นยำจากฐานความรู้ที่ให้มา ตัวอย่างเช่น ผู้เชี่ยวชาญด้านสุขภาพบางคนใช้เวลาส่วนใหญ่ในการกรอกแบบฟอร์มเพื่อยื่นเคลมประกัน

ในสภาวะที่คล้ายกัน ผู้บริหารการทดลองทางคลินิกและนักวิจัยจำเป็นต้องค้นหาข้อมูลเกี่ยวกับตัวเลือกการรักษา บอทสนทนา AI เจนเนอเรชั่นสามารถใช้ตัวเชื่อมต่อที่สร้างไว้ล่วงหน้าใน Amazon Kendra เพื่อดึงข้อมูลที่เกี่ยวข้องมากที่สุดจากเอกสารนับล้านที่เผยแพร่ผ่านการวิจัยที่กำลังดำเนินการโดยบริษัทยาและมหาวิทยาลัย

กรณีการใช้งานเฉพาะ: ลดข้อผิดพลาดและเวลาที่ต้องใช้ในการกรอกและส่งแบบฟอร์มประกันภัย

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ในแผนภาพสถาปัตยกรรมนี้ ผู้เชี่ยวชาญด้านสุขภาพสามารถใช้บอทสนทนา AI เชิงสร้างสรรค์ เพื่อดูว่าต้องกรอกแบบฟอร์มใดบ้างสำหรับการประกัน จากนั้นตัวแทนของ LangChain จะสามารถดึงแบบฟอร์มที่ถูกต้องและเพิ่มข้อมูลที่จำเป็นสำหรับผู้ป่วย รวมทั้งให้คำตอบสำหรับส่วนที่เป็นคำอธิบายของแบบฟอร์มตามกรมธรรม์ประกันภัยและแบบฟอร์มก่อนหน้า ผู้เชี่ยวชาญด้านสุขภาพสามารถแก้ไขคำตอบที่ได้รับจาก LLM ก่อนที่จะอนุมัติและส่งแบบฟอร์มไปยังพอร์ทัลประกันภัย

ขั้นตอนต่อไปนี้จะอธิบายฟังก์ชัน AWS Lambda และโฟลว์ของฟังก์ชันตลอดกระบวนการ:

  1. ตัวแทน LangChain เพื่อระบุเจตนา
  2. ดึงข้อมูลผู้ป่วยที่จำเป็น
  3. กรอกแบบฟอร์มประกันภัยตามข้อมูลคนไข้และแนวปฏิบัติในแบบฟอร์ม
  4. ส่งแบบฟอร์มไปยังพอร์ทัลประกันภัยหลังจากได้รับการอนุมัติจากผู้ใช้

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

AWS HealthLake ใช้เพื่อจัดเก็บข้อมูลสุขภาพอย่างปลอดภัย รวมถึงแบบฟอร์มประกันก่อนหน้าและข้อมูลผู้ป่วย และ Amazon Comprehend ใช้เพื่อลบข้อมูลส่วนบุคคล (PII) ออกจากแบบฟอร์มประกันก่อนหน้า จากนั้นโปรแกรมรวบรวมข้อมูลของ Amazon Kendra จะสามารถใช้ชุดแบบฟอร์มการประกันและหลักเกณฑ์เพื่อสร้างดัชนีได้ เมื่อ Generative AI กรอกแบบฟอร์มแล้ว แบบฟอร์มที่ได้รับการตรวจสอบโดยผู้เชี่ยวชาญทางการแพทย์จะถูกส่งไปยังพอร์ทัลประกันภัย

ประมาณการค่าใช้จ่าย

ค่าใช้จ่ายในการปรับใช้โซลูชันพื้นฐานเป็นการพิสูจน์แนวคิดจะแสดงอยู่ในตารางต่อไปนี้ เนื่องจากโซลูชันพื้นฐานถือเป็นการพิสูจน์แนวคิด จึงใช้ Amazon Kendra Developer Edition เป็นตัวเลือกที่มีต้นทุนต่ำเนื่องจากปริมาณงานจะไม่อยู่ในการใช้งานจริง สมมติฐานของเราสำหรับ Amazon Kendra Developer Edition คือ 730 ชั่วโมงที่ใช้งานต่อเดือน

สำหรับ Amazon SageMaker เราได้สันนิษฐานว่าลูกค้าจะใช้อินสแตนซ์ ml.g4dn.2xlarge สำหรับการอนุมานแบบเรียลไทม์ โดยมีจุดสิ้นสุดการอนุมานจุดเดียวต่ออินสแตนซ์ คุณสามารถค้นหาข้อมูลเพิ่มเติมเกี่ยวกับราคา Amazon SageMaker และประเภทอินสแตนซ์การอนุมานที่มีอยู่ โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.

Service ทรัพยากรที่ใช้ไป ประมาณการค่าใช้จ่ายต่อเดือนในสกุลเงิน USD
AWS ขยาย 150 นาทีในการสร้าง
ให้บริการข้อมูล 1 GB
500,000 คำขอ
15.71
Amazon API Gateway Amazon การเรียก API REST 1 ล้านครั้ง 3.5
AWS แลมบ์ดา 1 ล้านคำขอ
ระยะเวลา 5 วินาทีต่อคำขอ
จัดสรรหน่วยความจำ 2 GB
160.23
อเมซอน ไดนาโมดีบี 1 ล้านการอ่าน
1 ล้านเขียน
พื้นที่จัดเก็บ 100 GB
26.38
อเมซอน Sagemaker การอนุมานแบบเรียลไทม์ด้วย ml.g4dn.2xlarge 676.8
อเมซอน เคนดรา Developer Edition พร้อม 730 ชั่วโมง/เดือน
สแกนเอกสารได้ 10,000 ชุด
5,000 ข้อความค้นหา/วัน
821.25
. . ต้นทุนทั้งหมด: 1703.87

* Amazon Cognito มีผู้ใช้ที่ใช้งานอยู่รายเดือนจำนวน 50,000 รายที่ใช้กลุ่มผู้ใช้ Cognito หรือผู้ใช้ที่ใช้งานอยู่รายเดือนจำนวน 50 รายที่ใช้ผู้ให้บริการข้อมูลระบุตัวตน SAML 2.0

ทำความสะอาดขึ้น

เพื่อประหยัดค่าใช้จ่าย ให้ลบทรัพยากรทั้งหมดที่คุณปรับใช้โดยเป็นส่วนหนึ่งของบทช่วยสอน คุณสามารถลบตำแหน่งข้อมูล SageMaker ใดๆ ที่คุณอาจสร้างขึ้นผ่านคอนโซล SageMaker ได้ โปรดจำไว้ว่า การลบดัชนี Amazon Kendra จะไม่ลบเอกสารต้นฉบับออกจากพื้นที่จัดเก็บข้อมูลของคุณ

สรุป

ในโพสต์นี้ เราได้แสดงให้คุณเห็นถึงวิธีทำให้การเข้าถึงข้อมูลภายในง่ายขึ้นโดยการสรุปจากที่เก็บข้อมูลหลายแห่งแบบเรียลไทม์ หลังจากการพัฒนา LLM ที่มีจำหน่ายในท้องตลาดเมื่อเร็วๆ นี้ ความเป็นไปได้ของ generative AI ก็ชัดเจนมากขึ้น ในโพสต์นี้ เราได้จัดแสดงวิธีการใช้บริการของ AWS เพื่อสร้างแชทบอทแบบไร้เซิร์ฟเวอร์ที่ใช้ AI เชิงสร้างสรรค์ในการตอบคำถาม แนวทางนี้รวมชั้นการรับรองความถูกต้องและการตรวจจับ PII ของ Amazon Comprehend เพื่อกรองข้อมูลที่ละเอียดอ่อนใดๆ ที่ให้ไว้ในคำค้นหาของผู้ใช้ออก ไม่ว่าจะเป็นบุคคลที่อยู่ในแวดวงการดูแลสุขภาพที่เข้าใจความแตกต่างในการยื่นคำร้องประกัน หรือฝ่ายทรัพยากรบุคคลเข้าใจกฎระเบียบเฉพาะของบริษัท มีอุตสาหกรรมและแนวดิ่งมากมายที่สามารถได้รับประโยชน์จากแนวทางนี้ โมเดลพื้นฐาน Amazon SageMaker JumpStart คือกลไกเบื้องหลังแชทบอต ในขณะที่ใช้วิธีการบรรจุบริบทโดยใช้เทคนิค RAG เพื่อให้แน่ใจว่าการตอบสนองจะอ้างอิงเอกสารภายในได้แม่นยำยิ่งขึ้น

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับการทำงานกับ Generative AI บน AWS โปรดดูที่ ประกาศเครื่องมือใหม่สำหรับการสร้างด้วย Generative AI บน AWS. สำหรับคำแนะนำเชิงลึกเพิ่มเติมเกี่ยวกับการใช้เทคนิค RAG กับบริการของ AWS โปรดดูที่ สร้างแอปพลิเคชัน Generative AI ที่มีความแม่นยำสูงอย่างรวดเร็วบนข้อมูลองค์กรโดยใช้ Amazon Kendra, LangChain และโมเดลภาษาขนาดใหญ่. เนื่องจากแนวทางในบล็อกนี้เป็นแบบไม่เชื่อเรื่องพระเจ้าแบบ LLM ดังนั้น LLM ใดๆ จึงสามารถนำไปใช้ในการอนุมานได้ ในโพสต์ถัดไป เราจะสรุปวิธีการปรับใช้โซลูชันนี้โดยใช้ Amazon Bedrock และ Amazon Titan LLM


เกี่ยวกับผู้เขียน

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.อภิเชค มาลิเกฮัลลี ชิวาลิงไกอาห์ เป็นสถาปนิกโซลูชันบริการ AI อาวุโสที่ AWS เขาหลงใหลในการสร้างแอปพลิเคชันโดยใช้ Generative AI, Amazon Kendra และ NLP เขามีประสบการณ์ประมาณ 10 ปีในการสร้างโซลูชันข้อมูลและ AI เพื่อสร้างมูลค่าให้กับลูกค้าและองค์กร เขาได้สร้างแชทบอท (ส่วนตัว) เพื่อความสนุกสนานในการตอบคำถามเกี่ยวกับอาชีพและเส้นทางอาชีพของเขา นอกเหนือจากงานแล้ว เขาชอบถ่ายภาพครอบครัวและเพื่อนๆ และชอบสร้างสรรค์ผลงานศิลปะ

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.เมธา ไอยะห์ เป็น Associate Solutions Architect ที่ AWS ซึ่งตั้งอยู่ในเมืองออสติน รัฐเท็กซัส เธอเพิ่งสำเร็จการศึกษาจากมหาวิทยาลัยเท็กซัสที่ดัลลัสในเดือนธันวาคม 2022 ด้วยปริญญาโทสาขาวิทยาศาสตรมหาบัณฑิตสาขาวิทยาการคอมพิวเตอร์ที่มีความเชี่ยวชาญเฉพาะด้านระบบอัจฉริยะที่เน้นด้าน AI/ML เธอสนใจที่จะเรียนรู้เพิ่มเติมเกี่ยวกับ AI/ML และการใช้บริการของ AWS เพื่อค้นหาโซลูชันที่ลูกค้าจะได้รับประโยชน์

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ฮิวโก้ เซ เป็น Associate Solutions Architect ที่ AWS ในเมืองซีแอตเทิล รัฐวอชิงตัน เขาสำเร็จการศึกษาระดับปริญญาโทสาขาเทคโนโลยีสารสนเทศจากมหาวิทยาลัยรัฐแอริโซนา และระดับปริญญาตรีสาขาเศรษฐศาสตร์จากมหาวิทยาลัยชิคาโก เขาเป็นสมาชิกของสมาคมการตรวจสอบและควบคุมระบบสารสนเทศ (ISACA) และสมาคมรับรองความปลอดภัยระบบสารสนเทศระหว่างประเทศ (ISC)2 เขาสนุกกับการช่วยให้ลูกค้าได้รับประโยชน์จากเทคโนโลยี

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ไอมาน อิชิมเว เป็น Associate Solutions Architect ที่ AWS ในเมืองซีแอตเทิล รัฐวอชิงตัน เขาสำเร็จการศึกษาระดับปริญญาโทสาขาวิศวกรรมซอฟต์แวร์และไอทีจากมหาวิทยาลัยโอ๊คแลนด์ เขามีประสบการณ์มาก่อนในการพัฒนาซอฟต์แวร์ โดยเฉพาะในการสร้างไมโครเซอร์วิสสำหรับเว็บแอปพลิเคชันแบบกระจาย เขามีความกระตือรือร้นในการช่วยลูกค้าสร้างโซลูชันที่แข็งแกร่งและปรับขนาดได้บนบริการคลาวด์ของ AWS ตามแนวทางปฏิบัติที่ดีที่สุด

ลดความซับซ้อนในการเข้าถึงข้อมูลภายในโดยใช้การดึงข้อมูล Augmented Generation และตัวแทน LangChain | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.เชอร์วิน ซูเรช เป็น Associate Solutions Architect ที่ AWS ในเมืองออสติน รัฐเท็กซัส เขาสำเร็จการศึกษาระดับปริญญาโทสาขาวิศวกรรมซอฟต์แวร์ สาขาคอมพิวเตอร์คลาวด์และการจำลองเสมือน และปริญญาตรีสาขาวิศวกรรมคอมพิวเตอร์จากมหาวิทยาลัยซานโฮเซสเตต เขาหลงใหลในการใช้เทคโนโลยีเพื่อช่วยปรับปรุงชีวิตของผู้คนจากทุกภูมิหลัง

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS