Google สอนหุ่นยนต์ให้รับใช้มนุษย์ ด้วยโมเดลภาษาขนาดใหญ่ซึ่งเป็นกุญแจสำคัญของ PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

Google สอนหุ่นยนต์ให้รับใช้มนุษย์ – โดยมีโมเดลภาษาขนาดใหญ่เป็นกุญแจสำคัญ

วีดีโอ โมเดลภาษา AI ที่ใหญ่ที่สุดของ Google ช่วยให้หุ่นยนต์มีความยืดหยุ่นมากขึ้นในการทำความเข้าใจและตีความคำสั่งของมนุษย์ ตามการวิจัยล่าสุดของเว็บยักษ์

โดยปกติแล้ว เครื่องจะตอบสนองต่อความต้องการที่เฉพาะเจาะจงได้ดีที่สุด – คำขอปลายเปิดในบางครั้งอาจทิ้งคำขอนั้นทิ้งไปและนำไปสู่ผลลัพธ์ที่ผู้ใช้ไม่ได้คำนึงถึง ผู้คนเรียนรู้ที่จะโต้ตอบกับหุ่นยนต์อย่างเข้มงวด เช่น การถามคำถามในลักษณะเฉพาะเพื่อให้ได้คำตอบที่ต้องการ

ระบบล่าสุดของ Google ชื่อ PaLM-SayCan สัญญาว่าจะฉลาดขึ้น อุปกรณ์ทางกายภาพจาก Everyday Robots ซึ่งเป็นสตาร์ทอัพที่แยกตัวออกมาจาก Google X มีกล้องสำหรับตาอยู่ที่หัวและแขนที่มีคีมหนีบอยู่ด้านหลังลำตัวยาวเหยียดตรงซึ่งอยู่บนชุดล้อ  

คุณสามารถชมการทำงานของหุ่นยนต์ได้ในวิดีโอด้านล่าง:

วิดีโอ Youtube

เมื่อถามหุ่นยนต์ว่า “ฉันเพิ่งออกกำลังกาย คุณช่วยหาขนมเพื่อสุขภาพให้ฉันหน่อยได้ไหม” จะเขยิบไปดึงแอปเปิ้ล “PaLM-SayCan [เป็น] แนวทางทั่วไปที่ตีความได้ในการใช้ประโยชน์จากความรู้จากแบบจำลองภาษาที่ช่วยให้หุ่นยนต์สามารถปฏิบัติตามคำสั่งที่เป็นข้อความในระดับสูงเพื่อทำงานที่มีพื้นฐานทางกายภาพ” นักวิทยาศาสตร์วิจัยจากทีม Brain ของ Google อธิบาย.

Google เปิดตัวโมเดลภาษาที่ใหญ่ที่สุด ปาล์ม ในเดือนเมษายนปีนี้ PaLM ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่คัดลอกมาจากอินเทอร์เน็ต แต่แทนที่จะใช้การตอบกลับข้อความแบบปลายเปิด ระบบได้รับการดัดแปลงเพื่อสร้างรายการคำสั่งสำหรับหุ่นยนต์ที่จะปฏิบัติตาม

พูดว่า “ฉันทำโค้กหกลงบนโต๊ะ คุณจะโยนมันทิ้งแล้วเอาอะไรมาช่วยทำความสะอาดให้ฉันได้อย่างไร” แจ้งให้ PaLM เข้าใจคำถามและสร้างรายการขั้นตอนที่หุ่นยนต์สามารถปฏิบัติตามเพื่อทำงานให้เสร็จได้ เช่น ข้ามไป หยิบกระป๋อง โยนลงในถังขยะ และรับฟองน้ำ

โมเดลภาษาขนาดใหญ่ (LLM) เช่น PaLM ไม่เข้าใจความหมายของสิ่งที่พวกเขาพูด ด้วยเหตุผลนี้ นักวิจัยจึงได้ฝึกอบรมแบบจำลองที่แยกจากกันโดยใช้การเรียนรู้แบบเสริมกำลังเพื่อสร้างภาษานามธรรมให้เป็นภาพและการกระทำ ด้วยวิธีนี้หุ่นยนต์เรียนรู้ที่จะเชื่อมโยงคำว่า "โค้ก" กับภาพกระป๋องน้ำอัดลม

PaLM-SayCan ยังเรียนรู้สิ่งที่เรียกว่า "ฟังก์ชันค่าใช้จ่าย" ซึ่งเป็นวิธีการที่จัดอันดับความเป็นไปได้ในการดำเนินการเฉพาะที่กำหนดให้กับวัตถุในสภาพแวดล้อม หุ่นยนต์มีแนวโน้มที่จะหยิบฟองน้ำมากกว่าเครื่องดูดฝุ่น ตัวอย่างเช่น หากตรวจพบฟองน้ำ แต่ไม่มีเครื่องดูดฝุ่นอยู่ใกล้ ๆ 

"วิธีการของเราคือ SayCan ดึงและใช้ประโยชน์จากความรู้ภายใน LLM ในงานที่มีพื้นฐานทางกายภาพ" ทีมงานอธิบายใน รายงานการวิจัย. “LLM (Say) จัดเตรียมงานพื้นฐานเพื่อกำหนดการกระทำที่เป็นประโยชน์สำหรับเป้าหมายระดับสูงและฟังก์ชันการจ่ายที่เรียนรู้ (Can) จัดเตรียมพื้นฐานระดับโลกเพื่อกำหนดสิ่งที่เป็นไปได้ที่จะดำเนินการตามแผน เราใช้การเรียนรู้แบบเสริมกำลัง (RL) เป็นวิธีการเรียนรู้ฟังก์ชันค่านิยมแบบมีเงื่อนไขทางภาษาซึ่งมอบสิ่งที่เป็นไปได้ในโลกนี้”

เพื่อป้องกันไม่ให้หุ่นยนต์เบี่ยงเบนจากภารกิจ มันถูกฝึกให้เลือกการกระทำจาก 101 คำสั่งที่แตกต่างกันเท่านั้น Google ฝึกฝนให้ปรับตัวเข้ากับห้องครัว – PaLM-SayCan สามารถรับขนม เครื่องดื่ม และทำความสะอาดง่ายๆ ได้ นักวิจัยเชื่อว่า LLMs เป็นขั้นตอนแรกในการทำให้หุ่นยนต์ทำงานที่ซับซ้อนมากขึ้นได้อย่างปลอดภัยตามคำแนะนำที่เป็นนามธรรม

“การทดลองของเราเกี่ยวกับงานหุ่นยนต์ในโลกแห่งความเป็นจริงจำนวนหนึ่งแสดงให้เห็นถึงความสามารถในการวางแผนและทำตามคำแนะนำทางภาษาธรรมชาติที่เป็นนามธรรมในแนวนอนยาวและมีอัตราความสำเร็จสูง เราเชื่อว่าความสามารถในการตีความของ PaLM-SayCan ช่วยให้ผู้ใช้โต้ตอบกับหุ่นยนต์ได้อย่างปลอดภัยในโลกแห่งความเป็นจริง” พวกเขาสรุป ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน