Google ย่าง AI bot Med-PaLM 2 ที่ใช้ในโรงพยาบาล

Google ย่าง AI bot Med-PaLM 2 ที่ใช้ในโรงพยาบาล

Google พัฒนา AI bot Med-PaLM 2 ที่ใช้ในโรงพยาบาล PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

Google ตกอยู่ภายใต้แรงกดดันจากผู้บัญญัติกฎหมายของสหรัฐอเมริกาให้อธิบายวิธีการฝึกอบรมและใช้งานแชทบอททางการแพทย์ Med-PaLM 2 ในโรงพยาบาล

เมื่อเขียนถึงยักษ์ใหญ่อินเทอร์เน็ตในวันนี้ วุฒิสมาชิกมาร์ค วอร์เนอร์ (D-VA) ยังเรียกร้องให้เว็บไททันไม่ทำให้ผู้ป่วยตกอยู่ในความเสี่ยงรีบเร่งที่จะนำเทคโนโลยีนี้ไปใช้ในเชิงพาณิชย์

Med-PaLM 2 อิงตามโมเดลภาษาขนาดใหญ่ของ Google PaLM 2 และได้รับการปรับแต่งข้อมูลทางการแพทย์อย่างละเอียด ระบบสามารถสร้างคำตอบเป็นลายลักษณ์อักษรเพื่อตอบคำถามทางการแพทย์ สรุปเอกสาร และดึงข้อมูลได้ Google เปิดตัวโมเดลดังกล่าวในเดือนเมษายนและ กล่าวว่า ลูกค้า Google Cloud กลุ่มที่เลือกกำลังทดสอบซอฟต์แวร์

หนึ่งในผู้ทดสอบคือ VHC Health ซึ่งเป็นโรงพยาบาลในรัฐเวอร์จิเนียในเครือ Mayo Clinic ตามข้อมูลของวุฒิสมาชิกวอร์เนอร์ ในจดหมายถึงหัวหน้า Google Sundar Pichai วอร์เนอร์กล่าวว่าเขากังวลว่า AI กำเนิดทำให้เกิด "คำถามและความเสี่ยงใหม่ที่ซับซ้อน" โดยเฉพาะอย่างยิ่งเมื่อนำไปใช้ในอุตสาหกรรมการดูแลสุขภาพ

“ในขณะที่ AI มีศักยภาพอย่างมากในการปรับปรุงการดูแลผู้ป่วยและผลลัพธ์ด้านสุขภาพอย่างไม่ต้องสงสัย แต่ฉันกังวลว่าการปรับใช้เทคโนโลยีที่ยังไม่ผ่านการพิสูจน์ก่อนเวลาอันควรอาจนำไปสู่การกัดเซาะความไว้วางใจในผู้เชี่ยวชาญทางการแพทย์และสถาบันของเรา การทวีความรุนแรงของความแตกต่างทางเชื้อชาติที่มีอยู่ในผลลัพธ์ด้านสุขภาพ และการเพิ่มขึ้นของ เสี่ยงต่อข้อผิดพลาดในการวินิจฉัยและการส่งมอบการดูแล” เขาเขียน [รูปแบบไฟล์ PDF].

“การแข่งขันเพื่อสร้างส่วนแบ่งการตลาดนี้เป็นที่ชัดเจนและโดยเฉพาะอย่างยิ่งเกี่ยวข้องกับอุตสาหกรรมการดูแลสุขภาพ เมื่อพิจารณาถึงผลที่ตามมาทั้งชีวิตและความตายจากความผิดพลาดในสถานพยาบาล ความไว้วางใจที่ลดลงในสถาบันดูแลสุขภาพในช่วงไม่กี่ปีที่ผ่านมา และความอ่อนไหวของสุขภาพ ข้อมูล."

ในจดหมายของเขา วุฒิสมาชิกได้ตั้งคำถามหลายสิบข้อเพื่อให้ผู้บริหารของ Google ตอบ คำถามเหล่านี้รวมถึง:

โมเดลภาษาขนาดใหญ่มักแสดงให้เห็นถึงแนวโน้มที่จะจดจำเนื้อหาของข้อมูลการฝึกอบรม ซึ่งอาจเสี่ยงต่อความเป็นส่วนตัวของผู้ป่วยในบริบทของโมเดลที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลสุขภาพที่ละเอียดอ่อน Google ประเมิน Med-PaLM 2 สำหรับความเสี่ยงนี้อย่างไร และ Google ได้ดำเนินการตามขั้นตอนใดบ้างเพื่อลดการรั่วไหลของข้อมูลสุขภาพที่ละเอียดอ่อนด้านความเป็นส่วนตัวโดยไม่ได้ตั้งใจ

Google ฝึก Med-PaLM 2 ใหม่ทั้งหมดหรือบางส่วนบ่อยแค่ไหน? Google ตรวจสอบให้แน่ใจว่าผู้ได้รับใบอนุญาตใช้เฉพาะรุ่นรุ่นใหม่ล่าสุดหรือไม่

Google ตรวจสอบให้แน่ใจว่าผู้ป่วยได้รับแจ้งเมื่อ Med-PaLM 2 หรือโมเดล AI อื่นๆ ที่นำเสนอหรือได้รับอนุญาตจาก ถูกนำมาใช้ในการดูแลรักษาโดยผู้ได้รับใบอนุญาตด้านการดูแลสุขภาพหรือไม่ หากเป็นเช่นนั้น การเปิดเผยข้อมูลจะนำเสนออย่างไร? มันเป็นส่วนหนึ่งของการเปิดเผยที่ยาวขึ้นหรือมีการนำเสนอที่ชัดเจนยิ่งขึ้นหรือไม่?

Google เก็บข้อมูลที่รวดเร็วจากผู้รับใบอนุญาตด้านการดูแลสุขภาพ รวมถึงข้อมูลสุขภาพที่ได้รับการคุ้มครองที่อยู่ในนั้นหรือไม่ โปรดระบุวัตถุประสงค์แต่ละประการที่ Google มีในการเก็บรักษาข้อมูลนั้น

และในที่สุดก็…

ในงานวิจัยของ Google ที่ประกาศ Med-PaLM 2 นักวิจัยได้เตือนเกี่ยวกับความจำเป็นในการปรับใช้ "รั้วกั้นเพื่อบรรเทาการพึ่งพาผลลัพธ์ของผู้ช่วยทางการแพทย์มากเกินไป" Google ได้นำแนวทางป้องกันใดมาใช้เพื่อลดการพึ่งพาผลลัพธ์ของ Med-PaLM 2 รวมถึงเวลาที่ควรใช้และไม่ควรใช้เป็นพิเศษ Google ได้รวมแนวป้องกันอะไรบ้างผ่านข้อกำหนดสิทธิ์การใช้งานผลิตภัณฑ์เพื่อป้องกันการพึ่งพาผลลัพธ์มากเกินไป

ประเด็นดี ๆ ที่ควรยกหรือเน้นทั้งหมด

โมเดลภาษาขนาดใหญ่มีแนวโน้มที่จะสร้างข้อมูลเท็จที่ฟังดูน่าเชื่อถือ ดังนั้นเราอาจกลัวว่าบอทจะให้คำแนะนำทางการแพทย์ที่เป็นอันตรายอย่างมั่นใจ หรือมีอิทธิพลต่อการตัดสินใจด้านสุขภาพของใครบางคนอย่างไม่ถูกต้อง ตัวอย่างเช่น สมาคมโรคการกินผิดปกติแห่งชาติ (National Eating Disorders Association) ได้ดำเนินการเรื่องนี้ เทสซ่า แชทบอท ออฟไลน์หลังจากนั้นแนะนำให้ผู้คนนับแคลอรี่ ชั่งน้ำหนักตัวเองทุกสัปดาห์ และติดตามไขมันในร่างกาย ซึ่งเป็นพฤติกรรมที่ขัดกับสัญชาตญาณต่อการฟื้นตัวอย่างมีสุขภาพดี

เอกสารวิจัยที่เขียนโดย Google-DeepMind รายละเอียด Med-PaLM 2 ยอมรับว่า "คำตอบของแบบจำลองไม่เป็นที่น่าพอใจเท่ากับคำตอบของแพทย์" และได้คะแนนต่ำในแง่ของความแม่นยำและความเกี่ยวข้อง

Warner ต้องการให้ Pichai แบ่งปันข้อมูลเพิ่มเติมเกี่ยวกับวิธีการปรับใช้แบบจำลองนี้ในสถานพยาบาล และต้องการทราบว่าบริษัทขนาดใหญ่กำลังรวบรวมข้อมูลผู้ป่วยจากการทดสอบเทคโนโลยีของตนหรือไม่ และข้อมูลใดบ้างที่ใช้ในการฝึกอบรม 

เขาเน้นย้ำว่าก่อนหน้านี้ Google ได้จัดเก็บและวิเคราะห์ข้อมูลผู้ป่วยโดยไม่ได้รับความรู้หรือความยินยอมอย่างชัดแจ้งในการทำข้อตกลงกับโรงพยาบาลในสหรัฐอเมริกาและสหราชอาณาจักรภายใต้ โครงการไนติงเกล แบนเนอร์

“Google ไม่ได้จัดทำเอกสารต่อสาธารณะเกี่ยวกับ Med-PaLM 2 รวมถึงการละเว้นจากการเปิดเผยเนื้อหาของข้อมูลการฝึกอบรมของแบบจำลอง คลังข้อมูลการฝึกอบรมของ Med-PaLM 2 มีข้อมูลด้านสุขภาพที่ได้รับการคุ้มครองหรือไม่” เขาถาม. 

โฆษกของ Google ปฏิเสธว่า Med-PaLM 2 เป็นแชทบอทอย่างที่ผู้คนรู้จักในปัจจุบัน และกล่าวว่าโมเดลนี้กำลังได้รับการทดสอบโดยลูกค้าเพื่อดูว่ามันจะมีประโยชน์ต่ออุตสาหกรรมการดูแลสุขภาพได้อย่างไร 

“เราเชื่อว่า AI มีศักยภาพในการเปลี่ยนแปลงการดูแลสุขภาพและการแพทย์ และมุ่งมั่นที่จะสำรวจโดยยึดหลักความปลอดภัย ความเท่าเทียม หลักฐาน และความเป็นส่วนตัว” ตัวแทนกล่าว ลงทะเบียน ในงบ 

"เช่น ระบุ ในเดือนเมษายน เรากำลังเปิดให้ใช้งาน Med-PaLM 2 แก่องค์กรด้านการดูแลสุขภาพบางกลุ่มสำหรับการทดสอบแบบจำกัด เพื่อสำรวจกรณีการใช้งานและแบ่งปันข้อเสนอแนะ ซึ่งเป็นขั้นตอนสำคัญในการสร้างเทคโนโลยีที่ปลอดภัยและเป็นประโยชน์ ลูกค้าเหล่านี้ยังคงควบคุมข้อมูลของตนได้ Med-PaLM 2 ไม่ใช่แชทบอท มันเป็นเวอร์ชันที่ได้รับการปรับแต่งอย่างดีของโมเดลภาษาขนาดใหญ่ของเรา ปาล์ม 2และออกแบบมาเพื่อเข้ารหัสความรู้ทางการแพทย์”

โฆษกไม่ได้ยืนยันว่า Google จะตอบคำถามของวุฒิสมาชิกวอร์เนอร์หรือไม่ ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน