ถัดไป โปรตีนที่ออกแบบโดย AI สำหรับการแพทย์

ถัดไป โปรตีนที่ออกแบบโดย AI สำหรับการแพทย์

ถัดไป โปรตีนที่ออกแบบโดย AI สำหรับการแพทย์ PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

Koko องค์กรด้านสุขภาพจิตประสบความสำเร็จในการใช้ประโยชน์จาก ChatGPT เพื่อช่วยปรับปรุงการสนับสนุนทางออนไลน์ แต่เมื่อผู้ใช้ทราบว่าแชทบอทกำลังเขียนคำตอบร่วมกัน ประโยชน์ที่ได้รับก็หายไป

การตอบรับการทดลองบนโซเชียลมีเดียนั้นมีความหลากหลาย บางคนทึ่งในศักยภาพของ AI ในภาคสนาม และบางคนก็ไม่เห็นด้วยอย่างมากกับการบุกรุกของปัญญาประดิษฐ์

ไม่มีทางลัดสู่สุขภาพจิตที่ดี

การทดลองล่าสุดโดย Koko ซึ่งเสริมการตอบสนองของมนุษย์ด้วย ChatGPT ในตอนแรกดูเหมือนจะให้ประโยชน์อย่างมากแก่ผู้ใช้

Koko เป็นองค์กรด้านสุขภาพจิตที่ไม่แสวงหาผลกำไรที่ให้การสนับสนุนและช่วยเหลือทุกคนที่มีปัญหาสุขภาพจิต โดยเฉพาะวัยรุ่น ในฐานะส่วนหนึ่งของภารกิจของพวกเขาในการทำให้ทุกคนสามารถเข้าถึงสุขภาพจิตได้ บริษัทได้เพิ่มทรัพยากรอาสาสมัครด้วยปัญญาประดิษฐ์

Rob Morris ผู้ก่อตั้ง Koko กล่าวว่าการทดลองนี้ประสบความสำเร็จในขั้นต้น มอร์ริสระบุว่าในตอนแรกการตอบสนองที่ได้รับความช่วยเหลือจาก AI นั้นได้รับการตอบรับที่ดีขึ้นและช่วยลดเวลาในการรอ น่าเศร้าที่ผลประโยชน์ไม่คงอยู่

“เมื่อผู้คนรู้ว่าข้อความถูกสร้างขึ้นร่วมกันโดยเครื่องจักร มันไม่ได้ผล ความเห็นอกเห็นใจจำลองรู้สึกแปลก ๆ ว่างเปล่า” มอร์ริสกล่าวบน Twitter สัปดาห์ที่ผ่านมา. “เครื่องจักรไม่มีชีวิต แต่เป็นประสบการณ์ของมนุษย์ ดังนั้นเมื่อพวกเขาพูดว่า “นั่นฟังดูยาก” หรือ “ฉันเข้าใจ” มันฟังดูไม่น่าเชื่อถือเลย”

ในที่สุดมอร์ริสก็สรุปต่อไปว่าแชทบอท "ไม่ได้ใช้เวลาในแต่ละวันเพื่อคิดถึงคุณ การตอบกลับของแชทบอทที่สร้างขึ้นใน 3 วินาที ไม่ว่าจะหรูหราแค่ไหน ก็รู้สึกถูกอยู่ดี”

การบูรณาการ ChatGPT Into Koko เป็นส่วนหนึ่งของความร่วมมืออันยาวนานย้อนหลังไปถึงเดือนมิถุนายน 2020 โดย ChatGPT จะช่วยให้ผู้ช่วยที่เป็นมนุษย์สามารถตอบข้อความได้มากกว่า 30,000 ข้อความ

การตอบสนองที่หลากหลาย

แนวคิดเกี่ยวกับการแทรกแซงด้านสุขภาพจิตที่ได้รับความช่วยเหลือจาก AI ได้รับความหลงใหลอย่างกว้างขวางและระดับความสยดสยองเล็กน้อย แต่เห็นได้ชัดบนโซเชียลมีเดีย

ผู้คนจำนวนมากรู้สึกไม่พอใจกับคำพูดของมอร์ริสที่ว่า AI “ฟังดูไม่น่าเชื่อถือ” เมื่อเห็นอกเห็นใจมนุษย์

ในฐานะผู้ใช้ Twitter ReallyStryder ชี้ให้เห็น, “มันไม่ได้ 'ฟังดู' ไม่ถูกต้อง มันไม่จริง บทสนทนาทั้งหมดเป็นหนึ่งในการล้อเลียนที่ดีที่สุด”

หลายคนมีความรู้สึกเดียวกันหรือคล้ายกันอย่างกว้างขวาง คนอื่นแสดงความตกใจหรือขยะแขยงและตั้งคำถามถึงจริยธรรมของการทดลองดังกล่าวตั้งแต่แรก

อย่างไรก็ตาม ไม่ใช่ทุกคนที่ตกใจมากนัก ฮายานะแม่ เปรียบเทียบความถูกต้องในเชิงบวกกับข้อกำหนดด้านสุขภาพจิตภายใต้บริการสุขภาพแห่งชาติของสหราชอาณาจักร (NHS) ว่า "มันให้ความรู้สึกไม่น่าเชื่อถือเมื่อมาจากผู้ปฏิบัติงานด้านสุขภาพจิตของ NHS ของฉันเช่นกัน ... ฉันจะใช้ GPT แทนเมื่อใดก็ได้"

สำหรับข้อเท็จจริงที่ว่าแชทบอทไม่มีประสบการณ์การใช้ชีวิต เธอเสริมว่า “นักบำบัดและโดยเฉพาะอย่างยิ่งจิตแพทย์และนักจิตวิทยาอาจไม่มีประสบการณ์ชีวิตเช่นกัน”

โหยหาทุกบริษัทเลย

การตอบสนองทันทีต่อการทดลองของ Koko ดูเหมือนจะบ่งบอกว่ามนุษยชาติพร้อมแล้วสำหรับการเห็นอกเห็นใจผู้อื่น แต่สิ่งนี้สามารถเปลี่ยนแปลงได้ตลอดเวลาหรือไม่?

ขณะที่มอร์ริสเองก็ตั้งคำถามว่า “เครื่องจักรสามารถเอาชนะ [ปัญหา] นี้ได้หรือไม่? อาจจะ."

มอร์ริสกล่าวต่อว่า “บางทีเราอาจอยากได้ยินมากๆ เพื่อจะได้มีบางอย่างสนใจเราจริงๆ โดยไม่วอกแวก โดยไม่มองโทรศัพท์หรือเช็คข้อความว่างหรืออีเมลหรือทวิตเตอร์ บางทีเราอาจโหยหาสิ่งนั้นอย่างสุดซึ้ง เราจะ โน้มน้าวใจตัวเองว่าเครื่องจักรสนใจเราจริงๆ”

การชี้แจงทำให้เกิดความสับสนต่อไป

มอร์ริสได้ตอบสนองต่อฟันเฟืองจากการทดลองล่าสุดของ Koku โดยพยายามที่จะระงับคำวิจารณ์ที่รุนแรงที่องค์กรต้องเผชิญจากบางไตรมาส

น่าเศร้าที่การชี้แจงดูเหมือนจะทำให้เกิดความสับสนมากขึ้นเท่านั้น

มอร์ริสระบุว่าผู้ใช้ทุกคนทราบดีว่าคำตอบนั้นสร้างขึ้นด้วยความช่วยเหลือของปัญญาประดิษฐ์ และไม่มีใครที่ขอความช่วยเหลือเคยสนทนากับ AI โดยตรง

“ฟีเจอร์นี้ถูกเลือกใช้” กล่าวว่า มอร์ริสก่อนที่จะทำให้น้ำเป็นโคลนอีกครั้งโดยการเพิ่ม “ทุกคนรู้เกี่ยวกับคุณลักษณะนี้เมื่อเผยแพร่เป็นเวลาสองสามวัน”

ไม่ว่าผู้ใช้จะทราบเกี่ยวกับคุณลักษณะนี้ตั้งแต่เริ่มต้นหรือไม่ก็ตาม ผลที่ตามมาจากการทดลองพิสูจน์ให้เห็นว่ามีข้อผิดพลาดที่จับต้องได้ที่ต้องหลีกเลี่ยงเมื่อใช้เทคโนโลยี AI ในบริการที่มีอยู่

ประทับเวลา:

เพิ่มเติมจาก เมตานิวส์