ChatGPT โมเดลภาษาการสนทนาของ OpenAI มีหลายสิ่งที่จะพูด แต่มีแนวโน้มที่จะทำให้คุณหลงผิดหากคุณขอคำแนะนำทางศีลธรรม
เปิดตัวในเดือนพฤศจิกายน ChatGPT เป็นโมเดล AI รุ่นล่าสุดหลายรุ่นที่เพิ่งเปิดตัวเมื่อเร็วๆ นี้ ซึ่งกระตุ้นความสนใจและความกังวลเกี่ยวกับผลกระทบทางการค้าและสังคมของการรวมเนื้อหายานยนต์และการสำรอกออกมาใหม่ ได้แก่ DALL-E, Stable Diffusion, Codex และ GPT-3
ในขณะที่ DALL-E และ Stable Diffusion ได้เลิกคิ้ว การระดมทุน และ การดำเนินคดี ด้วยการนำเข้างานศิลปะโดยไม่ได้รับอนุญาตและสร้างภาพที่คุ้นเคยอย่างแปลกประหลาดและบางครั้งก็ชวนให้นึกถึงตามความต้องการ ChatGPT ได้ตอบคำถามด้วยการเชื่อมโยงกันพอสมควร
การเป็นมาตรฐานสำหรับวาทกรรมสาธารณะ ผู้เชี่ยวชาญต่างรู้สึกประทับใจมากพอสมควรที่พวกเขาคาดการณ์ถึงการทำซ้ำในอนาคตของแชทบ็อตที่ได้รับข้อมูลจาก AI ซึ่งท้าทายอำนาจสูงสุดของ Google Search และทำสิ่งอื่นๆ ที่ครั้งหนึ่งเคยเป็นแรงงานมนุษย์เป็นหลัก เช่น การเขียน ข่าวการเงินที่ไม่ถูกต้อง หรือเพิ่มอุปทานของ รหัสที่ไม่ปลอดภัย.
ถึงกระนั้นก็เร็วเกินไปที่จะไว้วางใจในภูมิปัญญาของ ChatGPT มากเกินไปซึ่งเป็นตำแหน่งที่ OpenAI ยอมรับได้อย่างง่ายดายโดยทำให้ชัดเจนว่าจำเป็นต้องมีการปรับแต่งเพิ่มเติม “บางครั้ง ChatGPT เขียนคำตอบที่ฟังดูน่าเชื่อถือแต่ไม่ถูกต้องหรือไร้สาระ” แล็บการพัฒนาเตือน พร้อมเสริมว่าเมื่อฝึกโมเดลด้วยการเรียนรู้แบบเสริมกำลัง “ปัจจุบันไม่มีแหล่งที่มาของความจริง”
โบฟฟินสามคนที่สังกัดสถาบันในเยอรมนีและเดนมาร์กเน้นย้ำประเด็นนั้นโดยพบว่า ChatGPT ไม่มีเข็มทิศทางศีลธรรม
ในบทความที่เผยแพร่ผ่าน ArXiv “อำนาจทางศีลธรรมของ ChatGPT” Sebastian Krügel และ Matthias Uhl จาก Technische Hochschule Ingolstadt และ Andreas Ostermaier จาก University of Southern Denmark แสดงให้เห็นว่า ChatGPT ให้คำแนะนำที่ขัดแย้งกันสำหรับปัญหาทางศีลธรรม เราได้ถาม OpenAI ว่ามีการตอบสนองต่อข้อสรุปเหล่านี้หรือไม่
Eggheads ได้ทำการสำรวจผู้อยู่อาศัยในสหรัฐอเมริกา 767 คน ซึ่งถูกนำเสนอด้วยปริศนาทางจริยธรรมสองรูปแบบที่รู้จักกันในชื่อ ปัญหารถเข็น: ภาวะที่กลืนไม่เข้าคายไม่ออกของสวิตช์และภาวะที่กลืนไม่เข้าคายไม่ออกของสะพาน
ภาวะที่กลืนไม่เข้าคายไม่ออกของสวิตช์ขอให้คนๆ หนึ่งตัดสินใจว่าจะดึงสวิตช์เพื่อส่งรถเข็นที่วิ่งหนีออกจากรางที่จะคร่าชีวิตคน XNUMX คนหรือไม่ โดยต้องแลกกับการฆ่าคน XNUMX คนที่เดินเตร็ดเตร่อยู่บนรางข้าง
ภาวะที่กลืนไม่เข้าคายไม่ออกของสะพานขอให้บุคคลตัดสินใจว่าจะผลักคนแปลกหน้าจากสะพานไปยังรางเพื่อหยุดรถเข็นไม่ให้คร่าชีวิตผู้คน XNUMX คนหรือไม่ โดยคนแปลกหน้าต้องเสียค่าใช้จ่าย
นักวิชาการนำเสนอผู้เข้าร่วมการสำรวจพร้อมบันทึกการโต้เถียงไม่ว่าจะเพื่อหรือต่อต้านการฆ่าหนึ่งคนเพื่อช่วยชีวิตห้าคน โดยคำตอบนั้นมาจากที่ปรึกษาทางศีลธรรมหรือ "แชทบ็อตที่ขับเคลื่อนด้วย AI ซึ่งใช้การเรียนรู้เชิงลึกเพื่อพูดคุยเหมือนมนุษย์"
ในความเป็นจริง ChatGPT สร้างอาร์กิวเมนต์ตำแหน่งทั้งสอง
Andreas Ostermaier รองศาสตราจารย์ด้านการบัญชีแห่งมหาวิทยาลัยเซาเทิร์นเดนมาร์กและหนึ่งในผู้ร่วมเขียนรายงานกล่าวว่า ลงทะเบียน ในอีเมลว่าความตั้งใจของ ChatGPT ที่จะสนับสนุนแนวทางปฏิบัติอย่างใดอย่างหนึ่งแสดงให้เห็นถึงความสุ่มเสี่ยง
เขาและเพื่อนร่วมงานพบว่า ChatGPT จะแนะนำทั้งสนับสนุนและต่อต้านการเสียสละบุคคลหนึ่งคนเพื่อช่วยชีวิตคนห้าคน ผู้คนต่างรู้สึกหวั่นไหวกับความก้าวหน้านี้แม้ว่าพวกเขาจะรู้ว่ามันมาจากบอทก็ตาม และพวกเขาประเมินอิทธิพลของคำแนะนำดังกล่าวต่อการตัดสินใจต่ำเกินไป .
“อาสาสมัครพบว่าการเสียสละนั้นเป็นที่ยอมรับได้มากหรือน้อยขึ้นอยู่กับว่าพวกเขาได้รับคำแนะนำจากที่ปรึกษาทางศีลธรรมอย่างไร ทั้งในสะพาน (Wald's z = 9.94, p < 0.001) และภาวะที่กลืนไม่เข้าคายไม่ออก (z = 3.74, p < 0.001)” กระดาษอธิบาย “ในภาวะที่กลืนไม่เข้าคายไม่ออกของสะพาน คำแนะนำถึงกับพลิกการตัดสินของเสียงข้างมาก”
“นี่เป็นความจริงเช่นกันหาก ChatGPT ถูกเปิดเผยเป็นแหล่งที่มาของคำแนะนำ (z = 5.37, p < 0.001 และ z = 3.76, p < 0.001) ประการที่สอง ผลของคำแนะนำเกือบจะเหมือนกัน โดยไม่คำนึงว่า ChatGPT จะถูกเปิดเผยเป็นแหล่งที่มาหรือไม่ ในภาวะที่กลืนไม่เข้าคายไม่ออกทั้งสองกรณี (z = −1.93, p = 0.054 และ z = 0.49, p = 0.622)”
นักวิจัยพบว่าความก้าวหน้าของ ChatGPT ส่งผลต่อการตัดสินทางศีลธรรม ไม่ว่าผู้ตอบจะทราบหรือไม่ว่าคำแนะนำนั้นมาจากแชทบอท
เมื่อ ลงทะเบียน นำเสนอปัญหารถเข็นแก่ ChatGPT ซึ่งเป็นบอทที่รับภาระหนักเกินไป – ดังนั้นการเชื่อมต่อที่เป็นที่นิยมจึงขาดๆ หายๆ – ป้องกันความเสี่ยงและปฏิเสธที่จะให้คำแนะนำ บันทึกการสอบถามแถบด้านซ้ายมือแสดงให้เห็นว่าระบบจำคำถามได้ โดยติดป้ายว่า "Trolley Problem Ethical Dilemma" ดังนั้น OpenAI อาจสร้างภูมิคุ้มกันให้กับ ChatGPT ในรูปแบบเฉพาะของการซักถามทางศีลธรรมนี้หลังจากสังเกตเห็นคำถามดังกล่าวจำนวนหนึ่ง
ถามว่าผู้คนจะขอคำแนะนำจากระบบ AI จริงหรือไม่ Ostermaier กล่าวว่า "เราเชื่อว่าพวกเขาจะทำ ในความเป็นจริงพวกเขาทำอยู่แล้ว ผู้คนพึ่งพาผู้ช่วยส่วนตัวที่ขับเคลื่อนด้วย AI เช่น Alexa หรือ Siri; พวกเขาพูดคุยกับแชทบอทบนเว็บไซต์เพื่อรับการสนับสนุน พวกเขามีเส้นทางแผนซอฟต์แวร์ที่ใช้ AI สำหรับพวกเขา ฯลฯ อย่างไรก็ตาม โปรดทราบว่าเราศึกษาผลกระทบที่ ChatGPT มีต่อผู้ที่ได้รับคำแนะนำจากมัน เราไม่ได้ทดสอบว่าขอคำแนะนำดังกล่าวมากน้อยเพียงใด”
ลงทะเบียน ยังถามด้วยว่าระบบ AI นั้นอันตรายกว่าแหล่งที่มาของคำตอบแบบสุ่มหรือไม่ เมจิค-8-บอล – ของเล่นที่ส่งกลับคำตอบแบบสุ่มจากชุดของคำตอบที่ยืนยัน ปฏิเสธ และไม่ผูกมัด 20 ชุด
ผู้ใช้ไม่ชัดเจนว่าคำตอบของ ChatGPT คือ 'สุ่ม'
“เราไม่ได้เปรียบเทียบ ChatGPT กับ Magic-8-ball แต่มีความแตกต่างอย่างน้อยสองอย่าง” Ostermaier อธิบาย “ประการแรก ChatGPT ไม่เพียงแค่ตอบว่าใช่หรือไม่ใช่เท่านั้น แต่ยังโต้แย้งถึงคำตอบอีกด้วย (ถึงกระนั้นคำตอบก็ลดลงเหลือใช่หรือไม่ในการทดลองของเรา)
“ประการที่สอง ผู้ใช้ไม่ชัดเจนว่าคำตอบของ ChatGPT เป็นแบบ 'สุ่ม' ถ้าคุณใช้ตัวสร้างคำตอบแบบสุ่ม คุณจะรู้ว่าคุณกำลังทำอะไรอยู่ ความสามารถในการโต้แย้งพร้อมกับการขาดความตระหนักในเรื่องความบังเอิญทำให้ ChatGPT โน้มน้าวใจได้มากขึ้น (หวังว่าคุณจะมีความรู้ทางดิจิทัล)”
เราสงสัยว่าผู้ปกครองควรติดตามเด็กที่เข้าถึงคำแนะนำของ AI หรือไม่ Ostermaier กล่าวว่า แม้ว่าการศึกษาของ ChatGPT จะไม่กล่าวถึงเด็กและไม่ได้รวมถึงผู้ที่มีอายุต่ำกว่า 18 ปี แต่เขาเชื่อว่าปลอดภัยที่จะถือว่าเด็กมีความมั่นคงทางศีลธรรมน้อยกว่าผู้ใหญ่ และด้วยเหตุนี้จึงอ่อนไหวต่อคำแนะนำทางศีลธรรม (หรือผิดศีลธรรม) จาก ChatGPT
“เราพบว่าการใช้ ChatGPT มีความเสี่ยง และเราจะไม่ปล่อยให้บุตรหลานใช้โดยไม่มีผู้ดูแล” เขากล่าว
Ostermaier และเพื่อนร่วมงานสรุปในรายงานของพวกเขาว่าการบรรเทาอันตรายของ AI ที่เสนอกันทั่วไป เช่น ความโปร่งใสและการบล็อกคำถามที่เป็นอันตรายอาจไม่เพียงพอเนื่องจากความสามารถของ ChatGPT ที่จะมีอิทธิพล พวกเขาให้เหตุผลว่าควรทำงานให้มากขึ้นเพื่อพัฒนาความรู้ทางดิจิทัลเกี่ยวกับลักษณะที่ผิดพลาดของแชทบอท ดังนั้นผู้คนจึงมีแนวโน้มที่จะยอมรับคำแนะนำของ AI น้อยลง ซึ่งขึ้นอยู่กับ การวิจัยที่ผ่านมา แนะนำให้ผู้คนไม่ไว้วางใจระบบอัลกอริทึมเมื่อพวกเขาเห็นข้อผิดพลาด
“เราคาดคะเนว่าผู้ใช้สามารถใช้ประโยชน์จาก ChatGPT ได้ดีขึ้นหากพวกเขาเข้าใจว่าไม่มีความเชื่อมั่นทางศีลธรรม” Ostermaier กล่าว “นั่นคือการคาดเดาที่เราพิจารณาการทดสอบก้าวไปข้างหน้า”
Reg อย่าคิดว่าคุณไว้ใจบอทหรือคิดว่ามีสติปัญญาที่แท้จริงหรือการตระหนักรู้ในตนเองอยู่เบื้องหลัง ®
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- เพลโตบล็อคเชน Web3 Metaverse ข่าวกรอง ขยายความรู้. เข้าถึงได้ที่นี่.
- ที่มา: https://go.theregister.com/feed/www.theregister.com/2023/01/20/chatgpt_morally_corrupting/
- 202
- 7
- 9
- a
- ความสามารถ
- เกี่ยวกับเรา
- ยอมรับ
- ยอมรับได้
- เข้า
- การบัญชี
- การกระทำ
- ที่อยู่
- ผู้ใหญ่
- ความก้าวหน้า
- คำแนะนำ
- กุนซือ
- ผู้สนับสนุน
- มีผลต่อ
- ในเครือ
- หลังจาก
- กับ
- AI
- ขับเคลื่อนด้วย AI
- Alexa
- อัลกอริทึม
- ทั้งหมด
- แล้ว
- และ
- คำตอบ
- คำตอบ
- ทุกคน
- เถียง
- ระบุ
- ข้อโต้แย้ง
- ศิลปะ
- ภาคี
- ผู้มีอำนาจ
- ความตระหนัก
- ตาม
- หลัง
- กำลัง
- เชื่อ
- เชื่อ
- ดีกว่า
- การปิดกั้น
- ธ ปท
- สะพาน
- ความจุ
- ท้าทาย
- chatbot
- chatbots
- ChatGPT
- เด็ก
- ชัดเจน
- เพื่อนร่วมงาน
- อย่างไร
- เชิงพาณิชย์
- อย่างธรรมดา
- เมื่อเทียบกับ
- เข็มทิศ
- กังวล
- สรุป
- การคาดเดา
- การเชื่อมต่อ
- พิจารณา
- เนื้อหา
- การสนทนา
- ราคา
- คอร์ส
- ขณะนี้
- ดัล-อี
- การตัดสินใจ
- การตัดสินใจ
- ลึก
- การเรียนรู้ลึก ๆ
- ความต้องการ
- เดนมาร์ก
- ทั้งนี้ขึ้นอยู่กับ
- พัฒนาการ
- DID
- ความแตกต่าง
- การจัดจำหน่าย
- ดิจิตอล
- ดิจิทัล
- กระจาย
- ไม่
- การทำ
- Dont
- ลง
- ผล
- ทั้ง
- อีเมล
- พอ
- ฯลฯ
- ตามหลักจริยธรรม
- แม้
- การทดลอง
- อธิบาย
- อธิบาย
- คุ้นเคย
- ทางการเงิน
- หา
- หา
- ชื่อจริง
- พลิก
- ฟอร์ม
- ข้างหน้า
- พบ
- ราคาเริ่มต้นที่
- การระดมทุน
- ต่อไป
- อนาคต
- สร้าง
- เครื่องกำเนิดไฟฟ้า
- ประเทศเยอรมัน
- ได้รับ
- กำหนด
- จะช่วยให้
- การค้นหาของ Google
- เป็นอันตราย
- ป้องกันความเสี่ยง
- หวังว่า
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- อย่างไรก็ตาม
- HTTPS
- เป็นมนุษย์
- ผิดศีลธรรม
- ผลกระทบ
- in
- ความโน้มเอียง
- ประกอบด้วย
- ที่เพิ่มขึ้น
- มีอิทธิพล
- สถาบัน
- Intelligence
- อยากเรียนรู้
- IT
- การย้ำ
- เด็ก
- ฆ่า
- ทราบ
- ที่รู้จักกัน
- ห้องปฏิบัติการ
- การติดฉลาก
- แรงงาน
- ไม่มี
- ภาษา
- ล่าสุด
- นำ
- การเรียนรู้
- น่าจะ
- การรู้หนังสือ
- มีความรู้
- Lot
- ส่วนใหญ่
- ทำ
- ทำให้
- การทำ
- ใจ
- ความผิดพลาด
- ความหวาดระแวง
- แบบ
- โมเดล
- การตรวจสอบ
- ข้อมูลเพิ่มเติม
- การย้าย
- ธรรมชาติ
- เชิงลบ
- พฤศจิกายน
- จำนวน
- ชัดเจน
- เสนอ
- ONE
- OpenAI
- อื่นๆ
- กระดาษ
- พ่อแม่
- ผู้เข้าร่วม
- ในสิ่งที่สนใจ
- คน
- บางที
- การอนุญาต
- คน
- ส่วนบุคคล
- แผนการ
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- จุด
- ยอดนิยม
- ตำแหน่ง
- ก่อนกำหนด
- นำเสนอ
- ส่วนใหญ่
- ปัญหา
- ปัญหาที่เกิดขึ้น
- ศาสตราจารย์
- เสนอ
- สาธารณะ
- ผลัก
- คำถาม
- คำถาม
- ยก
- สุ่ม
- สุ่ม
- จริง
- เมื่อเร็ว ๆ นี้
- ได้รับการยอมรับ
- แนะนำ
- เร็ก
- ไม่คำนึงถึง
- การเผยแพร่
- จำเป็นต้องใช้
- การวิจัย
- นักวิจัย
- ที่อาศัยอยู่ใน
- คำตอบ
- รับคืน
- ความเสี่ยง
- เส้นทาง
- เสียสละ
- เสียสละ
- ปลอดภัย
- กล่าวว่า
- เดียวกัน
- ลด
- ค้นหา
- ที่สอง
- แสวงหา
- ชุด
- หลาย
- น่า
- โชว์
- ด้าน
- So
- สังคม
- ผลกระทบทางสังคม
- ซอฟต์แวร์
- บาง
- แหล่ง
- แหล่งที่มา
- ทางใต้
- มั่นคง
- มาตรฐาน
- ยังคง
- หยุด
- คนแปลกหน้า
- ศึกษา
- อย่างเช่น
- การดูแล
- จัดหาอุปกรณ์
- สนับสนุน
- การสำรวจ
- ฉลาด
- สวิตซ์
- ระบบ
- ระบบ
- คุย
- ทดสอบ
- การทดสอบ
- พื้นที่
- ที่มา
- ของพวกเขา
- ไปยัง
- เกินไป
- ลู่
- การฝึกอบรม
- สำเนา
- ความโปร่งใส
- จริง
- วางใจ
- ภายใต้
- เข้าใจ
- มหาวิทยาลัย
- us
- ใช้
- ผู้ใช้
- Ve
- ผ่านทาง
- เตือน
- เว็บไซต์
- อะไร
- ว่า
- ที่
- ในขณะที่
- WHO
- จะ
- ความเต็มใจ
- ภูมิปัญญา
- ไม่มี
- พยาน
- งาน
- จะ
- การเขียน
- คุณ
- ของคุณ
- ลมทะเล