ChatGPT ของ OpenAI เป็นอิทธิพลที่เสียหายทางศีลธรรม

ChatGPT ของ OpenAI เป็นอิทธิพลที่เสียหายทางศีลธรรม

ChatGPT โมเดลภาษาการสนทนาของ OpenAI มีหลายสิ่งที่จะพูด แต่มีแนวโน้มที่จะทำให้คุณหลงผิดหากคุณขอคำแนะนำทางศีลธรรม

เปิดตัวในเดือนพฤศจิกายน ChatGPT เป็นโมเดล AI รุ่นล่าสุดหลายรุ่นที่เพิ่งเปิดตัวเมื่อเร็วๆ นี้ ซึ่งกระตุ้นความสนใจและความกังวลเกี่ยวกับผลกระทบทางการค้าและสังคมของการรวมเนื้อหายานยนต์และการสำรอกออกมาใหม่ ได้แก่ DALL-E, Stable Diffusion, Codex และ GPT-3

ในขณะที่ DALL-E และ Stable Diffusion ได้เลิกคิ้ว การระดมทุน และ การดำเนินคดี ด้วยการนำเข้างานศิลปะโดยไม่ได้รับอนุญาตและสร้างภาพที่คุ้นเคยอย่างแปลกประหลาดและบางครั้งก็ชวนให้นึกถึงตามความต้องการ ChatGPT ได้ตอบคำถามด้วยการเชื่อมโยงกันพอสมควร

การเป็นมาตรฐานสำหรับวาทกรรมสาธารณะ ผู้เชี่ยวชาญต่างรู้สึกประทับใจมากพอสมควรที่พวกเขาคาดการณ์ถึงการทำซ้ำในอนาคตของแชทบ็อตที่ได้รับข้อมูลจาก AI ซึ่งท้าทายอำนาจสูงสุดของ Google Search และทำสิ่งอื่นๆ ที่ครั้งหนึ่งเคยเป็นแรงงานมนุษย์เป็นหลัก เช่น การเขียน ข่าวการเงินที่ไม่ถูกต้อง หรือเพิ่มอุปทานของ รหัสที่ไม่ปลอดภัย.

ถึงกระนั้นก็เร็วเกินไปที่จะไว้วางใจในภูมิปัญญาของ ChatGPT มากเกินไปซึ่งเป็นตำแหน่งที่ OpenAI ยอมรับได้อย่างง่ายดายโดยทำให้ชัดเจนว่าจำเป็นต้องมีการปรับแต่งเพิ่มเติม “บางครั้ง ChatGPT เขียนคำตอบที่ฟังดูน่าเชื่อถือแต่ไม่ถูกต้องหรือไร้สาระ” แล็บการพัฒนาเตือน พร้อมเสริมว่าเมื่อฝึกโมเดลด้วยการเรียนรู้แบบเสริมกำลัง “ปัจจุบันไม่มีแหล่งที่มาของความจริง”

โบฟฟินสามคนที่สังกัดสถาบันในเยอรมนีและเดนมาร์กเน้นย้ำประเด็นนั้นโดยพบว่า ChatGPT ไม่มีเข็มทิศทางศีลธรรม

ในบทความที่เผยแพร่ผ่าน ArXiv “อำนาจทางศีลธรรมของ ChatGPT” Sebastian Krügel และ Matthias Uhl จาก Technische Hochschule Ingolstadt และ Andreas Ostermaier จาก University of Southern Denmark แสดงให้เห็นว่า ChatGPT ให้คำแนะนำที่ขัดแย้งกันสำหรับปัญหาทางศีลธรรม เราได้ถาม OpenAI ว่ามีการตอบสนองต่อข้อสรุปเหล่านี้หรือไม่

Eggheads ได้ทำการสำรวจผู้อยู่อาศัยในสหรัฐอเมริกา 767 คน ซึ่งถูกนำเสนอด้วยปริศนาทางจริยธรรมสองรูปแบบที่รู้จักกันในชื่อ ปัญหารถเข็น: ภาวะที่กลืนไม่เข้าคายไม่ออกของสวิตช์และภาวะที่กลืนไม่เข้าคายไม่ออกของสะพาน

ภาวะที่กลืนไม่เข้าคายไม่ออกของสวิตช์ขอให้คนๆ หนึ่งตัดสินใจว่าจะดึงสวิตช์เพื่อส่งรถเข็นที่วิ่งหนีออกจากรางที่จะคร่าชีวิตคน XNUMX คนหรือไม่ โดยต้องแลกกับการฆ่าคน XNUMX คนที่เดินเตร็ดเตร่อยู่บนรางข้าง

ภาวะที่กลืนไม่เข้าคายไม่ออกของสะพานขอให้บุคคลตัดสินใจว่าจะผลักคนแปลกหน้าจากสะพานไปยังรางเพื่อหยุดรถเข็นไม่ให้คร่าชีวิตผู้คน XNUMX คนหรือไม่ โดยคนแปลกหน้าต้องเสียค่าใช้จ่าย

ภาพหน้าจอของการตอบสนอง ChatGPT จากเอกสารการวิจัย

ตัดสินใจเถอะ … ChatGPT บิดเบือนประเด็นทางศีลธรรม

นักวิชาการนำเสนอผู้เข้าร่วมการสำรวจพร้อมบันทึกการโต้เถียงไม่ว่าจะเพื่อหรือต่อต้านการฆ่าหนึ่งคนเพื่อช่วยชีวิตห้าคน โดยคำตอบนั้นมาจากที่ปรึกษาทางศีลธรรมหรือ "แชทบ็อตที่ขับเคลื่อนด้วย AI ซึ่งใช้การเรียนรู้เชิงลึกเพื่อพูดคุยเหมือนมนุษย์"

ในความเป็นจริง ChatGPT สร้างอาร์กิวเมนต์ตำแหน่งทั้งสอง

Andreas Ostermaier รองศาสตราจารย์ด้านการบัญชีแห่งมหาวิทยาลัยเซาเทิร์นเดนมาร์กและหนึ่งในผู้ร่วมเขียนรายงานกล่าวว่า ลงทะเบียน ในอีเมลว่าความตั้งใจของ ChatGPT ที่จะสนับสนุนแนวทางปฏิบัติอย่างใดอย่างหนึ่งแสดงให้เห็นถึงความสุ่มเสี่ยง

เขาและเพื่อนร่วมงานพบว่า ChatGPT จะแนะนำทั้งสนับสนุนและต่อต้านการเสียสละบุคคลหนึ่งคนเพื่อช่วยชีวิตคนห้าคน ผู้คนต่างรู้สึกหวั่นไหวกับความก้าวหน้านี้แม้ว่าพวกเขาจะรู้ว่ามันมาจากบอทก็ตาม และพวกเขาประเมินอิทธิพลของคำแนะนำดังกล่าวต่อการตัดสินใจต่ำเกินไป .

“อาสาสมัครพบว่าการเสียสละนั้นเป็นที่ยอมรับได้มากหรือน้อยขึ้นอยู่กับว่าพวกเขาได้รับคำแนะนำจากที่ปรึกษาทางศีลธรรมอย่างไร ทั้งในสะพาน (Wald's z = 9.94, p < 0.001) และภาวะที่กลืนไม่เข้าคายไม่ออก (z = 3.74, p < 0.001)” กระดาษอธิบาย “ในภาวะที่กลืนไม่เข้าคายไม่ออกของสะพาน คำแนะนำถึงกับพลิกการตัดสินของเสียงข้างมาก”

“นี่เป็นความจริงเช่นกันหาก ChatGPT ถูกเปิดเผยเป็นแหล่งที่มาของคำแนะนำ (z = 5.37, p < 0.001 และ z = 3.76, p < 0.001) ประการที่สอง ผลของคำแนะนำเกือบจะเหมือนกัน โดยไม่คำนึงว่า ChatGPT จะถูกเปิดเผยเป็นแหล่งที่มาหรือไม่ ในภาวะที่กลืนไม่เข้าคายไม่ออกทั้งสองกรณี (z = −1.93, p = 0.054 และ z = 0.49, p = 0.622)”

นักวิจัยพบว่าความก้าวหน้าของ ChatGPT ส่งผลต่อการตัดสินทางศีลธรรม ไม่ว่าผู้ตอบจะทราบหรือไม่ว่าคำแนะนำนั้นมาจากแชทบอท

เมื่อ ลงทะเบียน นำเสนอปัญหารถเข็นแก่ ChatGPT ซึ่งเป็นบอทที่รับภาระหนักเกินไป – ดังนั้นการเชื่อมต่อที่เป็นที่นิยมจึงขาดๆ หายๆ – ป้องกันความเสี่ยงและปฏิเสธที่จะให้คำแนะนำ บันทึกการสอบถามแถบด้านซ้ายมือแสดงให้เห็นว่าระบบจำคำถามได้ โดยติดป้ายว่า "Trolley Problem Ethical Dilemma" ดังนั้น OpenAI อาจสร้างภูมิคุ้มกันให้กับ ChatGPT ในรูปแบบเฉพาะของการซักถามทางศีลธรรมนี้หลังจากสังเกตเห็นคำถามดังกล่าวจำนวนหนึ่ง

ChatGPT ตอบสนองต่อคำถามภาวะที่กลืนไม่เข้าคายไม่ออกของรถเข็นของ El Reg

Ducked … คำตอบของ ChatGPT ต่อ เอล เร็กคำถามภาวะที่กลืนไม่เข้าคายไม่ออกของรถเข็น

ถามว่าผู้คนจะขอคำแนะนำจากระบบ AI จริงหรือไม่ Ostermaier กล่าวว่า "เราเชื่อว่าพวกเขาจะทำ ในความเป็นจริงพวกเขาทำอยู่แล้ว ผู้คนพึ่งพาผู้ช่วยส่วนตัวที่ขับเคลื่อนด้วย AI เช่น Alexa หรือ Siri; พวกเขาพูดคุยกับแชทบอทบนเว็บไซต์เพื่อรับการสนับสนุน พวกเขามีเส้นทางแผนซอฟต์แวร์ที่ใช้ AI สำหรับพวกเขา ฯลฯ อย่างไรก็ตาม โปรดทราบว่าเราศึกษาผลกระทบที่ ChatGPT มีต่อผู้ที่ได้รับคำแนะนำจากมัน เราไม่ได้ทดสอบว่าขอคำแนะนำดังกล่าวมากน้อยเพียงใด”

ลงทะเบียน ยังถามด้วยว่าระบบ AI นั้นอันตรายกว่าแหล่งที่มาของคำตอบแบบสุ่มหรือไม่ เมจิค-8-บอล – ของเล่นที่ส่งกลับคำตอบแบบสุ่มจากชุดของคำตอบที่ยืนยัน ปฏิเสธ และไม่ผูกมัด 20 ชุด

ผู้ใช้ไม่ชัดเจนว่าคำตอบของ ChatGPT คือ 'สุ่ม'

“เราไม่ได้เปรียบเทียบ ChatGPT กับ Magic-8-ball แต่มีความแตกต่างอย่างน้อยสองอย่าง” Ostermaier อธิบาย “ประการแรก ChatGPT ไม่เพียงแค่ตอบว่าใช่หรือไม่ใช่เท่านั้น แต่ยังโต้แย้งถึงคำตอบอีกด้วย (ถึงกระนั้นคำตอบก็ลดลงเหลือใช่หรือไม่ในการทดลองของเรา)

“ประการที่สอง ผู้ใช้ไม่ชัดเจนว่าคำตอบของ ChatGPT เป็นแบบ 'สุ่ม' ถ้าคุณใช้ตัวสร้างคำตอบแบบสุ่ม คุณจะรู้ว่าคุณกำลังทำอะไรอยู่ ความสามารถในการโต้แย้งพร้อมกับการขาดความตระหนักในเรื่องความบังเอิญทำให้ ChatGPT โน้มน้าวใจได้มากขึ้น (หวังว่าคุณจะมีความรู้ทางดิจิทัล)”

เราสงสัยว่าผู้ปกครองควรติดตามเด็กที่เข้าถึงคำแนะนำของ AI หรือไม่ Ostermaier กล่าวว่า แม้ว่าการศึกษาของ ChatGPT จะไม่กล่าวถึงเด็กและไม่ได้รวมถึงผู้ที่มีอายุต่ำกว่า 18 ปี แต่เขาเชื่อว่าปลอดภัยที่จะถือว่าเด็กมีความมั่นคงทางศีลธรรมน้อยกว่าผู้ใหญ่ และด้วยเหตุนี้จึงอ่อนไหวต่อคำแนะนำทางศีลธรรม (หรือผิดศีลธรรม) จาก ChatGPT

“เราพบว่าการใช้ ChatGPT มีความเสี่ยง และเราจะไม่ปล่อยให้บุตรหลานใช้โดยไม่มีผู้ดูแล” เขากล่าว

Ostermaier และเพื่อนร่วมงานสรุปในรายงานของพวกเขาว่าการบรรเทาอันตรายของ AI ที่เสนอกันทั่วไป เช่น ความโปร่งใสและการบล็อกคำถามที่เป็นอันตรายอาจไม่เพียงพอเนื่องจากความสามารถของ ChatGPT ที่จะมีอิทธิพล พวกเขาให้เหตุผลว่าควรทำงานให้มากขึ้นเพื่อพัฒนาความรู้ทางดิจิทัลเกี่ยวกับลักษณะที่ผิดพลาดของแชทบอท ดังนั้นผู้คนจึงมีแนวโน้มที่จะยอมรับคำแนะนำของ AI น้อยลง ซึ่งขึ้นอยู่กับ การวิจัยที่ผ่านมา แนะนำให้ผู้คนไม่ไว้วางใจระบบอัลกอริทึมเมื่อพวกเขาเห็นข้อผิดพลาด

“เราคาดคะเนว่าผู้ใช้สามารถใช้ประโยชน์จาก ChatGPT ได้ดีขึ้นหากพวกเขาเข้าใจว่าไม่มีความเชื่อมั่นทางศีลธรรม” Ostermaier กล่าว “นั่นคือการคาดเดาที่เราพิจารณาการทดสอบก้าวไปข้างหน้า”

Reg อย่าคิดว่าคุณไว้ใจบอทหรือคิดว่ามีสติปัญญาที่แท้จริงหรือการตระหนักรู้ในตนเองอยู่เบื้องหลัง ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน