การศึกษาความรู้สึกของสัตว์จะช่วยไขปริศนาจริยธรรมของ Sentient AI ได้อย่างไร

การศึกษาความรู้สึกของสัตว์จะช่วยไขปริศนาจริยธรรมของ Sentient AI ได้อย่างไร

การศึกษาความรู้สึกของสัตว์สามารถช่วยไขปริศนาทางจริยธรรมของ Sentient AI PlatoBlockchain Data Intelligence ได้อย่างไร ค้นหาแนวตั้ง AI.

ปัญญาประดิษฐ์ มีความก้าวหน้าอย่างรวดเร็วจนแม้แต่นักวิทยาศาสตร์บางคนที่รับผิดชอบการพัฒนาที่สำคัญหลายด้านก็ยังรู้สึกลำบากใจกับการเปลี่ยนแปลงอย่างรวดเร็ว เมื่อต้นปีที่ผ่านมา ผู้เชี่ยวชาญกว่า 300 คนที่ทำงานด้าน AI และบุคคลสาธารณะอื่นๆ ที่เกี่ยวข้องได้ออก คำเตือนทื่อ เกี่ยวกับอันตรายของเทคโนโลยี เปรียบเทียบความเสี่ยงกับโรคระบาดหรือสงครามนิวเคลียร์

การแฝงตัวอยู่ใต้พื้นผิวของข้อกังวลเหล่านี้คือคำถามเกี่ยวกับจิตสำนึกของเครื่องจักร แม้ว่าในปัจจุบัน AIs จะ “ไม่มีใครอยู่บ้าน” แต่นักวิจัยบางคนสงสัยว่าวันหนึ่งพวกเขาอาจแสดงความรู้สึกตัวริบหรี่หรือมากกว่านั้น หากเป็นเช่นนั้น จะทำให้เกิดความกังวลด้านศีลธรรมและจริยธรรม โจนาธาน เบิร์ชศาสตราจารย์ด้านปรัชญาที่ London School of Economics and Political Science

เมื่อเทคโนโลยี AI ก้าวกระโดด คำถามด้านจริยธรรมที่เกิดจากปฏิสัมพันธ์ระหว่างมนุษย์กับ AI จึงกลายเป็นเรื่องเร่งด่วนใหม่ “เราไม่รู้ว่าจะนำพวกเขาเข้ามาในแวดวงศีลธรรมของเราหรือแยกพวกเขาออกไป” เบิร์ชกล่าว “เราไม่รู้ว่าผลที่ตามมาจะเป็นอย่างไร และฉันถือเอาจริงเอาจังว่าเป็นความเสี่ยงที่แท้จริงที่เราควรเริ่มพูดถึง ไม่ใช่เพราะฉันคิดว่า ChatGPT อยู่ในประเภทนั้น แต่เพราะผมไม่รู้ว่าอีก 10 หรือ 20 ปีข้างหน้าจะเกิดอะไรขึ้น”

ในระหว่างนี้ เขากล่าวว่า เราอาจทำได้ดีที่จะศึกษาจิตใจอื่นๆ ที่ไม่ใช่มนุษย์ เช่น จิตใจของสัตว์ เบิร์ชเป็นผู้นำของมหาวิทยาลัย โครงการสร้างจิตสำนึกต่อสัตว์ซึ่งเป็นความพยายามที่ได้รับทุนสนับสนุนจากสหภาพยุโรปซึ่ง "มีเป้าหมายที่จะพยายามสร้างความคืบหน้าเกี่ยวกับคำถามสำคัญเกี่ยวกับความรู้สึกนึกคิดของสัตว์" ตามที่ Birch กล่าว “เราจะพัฒนาวิธีการที่ดีกว่าสำหรับการศึกษาประสบการณ์ทางจิตใต้สำนึกของสัตว์ทางวิทยาศาสตร์ได้อย่างไร? และเราจะนำวิทยาศาสตร์ที่เกิดขึ้นใหม่เกี่ยวกับความรู้สึกนึกคิดของสัตว์มาใช้ในการทำงาน เพื่อออกแบบนโยบาย กฎหมาย และวิธีการดูแลสัตว์ที่ดีขึ้นได้อย่างไร”

การสัมภาษณ์ของเราดำเนินการผ่าน Zoom และทางอีเมล และได้รับการแก้ไขเพื่อความยาวและความชัดเจน

(บทความนี้ถูกเผยแพร่เมื่อวันที่ Undark. อ่าน บทความต้นฉบับ.)

ไม่มืด: มีการถกเถียงกันอย่างต่อเนื่องว่า AI สามารถมีสติหรือมีความรู้สึกได้ และดูเหมือนว่าจะมีคำถามคู่ขนานกันไปว่า AI สามารถทำได้หรือไม่ ดูเหมือน ที่จะมีความรู้สึก เหตุใดความแตกต่างจึงมีความสำคัญมาก

โจนาธาน เบิร์ช: ฉันคิดว่ามันเป็นปัญหาใหญ่และเป็นสิ่งที่ควรทำให้เรากลัวจริงๆ แม้กระทั่งตอนนี้ ระบบ AI ค่อนข้างมีความสามารถในการโน้มน้าวใจผู้ใช้ถึงความรู้สึกของพวกเขา เราเห็นเมื่อปีที่แล้วกับกรณีของ Blake Lemoine วิศวกรของ Google ที่ กลายเป็นความมั่นใจ ว่าระบบที่เขากำลังสร้างนั้นเป็นความรู้สึก—และนั่นเป็นเพียงเมื่อผลลัพธ์เป็นข้อความล้วน ๆ และเมื่อผู้ใช้เป็นผู้เชี่ยวชาญ AI ที่มีทักษะสูง

ลองจินตนาการถึงสถานการณ์ที่ AI สามารถควบคุมใบหน้าและเสียงของมนุษย์ได้ โดยที่ผู้ใช้ไม่มีประสบการณ์ ฉันคิดว่า AI อยู่ในตำแหน่งที่สามารถโน้มน้าวใจคนจำนวนมากว่าเป็นสิ่งมีชีวิตที่ค่อนข้างง่าย และเป็นปัญหาใหญ่ เพราะผมคิดว่า เราจะเริ่มเห็นคนรณรงค์เรื่องสวัสดิการ AI สิทธิของเอไอและอื่น ๆ เช่นนั้น

และเราจะไม่รู้ว่าจะทำอย่างไรกับเรื่องนี้ เพราะสิ่งที่เราต้องการคือข้อโต้แย้งที่ชัดเจนซึ่งพิสูจน์ว่าระบบ AI ที่พวกเขากำลังพูดถึงนั้นเป็นอย่างไร ไม่ มีสติ. และเราไม่มีสิ่งนั้น ความเข้าใจทางทฤษฎีของเราเกี่ยวกับจิตสำนึกยังไม่โตพอที่จะทำให้เราสามารถประกาศการไม่มีตัวตนได้อย่างมั่นใจ

UD: หุ่นยนต์หรือระบบ AI สามารถตั้งโปรแกรมให้พูดว่า “หยุดนะ คุณกำลังทำร้ายฉัน” แต่การประกาศอย่างง่าย ๆ ของประเภทนั้นไม่เพียงพอที่จะใช้เป็นกระดาษลิตมัสทดสอบความรู้สึกใช่ไหม?

เจบี: คุณสามารถมีระบบง่ายๆ [เช่น] ที่พัฒนาขึ้นที่ Imperial College London เพื่อช่วยแพทย์ในการฝึกอบรม เลียนแบบการแสดงความเจ็บปวดของมนุษย์. และไม่มีเหตุผลใดที่จะคิดว่าระบบเหล่านี้มีความรู้สึก พวกเขาไม่รู้สึกเจ็บปวดจริงๆ สิ่งที่พวกเขากำลังทำคือการจับคู่อินพุตกับเอาต์พุตด้วยวิธีง่ายๆ แต่การแสดงความเจ็บปวดที่พวกเขาสร้างขึ้นนั้นค่อนข้างเหมือนจริง

ฉันคิดว่าเราค่อนข้างคล้ายกับแชทบอทอย่าง ChatGPT นั่นคือพวกมันได้รับการฝึกอบรมเกี่ยวกับข้อมูลการฝึกอบรมกว่าล้านล้านคำเพื่อเลียนแบบรูปแบบการตอบสนองของมนุษย์เพื่อตอบสนองในรูปแบบที่มนุษย์จะตอบสนอง

แน่นอนว่าถ้าคุณให้สัญญาณว่ามนุษย์จะตอบสนองด้วยการแสดงความเจ็บปวด มันจะสามารถเลียนแบบการตอบสนองนั้นได้อย่างชำนาญ

แต่ฉันคิดว่าเมื่อเรารู้ว่านั่นคือสถานการณ์ เมื่อเรารู้ว่าเรากำลังรับมือกับการล้อเลียนอย่างช่ำชอง ก็ไม่มีเหตุผลที่หนักแน่นในการคิดว่ามีประสบการณ์ความเจ็บปวดอยู่เบื้องหลัง

UD: ตัวตนที่นักศึกษาแพทย์กำลังฝึกอยู่ ฉันเดาว่าน่าจะเป็นหุ่นยนต์มั้ง?

เจบี: ถูกต้องใช่ ดังนั้นพวกเขาจึงมีรูปร่างเหมือนหุ่นจำลอง มีใบหน้ามนุษย์ และแพทย์สามารถกดแขนและแสดงสีหน้าเลียนแบบท่าทางที่มนุษย์แสดงต่อระดับความกดดันต่างๆ ได้ เป็นการช่วยให้แพทย์ได้เรียนรู้วิธีการใช้เทคนิคต่างๆ กับผู้ป่วยอย่างเหมาะสมโดยไม่ก่อให้เกิดความเจ็บปวดมากเกินไป

และเราถูกดึงดูดได้ง่ายมาก ทันทีที่บางสิ่งมีใบหน้ามนุษย์และแสดงท่าทางเหมือนมนุษย์ แม้ว่าจะไม่มีสติปัญญาที่แท้จริงอยู่เบื้องหลังก็ตาม

ดังนั้นหากคุณจินตนาการว่าการจับคู่กับ AI ประเภทที่เราเห็นใน ChatGPT แสดงว่าคุณมีการเลียนแบบที่น่าเชื่อถือจริงๆ และนั่นจะทำให้ผู้คนจำนวนมากเชื่อได้

UD: ความรู้สึกดูเหมือนเป็นสิ่งที่เรารู้จากภายใน เราเข้าใจความรู้สึกนึกคิดของเรา แต่คุณจะทดสอบความรู้สึกนึกคิดของผู้อื่นได้อย่างไร ไม่ว่าจะเป็น AI หรือสิ่งอื่นใดนอกเหนือจากตัวเอง

เจบี: ฉันคิดว่าเราอยู่ในสถานะที่แข็งแกร่งมากกับมนุษย์คนอื่นๆ ที่สามารถพูดคุยกับเราได้ เพราะที่นั่นเรามีหลักฐานมากมายมหาศาล และคำอธิบายที่ดีที่สุดสำหรับสิ่งนั้นก็คือมนุษย์คนอื่นๆ มีประสบการณ์ที่รับรู้ได้เช่นเดียวกับเรา เราจึงสามารถใช้การอนุมานแบบนี้ ซึ่งบางครั้งนักปรัชญาเรียกว่า “การอนุมานเพื่อคำอธิบายที่ดีที่สุด”

ฉันคิดว่าเราสามารถเข้าใกล้หัวข้อของสัตว์อื่นๆ ได้ด้วยวิธีเดียวกัน นั่นคือสัตว์อื่นๆ ไม่คุยกับเรา แต่พวกมันแสดงพฤติกรรมที่อธิบายได้อย่างเป็นธรรมชาติโดยระบุสถานะเช่นความเจ็บปวด ตัวอย่างเช่น หากคุณเห็นสุนัขเลียบาดแผลหลังจากได้รับบาดเจ็บ พยาบาลบริเวณนั้น เรียนรู้ที่จะหลีกเลี่ยงสถานที่ที่เสี่ยงต่อการบาดเจ็บ คุณจะต้องอธิบายรูปแบบพฤติกรรมนี้โดยธรรมชาติโดยแสดงอาการเจ็บปวด

และฉันคิดว่าเมื่อเราจัดการกับสัตว์อื่นๆ ที่มีระบบประสาทค่อนข้างคล้ายกับของเรา และมีวิวัฒนาการเช่นเดียวกับที่เรามี ฉันคิดว่าการอนุมานแบบนี้สมเหตุสมผลอย่างยิ่ง

UD: แล้วระบบ AI ล่ะ?

เจบี: ในกรณีของ AI เรามีปัญหาอย่างมาก ก่อนอื่นเรามีปัญหาที่ว่า สารตั้งต้น แตกต่างกัน เราไม่รู้จริง ๆ ว่าประสบการณ์ที่รับรู้นั้นไวต่อสารตั้งต้นหรือไม่ - มันต้องมีสารตั้งต้นทางชีวภาพหรือไม่ ซึ่งก็คือระบบประสาท สมอง? หรือเป็นสิ่งที่สามารถทำได้ในวัสดุที่แตกต่างกันโดยสิ้นเชิง—สารตั้งต้นที่ทำจากซิลิกอน?

แต่ยังมีปัญหาที่ฉันเรียกว่า "ปัญหาการเล่นเกม" นั่นคือเมื่อระบบเข้าถึงข้อมูลการฝึกอบรมหลายล้านล้านคำ และได้รับการฝึกอบรมโดยมีเป้าหมายเพื่อเลียนแบบพฤติกรรมของมนุษย์ รูปแบบพฤติกรรมประเภทต่างๆ ที่สร้างขึ้นอาจ อธิบายได้ด้วยประสบการณ์ที่มีสติสัมปชัญญะอย่างแท้จริง หรืออาจอธิบายได้ด้วยการกำหนดเป้าหมายของพฤติกรรมที่มนุษย์จะตอบสนองในสถานการณ์นั้น

ดังนั้น ฉันคิดว่าเรามีปัญหาในกรณีของ AI จริงๆ เพราะเราไม่น่าจะพบว่าตัวเองอยู่ในตำแหน่งที่เป็นคำอธิบายที่ดีที่สุดอย่างชัดเจนสำหรับสิ่งที่เราเห็น นั่นคือ AI มีสติสัมปชัญญะ จะมีคำอธิบายทางเลือกที่สมเหตุสมผลเสมอ และนั่นเป็นการผูกมัดที่ยากมากที่จะหลุดออกไป

UD: คุณคิดว่าอะไรอาจเป็นทางออกที่ดีที่สุดของเราในการแยกแยะระหว่างบางสิ่งที่รับรู้ได้จริง กับสิ่งที่มีอยู่ การปรากฏ ของความรู้สึก?

เจบี: ฉันคิดว่าด่านแรกคือการยอมรับว่าเป็นปัญหาที่ลึกซึ้งและยากมาก ขั้นตอนที่สองคือการพยายามและเรียนรู้ให้มากที่สุดเท่าที่จะทำได้จากกรณีของสัตว์อื่น ๆ ฉันคิดว่าเมื่อเราศึกษาสัตว์ที่ค่อนข้างใกล้ชิดกับเราในแง่วิวัฒนาการ เช่น สุนัขและสัตว์เลี้ยงลูกด้วยนมอื่นๆ เรามักไม่แน่ใจเสมอว่าประสบการณ์ที่รับรู้ได้นั้นอาจขึ้นอยู่กับกลไกของสมองที่เฉพาะเจาะจงซึ่งมีลักษณะเฉพาะในสมองของสัตว์เลี้ยงลูกด้วยนมหรือไม่

เพื่อให้ผ่านพ้นไปได้ เราต้องดูสัตว์หลากหลายประเภทเท่าที่เราจะทำได้ และเราจำเป็นต้องคิดเป็นพิเศษเกี่ยวกับสัตว์ไม่มีกระดูกสันหลัง เช่น ปลาหมึกยักษ์และแมลง ซึ่งนี่อาจเป็นอีกตัวอย่างหนึ่งของประสบการณ์ทางจิตใต้สำนึกที่พัฒนาขึ้นอย่างอิสระ เช่นเดียวกับที่ตาของปลาหมึกวิวัฒนาการแยกจากตาของเราโดยสิ้นเชิง—มันมีความเหมือนและความแตกต่างที่ผสมผสานกันอย่างน่าทึ่ง—ฉันคิดว่าประสบการณ์ที่ใส่ใจของมันก็จะเป็นเช่นนั้นเช่นกัน: วิวัฒนาการอย่างอิสระ คล้ายกันในบางแง่มุม แตกต่างกันมากใน ทางอื่น.

และจากการศึกษาประสบการณ์ของสัตว์ไม่มีกระดูกสันหลัง เช่น ปลาหมึก เราสามารถเริ่มเข้าใจคุณลักษณะเชิงลึกที่สมองต้องมีเพื่อรองรับประสบการณ์ที่ใส่ใจ สิ่งที่ลึกกว่าแค่การมีโครงสร้างสมองเฉพาะเหล่านี้ นั่นคือ มีในสัตว์เลี้ยงลูกด้วยนม ต้องใช้การคำนวณแบบใด? การประมวลผลแบบใด?

จากนั้น—และฉันเห็นว่านี่เป็นกลยุทธ์สำหรับระยะยาว—เราอาจย้อนกลับไปที่กรณี AI แล้วพูดว่า มันมีการคำนวณแบบพิเศษที่เราพบในสัตว์ที่ใส่ใจ เช่น สัตว์เลี้ยงลูกด้วยนมและปลาหมึกหรือไม่?

UD: คุณเชื่อไหมว่าวันหนึ่งเราจะสร้าง AI ที่มีความรู้สึกได้

เจบี: ฉันอยู่ที่ 50:50 เกี่ยวกับเรื่องนี้ มีโอกาสที่ความรู้สึกจะขึ้นอยู่กับลักษณะพิเศษของสมองทางชีววิทยา และยังไม่มีความชัดเจนว่าจะทดสอบได้อย่างไร ดังนั้นฉันคิดว่าจะมีความไม่แน่นอนอย่างมากใน AI ข้าพเจ้ามั่นใจยิ่งขึ้นว่า ถ้ามีสติสัมปชัญญะได้ ในหลักการ ได้สำเร็จในซอฟต์แวร์คอมพิวเตอร์ จากนั้นนักวิจัย AI ก็จะพบวิธีการดังกล่าว

เครดิตภาพ: เงินสด Macanaya / Unsplash 

ประทับเวลา:

เพิ่มเติมจาก Hub เอกพจน์