อดีตนักวิจัย OpenAI: มีโอกาส 50% ที่ AI จะจบลงด้วย 'หายนะ'

อดีตนักวิจัย OpenAI: มีโอกาส 50% ที่ AI จะจบลงด้วย 'หายนะ'

อดีตนักวิจัย OpenAI: มีโอกาส 50% ที่ AI จะสิ้นสุดลงใน 'หายนะ' PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

อดีตนักวิจัยคนสำคัญของ OpenAI เชื่อว่ามีโอกาสที่ดีที่ปัญญาประดิษฐ์จะเข้าควบคุมมนุษยชาติและทำลายมัน

“ผมคิดว่าอาจมีโอกาส 10-20% ที่ AI จะเข้าครอบครอง [โดย] หลายคน [หรือ] มนุษย์ส่วนใหญ่เสียชีวิต” พอล คริสเตียโน ผู้ดูแลทีมจัดแนวโมเดลภาษาที่ OpenAIกล่าวเมื่อวันที่ พอดคาสต์ไร้ธนาคาร. “ฉันถือมันค่อนข้างจริงจัง”

คริสติอาโน่ซึ่งตอนนี้เป็นหัวหน้า ศูนย์วิจัยการจัดตำแหน่งองค์กรไม่แสวงผลกำไรที่มุ่งปรับ AI และระบบการเรียนรู้ของเครื่องให้สอดคล้องกับ "ความสนใจของมนุษย์" กล่าวว่า เขากังวลเป็นพิเศษว่าจะเกิดอะไรขึ้นเมื่อ AI เข้าถึงความสามารถเชิงตรรกะและความคิดสร้างสรรค์ของมนุษย์ “โดยรวมแล้ว บางทีเรากำลังพูดถึงโอกาสที่จะเกิดหายนะ 50/50 ในไม่ช้าหลังจากที่เรามีระบบในระดับมนุษย์” เขากล่าว

คริสติอาโน่เป็นเพื่อนที่ดี เมื่อเร็ว ๆ นี้ คะแนนของนักวิทยาศาสตร์ทั่วโลก ลงนามในจดหมายออนไลน์ กระตุ้นให้ OpenAI และบริษัทอื่นๆ เร่งสร้าง AI ที่เร็วขึ้นและชาญฉลาดขึ้น กดปุ่มหยุดชั่วคราวในการพัฒนา วิกผมขนาดใหญ่ตั้งแต่ Bill Gates ไปจนถึง Elon Musk ได้แสดงความกังวลว่าหากปล่อยไว้โดยไม่ตรวจสอบ AI จะเป็นอันตรายต่อผู้คนอย่างเห็นได้ชัด

อย่าเป็นคนชั่ว

ทำไม AI ถึงกลายเป็นปีศาจ? โดยพื้นฐานแล้ว ด้วยเหตุผลเดียวกับที่คนๆ หนึ่งทำ: การฝึกฝนและประสบการณ์ชีวิต

เหมือนเด็ก, AI ได้รับการฝึกอบรม ด้วยการรับข้อมูลจำนวนมหาศาลโดยไม่รู้ว่าจะทำอย่างไรกับมัน เรียนรู้โดยการพยายามบรรลุเป้าหมายบางอย่างด้วยการกระทำแบบสุ่มและศูนย์ในผลลัพธ์ที่ "ถูกต้อง" ตามที่กำหนดโดยการฝึกอบรม

จนถึงตอนนี้ การเรียนรู้ของเครื่องช่วยให้ AI สามารถก้าวกระโดดอย่างมากในการรวมการตอบสนองที่มีโครงสร้างดีและสอดคล้องกันต่อการสืบค้นของมนุษย์ ในขณะเดียวกัน การประมวลผลของคอมพิวเตอร์พื้นฐานที่ขับเคลื่อนการเรียนรู้ของเครื่องก็เริ่มเร็วขึ้น ดีขึ้น และเชี่ยวชาญมากขึ้น นักวิทยาศาสตร์บางคนเชื่อว่าภายในหนึ่งทศวรรษ พลังการประมวลผลนั้น เมื่อรวมกับปัญญาประดิษฐ์ จะทำให้เครื่องจักรเหล่านี้มีความรู้สึกเหมือนมนุษย์ และมีความรู้สึกของตัวเองได้

นั่นคือเมื่อสิ่งต่าง ๆ มีขนดก และนั่นเป็นเหตุผลที่นักวิจัยหลายคนโต้แย้งว่าเราต้องหาวิธีกำหนดแนวป้องกันในตอนนี้ แทนที่จะคิดในภายหลัง ตราบใดที่มีการตรวจสอบพฤติกรรมของ AI สามารถควบคุมได้.

แต่ถ้าเหรียญตกลงในอีกด้านหนึ่ง แม้แต่ผู้ร่วมก่อตั้งของ OpenAI ก็ยังบอกว่าสิ่งต่าง ๆ จะได้รับอย่างมาก ที่เลวร้ายมาก.

วันฟูมฟาย?

หัวข้อนี้อยู่บนโต๊ะมาหลายปีแล้ว การโต้วาทีที่โด่งดังที่สุดเรื่องหนึ่งเกิดขึ้นเมื่อ 11 ปีที่แล้วระหว่างนักวิจัยด้าน AI เอลีเซอร์ ยุดคอฟสกี้ และนักเศรษฐศาสตร์ โรบินแฮนสัน. ทั้งสองกล่าวถึงความเป็นไปได้ที่จะไปถึง “ฟอง” ซึ่งเห็นได้ชัดว่าหมายถึง “Fast Onset of Overwhelming Mastery” ซึ่งเป็นจุดที่ AI ฉลาดกว่ามนุษย์อย่างทวีคูณและสามารถพัฒนาตนเองได้ (ที่มาของคำว่าโฟมคือ เป็นที่ถกเถียงกัน.)

“เอลีเซอร์และสาวกของเขาเชื่อว่า หลีกเลี่ยงไม่ได้ที่เอไอจะ 'เกิดฟอง' โดยไม่มีคำเตือน หมายความว่าวันหนึ่งคุณสร้าง AGI [ปัญญาประดิษฐ์ทั่วไป] และอีกหลายชั่วโมงหรือหลายวันต่อมา เจ้าสิ่งนี้ก็พัฒนาตัวเองซ้ำแล้วซ้ำอีกจนกลายเป็นความฉลาดระดับเทพแล้วกินโลก . นี่เป็นเรื่องจริงหรือไม่” Perry Metzger นักวิทยาศาสตร์คอมพิวเตอร์ที่ทำงานในชุมชน AI ทวีตเมื่อเร็ว ๆ นี้.

Metzger แย้งว่าแม้ในขณะที่ระบบคอมพิวเตอร์ถึงระดับสติปัญญาของมนุษย์ แต่ก็ยังมีเวลาอีกมากที่จะจัดการกับผลลัพธ์ที่ไม่ดี “ 'foom' เป็นไปได้อย่างมีเหตุผลหรือไม่? อาจจะ. ฉันไม่มั่นใจ” เขากล่าว “โลกแห่งความจริงเป็นไปได้ไหม? ฉันค่อนข้างแน่ใจว่าไม่ AI เหนือมนุษย์อย่างลึกซึ้งในระยะยาวจะเป็นประเด็นหรือไม่? ใช่ แต่ไม่ใช่ 'โฟม'”

บุคคลสำคัญอีกคนหนึ่งคือ Yann Le Cun ก็ขึ้นเสียงเช่นกัน โดยอ้างว่าเป็น “เป็นไปไม่ได้โดยสิ้นเชิง“เพื่อให้มนุษยชาติได้สัมผัสกับการครอบครองของ AI” หวังว่าอย่างนั้น

ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ

ประทับเวลา:

เพิ่มเติมจาก ถอดรหัส