ChatGPT กำลังแทนที่มนุษย์ในการศึกษาพฤติกรรมมนุษย์—และได้ผลดีอย่างน่าประหลาดใจ

ChatGPT กำลังแทนที่มนุษย์ในการศึกษาพฤติกรรมมนุษย์—และได้ผลดีอย่างน่าประหลาดใจ

ChatGPT กำลังเข้ามาแทนที่มนุษย์ในการศึกษาเกี่ยวกับพฤติกรรมของมนุษย์ และทำงานได้ดีอย่างน่าประหลาดใจกับ PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ฉันเป็นแฟนตัวยงของรายการท่องเที่ยวของ Anthony Bourdain อะไหล่ไม่ทราบ. ในแต่ละตอน เชฟจะไปเยี่ยมหมู่บ้านห่างไกลทั่วโลก บันทึกเรื่องราวชีวิต อาหาร และวัฒนธรรมของชนเผ่าในภูมิภาคด้วยหัวใจและความคิดที่เปิดกว้าง

การแสดงนี้นำเสนอให้เห็นถึงความหลากหลายอันน่าทึ่งของมนุษยชาติ นักสังคมศาสตร์มีเป้าหมายที่คล้ายกัน นั่นคือการทำความเข้าใจพฤติกรรมของผู้คน กลุ่ม และวัฒนธรรมที่แตกต่างกัน แต่ใช้วิธีการที่หลากหลายในสถานการณ์ที่ควบคุมได้ สำหรับทั้งคู่ ดวงดาวแห่งการแสวงหาเหล่านี้คือตัวแบบ: มนุษย์

แต่จะเป็นอย่างไรถ้าคุณแทนที่มนุษย์ด้วย AI chatbots

ความคิดนี้ฟังดูไร้สาระ แต่ต้องขอบคุณการกำเนิดของ ChatGPT และโมเดลภาษาขนาดใหญ่อื่นๆ (LLMs) นักสังคมศาสตร์กำลังคิดที่จะใช้เครื่องมือเหล่านี้เพื่อสร้าง "มนุษย์จำลอง" กลุ่มต่างๆ อย่างรวดเร็ว และทำการทดลองเพื่อสำรวจพฤติกรรมและค่านิยมของพวกเขาในฐานะตัวแทน คู่หูทางชีวภาพของพวกเขา

หากคุณกำลังจินตนาการถึงจิตใจมนุษย์ที่สร้างขึ้นใหม่แบบดิจิทัล นั่นไม่ใช่ แนวคิดคือการใช้ประโยชน์จากความเชี่ยวชาญของ ChatGPT ในการเลียนแบบการตอบสนองของมนุษย์ เนื่องจากแบบจำลองขูดข้อมูลออนไลน์จำนวนมหาศาล เช่น บล็อก ความคิดเห็น Youtube แฟนฟิคชั่น หนังสือ พวกมันจึงจับความสัมพันธ์ระหว่างคำในภาษาต่างๆ ได้อย่างง่ายดาย อัลกอริธึมที่ซับซ้อนเหล่านี้ยังสามารถถอดรหัสแง่มุมต่างๆ ของภาษา เช่น การประชด การเสียดสี อุปมาอุปไมย และน้ำเสียงทางอารมณ์ ซึ่งเป็นแง่มุมสำคัญของการสื่อสารของมนุษย์ในทุกวัฒนธรรม จุดแข็งเหล่านี้ทำให้ LLMs เลียนแบบบุคลิกสังเคราะห์หลาย ๆ แบบที่มีความเชื่อหลากหลาย

โบนัสอื่น? เมื่อเปรียบเทียบกับผู้เข้าร่วมที่เป็นมนุษย์แล้ว ChatGPT และ LLM อื่นๆ ก็ไม่เหนื่อย ช่วยให้นักวิทยาศาสตร์รวบรวมข้อมูลและทดสอบทฤษฎีเกี่ยวกับพฤติกรรมมนุษย์ด้วยความเร็วที่ไม่เคยมีมาก่อน

แนวคิดนี้แม้ว่าจะมีความขัดแย้งแต่ก็มีการสนับสนุนอยู่แล้ว บทความล่าสุด การตรวจสอบฟิลด์ที่เพิ่งตั้งขึ้นใหม่พบว่าในบางสถานการณ์ที่ออกแบบมาอย่างรอบคอบ การตอบสนองของ ChatGPT มีความสัมพันธ์กับผู้เข้าร่วมประมาณ 95 เปอร์เซ็นต์ของมนุษย์

AI “สามารถเปลี่ยนเกมสำหรับการวิจัยทางสังคมศาสตร์” กล่าวว่า ดร. Igor Grossman จาก University of Waterloo ผู้ซึ่งร่วมกับเพื่อนร่วมงานเพิ่งเขียนบทความมองไปข้างหน้าใน วิทยาศาสตร์. กุญแจสำคัญในการใช้งาน โฮโมซิลิคัส ในการวิจัย? ทีมงานกล่าวว่าการจัดการอคติอย่างระมัดระวังและความเที่ยงตรงของข้อมูล

สำรวจจิตใจสังคมมนุษย์

สังคมศาสตร์คืออะไรกันแน่?

พูดง่ายๆ คือศึกษาว่ามนุษย์—ไม่ว่าจะเป็นปัจเจกบุคคลหรือเป็นกลุ่ม—มีพฤติกรรมอย่างไรภายใต้สถานการณ์ที่แตกต่างกัน ปฏิสัมพันธ์ระหว่างกันและพัฒนาเป็นวัฒนธรรมอย่างไร มันเป็นร่มของการศึกษาที่มีหลายสาขา: เศรษฐศาสตร์, รัฐศาสตร์, มานุษยวิทยาและจิตวิทยา

ระเบียบวินัยจัดการกับหัวข้อต่าง ๆ ที่โดดเด่นในจิตวิญญาณปัจจุบัน โซเชียลมีเดียมีผลกระทบอย่างไรต่อสุขภาพจิต? ทัศนคติของสาธารณชนในปัจจุบันเกี่ยวกับการเปลี่ยนแปลงสภาพภูมิอากาศเป็นอย่างไรเมื่อสภาพอากาศรุนแรงเพิ่มขึ้น? วัฒนธรรมที่แตกต่างกันให้คุณค่ากับวิธีการสื่อสารอย่างไร และอะไรทำให้เกิดความเข้าใจผิด?

การศึกษาทางสังคมศาสตร์เริ่มต้นด้วยคำถามและสมมติฐาน หนึ่งในรายการโปรดของฉัน: วัฒนธรรมทนต่อกลิ่นตัวต่างกันหรือไม่? (ไม่ได้ล้อเล่น, หัวข้อ ได้รับการศึกษา ค่อนข้างน้อย และใช่ มีความแตกต่าง!)

จากนั้นนักวิทยาศาสตร์ใช้วิธีการต่างๆ มากมาย เช่น แบบสอบถาม การทดสอบพฤติกรรม การสังเกต และการสร้างแบบจำลองเพื่อทดสอบแนวคิดของพวกเขา แบบสำรวจเป็นเครื่องมือที่ได้รับความนิยมเป็นพิเศษ เนื่องจากคำถามสามารถออกแบบและตรวจสอบอย่างเข้มงวด และเข้าถึงผู้คนจำนวนมากได้อย่างง่ายดายเมื่อเผยแพร่ทางออนไลน์ จากนั้นนักวิทยาศาสตร์จะวิเคราะห์คำตอบที่เป็นลายลักษณ์อักษรและดึงข้อมูลเชิงลึกเกี่ยวกับพฤติกรรมของมนุษย์ กล่าวอีกนัยหนึ่ง การใช้ภาษาของผู้เข้าร่วมเป็นสิ่งสำคัญสำหรับการศึกษาเหล่านี้

ChatGPT เข้ากันได้อย่างไร

'โฮโมซิลิคัส'

สำหรับ Grossman LLM ที่อยู่เบื้องหลังแชทบอท เช่น ChatGPT หรือ Bard ของ Google เป็นตัวแทนของโอกาสที่ไม่เคยมีมาก่อนในการออกแบบการทดลองทางสังคมศาสตร์ใหม่

เนื่องจากพวกเขาได้รับการฝึกฝนเกี่ยวกับชุดข้อมูลขนาดใหญ่ LLMs “จึงสามารถแสดงถึงประสบการณ์และมุมมองของมนุษย์ได้มากมาย” ผู้เขียนกล่าว เนื่องจากตัวแบบ "เดินเตร่" อย่างอิสระโดยไร้พรมแดนบนอินเทอร์เน็ต เช่นเดียวกับผู้คนที่เดินทางไปต่างประเทศบ่อยๆ พวกมันอาจนำมาใช้และแสดงการตอบสนองที่หลากหลายกว่าเมื่อเทียบกับอาสาสมัครที่เป็นมนุษย์

นอกจากนี้ ChatGPT ยังไม่ได้รับอิทธิพลจากสมาชิกคนอื่นๆ ของการศึกษาวิจัยหรือทำให้เหนื่อยหน่าย ซึ่งอาจช่วยให้สร้างคำตอบที่มีอคติน้อยลง ลักษณะเหล่านี้อาจมีประโยชน์อย่างยิ่งใน “โครงการที่มีความเสี่ยงสูง” ตัวอย่างเช่น การเลียนแบบการตอบสนองของผู้คนที่อาศัยอยู่ในประเทศที่อยู่ในภาวะสงครามหรือภายใต้ระบอบการปกครองที่ยากลำบากผ่านโพสต์บนโซเชียลมีเดีย ในทางกลับกัน คำตอบสามารถแจ้งการแทรกแซงในโลกแห่งความเป็นจริงได้

ในทำนองเดียวกัน LLMs ที่ได้รับการฝึกอบรมเกี่ยวกับหัวข้อยอดนิยมทางวัฒนธรรม เช่น อัตลักษณ์ทางเพศหรือข้อมูลที่ผิด สามารถสร้างสำนักคิดทางทฤษฎีหรืออุดมการณ์ที่แตกต่างกันเพื่อแจ้งนโยบาย แทนที่จะพยายามสำรวจผู้เข้าร่วมที่เป็นมนุษย์หลายแสนคน AI สามารถสร้างคำตอบได้อย่างรวดเร็วตามวาทกรรมออนไลน์

นอกเหนือจากการใช้งานในชีวิตจริงที่อาจเกิดขึ้นแล้ว LLM ยังสามารถทำหน้าที่เป็นหัวเรื่องดิจิทัลที่โต้ตอบกับผู้เข้าร่วมการทดลองทางสังคมศาสตร์ ซึ่งค่อนข้างคล้ายกับตัวละครที่ไม่ใช่ผู้เล่น (NPC) ในวิดีโอเกม ตัวอย่างเช่น LLM สามารถใช้ "บุคลิกภาพ" ที่แตกต่างกันและโต้ตอบกับอาสาสมัครที่เป็นมนุษย์ทั่วโลกทางออนไลน์โดยใช้ข้อความโดยถามคำถามเดียวกัน เนื่องจากอัลกอริทึมไม่หลับ จึงสามารถทำงานได้ตลอด 24/7 ข้อมูลที่ได้อาจช่วยให้นักวิทยาศาสตร์สำรวจว่าวัฒนธรรมที่หลากหลายประเมินข้อมูลที่คล้ายคลึงกันอย่างไร และความคิดเห็นและข้อมูลที่ผิดแพร่กระจายอย่างไร

ขั้นตอนทารก

แนวคิดของการใช้แชทบอทแทนมนุษย์ในการศึกษายังไม่เป็นกระแสหลัก

แต่มีหลักฐานล่วงหน้าว่ามันสามารถทำงานได้ ก การศึกษาก่อนพิมพ์ เผยแพร่ในเดือนนี้จาก Georgia Tech, Microsoft Research และ Olin College พบว่า LLM จำลองการตอบสนองของมนุษย์ในการทดลองทางจิตวิทยาคลาสสิกจำนวนมาก รวมถึงการทดลองที่น่าอับอาย การทดลองช็อต Milgram.

แต่คำถามที่สำคัญยังคงอยู่: โมเดลเหล่านี้สามารถจับการตอบสนองของมนุษย์ได้ดีเพียงใด

มีสิ่งกีดขวางหลายอย่าง

ประการแรกคือคุณภาพของอัลกอริทึมและข้อมูลการฝึกอบรม เนื้อหาออนไลน์ส่วนใหญ่ถูกครอบงำด้วยภาษาเพียงไม่กี่ภาษา LLM ที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลเหล่านี้สามารถเลียนแบบความรู้สึก มุมมอง หรือแม้กระทั่งการตัดสินทางศีลธรรมของผู้ที่ใช้ภาษาเหล่านั้นได้อย่างง่ายดาย ในทางกลับกัน จะได้รับอคติจากข้อมูลการฝึกอบรม

“การผลิตซ้ำที่มีอคตินี้เป็นข้อกังวลหลัก เพราะมันสามารถขยายความเหลื่อมล้ำที่นักสังคมศาสตร์พยายามค้นหาในงานวิจัยของพวกเขา” กรอสแมนกล่าว

นักวิทยาศาสตร์บางคนกังวลว่า LLM เป็นเพียง สำรอก สิ่งที่พวกเขาบอก เป็นสิ่งที่ตรงกันข้ามกับการศึกษาทางสังคมศาสตร์ ซึ่งประเด็นหลักคือการจับภาพมนุษยชาติในความงามที่หลากหลายและซับซ้อนทั้งหมด ในทางกลับกัน ChatGPT และรุ่นที่คล้ายกันเป็นที่รู้กันว่า “ภาพหลอน,” สร้างข้อมูลที่ฟังดูน่าเชื่อถือแต่เป็นเท็จ

สำหรับตอนนี้ “แบบจำลองภาษาขนาดใหญ่ต้องอาศัย 'เงา' ของประสบการณ์ของมนุษย์” กรอสแมนกล่าว เนื่องจากระบบ AI เหล่านี้ส่วนใหญ่เป็นกล่องดำ จึงยากที่จะเข้าใจว่าระบบเหล่านี้สร้างการตอบสนองอย่างไรหรือเพราะเหตุใด จึงค่อนข้างหนักใจเมื่อใช้เป็นพร็อกซีของมนุษย์ในการทดลองเชิงพฤติกรรม

แม้จะมีข้อจำกัด “LLMs ช่วยให้นักสังคมศาสตร์สามารถแยกจากวิธีการวิจัยแบบเดิม ๆ และเข้าหางานของพวกเขาด้วยวิธีการที่สร้างสรรค์” ผู้เขียนกล่าว ในขั้นแรก Homo silicus สามารถช่วยระดมสมองและทดสอบสมมติฐานได้อย่างรวดเร็ว โดยสมมติฐานที่มีแนวโน้มจะได้รับการตรวจสอบเพิ่มเติมในประชากรมนุษย์

แต่สำหรับสังคมศาสตร์ที่จะต้อนรับ AI อย่างแท้จริง จะต้องมีความโปร่งใส ยุติธรรม และเข้าถึงระบบที่ทรงพลังเหล่านี้ได้อย่างเท่าเทียมกัน LLM นั้นยากและแพงในการฝึกอบรม โดยโมเดลล่าสุดปิดตัวลงหลังเพย์วอลล์ที่หนักหน่วง

“เราต้องรับประกันว่า LLM ทางสังคมศาสตร์ เช่นเดียวกับแบบจำลองทางวิทยาศาสตร์ทั้งหมด เป็นโอเพ่นซอร์ส หมายความว่าอัลกอริทึมและข้อมูลในอุดมคตินั้นพร้อมให้ทุกคนกลั่นกรอง ทดสอบ และแก้ไข” กล่าวว่า ผู้เขียนการศึกษา Dr. Dawn Parker จาก University of Waterloo “การรักษาความโปร่งใสและการทำซ้ำเท่านั้นที่จะทำให้เรามั่นใจได้ว่าการวิจัยทางสังคมศาสตร์ที่ได้รับความช่วยเหลือจาก AI จะช่วยให้เราเข้าใจประสบการณ์ของมนุษย์อย่างแท้จริง”

เครดิตภาพ: Gerd AltmannPixabay

ประทับเวลา:

เพิ่มเติมจาก Hub เอกพจน์

การออกแบบเครื่องปฏิกรณ์นิวเคลียร์แบบแยกส่วนขนาดเล็กครั้งแรกได้รับการอนุมัติโดยหน่วยงานกำกับดูแลของสหรัฐอเมริกา

โหนดต้นทาง: 1609260
ประทับเวลา: สิงหาคม 5, 2022