คนส่วนใหญ่ที่มีอายุมากกว่า 30 ปีอาจจำได้ว่าทำวิจัยกับสารานุกรมสมัยเก่าดีๆ คุณจะต้องดึงหนังสือจำนวนมากออกจากชั้นวาง ตรวจสอบดัชนีสำหรับหัวข้อที่คุณสนใจ จากนั้นพลิกไปยังหน้าที่เหมาะสมและเริ่มอ่าน มันไม่ง่ายเหมือนการพิมพ์คำสองสามคำลงในแถบค้นหาของ Google แต่ในด้านบวก คุณรู้ว่าข้อมูลที่คุณพบในหน้าของ อังกฤษ หรือ หนังสือทั่วโลก ถูกต้องและเป็นความจริง
ไม่เป็นเช่นนั้นกับการวิจัยทางอินเทอร์เน็ตในปัจจุบัน แหล่งที่มาจำนวนมากอย่างท่วมท้นสร้างความสับสนพอสมควร แต่เพิ่มการแพร่กระจายของข้อมูลที่ผิด และเป็นเรื่องน่าแปลกใจที่พวกเราทุกคนเชื่อคำที่เราอ่านทางออนไลน์
วิกิพีเดียเป็นกรณีตัวอย่าง เมื่อต้นปี 2020 เวอร์ชันภาษาอังกฤษของไซต์มีค่าเฉลี่ยประมาณ 255 ล้าน การดูหน้าเว็บต่อวันทำให้เป็นเว็บไซต์ที่มีผู้เยี่ยมชมมากที่สุดเป็นอันดับแปดบนอินเทอร์เน็ต เมื่อเดือนที่แล้วได้เลื่อนขึ้นสู่จุดสูงสุด หมายเลขเจ็ดและเวอร์ชันภาษาอังกฤษได้สิ้นสุดลงแล้ว 6.5 ล้าน บทความ
แต่ถึงแม้ปริมาณการเข้าชมสูงพอๆ กับแหล่งข้อมูลที่เข้าถึงได้นี้ ความถูกต้องของข้อมูลก็ยังทำให้บางสิ่งเป็นที่ต้องการ เดอะ หน้า เกี่ยวกับความน่าเชื่อถือของไซต์ระบุว่า "สารานุกรมออนไลน์ไม่คิดว่าตัวเองมีความน่าเชื่อถือในฐานะแหล่งข้อมูลและกีดกันผู้อ่านไม่ให้ใช้มันในทางวิชาการหรือการวิจัย"
Meta—ของ Facebook เดิม—ต้องการเปลี่ยนแปลงสิ่งนี้ ใน โพสต์บล็อก เผยแพร่เมื่อเดือนที่แล้ว พนักงานของบริษัทอธิบายว่า AI สามารถช่วยให้วิกิพีเดียมีความแม่นยำมากขึ้นได้อย่างไร
แม้ว่าผู้คนหลายหมื่นคนจะมีส่วนร่วมในการแก้ไขไซต์ แต่ข้อเท็จจริงที่พวกเขาเพิ่มก็ไม่จำเป็นต้องถูกต้องเสมอไป แม้ว่าจะมีการอ้างอิง แต่ก็ไม่แม่นยำหรือเกี่ยวข้องเสมอไป
Meta กำลังพัฒนาโมเดลแมชชีนเลิร์นนิงที่จะสแกนการอ้างอิงเหล่านี้และอ้างอิงข้ามเนื้อหาไปยังบทความ Wikipedia เพื่อตรวจสอบว่าไม่เพียงแต่หัวข้อเรียงกันเท่านั้น แต่ตัวเลขเฉพาะที่อ้างถึงนั้นถูกต้อง
นี่ไม่ใช่แค่เรื่องของการเลือกตัวเลขและตรวจสอบให้แน่ใจว่าตรงกัน AI ของ Meta จะต้อง "เข้าใจ" เนื้อหาของแหล่งอ้างอิง (แม้ว่า "เข้าใจ" เป็นคำเรียกชื่อผิด ดังที่ Melanie Mitchell นักวิจัยทฤษฎีความซับซ้อน จะบอกคุณเนื่องจาก AI ยังอยู่ในระยะ "แคบ" ซึ่งหมายความว่าเป็นเครื่องมือสำหรับการจดจำรูปแบบที่มีความซับซ้อนสูง ในขณะที่ "ความเข้าใจ" เป็นคำที่ใช้สำหรับการรับรู้ของมนุษย์ ซึ่งยังคงเป็นสิ่งที่แตกต่างออกไปมาก)
แบบจำลองของ Meta จะ "เข้าใจ" เนื้อหาไม่ใช่โดยการเปรียบเทียบสตริงข้อความและทำให้แน่ใจว่ามีคำเดียวกัน แต่โดยการเปรียบเทียบการแสดงทางคณิตศาสตร์ของบล็อกข้อความ ซึ่งมาจากการใช้เทคนิคความเข้าใจภาษาธรรมชาติ (NLU)
“สิ่งที่เราได้ทำไปแล้วคือการสร้างดัชนีของหน้าเว็บทั้งหมดเหล่านี้โดยแบ่งหน้าเว็บเหล่านี้ออกเป็นข้อความและนำเสนอตัวแทนที่ถูกต้องสำหรับแต่ละข้อความ” Fabio Petroni ผู้จัดการฝ่ายเทคโนโลยีการวิจัยพื้นฐานของ AI ของ Meta บอก แนวโน้มดิจิตอล. “นั่นไม่ใช่การนำเสนอข้อความแบบคำต่อคำ แต่เป็นความหมายของข้อความ นั่นหมายความว่าข้อความสองส่วนที่มีความหมายคล้ายกันจะแสดงในตำแหน่งที่ใกล้เคียงกันในพื้นที่ n มิติที่เป็นผลลัพธ์ซึ่งข้อความเหล่านี้ทั้งหมดถูกเก็บไว้”
AI กำลังได้รับการฝึกฝนเกี่ยวกับชุดการอ้างอิง Wikipedia สี่ล้านชุด และนอกเหนือจากการเลือกการอ้างอิงที่ผิดพลาดบนไซต์แล้ว ผู้สร้างต้องการให้ในที่สุดสามารถแนะนำแหล่งข้อมูลที่ถูกต้องเพื่อแทนที่ โดยดึงจากดัชนีข้อมูลจำนวนมหาศาลที่ ปรับปรุงอย่างต่อเนื่อง
ประเด็นใหญ่ที่ต้องแก้ไขคือการทำงานในระบบการจัดลำดับความน่าเชื่อถือของแหล่งที่มา ตัวอย่างเช่น บทความจากวารสารวิทยาศาสตร์จะได้รับคะแนนสูงกว่าบทความในบล็อก ปริมาณของเนื้อหาออนไลน์มีมากมายและหลากหลายจนคุณสามารถหา "แหล่งที่มา" เพื่อสนับสนุนการอ้างสิทธิ์ใดๆ ก็ได้ แต่การแยกวิเคราะห์ข้อมูลที่ผิดออกจากข้อมูลที่บิดเบือน (อย่างแรกหมายถึงไม่ถูกต้อง ในขณะที่อย่างหลังหมายถึงการจงใจหลอกลวง) และการตรวจสอบโดยเพื่อน จากผู้ที่ไม่ได้ตรวจสอบโดยผู้รู้จริง การตรวจสอบข้อเท็จจริงจากผู้ที่ตบหน้ากันอย่างเร่งรีบ ไม่ใช่งานเล็กๆ—แต่เป็นงานที่สำคัญมากเมื่อเป็นเรื่องของความไว้วางใจ
Meta มีรูปแบบโอเพ่นซอร์ส และผู้ที่อยากรู้อยากเห็นสามารถเห็น สาธิต ของเครื่องมือตรวจสอบ บล็อกโพสต์ของ Meta ระบุว่าบริษัทไม่ได้เป็นพันธมิตรกับ Wikimedia ในโครงการนี้ และยังอยู่ในขั้นตอนการวิจัยและไม่ได้ถูกใช้เพื่ออัปเดตเนื้อหาบน Wikipedia
หากคุณจินตนาการถึงอนาคตที่ไม่ไกลเกินไป ซึ่งทุกสิ่งที่คุณอ่านบนวิกิพีเดียนั้นถูกต้องและเชื่อถือได้ นั่นจะไม่ทำให้การค้นคว้าใดๆ นั้นง่ายเกินไปหรือ มีบางอย่างที่มีค่าเกี่ยวกับการตรวจสอบและเปรียบเทียบแหล่งข้อมูลต่างๆ ด้วยตัวเอง ใช่หรือไม่? นับเป็นก้าวกระโดดครั้งใหญ่ในการเปลี่ยนจากการเลื่อนหน้าหนังสือหนักๆ มาเป็นการพิมพ์คำไม่กี่คำในเครื่องมือค้นหาและกด "Enter"; เราต้องการให้วิกิพีเดียย้ายจากจุดเริ่มต้นการวิจัยไปสู่แหล่งข้อมูลที่ได้รับคำตอบสุดท้ายหรือไม่?
ไม่ว่าในกรณีใด ทีมวิจัย AI ของ Meta จะยังคงทำงานต่อไปเพื่อหาเครื่องมือในการปรับปรุงสารานุกรมออนไลน์ “ฉันคิดว่าเราถูกขับเคลื่อนด้วยความอยากรู้อยากเห็นในตอนท้ายของวัน” Petroni กล่าวว่า. “เราต้องการดูว่าอะไรคือขีดจำกัดของเทคโนโลยีนี้ เราไม่แน่ใจอย่างยิ่งว่า [AI นี้] สามารถทำอะไรที่มีความหมายในบริบทนี้ได้หรือไม่ ไม่มีใครเคยพยายามทำสิ่งที่คล้ายกัน”
เครดิตภาพ: Gerd Altmann ราคาเริ่มต้นที่ Pixabay