หัวหน้าผู้พิพากษาศาลฎีการายงานเกี่ยวกับผู้พิพากษาที่ขับเคลื่อนด้วย AI

หัวหน้าผู้พิพากษาศาลฎีการายงานเกี่ยวกับผู้พิพากษาที่ขับเคลื่อนด้วย AI

หัวหน้าผู้พิพากษาศาลฎีการายงานเกี่ยวกับ PlatoBlockchain Data Intelligence ผู้พิพากษาที่ขับเคลื่อนด้วย AI ค้นหาแนวตั้ง AI.

จอห์น โรเบิร์ตส์ หัวหน้าผู้พิพากษาศาลฎีกาของสหรัฐฯ เชื่อว่าปัญญาประดิษฐ์จะมีบทบาทสำคัญมากขึ้นในกระบวนการทางกฎหมาย แต่เขาคาดว่า "ผู้พิพากษาที่เป็นมนุษย์จะอยู่ได้ระยะหนึ่ง"

Roberts ได้ตั้งข้อสังเกตดังกล่าวไว้ในรายงานสิ้นปี 2023 เกี่ยวกับตุลาการของรัฐบาลกลาง [รูปแบบไฟล์ PDF] ซึ่งไม่เคยกล่าวถึงในหัวข้อนี้มาก่อน

“เห็นได้ชัดว่า AI มีศักยภาพที่ดีในการเพิ่มการเข้าถึงข้อมูลสำคัญสำหรับนักกฎหมายและผู้ที่ไม่ใช่นักกฎหมายได้อย่างมาก” Roberts เขียน “แต่เห็นได้ชัดว่ามันมีความเสี่ยงที่จะบุกรุกผลประโยชน์ความเป็นส่วนตัวและลดทอนความเป็นมนุษย์ของกฎหมาย”

Roberts อ้างถึงคุณค่าที่เป็นไปได้ของระบบ AI ในการช่วยเหลือผู้ที่ไม่สามารถจ่ายค่าตัวแทนทางกฎหมายได้ โดยอนุญาตให้พวกเขาเตรียมการยื่นฟ้องต่อศาลได้ด้วยตนเอง ขณะเดียวกันเขาเตือนว่าโมเดล AI ถูกสร้างขึ้น พาดหัวข่าว เนื่องจากมีแนวโน้มจะเกิดอาการประสาทหลอน” ทำให้ทนายใช้ใบสมัครยื่นบรีฟพร้อมอ้างอิงถึงคดีที่ไม่มีอยู่จริง (เป็นความคิดที่ไม่ดีเสมอ)”

ราวกับเป็นการเน้นย้ำข้อกังวลดังกล่าว เอกสารที่ถูกเปิดผนึกเมื่อสัปดาห์ที่แล้วเผยให้เห็นว่า ไมเคิล โคเฮน ทนายความที่เคยดูแลเรื่องกฎหมายของประธานาธิบดีโดนัลด์ ทรัมป์ ได้มอบทนายความของเขาเองแล้ว การอ้างอิงทางกฎหมายปลอม จาก Google Bard เขาทำเช่นนั้นเพื่อสนับสนุนญัตติที่ขอให้ยุติการควบคุมดูแลตามคำสั่งศาลของเขาก่อนกำหนด หลังจากที่เขายอมรับการละเมิดทางการเงินของการรณรงค์หาเสียงในปี 2018

โรเบิร์ตส์ยังแย้งว่าปัจจุบันเครื่องจักรไม่สามารถเทียบได้กับความสามารถของผู้พิพากษาที่เป็นมนุษย์ในการประเมินความจริงใจของคำพูดของจำเลย “ความแตกต่างมีความสำคัญ: หลายๆ คนอาจทำให้มือสั่น เสียงสั่น การเปลี่ยนแปลงทางอารมณ์ เหงื่อออกเล็กน้อย ความลังเลอยู่ครู่หนึ่ง การสบตาชั่วขณะ” เขาเขียน

และเขายังตั้งข้อสังเกตอีกว่าในคดีอาญาที่ AI ถูกใช้เพื่อประเมินความเสี่ยงในการบิน การกระทำผิดซ้ำ หรือการตัดสินใจเชิงคาดการณ์อื่นๆ ยังคงมีข้อโต้แย้งอย่างต่อเนื่องเกี่ยวกับกระบวนการที่ครบกำหนด ความน่าเชื่อถือ และความลำเอียงที่ระบบดังกล่าวอาจมี

“อย่างน้อยในปัจจุบัน การศึกษาแสดงให้เห็นถึงการรับรู้ของสาธารณะอย่างต่อเนื่องเกี่ยวกับ 'ช่องว่างความเป็นธรรมของมนุษย์และ AI' ซึ่งสะท้อนถึงมุมมองที่ว่าการตัดสินของมนุษย์สำหรับข้อบกพร่องทั้งหมดของพวกเขานั้นยุติธรรมกว่าสิ่งใดก็ตามที่เครื่องจักรพ่นออกมา” Roberts เขียน

การรับรู้ดังกล่าวถูกท้าทายในรายงานเดือนกันยายนโดยนักวิชาการของ Harvard Victoria Angelova, Will Dobbie และ Crystal Yang ผ่านทางสำนักงานวิจัยเศรษฐกิจแห่งชาติ ที่ กระดาษ“คำแนะนำอัลกอริทึมและดุลยพินิจของมนุษย์” พบว่าเมื่อผู้พิพากษาที่เป็นมนุษย์แทนที่การตัดสินใจด้วยอัลกอริทึมว่าจะปล่อยตัวหรือคุมขังจำเลยที่มีการประกันตัวหรือไม่ ร้อยละ 90 ของมนุษย์มีประสิทธิภาพต่ำกว่าอัลกอริทึมในการระบุผู้ที่อาจกระทำผิดซ้ำ

“การค้นพบนี้บ่งชี้ว่าผู้พิพากษาทั่วไปในสภาพแวดล้อมของเรามีทักษะน้อยกว่าในการทำนายการประพฤติมิชอบมากกว่าอัลกอริทึม และเราสามารถลดอัตราการประพฤติมิชอบได้อย่างมากด้วยการตัดสินใจปล่อยตัวแบบอัตโนมัติ” ผู้เขียนระบุในรายงานของพวกเขา

ในเวลาเดียวกัน ผู้ตัดสิน 10 เปอร์เซ็นต์สามารถจัดการอัลกอริทึมได้ดีกว่าเมื่อลบล้างคำแนะนำ และคาดการณ์การประพฤติมิชอบของจำเลยได้ดีกว่า ปัจจัยทั่วไปในหมู่ "ผู้ตัดสินที่มีทักษะสูง" เหล่านี้คือพวกเขามีโอกาสน้อยที่จะเคยทำงานด้านการบังคับใช้กฎหมายมาก่อน และพวกเขาก็ใช้ข้อมูลส่วนตัวที่ไม่มีในอัลกอริทึมได้ดีกว่า

รายงานระบุว่าผู้พิพากษาที่มีทักษะต่ำให้ความสำคัญกับปัจจัยทางประชากรศาสตร์ เช่น เชื้อชาติ ในขณะที่ผู้พิพากษาที่มีทักษะสูงจะให้ความสำคัญกับประเด็นที่ไม่ใช่ด้านประชากรศาสตร์ เช่น สุขภาพจิต การใช้สารเสพติด และทรัพยากรทางการเงิน

ไม่ต้องสงสัยเลยว่าผู้พิพากษาที่เป็นมนุษย์จะอยู่ต่อไปอีกสักระยะหนึ่ง Roberts แสดงความคิดเห็น และสำหรับคนส่วนใหญ่ที่มีประสิทธิภาพต่ำกว่า AI อาจสามารถช่วยทำให้พวกเขาดีขึ้นได้ อย่างน้อยก็ในบริบทของการตัดสินใจก่อนการพิจารณาคดี ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน