שופט בית המשפט העליון מדווח על שופטים המונעים בינה מלאכותית

שופט בית המשפט העליון מדווח על שופטים המונעים בינה מלאכותית

שופט בית המשפט העליון מדווח על שופטים המונעים בבינה מלאכותית PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

שופט בית המשפט העליון של ארה"ב, ג'ון רוברטס, מאמין שבינה מלאכותית תמלא תפקיד חשוב יותר ויותר בהליך המשפטי, אך הוא מצפה ש"שופטים אנושיים יהיו בסביבה לזמן מה".

רוברטס ציין את ההערה הזו בדוח סוף השנה שלו לשנת 2023 על מערכת המשפט הפדרלית [PDF], שלא נגע בעבר בנושא.

"ל-AI יש כמובן פוטנציאל גדול להגדיל באופן דרמטי את הגישה למידע מפתח עבור עורכי דין ושאינם עורכי דין כאחד", כתב רוברטס. "אבל באותה מידה זה מסתכן בפלישה לאינטרסים של פרטיות ובדה-הומניזציה של החוק."

רוברטס ציין את הערך הפוטנציאלי של מערכות בינה מלאכותית לעזור לאנשים שאינם יכולים להרשות לעצמם ייצוג משפטי על ידי כך שהם מאפשרים להם להכין בעצמם תביעות לבית המשפט. במקביל, הוא הזהיר שדגמי AI יצרו כותרות על נטייתם להזיות, "מה שגרם לעורכי הדין שהשתמשו בבקשה להגיש סיכומים עם ציטוטים לתיקים שאינם קיימים. (תמיד רעיון רע.)

כאילו כדי להדגיש את החשש הזה, מסמכים שנחשפו בשבוע שעבר חשפו כי מייקל כהן, עורך הדין שטיפל בעבר בעניינים משפטיים של הנשיא דונלד טראמפ, נתן עורך דין משלו. ציטוטים משפטיים מזויפים מגוגל בארד. הוא עשה זאת כתמיכה בבקשה המבקשת להפסיק מוקדם את הפיקוח שלו על פי הוראת בית המשפט, לאחר הודאתו בהפרות כספיות של קמפיין 2018.

רוברטס גם טען שמכונות אינן יכולות להתאים כרגע ליכולתו של שופט אנושי להעריך את כנות נאומו של הנאשם. "חשוב לניואנסים: הרבה יכול להסתובב ביד רועדת, בקול רועד, בשינוי נטייה, באגל זיעה, בהיסוס של רגע, בהפסקה חולפת בקשר עין", כתב.

והוא המשיך והבחין שבמקרים פליליים שבהם נעשה שימוש בבינה מלאכותית להערכת סיכוני טיסה, חזרתיות או החלטות חזויות אחרות, יש מחלוקת מתמשכת לגבי הליך הוגן, מהימנות והטיות שמערכות כאלה עשויות להכיל.

"לפחות נכון לעכשיו, מחקרים מראים תפיסה ציבורית מתמשכת של 'פער ההוגנות בין אדם ל-AI', המשקפת את הדעה ששיפוט אנושי, על כל הפגמים שלהם, הוגנות יותר מכל מה שהמכונה יורקת", כתב רוברטס.

תפיסה זו ערערה במאמר ספטמבר על ידי אנשי האקדמיה של הרווארד ויקטוריה אנג'לובה, וויל דובי וקריסטל יאנג באמצעות הלשכה הלאומית למחקר כלכלי. ה מאמר, "המלצות אלגוריתמיות ושיקול דעת אנושי", מוצא שכאשר שופטים אנושיים עוקפים החלטות אלגוריתמיות אם לשחרר או לעכב נאשם בערבות, 90 אחוז מהבני אדם מבצעים פחות את האלגוריתם באיתור חוזרים פוטנציאליים.

"ממצא זה מצביע על כך שהשופט הטיפוסי בסביבה שלנו פחות מיומן בניבוי התנהגות בלתי הולמת מאשר האלגוריתם וכי נוכל להפחית משמעותית את שיעורי ההתנהגות הבלתי הולמת על ידי אוטומציה של החלטות שחרור", מצהירים המחברים במאמרם.

יחד עם זאת, 10 אחוז מהשופטים מצליחים להתעלות על האלגוריתם כשהם עוקפים את המלצותיו, וטובים יותר לצפות התנהגות בלתי הולמת של נאשמים. הגורם המשותף בין "שופטים בעלי מיומנות גבוהה" אלה הוא שסביר יותר שהם עבדו בעבר באכיפת החוק והם טובים יותר בשימוש במידע פרטי שאינו זמין לאלגוריתם.

העיתון אומר כי שופטים בעלי מיומנות נמוכה שמים לב יותר לגורמים דמוגרפיים כמו גזע, בעוד שופטים בעלי מיומנות גבוהה מתמקדים יותר בנושאים שאינם דמוגרפיים כמו בריאות הנפש, שימוש בסמים ומשאבים כספיים.

שופטים אנושיים ללא ספק יהיו בסביבה לזמן מה, סבור רוברטס. ועבור הרוב עם הביצועים הנמוכים, ייתכן שבינה מלאכותית יכולה לעזור לשפר אותם, לפחות בהקשר של קבלת החלטות לפני משפט. ®

בול זמן:

עוד מ הקופה