Der Vorsitzende des Obersten Gerichtshofs berichtet über KI-gestützte Richter

Der Vorsitzende des Obersten Gerichtshofs berichtet über KI-gestützte Richter

Der Vorsitzende Richter des Obersten Gerichtshofs berichtet über die KI-gestützten Richter PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Der Vorsitzende Richter des Obersten Gerichtshofs der USA, John Roberts, glaubt, dass künstliche Intelligenz eine immer wichtigere Rolle im Gerichtsverfahren spielen wird, geht jedoch davon aus, dass es „menschliche Richter noch eine Weile geben wird“.

Roberts machte diese Beobachtung in seinem Jahresendbericht 2023 über die Bundesjustiz [PDF], der das Thema bisher noch nicht angesprochen hat.

„KI hat offensichtlich großes Potenzial, den Zugang zu wichtigen Informationen für Anwälte und Nicht-Anwälte gleichermaßen dramatisch zu verbessern“, schrieb Roberts. „Aber ebenso offensichtlich besteht die Gefahr, dass die Interessen der Privatsphäre verletzt und das Gesetz entmenschlicht wird.“

Roberts verwies auf den potenziellen Wert von KI-Systemen, um Menschen zu helfen, die sich keinen Rechtsbeistand leisten können, indem sie es ihnen ermöglichen, Gerichtsakten selbst vorzubereiten. Gleichzeitig warnte er davor, dass KI-Modelle entstanden seien Schlagzeilen wegen ihrer Neigung zu Halluzinationen, „was dazu führte, dass die Anwälte, die den Antrag nutzten, Schriftsätze mit Zitaten zu nicht existierenden Fällen einreichten.“ (Immer eine schlechte Idee.)“

Wie um diese Besorgnis zu unterstreichen, enthüllten Dokumente, die letzte Woche entsiegelt wurden, dass Michael Cohen, der Anwalt, der zuvor für die Rechtsangelegenheiten von Präsident Donald Trump zuständig war, seinen eigenen Anwalt ernannt hatte gefälschte juristische Zitate von Google Bard. Er tat dies zur Unterstützung eines Antrags auf ein vorzeitiges Ende seiner gerichtlich angeordneten Aufsicht, nachdem er Verstöße gegen die Wahlkampffinanzierung im Jahr 2018 eingestanden hatte.

Roberts argumentierte auch, dass Maschinen derzeit nicht mit der Fähigkeit eines menschlichen Richters mithalten können, die Aufrichtigkeit der Rede eines Angeklagten zu beurteilen. „Auf Nuancen kommt es an: Vieles kann sich aus einer zitternden Hand, einer zitternden Stimme, einem Tonwechsel, einer Schweißperle, einem Moment des Zögerns, einer flüchtigen Unterbrechung des Augenkontakts ergeben“, schrieb er.

Und er stellte weiterhin fest, dass es in Strafsachen, in denen KI zur Bewertung von Fluchtrisiken, Rückfällen oder anderen prädiktiven Entscheidungen eingesetzt wird, anhaltende Kontroversen über ordnungsgemäße Verfahren, Zuverlässigkeit und Vorurteile gibt, die solche Systeme enthalten können.

„Zumindest derzeit zeigen Studien, dass es in der Öffentlichkeit nach wie vor eine ‚Fairness-Lücke zwischen Mensch und KI‘ gibt, was die Ansicht widerspiegelt, dass menschliche Urteile trotz all ihrer Mängel gerechter sind als alles, was die Maschine ausspuckt“, schrieb Roberts.

Diese Wahrnehmung wurde in einem vom National Bureau of Economic Research herausgegebenen Papier der Harvard-Wissenschaftler Victoria Angelova, Will Dobbie und Crystal Yang im September in Frage gestellt. Der KrepppapierIn „Algorithmische Empfehlungen und menschliches Ermessen“ wird festgestellt, dass 90 Prozent der Menschen bei der Erkennung potenzieller Rückfälliger dem Algorithmus nicht gewachsen sind, wenn menschliche Richter algorithmische Entscheidungen über die Freilassung oder Inhaftierung eines Angeklagten gegen Kaution außer Kraft setzen.

„Dieser Befund deutet darauf hin, dass der typische Richter in unserem Umfeld weniger gut darin ist, Fehlverhalten vorherzusagen als der Algorithmus, und dass wir die Fehlverhaltensraten durch die Automatisierung von Entlassungsentscheidungen erheblich senken könnten“, schreiben die Autoren in ihrem Artikel.

Gleichzeitig schaffen es 10 Prozent der Richter, den Algorithmus zu übertreffen, wenn sie seine Empfehlungen außer Kraft setzen, und können Fehlverhalten von Angeklagten besser antizipieren. Diesen „hochqualifizierten Richtern“ ist gemeinsam, dass sie seltener zuvor in der Strafverfolgung gearbeitet haben und private Informationen, die dem Algorithmus nicht zur Verfügung stehen, besser nutzen können.

In dem Papier heißt es, dass gering qualifizierte Richter mehr auf demografische Faktoren wie die Rasse achten, während sich hochqualifizierte Richter mehr auf nicht demografische Themen wie psychische Gesundheit, Drogenmissbrauch und finanzielle Ressourcen konzentrieren.

Menschliche Richter werden es zweifellos noch eine Weile geben, meint Roberts. Und für die leistungsschwache Mehrheit kann es sein, dass KI zumindest im Rahmen der vorgerichtlichen Entscheidungsfindung dabei helfen kann, sie zu verbessern. ®

Zeitstempel:

Mehr von Das Register