Ο ανώτατος δικαστής αναφέρει τους δικαστές που λειτουργούν με τεχνητή νοημοσύνη

Ο ανώτατος δικαστής αναφέρει τους δικαστές που λειτουργούν με τεχνητή νοημοσύνη

Ο δικαστής του Ανωτάτου Δικαστηρίου αναφέρει τους δικαστές που λειτουργούν με τεχνητή νοημοσύνη PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Ο δικαστής του Ανωτάτου Δικαστηρίου των ΗΠΑ, Τζον Ρόμπερτς, πιστεύει ότι η τεχνητή νοημοσύνη θα διαδραματίσει ολοένα και πιο σημαντικό ρόλο στη νομική διαδικασία, αλλά αναμένει ότι «ανθρώπινοι δικαστές θα υπάρχουν για λίγο».

Ο Roberts έκανε αυτή την παρατήρηση στην έκθεσή του για το τέλος του έτους 2023 για την Ομοσπονδιακή Δικαιοσύνη [PDF], το οποίο δεν έχει αγγίξει προηγουμένως το θέμα.

«Η τεχνητή νοημοσύνη έχει προφανώς μεγάλες δυνατότητες να αυξήσει δραματικά την πρόσβαση σε βασικές πληροφορίες τόσο για δικηγόρους όσο και για μη δικηγόρους», έγραψε ο Ρόμπερτς. «Αλλά εξίσου προφανώς κινδυνεύει να παραβιάσει τα συμφέροντα της ιδιωτικής ζωής και να απανθρωποποιήσει τον νόμο».

Ο Roberts ανέφερε τη δυνητική αξία των συστημάτων τεχνητής νοημοσύνης για να βοηθήσουν άτομα που δεν μπορούν να αντέξουν οικονομικά τη νομική εκπροσώπηση, επιτρέποντάς τους να προετοιμάσουν μόνα τους δικαστικές υποθέσεις. Ταυτόχρονα, προειδοποίησε ότι τα μοντέλα AI έχουν κάνει τίτλους για την τάση τους να έχουν ψευδαισθήσεις, «που έκανε τους δικηγόρους που χρησιμοποιούν την εφαρμογή να υποβάλλουν πρακτικά με παραπομπές σε ανύπαρκτες υποθέσεις. (Πάντα μια κακή ιδέα.)”

Σαν να υπογραμμίσουν αυτή την ανησυχία, έγγραφα που αποσφραγίστηκαν την περασμένη εβδομάδα αποκάλυψαν ότι ο Μάικλ Κοέν, ο δικηγόρος που χειριζόταν στο παρελθόν νομικές υποθέσεις του προέδρου Ντόναλντ Τραμπ, είχε δώσει τον δικό του δικηγόρο ψεύτικες νομικές αναφορές από το Google Bard. Το έπραξε για να υποστηρίξει μια πρόταση με την οποία ζητούσε τον πρόωρο τερματισμό της εποπτείας του που είχε διαταχθεί από το δικαστήριο, μετά την παραδοχή του για παραβιάσεις χρηματοδότησης της εκστρατείας του 2018.

Ο Roberts υποστήριξε επίσης ότι οι μηχανές δεν μπορούν επί του παρόντος να ταιριάζουν με την ικανότητα ενός ανθρώπινου δικαστή να αξιολογεί την ειλικρίνεια της ομιλίας ενός κατηγορούμενου. «Η απόχρωση έχει σημασία: Πολλά μπορούν να επηρεάσουν ένα χέρι που τρέμει, μια φωνή που τρέμει, μια αλλαγή καμπής, μια χάντρα ιδρώτα, μια στιγμή δισταγμού, μια φευγαλέα διακοπή στη βλεμματική επαφή», έγραψε.

Και συνέχισε παρατηρώντας ότι, σε ποινικές υποθέσεις όπου η τεχνητή νοημοσύνη χρησιμοποιείται για την αξιολόγηση του κινδύνου πτήσης, της υποτροπής ή άλλων προγνωστικών αποφάσεων, υπάρχει συνεχής διαμάχη σχετικά με τη δέουσα διαδικασία, την αξιοπιστία και τις προκαταλήψεις που μπορεί να περιέχουν τέτοια συστήματα.

«Τουλάχιστον επί του παρόντος, οι μελέτες δείχνουν μια επίμονη αντίληψη του κοινού για ένα «χάσμα δικαιοσύνης ανθρώπου-AI», που αντικατοπτρίζει την άποψη ότι οι ανθρώπινες αποφάσεις, παρά τα ελαττώματα τους, είναι πιο δίκαιες από ό,τι φτύνει το μηχάνημα», έγραψε ο Roberts.

Αυτή η αντίληψη αμφισβητήθηκε σε μια εργασία του Σεπτεμβρίου από τους ακαδημαϊκούς του Χάρβαρντ Victoria Angelova, Will Dobbie και Crystal Yang μέσω του Εθνικού Γραφείου Οικονομικών Ερευνών. ο χαρτί, «Αλγοριθμικές συστάσεις και ανθρώπινη διακριτική ευχέρεια», διαπιστώνει ότι όταν οι ανθρώπινοι δικαστές παρακάμπτουν τις αλγοριθμικές αποφάσεις σχετικά με το εάν θα αφεθεί ελεύθερος ή θα κρατηθεί ένας κατηγορούμενος με εγγύηση, το 90 τοις εκατό των ανθρώπων δεν αποδίδουν τον αλγόριθμο στον εντοπισμό πιθανών υποτροπέων.

«Αυτό το εύρημα δείχνει ότι ο τυπικός κριτής στο περιβάλλον μας είναι λιγότερο ικανός στην πρόβλεψη κακής συμπεριφοράς από τον αλγόριθμο και ότι θα μπορούσαμε να μειώσουμε σημαντικά τα ποσοστά ανάρμοστης συμπεριφοράς αυτοματοποιώντας τις αποφάσεις αποδέσμευσης», αναφέρουν οι συγγραφείς στην εργασία τους.

Ταυτόχρονα, το 10 τοις εκατό των δικαστών καταφέρνουν να ξεπεράσουν τον αλγόριθμο όταν παρακάμπτουν τις συστάσεις του και είναι καλύτεροι στο να προβλέψουν την ανάρμοστη συμπεριφορά των κατηγορουμένων. Ο κοινός παράγοντας μεταξύ αυτών των «κριτών υψηλών δεξιοτήτων» είναι ότι είναι λιγότερο πιθανό να έχουν εργαστεί προηγουμένως στην επιβολή του νόμου και είναι καλύτεροι στο να χρησιμοποιούν ιδιωτικές πληροφορίες που δεν είναι διαθέσιμες στον αλγόριθμο.

Η δημοσίευση λέει ότι οι κριτές χαμηλής δεξιότητας δίνουν μεγαλύτερη προσοχή σε δημογραφικούς παράγοντες όπως η φυλή, ενώ οι κριτές υψηλής δεξιότητας εστιάζουν περισσότερο σε μη δημογραφικά ζητήματα όπως η ψυχική υγεία, η κατάχρηση ουσιών και οι οικονομικοί πόροι.

Οι ανθρώπινοι δικαστές αναμφίβολα θα είναι εδώ για λίγο, λέει ο Roberts. Και για την πλειονότητα με χαμηλή απόδοση, η τεχνητή νοημοσύνη μπορεί να βοηθήσει στη βελτίωση τους, τουλάχιστον στο πλαίσιο της προδικαστικής λήψης αποφάσεων. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο