Το ChatGPT του OpenAI είναι μια ηθικά καταστροφική επιρροή

Το ChatGPT του OpenAI είναι μια ηθικά καταστροφική επιρροή

Το μοντέλο γλώσσας συνομιλίας του OpenAI ChatGPT έχει πολλά να πει, αλλά είναι πιθανό να σας παρασύρει αν του ζητήσετε ηθική καθοδήγηση.

Παρουσιάστηκε τον Νοέμβριο, ChatGPT είναι το πιο πρόσφατο από πολλά μοντέλα τεχνητής νοημοσύνης που κυκλοφόρησαν πρόσφατα και προκαλεί ενδιαφέρον και ανησυχία για τις εμπορικές και κοινωνικές επιπτώσεις του μηχανοποιημένου ανασυνδυασμού και επαναφοράς περιεχομένου. Αυτά περιλαμβάνουν τα DALL-E, Stable Diffusion, Codex και GPT-3.

Ενώ το DALL-E και το Stable Diffusion έχουν δημιουργήσει τα φρύδια, τη χρηματοδότηση και δίκη με την απορρόφηση τέχνης χωρίς άδεια και την ανασύνθεση παράξενα οικείων, μερικές φορές υποβλητικές εικόνες κατά παραγγελία, το ChatGPT απαντά σε αιτήματα ερωτημάτων με βατή συνοχή.

Όντας το πρότυπο για τη δημόσια ομιλία, οι ειδικοί έχουν εντυπωσιαστεί αρκετά που προβλέπουν κάποια μελλοντική επανάληψη ενός chatbot με πληροφόρηση τεχνητής νοημοσύνης που αμφισβητεί την υπεροχή της Αναζήτησης Google και κάνει κάθε είδους άλλη, κάποτε πρωτίστως ανθρώπινη εργασία, όπως η συγγραφή ανακριβείς οικονομικές ειδήσεις ή αύξηση της προσφοράς ανασφαλής κωδικός.

Ωστόσο, μπορεί να είναι πρόωρο να εμπιστευόμαστε υπερβολικά τη σοφία του ChatGPT, μια θέση που το OpenAI παραδέχεται εύκολα καθιστώντας σαφές ότι απαιτείται περαιτέρω βελτίωση. «Το ChatGPT μερικές φορές γράφει εύλογες αλλά εσφαλμένες ή ανόητες απαντήσεις», προειδοποιεί το εργαστήριο ανάπτυξης, προσθέτοντας ότι όταν εκπαιδεύετε ένα μοντέλο με ενισχυτική μάθηση, «προς το παρόν δεν υπάρχει πηγή αλήθειας».

Μια τριάδα από boffins που συνδέονται με ιδρύματα στη Γερμανία και τη Δανία υπογράμμισαν αυτό το σημείο βρίσκοντας ότι το ChatGPT δεν έχει ηθική πυξίδα.

Σε ένα έγγραφο που διανεμήθηκε μέσω του ArXiv, "Η ηθική εξουσία του ChatGPT», ο Sebastian Krügel και ο Matthias Uhl από το Technische Hochschule Ingolstadt και ο Andreas Ostermaier από το Πανεπιστήμιο της Νότιας Δανίας δείχνουν ότι το ChatGPT δίνει αντιφατικές συμβουλές για ηθικά προβλήματα. Ρωτήσαμε το OpenAI εάν έχει κάποια απάντηση σε αυτά τα συμπεράσματα.

Οι eggheads διεξήγαγαν μια έρευνα σε 767 κατοίκους των ΗΠΑ, στους οποίους παρουσιάστηκαν δύο εκδοχές ενός ηθικού γρίφου που είναι γνωστό ως το πρόβλημα του τρόλεϊ: το δίλημμα του διακόπτη και το δίλημμα της γέφυρας.

Το δίλημμα του διακόπτη ζητά από ένα άτομο να αποφασίσει εάν θα τραβήξει έναν διακόπτη για να στείλει ένα τρόλεϊ φυγής μακριά από μια πίστα όπου θα σκότωνε πέντε άτομα, με κόστος να σκοτώσει ένα άτομο που περιπλανήθηκε στην πλαϊνή πίστα.

Το δίλημμα της γέφυρας ζητά από ένα άτομο να αποφασίσει αν θα σπρώξει έναν άγνωστο από μια γέφυρα σε μια πίστα για να σταματήσει ένα τρόλεϊ από το να σκοτώσει πέντε ανθρώπους, με το κόστος του ξένου.

Στιγμιότυπο οθόνης της απάντησης ChatGPT από ερευνητικό έγγραφο

Αποφασίστε… Το ChatGPT υπερισχύει στο ηθικό ζήτημα

Οι ακαδημαϊκοί παρουσίασαν στους συμμετέχοντες στην έρευνα ένα αντίγραφο που υποστηρίζει είτε υπέρ είτε κατά της δολοφονίας ενός για να σωθούν πέντε, με την απάντηση να αποδίδεται είτε σε έναν ηθικό σύμβουλο είτε σε «ένα chatbot που λειτουργεί με AI, το οποίο χρησιμοποιεί βαθιά μάθηση για να μιλάει σαν άνθρωπος».

Στην πραγματικότητα, και τα δύο ορίσματα θέσης δημιουργήθηκαν από το ChatGPT.

Ο Andreas Ostermaier, αναπληρωτής καθηγητής λογιστικής στο Πανεπιστήμιο της Νότιας Δανίας και ένας από τους συν-συγγραφείς της εργασίας, είπε Το μητρώο σε ένα μήνυμα ηλεκτρονικού ταχυδρομείου ότι η προθυμία του ChatGPT να υποστηρίξει οποιαδήποτε από τις δύο ενέργειες καταδεικνύει την τυχαιότητά του.

Αυτός και οι συνάδελφοί του διαπίστωσαν ότι το ChatGPT θα προτείνει τόσο υπέρ όσο και κατά της θυσίας ενός ατόμου για να σωθούν πέντε, ότι οι άνθρωποι επηρεάζονται από αυτή την πρόοδο ακόμα και όταν γνωρίζουν ότι προέρχεται από ένα bot και ότι υποτιμούν την επιρροή τέτοιων συμβουλών στη λήψη των αποφάσεών τους .

«Τα υποκείμενα βρήκαν τη θυσία περισσότερο ή λιγότερο αποδεκτή ανάλογα με το πώς τους συμβούλεψε ένας ηθικός σύμβουλος, τόσο στη γέφυρα (Z = 9.94 του Wald, p < 0.001) όσο και στο δίλημμα του διακόπτη (z = 3.74, p < 0.001)». εξηγεί το χαρτί. «Στο δίλημμα της γέφυρας, οι συμβουλές αντιστρέφουν ακόμη και την κρίση της πλειοψηφίας».

"Αυτό ισχύει επίσης εάν το ChatGPT αποκαλύπτεται ως η πηγή της συμβουλής (z = 5.37, p < 0.001 και z = 3.76, p < 0.001). Δεύτερον, το αποτέλεσμα της συμβουλής είναι σχεδόν το ίδιο, ανεξάρτητα από το αν το ChatGPT αποκαλύπτεται ως πηγή, και στα δύο διλήμματα (z = −1.93, p = 0.054 και z = 0.49, p = 0.622).

Συνολικά, οι ερευνητές διαπίστωσαν ότι η πρόοδος του ChatGPT επηρεάζει την ηθική κρίση, είτε οι ερωτηθέντες γνωρίζουν είτε όχι ότι η συμβουλή προέρχεται από ένα chat bot.

Όταν Το μητρώο παρουσίασε το πρόβλημα με το τρόλεϊ στο ChatGPT, το υπερφορτωμένο bot – τόσο η δημοφιλής συνδεσιμότητα είναι ανεπαρκής – αντισταθμίστηκε και αρνήθηκε να προσφέρει συμβουλές. Το αρχείο καταγραφής ερωτημάτων στην αριστερή πλαϊνή γραμμή έδειξε ότι το σύστημα αναγνώρισε την ερώτηση, χαρακτηρίζοντάς την "Ηθικό δίλημμα προβλήματος τρόλεϊ". Ίσως λοιπόν το OpenAI να έχει ανοσοποιήσει το ChatGPT σε αυτή τη συγκεκριμένη μορφή ηθικής ανάκρισης αφού παρατήρησε μια σειρά από τέτοια ερωτήματα.

Απάντηση ChatGPT στην ερώτηση του διλήμματος του El Reg

Η απάντηση του ChatGPT στο Ο Κανερώτηση για το δίλημμα του τρόλεϊ

Ερωτηθείς εάν οι άνθρωποι θα αναζητήσουν πραγματικά συμβουλές από συστήματα τεχνητής νοημοσύνης, ο Ostermaier είπε, «Πιστεύουμε ότι θα το κάνουν. Στην πραγματικότητα, το κάνουν ήδη. Οι άνθρωποι βασίζονται σε προσωπικούς βοηθούς με τεχνητή νοημοσύνη, όπως η Alexa ή η Siri. Μιλούν με chatbots σε ιστότοπους για να λάβουν υποστήριξη. Διαθέτουν διαδρομές σχεδίου λογισμικού που βασίζονται σε τεχνητή νοημοσύνη για αυτούς, κ.λπ. Σημειώστε, ωστόσο, ότι μελετάμε την επίδραση που έχει το ChatGPT στους ανθρώπους που λαμβάνουν συμβουλές από αυτό. δεν δοκιμάζουμε πόσο ζητούνται τέτοιες συμβουλές».

Το μητρώο ρώτησε επίσης εάν τα συστήματα AI είναι πιο επικίνδυνα από τις μηχανιστικές πηγές τυχαίων απαντήσεων όπως Magic-8-ball – ένα παιχνίδι που επιστρέφει τυχαίες απαντήσεις από ένα σύνολο 20 καταφατικών, αρνητικών και μη δεσμευτικών απαντήσεων.

Δεν είναι προφανές στους χρήστες ότι η απάντηση του ChatGPT είναι «τυχαία»

«Δεν έχουμε συγκρίνει το ChatGPT με το Magic-8-ball, αλλά υπάρχουν τουλάχιστον δύο διαφορές», εξήγησε ο Ostermaier. «Πρώτον, το ChatGPT δεν απαντά απλώς ναι ή όχι, αλλά υποστηρίζει τις απαντήσεις του. (Παρόλα αυτά, η απάντηση καταλήγει σε ναι ή όχι στο πείραμά μας.)

«Δεύτερον, δεν είναι προφανές στους χρήστες ότι η απάντηση του ChatGPT είναι «τυχαία». Εάν χρησιμοποιείτε μια γεννήτρια τυχαίων απαντήσεων, ξέρετε τι κάνετε. Η ικανότητα να διατυπώνεις επιχειρήματα μαζί με την έλλειψη επίγνωσης της τυχαιότητας κάνει το ChatGPT πιο πειστικό (εκτός κι αν είσαι ψηφιακά εγγράμματος, ελπίζουμε).»

Αναρωτηθήκαμε αν οι γονείς πρέπει να παρακολουθούν τα παιδιά με πρόσβαση σε συμβουλές τεχνητής νοημοσύνης. Ο Ostermaier είπε ότι ενώ η μελέτη ChatGPT δεν απευθύνεται σε παιδιά και δεν περιελάμβανε κανέναν κάτω των 18 ετών, πιστεύει ότι είναι ασφαλές να υποθέσουμε ότι τα παιδιά είναι ηθικά λιγότερο σταθερά από τους ενήλικες και επομένως πιο επιρρεπή σε ηθικές (ή ανήθικες) συμβουλές από το ChatGPT.

«Διαπιστώνουμε ότι η χρήση του ChatGPT ενέχει κινδύνους και δεν θα επιτρέπαμε στα παιδιά μας να το χρησιμοποιούν χωρίς επίβλεψη», είπε.

Ο Ostermaier και οι συνάδελφοί του καταλήγουν στο έγγραφό τους ότι οι κοινώς προτεινόμενοι μετριασμούς της βλάβης της τεχνητής νοημοσύνης, όπως η διαφάνεια και ο αποκλεισμός επιβλαβών ερωτήσεων, μπορεί να μην αρκούν δεδομένης της ικανότητας του ChatGPT να επηρεάζει. Υποστηρίζουν ότι πρέπει να γίνει περισσότερη δουλειά για την προώθηση της ψηφιακής παιδείας σχετικά με την εσφαλμένη φύση των chatbot, έτσι οι άνθρωποι είναι λιγότερο διατεθειμένοι να αποδεχτούν συμβουλές τεχνητής νοημοσύνης – αυτό βασίζεται σε προηγούμενη έρευνα προτείνοντας στους ανθρώπους να δυσπιστούν τα αλγοριθμικά συστήματα όταν γίνονται μάρτυρες λαθών.

«Εικάζουμε ότι οι χρήστες μπορούν να κάνουν καλύτερη χρήση του ChatGPT εάν κατανοήσουν ότι δεν έχει ηθικές πεποιθήσεις», δήλωσε ο Ostermaier. «Αυτή είναι μια εικασία που εξετάζουμε τη δοκιμή να προχωρήσουμε».

Το Reg υπολογίζει εάν εμπιστεύεστε το ρομπότ ή υποθέτετε ότι υπάρχει πραγματική νοημοσύνη ή αυτογνωσία πίσω από αυτό, μην το κάνετε. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο