ChatGPT: Κάνοντας τα πράγματα πιο ασφαλή (Simon Thompson)

ChatGPT: Κάνοντας τα πράγματα πιο ασφαλή (Simon Thompson)

ChatGPT: Making things safer (Simon Thompson) PlatoBlockchain Data Intelligence. Vertical Search. Ai.

In μέρος πρώτο αυτού του ιστολογίου Εξέτασα τη νέα και ισχυρή τεχνολογία που είναι το ChatGPT. Σε αυτό το δεύτερο και τελευταίο μέρος, διερευνώ ποιες βέλτιστες πρακτικές απαιτούνται για να γίνει η χρήση του όσο το δυνατόν πιο ασφαλής.

Είναι αρκετά σαφές ότι δεν πρόκειται να ξαναβάλουμε το ChatGPT στο μπουκάλι. Οι τεχνικές που χρησιμοποιούνται για τη δημιουργία του είναι ευρέως γνωστές, και παρόλο που η ποσότητα υπολογισμού που απαιτείται φαίνεται να είναι ηρωική τώρα, στο σχετικά κοντινό μέλλον θα είναι πολύ πιο ευρέως προσβάσιμη. Ακόμα κι αν οι τιμές υπολογισμού δεν μειωθούν ριζικά στο εγγύς μέλλον, το είδος υπολογισμού που απαιτείται για τη δημιουργία του GPT3.5 είναι ήδη διαθέσιμο σε πολλούς κρατικούς φορείς και σε ένα ευρύ φάσμα μη κρατικών φορέων.

Η Google ανακοίνωσε το "Bard" με βάση την τεχνολογία LAMDA της, η οποία είναι τόσο συναρπαστική που ένας εσωτερικός μηχανικός πείστηκε ότι είχε ψυχή και η Deepmind ανέπτυξε ένα chatbot που ονομάζεται "Sparrow" το οποίο "υποστηρίζεται από ορισμένους" ότι είναι τεχνικά ανώτερο από το ChatGPT.

Οι μεγάλοι κίνδυνοι δεν είναι πιθανό να προέρχονται από εξελιγμένες σούπερ εταιρείες όπως η Alphabet. Οι μικρότερες εταιρείες με μια στάση «κινήστε γρήγορα και σπάστε τα πράγματα» είναι πιθανό να είναι δημιουργικές και περιπετειώδεις με τις ιδέες τους για εφαρμογές. Αλλά πολύ πραγματικές βλάβες για πολύ πραγματικούς ανθρώπους είναι δυνατές με αυτό το είδος συστήματος, και αυτές μπορούν να εφαρμοστούν εύκολα και γρήγορα από μικρές ομάδες μη ειδικών.

Πέντε κορυφαίες συμβουλές για να κάνετε το ChatGPT ασφαλέστερο

Παρόλο που υπάρχουν πολλά μονοπάτια προς το «όχι» και μόνο ένα προς το «ναι», θα εξακολουθήσουν να υπάρχουν πολλές αιτήσεις που χαρακτηρίζονται ως λογικές. Αυτό όμως δεν θα τους κάνει ασφαλείς. Προκειμένου να έχετε εμπιστοσύνη σε μια εφαρμογή που υποστηρίζεται από ChatGPT, προτείνεται επίσης να εφαρμοστούν τα ακόλουθα βήματα.

  1. Δεν πρέπει να υπάρχει εξαπάτηση σχετικά με το με τι αλληλεπιδρούν οι χρήστες. Δεν μπορείτε να δώσετε ενημερωμένη συγκατάθεση εάν δεν είστε ενημερωμένοι. Οι Saleema Amershi et al [1] έχουν δημοσιεύσει εξαιρετικές οδηγίες για την αλληλεπίδραση για συστήματα AI. Είναι σημαντικό ότι αυτά παρέχουν δομή για την εξέταση της αλληλεπίδρασης σε όλο τον κύκλο ζωής μιας αλληλεπίδρασης χρήστη. Οι κατευθυντήριες γραμμές καλύπτουν πώς να γίνει σαφές στον χρήστη με τι αλληλεπιδρά και πώς να τον καθοδηγήσει για το τι αναμένεται από αυτόν. Η καθοδήγηση του Amershi εκτείνεται σε όλη τη διάρκεια της αλληλεπίδρασης, τη διαχείριση της αποτυχίας και των υπερωριών, καθώς το σύστημα γίνεται «business as usual».
  2. Οι χρήστες θα πρέπει να έχουν την επιλογή να μην αλληλεπιδρούν με το σύστημα. Μια πραγματική επιλογή - για παράδειγμα ένα εναλλακτικό κανάλι επικοινωνίας.
  3. Θα πρέπει να επισυνάπτεται εκτίμηση επιπτώσεων σε κάθε αίτηση. Τοποθετήστε το στον ιστότοπο όπως θα κάνατε με ένα αρχείο robots.txt ή όπως θα προσθέσατε μια άδεια στον πηγαίο κώδικα σας. Η καναδική διαδικασία ΔΑΑ προσφέρει ένα μοντέλο για κάτι τέτοιο, αλλά ορισμένες θεμελιώδεις ερωτήσεις είναι μια καλή αρχή. Ποιον θα βλάψει αν λειτουργήσει όπως προβλέπεται; Ποιος θα πληγωθεί εάν το chatbot πάει στραβά; Μπορεί κάποιος να πει εάν το chatbot πηγαίνει στραβά και μπορεί να το σταματήσει και να επιδιορθώσει την κατάσταση εάν συμβαίνει;
  4. Εάν το σύστημά σας θα μπορούσε να έχει αρνητικές επιπτώσεις σε άλλους, τότε θα πρέπει να υπάρχει παρακολούθηση και καταγραφή του τι κάνει το σύστημα και πώς συμπεριφέρεται. Αυτά θα πρέπει να διατηρούνται με τέτοιο τρόπο ώστε να επιτρέπουν την ιατροδικαστική διερεύνηση της συμπεριφοράς του συστήματος, εάν απαιτείται.
  5. Εάν δεν είστε προσωπικά και άμεσα υπεύθυνοι για το σύστημα, θα πρέπει να αναπτυχθεί και να διατηρηθεί μια σαφώς τεκμηριωμένη διαδικασία διακυβέρνησης. Μέρος αυτού θα πρέπει να περιγράφει πώς οι χρήστες μπορούν να καλούν για βοήθεια και πώς μπορούν να παραπονεθούν για το σύστημα. Θα πρέπει επίσης να περιγράφει ποιες θα πρέπει να είναι οι διαδικασίες για την αντιμετώπιση της δυσφορίας και των παραπόνων των χρηστών.

Δυνατότητα εξαιρετικής αξίας σε πολλές περιπτώσεις χρήσης

Με τους σωστούς ελέγχους και διεργασίες, νέα μοντέλα μεγάλων γλωσσών όπως το ChatGPT θα προσφέρουν μεγάλη αξία σε πολλές περιπτώσεις χρήσης, αν και με τους βασικούς ελέγχους και ελέγχους που υπάρχουν, για να διασφαλιστεί ότι οι χρήστες και οι τελικοί χρήστες προστατεύονται από οποιαδήποτε παρεξήγηση.

  1. Amershi, Saleema. «Οδηγίες για την αλληλεπίδραση ανθρώπου-τεχνητής νοημοσύνης». Συνέδριο CHI για τους ανθρώπινους παράγοντες στα υπολογιστικά συστήματα. CHI, 2019. 1–13.

Σφραγίδα ώρας:

Περισσότερα από Fintextra