Πρώην ερευνητής OpenAI: Υπάρχει 50% πιθανότητα η τεχνητή νοημοσύνη να τελειώσει σε «καταστροφή»

Πρώην ερευνητής OpenAI: Υπάρχει 50% πιθανότητα η τεχνητή νοημοσύνη να τελειώσει σε «καταστροφή»

Πρώην Ερευνητής του OpenAI: Υπάρχει 50% πιθανότητα η τεχνητή νοημοσύνη να καταλήξει σε «καταστροφή» PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Ένας πρώην βασικός ερευνητής στο OpenAI πιστεύει ότι υπάρχει μια αξιοπρεπής πιθανότητα η τεχνητή νοημοσύνη να πάρει τον έλεγχο της ανθρωπότητας και να την καταστρέψει.

«Νομίζω ότι ίσως υπάρχει περίπου 10-20% πιθανότητα εξαγοράς της τεχνητής νοημοσύνης, [με] πολλούς [ή] ανθρώπους νεκρούς», ο Paul Christiano, ο οποίος διηύθυνε την ομάδα ευθυγράμμισης γλωσσικού μοντέλου στο OpenAI, είπε στο Podcast χωρίς τράπεζα. «Το παίρνω πολύ σοβαρά».

Ο Χριστιάνο, ο οποίος τώρα ηγείται του Ερευνητικό Κέντρο Ευθυγράμμισης, ένας μη κερδοσκοπικός οργανισμός που στοχεύει στην ευθυγράμμιση των AI και των συστημάτων μηχανικής μάθησης με τα «ανθρώπινα συμφέροντα», δήλωσε ότι ανησυχεί ιδιαίτερα για το τι συμβαίνει όταν τα AI φτάσουν στη λογική και δημιουργική ικανότητα ενός ανθρώπου. «Συνολικά, ίσως μιλάμε για 50/50 πιθανότητες καταστροφής λίγο αφότου έχουμε συστήματα σε ανθρώπινο επίπεδο», είπε.

Ο Χριστιάνο έχει καλή παρέα. Πρόσφατα δεκάδες επιστήμονες σε όλο τον κόσμο υπέγραψε ηλεκτρονική επιστολή παροτρύνοντας το OpenAI και άλλες εταιρείες που αγωνίζονται να δημιουργήσουν ταχύτερα, πιο έξυπνα AI, να πατήσουν το κουμπί παύσης στην ανάπτυξη. Οι μεγάλες περούκες από τον Μπιλ Γκέιτς έως τον Έλον Μασκ έχουν εκφράσει την ανησυχία τους ότι, αν δεν ελέγχεται, η τεχνητή νοημοσύνη αντιπροσωπεύει έναν προφανή, υπαρξιακό κίνδυνο για τους ανθρώπους.

Μην είσαι κακός

Γιατί το AI να γίνει κακό; Βασικά, για τον ίδιο λόγο που κάνει ένα άτομο: εκπαίδευση και εμπειρία ζωής.

Σαν μωρό, Το AI είναι εκπαιδευμένο λαμβάνοντας βουνά δεδομένων χωρίς να γνωρίζουμε πραγματικά τι να τα κάνουμε. Μαθαίνει προσπαθώντας να επιτύχει ορισμένους στόχους με τυχαίες ενέργειες και μηδενίζει τα «σωστά» αποτελέσματα, όπως ορίζονται από την εκπαίδευση.

Μέχρι στιγμής, βυθίζοντας τον εαυτό της σε δεδομένα που συγκεντρώνονται στο Διαδίκτυο, η μηχανική μάθηση έχει επιτρέψει στις τεχνητές νοημοσύνη να κάνουν τεράστια άλματα στη σύνταξη καλά δομημένων, συνεκτικών απαντήσεων σε ανθρώπινα ερωτήματα. Ταυτόχρονα, η υποκείμενη επεξεργασία υπολογιστή που τροφοδοτεί τη μηχανική μάθηση γίνεται ταχύτερη, καλύτερη και πιο εξειδικευμένη. Μερικοί επιστήμονες πιστεύουν ότι μέσα σε μια δεκαετία, αυτή η επεξεργαστική δύναμη, σε συνδυασμό με την τεχνητή νοημοσύνη, θα επιτρέψει σε αυτές τις μηχανές να γίνουν ευαίσθητες, όπως οι άνθρωποι, και να έχουν αίσθηση του εαυτού τους.

Τότε είναι που τα πράγματα γίνονται τρίχες. Και αυτός είναι ο λόγος που πολλοί ερευνητές υποστηρίζουν ότι πρέπει να καταλάβουμε πώς να επιβάλουμε προστατευτικά κιγκλιδώματα τώρα, παρά αργότερα. Εφόσον παρακολουθείται η συμπεριφορά AI, αυτό μπορεί να ελεγχθεί.

Αλλά αν το νόμισμα προσγειωθεί στην άλλη πλευρά, ακόμη και ο συνιδρυτής του OpenAI λέει ότι τα πράγματα θα μπορούσαν να γίνουν πολύ, πολύ κακό.

Foomsday;

Αυτό το θέμα είναι στο τραπέζι εδώ και χρόνια. Μία από τις πιο διάσημες συζητήσεις για το θέμα έλαβε χώρα πριν από 11 χρόνια μεταξύ ερευνητή AI Eliezer Yudkowsky και ο οικονομολόγος Ρόμπιν Χάνσον. Οι δυο τους συζήτησαν το ενδεχόμενο να φτάσουν «αφρός”—το οποίο προφανώς σημαίνει “Fast Onset of Overwhelming Mastery” – το σημείο στο οποίο η AI γίνεται εκθετικά πιο έξυπνη από τους ανθρώπους και ικανή να αυτοβελτιωθεί. (Η προέλευση του όρου «foom» είναι συζητήσιμος.)

«Ο Eliezer και οι συνεργάτες του πιστεύουν ότι είναι αναπόφευκτο ότι οι AI θα πάνε "foom" χωρίς προειδοποίηση, που σημαίνει ότι μια μέρα θα φτιάξεις ένα AGI [τεχνητή γενική νοημοσύνη] και ώρες ή μέρες αργότερα το πράγμα έχει αναδρομικά αυτοβελτιωθεί σε θεϊκή νοημοσύνη και στη συνέχεια τρώει τον κόσμο . Είναι αυτό ρεαλιστικό;» Ο Perry Metzger, ένας επιστήμονας υπολογιστών που δραστηριοποιείται στην κοινότητα AI, tweeted πρόσφατα.

Ο Metzger υποστήριξε ότι ακόμη και όταν τα συστήματα υπολογιστών φτάνουν σε ένα επίπεδο ανθρώπινης νοημοσύνης, υπάρχει ακόμα πολύς χρόνος για να αποτρέψουμε τυχόν κακά αποτελέσματα. «Είναι λογικά δυνατό το «foom»; Μπορεί. Δεν είμαι πεπεισμένος», είπε. «Είναι δυνατός ο πραγματικός κόσμος; Είμαι σίγουρος ότι όχι. Θα είναι μακροπρόθεσμα η βαθιά υπεράνθρωπη τεχνητή νοημοσύνη; Ναι, αλλά όχι «φουμάρα»»

Μια άλλη εξέχουσα προσωπικότητα, ο Yann Le Cun, ύψωσε επίσης τη φωνή του, ισχυριζόμενος ότι είναι «εντελώς αδύνατο», για να γνωρίσει η ανθρωπότητα μια εξαγορά της τεχνητής νοημοσύνης». Ας ελπίσουμε.

Μείνετε ενημερωμένοι για τα νέα κρυπτογράφησης, λάβετε καθημερινές ενημερώσεις στα εισερχόμενά σας.

Σφραγίδα ώρας:

Περισσότερα από Αποκρυπτογράφηση