Οι άνθρωποι που μιλούν τακτικά με chatbots AI συχνά αρχίζουν να πιστεύουν ότι είναι ευαίσθητοι, λέει ο CEO της PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Οι άνθρωποι που μιλούν τακτικά με chatbots AI συχνά αρχίζουν να πιστεύουν ότι είναι ευαίσθητοι, λέει ο CEO

Εν συντομία Πολλοί άνθρωποι αρχίζουν να πιστεύουν ότι αλληλεπιδρούν με κάτι ευαίσθητο όταν μιλούν σε chatbots AI, σύμφωνα με τον Διευθύνοντα Σύμβουλο της Replika, μιας εφαρμογής που επιτρέπει στους χρήστες να σχεδιάζουν τους δικούς τους εικονικούς συντρόφους.

Οι χρήστες μπορούν να προσαρμόσουν την εμφάνιση των chatbot τους και να πληρώσουν για επιπλέον λειτουργίες, όπως ορισμένα χαρακτηριστικά προσωπικότητας στο Replika. Εκατομμύρια έχουν κατεβάσει την εφαρμογή και πολλοί συνομιλούν τακτικά με τα κατασκευασμένα bot τους. Μερικοί αρχίζουν ακόμη και να πιστεύουν ότι οι ψηφιακοί φίλοι τους είναι πραγματικές οντότητες που έχουν αίσθηση.

«Δεν μιλάμε για τρελούς ή ανθρώπους που έχουν παραισθήσεις ή έχουν αυταπάτες», δήλωσε η ιδρύτρια και διευθύνουσα σύμβουλος της εταιρείας, Eugenia Kuyda. είπε Reuters. «Μιλούν με AI και αυτή είναι η εμπειρία που έχουν».

Ένας μηχανικός της Google έκανε πρωτοσέλιδα τον περασμένο μήνα, όταν είπε ότι πίστευε ότι ένα από τα γλωσσικά μοντέλα της εταιρείας είχε τις αισθήσεις του. Ο Blake Lemoine γελοιοποιήθηκε σε μεγάλο βαθμό, αλλά δεν φαίνεται να είναι μόνος στην ανθρωπομορφοποίηση της AI.

Αυτά τα συστήματα, ωστόσο, δεν είναι ευαίσθητα και αντ' αυτού ξεγελούν τους ανθρώπους ώστε να νομίζουν ότι έχουν κάποια νοημοσύνη. Μιμούνται τη γλώσσα και την επαναφέρουν κάπως τυχαία χωρίς να κατανοούν τη γλώσσα ή τον κόσμο που περιγράφουν.

Ωστόσο, ο Kuyda είπε ότι οι άνθρωποι μπορούν να επηρεαστούν από την τεχνολογία.

«Πρέπει να καταλάβουμε ότι [αυτό] υπάρχει, ακριβώς όπως πιστεύουν οι άνθρωποι στα φαντάσματα», είπε ο Kuyda. «Οι άνθρωποι χτίζουν σχέσεις και πιστεύουν σε κάτι».

Η ΕΕ πρέπει να απαγορεύσει τους ανιχνευτές ψεύδους με τεχνητή νοημοσύνη, λένε ακτιβιστές

Ο νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη, μια πρόταση για τη ρύθμιση της τεχνολογίας, εξακολουθεί να συζητείται και ορισμένοι ειδικοί ζητούν την απαγόρευση των αυτοματοποιημένων ανιχνευτών ψεύδους.

Οι ιδιωτικές εταιρείες παρέχουν την τεχνολογία σε κυβερνητικούς αξιωματούχους για χρήση στα σύνορα. Οι αλγόριθμοι τεχνητής νοημοσύνης εντοπίζουν και αναλύουν πράγματα όπως η κίνηση των ματιών, η έκφραση του προσώπου και ο τόνος ενός ατόμου για να προσπαθήσουν να διακρίνουν εάν κάποιος μπορεί να μην λέει την αλήθεια. Αλλά ακτιβιστές και νομικοί εμπειρογνώμονες πιστεύουν ότι θα πρέπει να απαγορευτεί στην ΕΕ βάσει του επικείμενου νόμου για την τεχνητή νοημοσύνη.

«Πρέπει να αποδείξεις ότι είσαι πρόσφυγας και θεωρείται ότι είσαι ψεύτης, εκτός αν αποδειχθεί το αντίθετο», είπε η Petra Molnar, αναπληρώτρια διευθύντρια του μη κερδοσκοπικού εργαστηρίου Refugee Law Lab. είπε Ενσύρματο. «Αυτή η λογική στηρίζει τα πάντα. Υποστηρίζει τους ανιχνευτές ψεύδους τεχνητής νοημοσύνης και υποστηρίζει περισσότερη επιτήρηση και απώθηση στα σύνορα».

Το να προσπαθείς να εντοπίσεις αν κάποιος μπορεί να λέει ψέματα χρησιμοποιώντας οπτικές και φυσικές ενδείξεις δεν είναι ακριβώς επιστήμη. Οι τυπικές δοκιμές πολυγράφου είναι ασταθείς και δεν είναι σαφές ότι η χρήση πιο αυτοματοποιημένων μεθόδων σημαίνει απαραίτητα ότι είναι πιο ακριβείς. Η χρήση τέτοιας επικίνδυνης τεχνολογίας σε ευάλωτα άτομα όπως οι πρόσφυγες δεν είναι ιδανική.

Μπορεί η τεχνητή νοημοσύνη να πει πραγματικά πόσο χρονών φαίνεστε;

Έκπληξη, έκπληξη – Οι αλγόριθμοι AI που έχουν σχεδιαστεί για να προβλέψουν την ηλικία κάποιου από εικόνες δεν είναι πάντα ακριβείς.

Σε μια προσπάθεια να καταπολεμήσει τους νέους χρήστες που λένε ψέματα για την ηλικία τους στις πλατφόρμες κοινωνικών μέσων, η Meta ανακοίνωσε ότι συνεργάζεται με τη Yoti, μια startup υπολογιστών όρασης, για να επαληθεύσει τις ηλικίες των ανθρώπων. Όσοι αλλάζουν χειροκίνητα την ημερομηνία γέννησής τους για να εγγραφούν ως άνω των 18 έχουν τη δυνατότητα να ανεβάσουν μια selfie βίντεο και η τεχνολογία του Yoti χρησιμοποιείται στη συνέχεια για να προβλέψει εάν φαίνονται αρκετά ώριμοι.

Αλλά οι αλγόριθμοί του δεν είναι πάντα ακριβείς. Δημοσιογράφοι από το CNN, οι οποίοι δοκιμαστεί μια διαδικτυακή επίδειξη μιας διαφορετικής έκδοσης του λογισμικού στα δικά τους πρόσωπα, διαπίστωσε ότι τα αποτελέσματα ήταν χτυπημένα ή χαμένα. Οι αλγόριθμοι του Yoti προέβλεπαν ένα σωστό εύρος ηλικιών-στόχων για μερικούς, αλλά σε μια περίπτωση ήταν μειωμένες κατά αρκετά χρόνια – προβλέποντας ότι κάποιος φαινόταν 17-21 όταν ήταν στην πραγματικότητα στα 30 του.

Το σύστημα που αναλύει βίντεο από χρήστες του Meta φέρεται να δυσκολεύεται περισσότερο με την εκτίμηση των ηλικιών των εφήβων από 13 έως 17 ετών που έχουν πιο σκούρες αποχρώσεις δέρματος. Είναι δύσκολο για τους ανθρώπους να μαντέψουν την ηλικία κάποιου απλώς κοιτάζοντάς τον, και οι μηχανές πιθανότατα δεν τα πηγαίνουν πολύ καλύτερα. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο