Εάν τα chatbot AI είναι ευαίσθητα, μπορεί να είναι σκίουροι, καθώς και PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Εάν τα chatbot AI είναι ευαίσθητα, μπορεί να είναι και σκίουροι

Εν συντομία Όχι, τα chatbot AI δεν είναι ευαίσθητα.

Μόλις το ιστορία Σε έναν μηχανικό της Google, ο οποίος σφύριξε αυτό που ισχυρίστηκε ότι ήταν ένα μοντέλο αισθητικής γλώσσας, έγινε viral, πολλές δημοσιεύσεις παρενέβησαν για να δηλώσουν ότι έκανε λάθος.

Η δημόσια συζήτηση για το αν της εταιρείας LaMDA chatbot έχει συνείδηση ​​ή έχει ψυχή ή όχι δεν είναι πολύ καλό, μόνο και μόνο επειδή είναι πολύ εύκολο να κλείσεις την πλευρά που πιστεύει ότι έχει. Όπως τα περισσότερα μοντέλα μεγάλων γλωσσών, το LaMDA έχει δισεκατομμύρια παραμέτρους και εκπαιδεύτηκε σε κείμενο που έχει αφαιρεθεί από το διαδίκτυο. Το μοντέλο μαθαίνει τις σχέσεις μεταξύ των λέξεων και ποιες είναι πιο πιθανό να εμφανίζονται η μία δίπλα στην άλλη.

Φαίνεται αρκετά έξυπνο και μπορεί μερικές φορές να απαντά σωστά σε ερωτήσεις. Αλλά δεν ξέρει τίποτα για το τι λέει, και δεν έχει πραγματική κατανόηση της γλώσσας ή οτιδήποτε άλλο στην πραγματικότητα. Τα γλωσσικά μοντέλα συμπεριφέρονται τυχαία. Ρωτήστε το αν έχει συναισθήματα και μπορεί να πει ναι ή Όχι.. Ρωτήστε αν είναι α σκίουρος, και μπορεί επίσης να πει ναι ή όχι. Είναι δυνατόν τα chatbot AI να είναι πράγματι σκίουροι;

Η FTC εγείρει συναγερμό σχετικά με τη χρήση τεχνητής νοημοσύνης για την εποπτεία περιεχομένου

Η τεχνητή νοημοσύνη αλλάζει το διαδίκτυο. Φωτογραφίες με ρεαλιστική εμφάνιση χρησιμοποιούνται σε προφίλ ψευδών λογαριασμών στα μέσα κοινωνικής δικτύωσης, κυκλοφορούν πορνογραφικά βαθιά ψεύτικα βίντεο γυναικών, εικόνες και κείμενο που δημιουργούνται από αλγόριθμους δημοσιεύονται στο διαδίκτυο.

Οι ειδικοί έχουν προειδοποιήσει ότι αυτές οι δυνατότητες μπορούν να αυξήσουν τους κινδύνους απάτης, ρομπότ, παραπληροφόρησης, παρενόχλησης και χειραγώγησης. Οι πλατφόρμες στρέφονται όλο και περισσότερο σε αλγόριθμους τεχνητής νοημοσύνης για να εντοπίζουν και να αφαιρούν αυτόματα κακό περιεχόμενο.

Τώρα, η FTC προειδοποιεί ότι αυτές οι μέθοδοι θα μπορούσαν να επιδεινώσουν τα προβλήματα. «Η έκθεσή μας τονίζει ότι κανείς δεν πρέπει να αντιμετωπίζει την τεχνητή νοημοσύνη ως τη λύση για τη διάδοση επιβλαβούς διαδικτυακού περιεχομένου», είπε ο Samuel Levine, διευθυντής του Γραφείου Προστασίας Καταναλωτών της FTC. είπε σε μια δήλωση.

Δυστυχώς, η τεχνολογία μπορεί να είναι «ανακριβής, μεροληπτική και μεροληπτική από το σχεδιασμό». «Η καταπολέμηση της διαδικτυακής βλάβης απαιτεί μια ευρεία κοινωνική προσπάθεια, όχι μια υπερβολικά αισιόδοξη πεποίθηση ότι η νέα τεχνολογία - η οποία μπορεί να είναι και χρήσιμη και επικίνδυνη - θα αφαιρέσει αυτά τα προβλήματα από τα χέρια μας», είπε ο Levine.

Το Spotify προβαίνει σε εκκίνηση βαθιάς ψεύτικης φωνής

Ο γίγαντας ροής ήχου Spotify εξαγόρασε τη Sonantic, μια πρωτοεμφανιζόμενη εταιρεία με έδρα το Λονδίνο που επικεντρώθηκε στην κατασκευή λογισμικού τεχνητής νοημοσύνης ικανό να παράγει εντελώς φτιαγμένες φωνές.

Η τεχνολογία της Sonantic έχει χρησιμοποιηθεί για gaming και σε ταινίες του Χόλιγουντ, βοηθώντας να δώσει στον ηθοποιό Val Kilmer μια φωνή στο Κορυφαίο όπλο: Maverick. Ο Kilmer έπαιξε τον Iceman στην ταινία δράσης. Οι γραμμές του εκφωνήθηκαν από μια μηχανή λόγω δυσκολιών στην ομιλία μετά τη μάχη με τον καρκίνο του λαιμού.

Τώρα, η ίδια τεχνολογία φαίνεται να κάνει το δρόμο της και στο Spotify. Η προφανής εφαρμογή θα ήταν η χρήση των φωνών AI για την ανάγνωση ηχητικών βιβλίων. Το Spotify, τελικά, αποκτήθηκαν Findaway, μια πλατφόρμα ακουστικών βιβλίων, πέρυσι τον Νοέμβριο. Θα είναι ενδιαφέρον να δούμε αν οι ακροατές θα μπορούν να προσαρμόσουν τον τρόπο που θέλουν να ακούγονται οι αφηγητές της μηχανής τους. Ίσως θα υπάρχουν διαφορετικές φωνές για να διαβάζετε δυνατά παιδικά βιβλία σε σύγκριση με ιστορίες τρόμου.

«Είμαστε πραγματικά ενθουσιασμένοι με τη δυνατότητα να φέρουμε την τεχνολογία φωνής AI της Sonantic στην πλατφόρμα Spotify και να δημιουργήσουμε νέες εμπειρίες για τους χρήστες μας», δήλωσε ο Ziad Sultan, αντιπρόεδρος εξατομίκευσης του Spotify, είπε σε δήλωση. «Αυτή η ενοποίηση θα μας επιτρέψει να προσελκύσουμε τους χρήστες με έναν νέο και ακόμη πιο εξατομικευμένο τρόπο», άφησε να εννοηθεί.

Η TSA δοκιμάζει το λογισμικό AI για αυτόματη σάρωση αποσκευών

Η Διοίκηση Ασφάλειας Μεταφορών των ΗΠΑ θα δοκιμάσει εάν το λογισμικό υπολογιστικής όρασης μπορεί να ελέγχει αυτόματα τις αποσκευές για να προσέχει αντικείμενα που φαίνονται περίεργα ή που δεν επιτρέπονται στις πτήσεις.

Η δοκιμή θα πραγματοποιηθεί σε εργαστήριο και δεν είναι ακόμη έτοιμη για πραγματικά αεροδρόμια. Το λογισμικό λειτουργεί με την ήδη υπάρχουσα απεικόνιση 3D υπολογιστικής τομογραφίας (CT) που χρησιμοποιούν οι αξιωματικοί της TSA για να κρυφοκοιτάξουν αυτή τη στιγμή τις τσάντες των ανθρώπων στα σημεία ελέγχου ασφαλείας. Εάν οι πράκτορες δουν κάτι ύποπτο, θα πάρουν τις αποσκευές στη μία πλευρά και θα τις περάσουν με τουφέκι.

Οι αλγόριθμοι AI μπορούν να αυτοματοποιήσουν μέρος αυτής της διαδικασίας. Μπορούν να αναγνωρίσουν αντικείμενα και να επισημάνουν περιπτώσεις όπου ανιχνεύουν συγκεκριμένα στοιχεία.

«Καθώς η TSA και άλλες υπηρεσίες ασφαλείας υιοθετούν το CT, αυτή η εφαρμογή της τεχνητής νοημοσύνης αντιπροσωπεύει ένα δυνητικά μετασχηματιστικό άλμα στην αεροπορική ασφάλεια, καθιστώντας τα αεροπορικά ταξίδια πιο ασφαλή και συνεπή, ενώ επιτρέπει στους άριστα εκπαιδευμένους αξιωματικούς της TSA να επικεντρωθούν σε τσάντες που αποτελούν τον μεγαλύτερο κίνδυνο». είπε Alexis Long, διευθυντής προϊόντων στην Pangiam, την εταιρεία τεχνολογίας που συνεργάζεται με τη διοίκηση.

«Στόχος μας είναι να χρησιμοποιήσουμε τεχνολογίες τεχνητής νοημοσύνης και όρασης υπολογιστών για να ενισχύσουμε την ασφάλεια παρέχοντας στην TSA και στους αξιωματικούς ασφαλείας ισχυρά εργαλεία για τον εντοπισμό απαγορευτικών αντικειμένων που ενδέχεται να αποτελούν απειλή για την ασφάλεια της αεροπορίας. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο