Το Εποπτικό Συμβούλιο του Meta εξετάζει τους κανόνες μετά από ψεύτικο βίντεο Μπάιντεν

Το Εποπτικό Συμβούλιο του Meta εξετάζει τους κανόνες μετά από ψεύτικο βίντεο Μπάιντεν

Το Εποπτικό Συμβούλιο της Meta επανεξετάζει τους κανόνες μετά το ψεύτικο βίντεο Biden PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Το Εποπτικό Συμβούλιο της Meta διερευνά τις πολιτικές του γίγαντα των μέσων κοινωνικής δικτύωσης σχετικά με το deepfake περιεχόμενο, αφού το Facebook αποφάσισε να μην αφαιρέσει ένα ψεύτικο βίντεο που χαρακτήριζε ψευδώς τον πρόεδρο των ΗΠΑ Τζο Μπάιντεν ως παιδόφιλο.

Το ψεύτικο βίντεο προσαρμοσμένο πλάνα του Μπάιντεν να τοποθετεί ένα αυτοκόλλητο «Ψήφισα» πάνω από το στήθος της εγγονής του Νάταλι Μπάιντεν κατά τις ενδιάμεσες εκλογές στην Αμερική το 2022.

Το βίντεο διάρκειας επτά δευτερολέπτων, που κοινοποιήθηκε τον Μάιο του τρέχοντος έτους, επιμελήθηκε και κυκλοφόρησε για να φαίνεται ότι ο Πρόεδρος άγγιξε την εγγονή του ακατάλληλα, με τους στίχους του NSFW από το τραγούδι "Simon Says" του ράπερ Pharoahe Monch να παίζει στο βάθος. Μια λεζάντα στο βίντεο ισχυριζόταν λανθασμένα ότι ο Μπάιντεν είναι «άρρωστος παιδεραστός» και ισχυρίστηκε ότι οι άνθρωποι που τον ψήφισαν στις εκλογές ήταν «ψυχικά καλά».

Παρά το παράπονο ενός χρήστη, οι συντονιστές του Meta δεν αφαίρεσαν το κλιπ. Ο χρήστης του Facebook που έκανε την αναφορά άσκησε έφεση κατά της απόφασης διατήρησης του βίντεο, σύμφωνα με το εποπτικό συμβούλιο.

Ο Meta αποφάσισε και πάλι να μην αφαιρέσει το ψεύτικο βίντεο, το οποίο ομολογουμένως προβλήθηκε λιγότερες από 30 φορές τον περασμένο μήνα, επειδή δεν δημιουργήθηκε με χρήση τεχνητής νοημοσύνης και αποκαλύφθηκε ως αυθεντικό ούτε περιείχε οποιαδήποτε χειραγώγηση της ομιλίας του Μπάιντεν για να τον κάνει να φαίνεται σαν αυτόν. είπε κάτι που δεν πρόφερε ποτέ.

Ο καταγγέλλων έθεσε τελικά το ζήτημα στο εποπτικό συμβούλιο, μια ανεξάρτητη ομάδα εμπειρογνωμόνων που προσλήφθηκε από τη Meta για να επανεξετάσει τις πολιτικές εποπτείας περιεχομένου.

«Το συμβούλιο επέλεξε αυτή την υπόθεση για να αξιολογήσει εάν οι πολιτικές του Meta καλύπτουν επαρκώς τροποποιημένα βίντεο που θα μπορούσαν να παραπλανήσουν τους ανθρώπους ώστε να πιστέψουν ότι οι πολιτικοί έχουν προβεί σε ενέργειες, εκτός ομιλίας, τις οποίες δεν έχουν κάνει», η ομάδα Έγραψε σε μια δήλωση.

«Αυτή η υπόθεση εμπίπτει στις εκλογές και στον αστικό χώρο του διοικητικού συμβουλίου και στην αυτοματοποιημένη επιβολή των πολιτικών και στην επιμέλεια των προτεραιοτήτων περιεχομένου».

Του Facebook χειρισμένα μέσα οι πολιτικές ορίζουν ότι οι χρήστες δεν θα πρέπει να δημοσιεύουν συνθετικά βίντεο που δημιουργούνται με χρήση «τεχνητής νοημοσύνης ή μηχανικής μάθησης, συμπεριλαμβανομένων τεχνικών βαθιάς εκμάθησης (π.χ. τεχνικό deepfake), που συγχωνεύει, συνδυάζει, αντικαθιστά ή/και υπερθέτει περιεχόμενο σε ένα βίντεο, δημιουργώντας ένα βίντεο που εμφανίζεται αυθεντικό», ούτε περιεχόμενο που «πιθανότατα θα παραπλανούσε έναν μέσο άνθρωπο να πιστέψει ότι ένα θέμα του βίντεο είπε λέξεις που δεν είπε».

Το υπό εξέταση ψεύτικο βίντεο Μπάιντεν δεν παραβίαζε κανέναν από τους δύο κανόνες και, ως εκ τούτου, επιτράπηκε να παραμείνει στο διαδίκτυο. Δεν κατασκευάστηκε από μηχανή ούτε έβαλε λόγια στο στόμα του Προέδρου.

Όπως και να έχει, οι δεδηλωμένες προσπάθειες του Meta να αντιμετωπίσει και να μειώσει την πολιτική παραπληροφόρηση μπορεί να αποδυναμωθούν εάν επιτραπεί να πολλαπλασιαστεί τέτοιο περιεχόμενο. Ενδέχεται να υπάρχει ανισορροπία στους κανόνες, εάν το παραπάνω βίντεο επιτραπεί να παραμείνει ανοιχτό, και όλα αυτά επειδή επεξεργάστηκε αδέξια από άνθρωπο, ενώ υπάρχει καταστολή των deepfakes. Αν η τεχνητή νοημοσύνη έκανε το δοκιμαζόμενο βίντεο, θα είχε κατέβει; Αλλά αν είναι ανθρωπογενές, δεν χρειάζεται;

Ως εκ τούτου, το συμβούλιο καλεί σχόλια και ιδέες από το κοινό στους ακόλουθους τομείς υπό το φως αυτής της υπόθεσης:

  • Ερευνήστε τις διαδικτυακές τάσεις χρήσης αλλαγμένου ή χειραγωγημένου περιεχομένου βίντεο για να επηρεαστεί η αντίληψη των πολιτικών προσώπων, ειδικά στις Ηνωμένες Πολιτείες.
  • Η καταλληλότητα των πολιτικών παραπληροφόρησης του Meta, συμπεριλαμβανομένων των χειραγωγημένων μέσων ενημέρωσης, για να ανταποκριθούν στις παρούσες και μελλοντικές προκλήσεις σε αυτόν τον τομέα, ιδιαίτερα στο πλαίσιο των εκλογών.
  • Οι ευθύνες του Meta για τα ανθρώπινα δικαιώματα όσον αφορά το περιεχόμενο βίντεο που έχει τροποποιηθεί για να δημιουργήσει μια παραπλανητική εντύπωση για ένα δημόσιο πρόσωπο και πώς πρέπει να γίνουν κατανοητά με γνώμονα τις εξελίξεις στη γενετική τεχνητή νοημοσύνη.
  • Προκλήσεις και βέλτιστες πρακτικές στον έλεγχο ταυτότητας περιεχομένου βίντεο σε κλίμακα, συμπεριλαμβανομένης της χρήσης αυτοματισμού.
  • Έρευνα για την αποτελεσματικότητα εναλλακτικών απαντήσεων στην πολιτική παραπληροφόρηση ή παραπληροφόρηση πέρα ​​από την αφαίρεση περιεχομένου, όπως προγράμματα ελέγχου στοιχείων ή επισήμανση (γνωστά και ως «θεραπείες ενημέρωσης»). Επιπλέον, έρευνα για την αποφυγή μεροληψίας σε τέτοιες απαντήσεις.

Οπλισμένος με αυτή τη συμβολή, η επιτροπή αναμένεται να επανεξετάσει τις πολιτικές και να κάνει προτάσεις στη Meta – αν και μπορεί να μην προκύψουν πολλά από αυτήν.

«Στο πλαίσιο των αποφάσεών του, το διοικητικό συμβούλιο μπορεί να εκδώσει συστάσεις πολιτικής στη Meta. Αν και οι συστάσεις δεν είναι δεσμευτικές, η Meta πρέπει να απαντήσει σε αυτές εντός 60 ημερών», παραδέχτηκε η επιτροπή. «Ως εκ τούτου, το διοικητικό συμβούλιο καλωσορίζει τα δημόσια σχόλια που προτείνουν συστάσεις που σχετίζονται με αυτήν την υπόθεση».

Οι ειδικοί και οι νομοθέτες ανησυχούν εν τω μεταξύ ολοένα και περισσότερο για τα deepfakes που χειραγωγούν τον πολιτικό λόγο ενόψει των επερχόμενων προεδρικών εκλογών στις ΗΠΑ το 2024.

Την περασμένη εβδομάδα, η αμερικανίδα γερουσιαστής Amy Klobuchar (D-MN) και η εκπρόσωπος της Βουλής Yvette Clarke (D-NY) έστειλαν επιστολές στον διευθύνοντα σύμβουλο της Meta Mark Zuckerberg και τη CEO της X Linda Yaccarino, επιδιώκοντας να διευκρινίσουν τις πολιτικές περιεχομένου τους σχετικά με τα πολιτικά deepfakes.

«Καθώς οι εκλογές του 2024 πλησιάζουν γρήγορα, η έλλειψη διαφάνειας σχετικά με αυτό το είδος περιεχομένου στις πολιτικές διαφημίσεις θα μπορούσε να οδηγήσει σε έναν επικίνδυνο κατακλυσμό παραπληροφόρησης και παραπληροφόρησης που σχετίζεται με τις εκλογές στις πλατφόρμες σας – όπου οι ψηφοφόροι συχνά στρέφονται για να μάθουν για υποψηφίους και ζητήματα», επιστολή δήλωσε, AP αναφερθεί.

Το μητρώο ζήτησε από τον Μέτα να σχολιάσει. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο