Η γραμμή μεταξύ Real και AI Creation είναι πολύ λεπτή για το μάτι

Η γραμμή μεταξύ Real και AI Creation είναι πολύ λεπτή για το μάτι

Η γραμμή μεταξύ της πραγματικής και της δημιουργίας AI είναι πολύ λεπτή για την ευφυΐα δεδομένων PlatoBlockchain των ματιών. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Καθώς οι παραγωγοί προγραμματιστές τεχνητής νοημοσύνης συνεχίζουν να προσαρμόζουν τα μοντέλα τους στην πολυπλοκότητα, γίνεται επίσης όλο και πιο δύσκολο να γίνει διάκριση μεταξύ πραγματικών εικόνων και δημιουργιών τεχνητής νοημοσύνης, αποκαλύπτουν ερευνητές.

Μια μελέτη από ερευνητές στο Πανεπιστήμιο του Waterloo διαπίστωσε ότι οι άνθρωποι δυσκολεύονται να βρουν μια εικόνα ενός πραγματικού προσώπου και ενός ατόμου που δημιουργήθηκε από AI.

Κάτω από το αναμενόμενο όριο

Κατά τη διεξαγωγή της μελέτης, ερευνητές στο Πανεπιστήμιο του Βατερλό παρείχαν 20 εικόνες χωρίς ετικέτα σε 260 συμμετέχοντες. Οι μισές από τις φωτογραφίες ήταν πραγματικών ανθρώπων που λήφθηκαν από το Google Images ενώ οι άλλες μισές ήταν τεχνητής νοημοσύνης που δημιουργήθηκαν χρησιμοποιώντας εργαλεία όπως το Dall-E και Σταθερή Διάχυση.

Στη συνέχεια ζητήθηκε από τους συμμετέχοντες να επισημάνουν τις εικόνες, εάν ήταν πραγματικές ή δημιουργημένες από τεχνητή νοημοσύνη, αιτιολογώντας τις απαντήσεις τους.

Αν και το 61% των συμμετεχόντων μπορούσε να διακρίνει τη διαφορά μεταξύ πραγματικών εικόνων και εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη, αυτό ήταν ακόμα πολύ κάτω από το αναμενόμενο όριο του 85%.

Κατά την εξονυχιστική εξέταση των εικόνων, οι συμμετέχοντες έδωσαν προσοχή σε λεπτομέρειες όπως μάτια, δάχτυλα, δόντια και άλλους δείκτες που οι δείκτες όταν αναζητούσαν τεχνητή νοημοσύνη δημιούργησαν εικόνες, αλλά «οι αξιολογήσεις τους δεν ήταν πάντα σωστές».

«Οι άνθρωποι δεν είναι τόσο επιδέξιοι στο να κάνουν τη διάκριση όσο νομίζουν ότι είναι» είπε Ο επικεφαλής συγγραφέας της μελέτης Andrea Pocol, ο οποίος είναι επίσης υποψήφιος διδάκτορας στην Επιστήμη των Υπολογιστών στο πανεπιστήμιο.

Ενώ οι χρήστες του Διαδικτύου μπορεί να βλέπουν εικόνες παροδικά, οι ερευνητές του Waterloo είπαν ότι επέτρεψαν στους συμμετέχοντες να αφιερώσουν το χρόνο τους για να αναλύσουν τις εικόνες.

«Οι άνθρωποι που απλώς κάνουν κύλιση ή δεν έχουν χρόνο δεν θα πάρουν αυτές τις ενδείξεις», είπε ο Pocol.

Διαβάστε επίσης: Ο Διευθύνων Σύμβουλος της Leonardo επισημαίνει τη βλακεία των χρηστών σχετικά με τις απειλές τεχνητής νοημοσύνης στο Νταβός

Κατάχρηση της τεχνολογίας

Τους μελέτη, με τίτλο "Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media", που δημοσιεύεται στο περιοδικό Advances in Computer Graphics, υπογραμμίζει επίσης τους κινδύνους που σχετίζονται με την πρόοδο της γενετικής τεχνολογίας AI .

Οι ερευνητές σημείωσαν επίσης με ανησυχία τον ρυθμό με τον οποίο η γενετική τεχνολογία AI αλλάζει ταχέως, και γίνεται πιο εξελιγμένη κάθε μέρα. Η ακαδημαϊκή έρευνα και η νομοθεσία αποτυγχάνουν να συμβαδίσουν με τις εξελίξεις στη βιομηχανία παραγωγής.

Ο Pocol είπε ότι οι εικόνες τεχνητής νοημοσύνης γίνονται πιο πραγματικές, καθιστώντας δύσκολο για μερικούς ανθρώπους να διακρίνουν εύκολα μεταξύ πραγματικών και εικόνων που δημιουργούνται με AI. Αυτό, είπε ο Pocol, δημιουργεί ένα πρόσφορο έδαφος για κακούς ηθοποιούς που εκμεταλλεύονται την τεχνολογία για να διαδώσουν κακία και να διαιωνίσουν την παραπληροφόρηση ή να εξαπατήσουν τους ανθρώπους.

«Η παραπληροφόρηση δεν είναι καινούργια, αλλά τα εργαλεία της παραπληροφόρησης αλλάζουν και εξελίσσονται συνεχώς», είπε ο Πόκολ.

«Μπορεί να φτάσει σε ένα σημείο όπου οι άνθρωποι, ανεξάρτητα από το πόσο εκπαιδευμένοι θα είναι, θα συνεχίσουν να αγωνίζονται να διαφοροποιήσουν τις πραγματικές εικόνες από τις ψεύτικες. Γι' αυτό πρέπει να αναπτύξουμε εργαλεία για να το εντοπίσουμε και να το αντιμετωπίσουμε. Είναι σαν ένας νέος αγώνας εξοπλισμών AI».

Οι ερευνητές έχουν επίσης αναγνωρίσει τις προκλήσεις που θέτει η τεχνολογία ειδικά όταν πρόκειται για τη διάδοση των deepfakes.

Η τεχνολογία σε λάθος χέρια

Με τις δυσκολίες που αντιμετωπίζουν οι απλοί άνθρωποι να διακρίνουν μεταξύ πραγματικών και ψεύτικων εικόνων, υπάρχουν αυξανόμενοι φόβοι για αύξηση της εξάπλωσης των deepfakes. Οι ειδικοί έχουν προειδοποιήσει ότι οι κακοί ηθοποιοί θα εκμεταλλευτούν τη γενετική τεχνολογία AI για να διαδώσουν εκλογικά ψεύδη στις προσπάθειές τους να παραπλανήσουν τους ψηφοφόρους.

Η Κέντρο για την καταπολέμηση του ψηφιακού μίσους (CCDH), ένας μη κερδοσκοπικός οργανισμός που παρακολουθεί τη ρητορική μίσους στο διαδίκτυο προειδοποίησε στην έκθεσή τους ότι οι γεννήτριες εικόνων που λειτουργούν με τεχνητή νοημοσύνη επιδεινώνουν την παραπληροφόρηση των εκλογών του 2024.

«Η δυνατότητα τέτοιων εικόνων που δημιουργούνται από τεχνητή νοημοσύνη να χρησιμεύσουν ως «φωτογραφικά αποδεικτικά στοιχεία» θα μπορούσε να επιδεινώσει τη διάδοση ψευδών ισχυρισμών, θέτοντας μια σημαντική πρόκληση για τη διατήρηση της ακεραιότητας των εκλογών», ανέφεραν οι ερευνητές του CCDH στην έκθεσή τους.

Αυτό ωστόσο έρχεται εν μέσω ανακοίνωσης που περιλαμβάνουν περίπου 20 μεγάλες εταιρείες τεχνολογίας OpenAI, Microsoft και Stability AI υπέγραψε συμφωνία να συνεργαστούμε για να αποτρέψουμε το παραπλανητικό περιεχόμενο της τεχνητής νοημοσύνης να «παρέμβει στις εκλογές που θα διεξαχθούν παγκοσμίως φέτος.

Σφραγίδα ώρας:

Περισσότερα από MetaNews