Η Anthropic λέει ότι δεν θα χρησιμοποιήσει τα προσωπικά σας δεδομένα για να εκπαιδεύσει το AI της - Αποκρυπτογράφηση

Η Anthropic λέει ότι δεν θα χρησιμοποιήσει τα προσωπικά σας δεδομένα για να εκπαιδεύσει το AI της - Αποκρυπτογράφηση

Η Anthropic λέει ότι δεν θα χρησιμοποιήσει τα προσωπικά σας δεδομένα για να εκπαιδεύσει την τεχνητή νοημοσύνη της - Αποκρυπτογραφήστε την ευφυΐα δεδομένων PlatoBlockchain. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η κορυφαία εταιρεία παραγωγής τεχνητής νοημοσύνης Anthropic δήλωσε ότι δεν θα χρησιμοποιήσει τα δεδομένα των πελατών της για να εκπαιδεύσει το Large Language Model της (LLM) και ότι θα παρέμβει για να υπερασπιστεί τους χρήστες που αντιμετωπίζουν αξιώσεις πνευματικών δικαιωμάτων.

Η Anthropic, που ιδρύθηκε από πρώην ερευνητές από το OpenAI, ενημέρωσε το διαφημιστικό της Όρους Χρήσης να διατυπώσει τα ιδανικά και τις προθέσεις του. Αποτυπώνοντας τα προσωπικά δεδομένα των πελατών της, η Anthropic διαφοροποιείται σταθερά από ανταγωνιστές όπως το OpenAI, το Amazon και το Meta, που αξιοποιούν το περιεχόμενο των χρηστών για να βελτιώσουν τα συστήματά τους.

"Η Anthropic δεν επιτρέπεται να εκπαιδεύει μοντέλα σε περιεχόμενο πελατών από υπηρεσίες επί πληρωμή", σύμφωνα με τους ενημερωμένους όρους, οι οποίοι προσθέτουν ότι "όπως μεταξύ των μερών και στο βαθμό που επιτρέπεται από την ισχύουσα νομοθεσία, η anthropic συμφωνεί ότι ο πελάτης κατέχει όλα τα αποτελέσματα και αποποιείται κάθε δικαίωμα λαμβάνει στον πελάτη περιεχόμενο σύμφωνα με αυτούς τους όρους."

Οι όροι συνεχίζουν λέγοντας ότι "η Anthropic δεν προβλέπει την απόκτηση δικαιωμάτων σε περιεχόμενο πελατών βάσει αυτών των όρων" και ότι "δεν παραχωρούν σε κανένα από τα μέρη κανένα δικαίωμα για το περιεχόμενο ή την πνευματική ιδιοκτησία του άλλου, σιωπηρά ή με άλλο τρόπο."

Το ενημερωμένο νομικό έγγραφο φαινομενικά παρέχει προστασία και διαφάνεια για τους εμπορικούς πελάτες της Anthropic. Οι εταιρείες κατέχουν όλες τις εξόδους τεχνητής νοημοσύνης που δημιουργούνται, για παράδειγμα, αποφεύγοντας πιθανές διαφωνίες σχετικά με την πνευματική ιδιοκτησία. Η Anthropic δεσμεύεται επίσης να υπερασπιστεί τους πελάτες από αξιώσεις πνευματικών δικαιωμάτων σχετικά με οποιοδήποτε περιεχόμενο παραβίασης που παράγεται από τον Claude.

Η πολιτική ευθυγραμμίζεται με Η αποστολή του Anthropic δήλωση ότι η τεχνητή νοημοσύνη πρέπει να είναι ωφέλιμη, αβλαβής και ειλικρινής. Καθώς ο σκεπτικισμός του κοινού αυξάνεται σχετικά με την ηθική της γενετικής τεχνητής νοημοσύνης, η δέσμευση της εταιρείας να αντιμετωπίσει ανησυχίες όπως το απόρρητο δεδομένων θα μπορούσε να της δώσει ανταγωνιστικό πλεονέκτημα.

Δεδομένα χρηστών: LLMs’ Vital Food

Τα μοντέλα μεγάλων γλωσσών (LLM) όπως το GPT-4, το LlaMa ή το Anthropic's Claude είναι προηγμένα συστήματα τεχνητής νοημοσύνης που κατανοούν και δημιουργούν ανθρώπινη γλώσσα εκπαιδεύοντας σε εκτενή δεδομένα κειμένου. Αυτά τα μοντέλα αξιοποιούν τεχνικές βαθιάς μάθησης και νευρωνικά δίκτυα για να προβλέψουν τις ακολουθίες λέξεων, να κατανοήσουν το πλαίσιο και να κατανοήσουν τις λεπτές λεπτομέρειες της γλώσσας. Κατά τη διάρκεια της εκπαίδευσης, βελτιώνουν συνεχώς τις προβλέψεις τους, ενισχύοντας την ικανότητά τους να συνομιλούν, να συνθέτουν κείμενο ή να παρέχουν σχετικές πληροφορίες. Η αποτελεσματικότητα των LLMs εξαρτάται σε μεγάλο βαθμό από την ποικιλομορφία και τον όγκο των δεδομένων στα οποία εκπαιδεύονται, καθιστώντας τα πιο ακριβή και ενήμερα καθώς μαθαίνουν από διάφορα γλωσσικά μοτίβα, στυλ και νέες πληροφορίες.

Και αυτός είναι ο λόγος που τα δεδομένα των χρηστών είναι τόσο πολύτιμα για την εκπαίδευση LLM. Πρώτον, διασφαλίζει ότι τα μοντέλα παραμένουν ενημερωμένα με τις πιο πρόσφατες γλωσσικές τάσεις και τις προτιμήσεις των χρηστών (για παράδειγμα, κατανόηση νέων αργκό). Δεύτερον, επιτρέπει την εξατομίκευση και την καλύτερη αφοσίωση των χρηστών προσαρμόζοντας τις ατομικές αλληλεπιδράσεις και στυλ των χρηστών. Ωστόσο, αυτό προκαλεί μια ηθική συζήτηση επειδή οι εταιρείες τεχνητής νοημοσύνης δεν πληρώνουν τους χρήστες για αυτές τις κρίσιμες πληροφορίες που χρησιμοποιούνται για την εκπαίδευση μοντέλων που τους αποφέρουν εκατομμύρια δολάρια.

Όπως αναφέρθηκε από Αποκρυπτογράφηση, Ήμισυ αποκάλυψε πρόσφατα ότι εκπαιδεύει το επερχόμενο LlaMA-3 LLM με βάση τα δεδομένα των χρηστών και τα νέα μοντέλα EMU (που δημιουργούν φωτογραφίες και βίντεο από μηνύματα κειμένου) εκπαιδεύτηκαν επίσης χρησιμοποιώντας δημόσια διαθέσιμα δεδομένα που ανέβασαν οι χρήστες του στα μέσα κοινωνικής δικτύωσης.

Εκτός από αυτό, η Amazon αποκάλυψε επίσης ότι το επερχόμενο LLM της, το οποίο θα τροφοδοτούσε μια αναβαθμισμένη έκδοση της Alexa, εκπαιδεύεται επίσης στις συνομιλίες και τις αλληλεπιδράσεις των χρηστών, ωστόσο, οι χρήστες μπορούν να εξαιρεθούν από τα δεδομένα εκπαίδευσης που από προεπιλογή είναι ρυθμισμένο να υποθέτουν ότι οι χρήστες συμφωνούν για να μοιραστείτε αυτές τις πληροφορίες. «[Amazon] πίστευε πάντα ότι η εκπαίδευση της Alexa με αιτήματα πραγματικού κόσμου είναι απαραίτητη για την παροχή μιας εμπειρίας στους πελάτες που είναι ακριβής και εξατομικευμένη και συνεχώς βελτιώνεται», εκπρόσωπος της Amazon είπε Αποκρυπτογράφηση. «Αλλά παράλληλα, δίνουμε στους πελάτες τον έλεγχο του εάν οι ηχογραφήσεις φωνής Alexa χρησιμοποιούνται για τη βελτίωση της υπηρεσίας και τιμούμε πάντα τις προτιμήσεις των πελατών μας όταν εκπαιδεύουμε τα μοντέλα μας».

Με τους τεχνολογικούς γίγαντες να αγωνίζονται για την κυκλοφορία των πιο προηγμένων υπηρεσιών AI, οι υπεύθυνες πρακτικές δεδομένων είναι το κλειδί για την απόκτηση εμπιστοσύνης του κοινού. Η Anthropic στοχεύει να δώσει το παράδειγμα ως προς αυτό. Η ηθική συζήτηση σχετικά με την απόκτηση πιο ισχυρών και βολικών μοντέλων σε βάρος της παράδοσης προσωπικών πληροφοριών είναι τόσο διαδεδομένη σήμερα όσο πριν από δεκαετίες, όταν τα μέσα κοινωνικής δικτύωσης διαδήλωναν την έννοια των χρηστών να γίνει το προϊόν σε αντάλλαγμα δωρεάν υπηρεσίες.

Επιμέλεια Ryan Ozawa.

Μείνετε ενημερωμένοι για τα νέα κρυπτογράφησης, λάβετε καθημερινές ενημερώσεις στα εισερχόμενά σας.

Σφραγίδα ώρας:

Περισσότερα από Αποκρυπτογράφηση