Les trois principaux problèmes de confidentialité des données auxquels l'IA est confrontée aujourd'hui - The Daily Hodl

Les trois principaux problèmes de confidentialité des données auxquels l'IA est confrontée aujourd'hui – The Daily Hodl

Message d'invité HodlX  Soumettez votre message

 

L’IA (intelligence artificielle) suscite un engouement frénétique parmi les consommateurs et les entreprises. - animé par la conviction passionnée que les LLM (grands modèles linguistiques) et des outils comme ChatGPT transformeront notre façon d'étudier, de travailler et de vivre.

Mais comme aux débuts d'Internet, les utilisateurs s'y lancent sans réfléchir à la manière dont leurs données personnelles sont utilisées. - Unet l'impact que cela pourrait avoir sur leur vie privée.

Il existe déjà d’innombrables exemples de violations de données dans le domaine de l’IA. En mars 2023, OpenAI a temporairement pris ChatGPT direct après une erreur « importante », les utilisateurs ont pu voir l’historique des conversations d’étrangers.

Ce même bug concernait les informations de paiement des abonnés - y compris les noms, adresses e-mail et numéros partiels de carte de crédit - étaient également du domaine public.

En septembre 2023, 38 téraoctets de données Microsoft ont été accidentellement volés. fuite par un employé, les experts en cybersécurité avertissant que cela aurait pu permettre à des attaquants d'infiltrer des modèles d'IA avec un code malveillant.

Les chercheurs ont également pu manipuler Les systèmes d’IA pour divulguer des enregistrements confidentiels.

En quelques heures seulement, un groupe appelé Robust Intelligence a pu solliciter des informations personnelles identifiables auprès du logiciel Nvidia et contourner les protections conçues pour empêcher le système de discuter de certains sujets.

Des leçons ont été tirées de tous ces scénarios, mais chaque violation illustre avec force les défis qui doivent être surmontés pour que l’IA devienne une force fiable et digne de confiance dans nos vies.

Gemini, le chatbot de Google, admet même que toutes les conversations sont traitées par des évaluateurs humains - soulignant le manque de transparence de son système.

"N'entrez rien que vous ne voudriez pas voir ou utiliser", prévient une alerte destinée aux utilisateurs.

L’IA évolue rapidement au-delà d’un outil que les étudiants utilisent pour leurs devoirs ou sur lequel les touristes s’appuient pour obtenir des recommandations lors d’un voyage à Rome.

On compte de plus en plus sur lui pour les discussions sensibles - et nourri de tout, des questions médicales à nos horaires de travail.

Pour cette raison, il est important de prendre du recul et de réfléchir aux trois principaux problèmes de confidentialité des données auxquels l’IA est confrontée aujourd’hui, et pourquoi ils sont importants pour nous tous.

1. Les invites ne sont pas privées

Des outils comme ChatGPT mémorisent les conversations passées afin de s'y référer plus tard. Bien que cela puisse améliorer l’expérience utilisateur et aider à former les LLM, cela comporte des risques.

Si un système est piraté avec succès, il existe un réel risque que des invites soient exposées sur un forum public.

Des détails potentiellement embarrassants de l'historique d'un utilisateur pourraient être divulgués, ainsi que des informations commercialement sensibles lorsque l'IA est déployée à des fins professionnelles.

Comme nous l'avons vu chez Google, toutes les soumissions peuvent également finir par être examinées par son équipe de développement.

Samsung a pris des mesures à ce sujet en mai 2023 en interdisant totalement à ses employés d’utiliser des outils d’IA générative. C'est arrivé après qu'un employé téléchargé code source confidentiel à ChatGPT.

Le géant de la technologie craignait que ces informations soient difficiles à récupérer et à supprimer, ce qui signifie que la propriété intellectuelle (propriété intellectuelle) pourrait finir par être distribuée au grand public.

Apple, Verizon et JPMorgan ont pris des mesures similaires, avec des rapports suggérant qu'Amazon a lancé une répression après que les réponses de ChatGPT présentaient des similitudes avec ses propres données internes.

Comme vous pouvez le constater, les préoccupations vont au-delà de ce qui se passerait en cas de violation de données, mais aussi de la perspective que les informations saisies dans les systèmes d'IA puissent être réutilisées et distribuées à un public plus large.

Des entreprises comme OpenAI le sont déjà plusieurs poursuites judiciaires au milieu d'allégations selon lesquelles leurs chatbots auraient été formés à l'aide de matériel protégé par le droit d'auteur.

2. Les modèles d'IA personnalisés formés par les organisations ne sont pas privés

Cela nous amène parfaitement à notre prochain point - Même si les particuliers et les entreprises peuvent établir leurs modèles LLM personnalisés basés sur leurs propres sources de données, ils ne seront pas totalement privés s'ils existent dans les limites d'une plateforme comme ChatGPT.

Il n'y a finalement aucun moyen de savoir si les intrants sont utilisés pour entraîner ces systèmes massifs. - ou si les informations personnelles pourraient finir par être utilisées dans les futurs modèles.

Comme dans un puzzle, des points de données provenant de sources multiples peuvent être rassemblés pour former un aperçu complet et extrêmement détaillé de l'identité et des antécédents d'une personne.

Les principales plates-formes peuvent également ne pas proposer d'explications détaillées sur la manière dont ces données sont stockées et traitées, avec l'impossibilité de désactiver les fonctionnalités avec lesquelles un utilisateur n'est pas à l'aise.

Au-delà de répondre aux invites d'un utilisateur, les systèmes d'IA ont de plus en plus la capacité de lire entre les lignes et de tout déduire, de l'emplacement d'une personne à sa personnalité.

En cas de violation de données, des conséquences désastreuses sont possibles. Des attaques de phishing incroyablement sophistiquées pourraient être orchestrées - et les utilisateurs ciblés avec des informations qu’ils avaient introduites confidentiellement dans un système d’IA.

D'autres scénarios potentiels incluent l'utilisation de ces données pour usurper l'identité d'une personne, que ce soit via des applications permettant d'ouvrir des comptes bancaires ou des vidéos deepfake.

Les consommateurs doivent rester vigilants même s’ils n’utilisent pas eux-mêmes l’IA. L’IA est de plus en plus utilisée pour alimenter les systèmes de surveillance et améliorer la technologie de reconnaissance faciale dans les lieux publics.

Si une telle infrastructure n’est pas établie dans un environnement véritablement privé, les libertés civiles et la vie privée d’innombrables citoyens pourraient être violées à leur insu.

3. Les données privées sont utilisées pour entraîner les systèmes d'IA

Certains craignent que les principaux systèmes d’IA n’aient acquis leur intelligence en parcourant d’innombrables pages Web.

Les estimations suggèrent que 300 milliards de mots ont été utilisés pour former ChatGPT - cela représente 570 gigaoctets de données - avec des livres et des entrées Wikipédia parmi les ensembles de données.

On sait également que les algorithmes dépendent des pages des réseaux sociaux et des commentaires en ligne.

Avec certaines de ces sources, on pourrait affirmer que les propriétaires de ces informations auraient eu une attente raisonnable en matière de confidentialité.

Mais voici le problème - de nombreux outils et applications avec lesquels nous interagissons quotidiennement sont déjà fortement influencés par l'IA - et réagir à nos comportements.

Le Face ID sur votre iPhone utilise l’IA pour suivre les changements subtils de votre apparence.

Les algorithmes basés sur l'IA de TikTok et Facebook font des recommandations de contenu basées sur les clips et les publications que vous avez visionnés dans le passé.

Les assistants vocaux comme Alexa et Siri dépendent également fortement de l’apprentissage automatique.

Il existe une constellation vertigineuse de startups d’IA, et chacune a un objectif spécifique. Cependant, certains sont plus transparents que d’autres sur la manière dont les données des utilisateurs sont collectées, stockées et utilisées.

Ceci est particulièrement important car l’IA a un impact dans le domaine de la santé. - de l'imagerie médicale et des diagnostics à la tenue de dossiers et aux produits pharmaceutiques.

Il faut tirer les leçons des entreprises Internet prises dans les scandales liés à la protection de la vie privée ces dernières années.

Flo, une application sur la santé des femmes, était accusé par les régulateurs du partage de détails intimes sur ses utilisateurs avec des sociétés comme Facebook et Google dans les années 2010.

Où allons-nous à partir d'ici

L’IA va avoir un impact indélébile sur nos vies à tous dans les années à venir. Les LLM s'améliorent de jour en jour et de nouveaux cas d'utilisation continuent d'émerger.

Cependant, il existe un risque réel que les régulateurs aient du mal à suivre le rythme alors que l'industrie évolue à une vitesse vertigineuse.

Cela signifie que les consommateurs doivent commencer à sécuriser leurs propres données et à surveiller la manière dont elles sont utilisées.

La décentralisation peut jouer ici un rôle essentiel et empêcher que d’importants volumes de données ne tombent entre les mains des grandes plateformes.

Les DePIN (réseaux d'infrastructure physique décentralisés) ont le potentiel de garantir que les utilisateurs quotidiens bénéficient de tous les avantages de l'IA sans que leur vie privée ne soit compromise.

Non seulement les invites cryptées peuvent fournir des résultats beaucoup plus personnalisés, mais les LLM préservant la confidentialité garantiraient aux utilisateurs un contrôle total sur leurs données à tout moment. - et une protection contre toute utilisation abusive.


Chris Were est PDG de Vérida, un réseau de données décentralisé et autonome permettant aux individus de contrôler leur identité numérique et leurs données personnelles. Chris est un entrepreneur technologique basé en Australie qui a consacré plus de 20 ans au développement de solutions logicielles innovantes.

 

Consultez les dernières nouvelles sur HodlX

Suivez-nous sur Twitter Facebook Telegram

Jetez un coup d'œil au Dernières annonces de l'industrie  

Les trois principaux problèmes de confidentialité des données auxquels l'IA est confrontée aujourd'hui - The Daily Hodl PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Avertissement: Les avis exprimés au Daily Hodl ne constituent pas des conseils en investissement. Les investisseurs doivent faire preuve de diligence raisonnable avant de réaliser des investissements à haut risque dans les actifs Bitcoin, Crypto-monnaie ou numériques. Veuillez noter que vos transferts et transactions se font à vos risques et périls et que toute perte que vous pourriez encourir relève de votre responsabilité. The Daily Hodl ne recommande pas l'achat ou la vente de crypto-devises ou d'actifs numériques, et le Daily Hodl n'est pas un conseiller en investissement. Veuillez noter que The Daily Hodl participe au marketing par affiliation.

Image générée : Midjourney

Horodatage:

Plus de Le Daily Hodl