Les chiens sont plus intelligents que l'IA générative, déclare Meta AI Guru

Les chiens sont plus intelligents que l'IA générative, déclare Meta AI Guru

Les chiens sont plus intelligents que l'IA générative, déclare le gourou de la méta-IA PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Le Parlement européen, le principal organe législatif de l'Union européenne (UE), a approuvé un projet de loi qui réglementerait l'IA, rendant possible le bloc des 27 nations la première grande puissance économique à mettre en place des règles complètes pour la technologie.

La loi, connue sous le nom de loi sur l'IA, restreindrait l'utilisation des systèmes d'IA considérés comme à haut risque, tels que les logiciels de reconnaissance faciale. Cela exigerait également des entreprises qui développent des systèmes d'IA comme ChatGPT divulguer plus d'informations sur les données utilisées pour former les chatbots.

Membres du Parlement européen basé en France voté pour de la nouvelle législation mercredi. Le vote intervient au milieu des avertissements de certains experts selon lesquels l'intelligence artificielle pourrait constituer une menace à l'humanité si elle se développe trop rapidement.

A lire également: Le code de conduite de l'IA arrive "d'ici quelques semaines", selon les États-Unis et l'Europe

Établir la norme mondiale

La présidente du Parlement européen, Roberta Metsola, a déclaré que l'adoption des nouvelles règles montrait l'engagement de l'Europe en faveur du développement responsable de l'IA.

« L'Europe mène et continuera de mener une approche équilibrée et centrée sur l'humain pour la première loi sur l'IA au monde. Une législation qui établira sans aucun doute la norme mondiale pour les années à venir », a déclaré Metsola dans une vidéo. posté sur Twitter.

« Et tout cela est parfaitement cohérent avec notre volonté d'être des leaders mondiaux de l'innovation numérique basée sur les valeurs de l'UE, telles que la vie privée et le respect des droits fondamentaux. Il s'agit pour l'Europe de prendre les devants et nous le faisons à notre manière - de manière responsable.

Le projet actuel de Parlement européen's AI Act propose une approche basée sur les risques pour réglementer les systèmes d'intelligence artificielle. Les systèmes d'IA seraient classés en différents niveaux de risque, en fonction de leur potentiel de nuire aux consommateurs.

Selon la loi, la catégorie de risque la plus faible concerne l'IA utilisée dans les jeux vidéo ou les filtres anti-spam. La catégorie de risque la plus élevée comprend l'IA qui pourrait être utilisée pour la notation sociale, une pratique qui attribue des scores aux individus, que ce soit pour les prêts ou le logement, en fonction de leur comportement.

L'UE dit qu'elle interdira de tels programmes. Les entreprises qui développent ou utilisent l'IA dite à haut risque seraient tenues de fournir des informations sur le fonctionnement de leurs systèmes. Ceci est fait pour garantir que les programmes d'IA sont équitables et transparents, et qu'ils ne discriminent pas les individus, selon les règles.

Chef de l'UE: la discrimination est un grand risque pour l'IA

Commissaire européen à la concurrence Margrethe Vestager, a déclaré que des "garde-fous" tels que ceux proposés dans le cadre de la loi sur l'IA pourraient aider à protéger les personnes contre certains des plus grands risques d'IA, y compris la discrimination.

Par exemple, l'IA pourrait être utilisée pour prendre des décisions sur qui obtient une hypothèque ou un emploi, et ces décisions peuvent être basées sur des facteurs tels que la race, le sexe ou la religion, a-t-elle déclaré.

"Probablement [le risque d'extinction] peut exister, mais je pense que la probabilité est assez faible. Je pense que les risques de l'IA sont plus que les gens seront discriminés [contre], ils ne seront pas considérés comme ce qu'ils sont », Vestager dit la BBC après le vote du Parlement européen.

"Si c'est une banque qui l'utilise pour décider si je peux ou non obtenir un prêt hypothécaire, ou s'il s'agit des services sociaux de votre municipalité, alors vous voulez vous assurer que vous n'êtes pas discriminé [contre] en raison de votre sexe ou de votre couleur ou votre code postal », a-t-elle ajouté.

Mardi, l'autorité irlandaise de protection des données (DPC) a déclaré qu'elle plaçait le déploiement prévu par Google de son Chatbot IA Bard dans l'UE en attente, Politico rapports. Google a informé le régulateur qu'il avait l'intention de lancer Bard dans l'Union européenne cette semaine.

Mais le DPC a déclaré qu'il n'avait reçu aucune information de Google sur la manière dont l'entreprise avait identifié et minimisé les risques de protection des données pour les utilisateurs potentiels. Le régulateur s'inquiète de la possibilité pour Bard de collecter et d'utiliser des données personnelles sans le consentement des utilisateurs.

Le sous-commissaire du DPC, Graham Doyle, a déclaré que l'autorité voulait ces informations "de toute urgence". Il a également demandé Google pour plus d'informations sur ses pratiques en matière de protection des données.

Imposer des garde-corps stricts pour l'IA

En vertu des nouvelles règles proposées par le Parlement européen pour l'IA, l'utilisation de systèmes d'identification biométrique et la collecte aveugle de données d'utilisateurs à partir de médias sociaux ou de séquences de vidéosurveillance à des fins telles que les logiciels de reconnaissance faciale seront restreintes.

Les propositions interdisent l'utilisation de l'intelligence artificielle pour la surveillance de masse et obligeraient les entreprises à obtenir le consentement explicite des utilisateurs avant de collecter les leurs. Selon le rapport de la BBC, Vestager a déclaré :

"Nous voulons mettre en place des garde-corps stricts afin qu'il ne soit pas utilisé en temps réel, mais uniquement dans des circonstances spécifiques où vous recherchez un enfant disparu ou un terroriste en fuite."

L'UE est en avance sur les États-Unis et d'autres grands gouvernements occidentaux en matière de réglementation de l'IA. Le bloc débat de la réglementation de l'IA depuis plus de deux ans, et la question a pris une nouvelle urgence après la sortie de ChatGPT en novembre.

ChatGPT est un grand chatbot de modèle de langage développé par OpenAI qui peut générer du texte de qualité humaine. Sa publication a intensifié les inquiétudes concernant les impacts négatifs potentiels de l'IA sur l'emploi et la société, tels que le déplacement de l'emploi et l'isolement social.

Les États-Unis et la Chine ont maintenant commencé à élaborer des politiques concrètes pour réglementer l'IA. Le maison Blanche a publié un ensemble d'idées politiques pour réglementer l'IA. Et la Chine a déjà publié de nouveaux règlements qui interdisent l'utilisation de contenu généré par l'IA pour diffuser de "fausses nouvelles".

En mai, les dirigeants des pays dits du G7 se sont réunis au Japon et ont appelé à l'élaboration de normes techniques pour que l'IA reste "digne de confiance". Ils ont appelé à un dialogue international sur la gouvernance de l'IA, le droit d'auteur, la transparence et la menace de désinformation.

La loi européenne sur l'IA ne devrait pas entrer en vigueur avant 2025. Les trois pouvoirs de l'UE : la Commission, le Parlement et le Conseil devront tous s'accorder sur sa version finale.

Horodatage:

Plus de MétaActualités