Le Parlement européen adopte enfin la loi sur l’IA, 3 ans plus tard

Le Parlement européen adopte enfin la loi sur l’IA, 3 ans plus tard

Le Parlement européen adopte enfin la loi sur l'IA, 3 ans plus tard PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

L'Union européenne a approuvé la loi sur l'IA, devenant ainsi la première loi au monde à réglementer cette technologie à croissance rapide, après que le Parlement européen a voté en sa faveur mercredi.

Trois ans plus tard et 800 amendements, la loi établira des garde-fous pour le développement et le déploiement de la technologie de l'IA.

Avec l’adoption de la loi, les systèmes d’IA font l’objet d’un examen plus minutieux en fonction du degré de risque qu’ils sont jugés, tout en faisant pression sur les autres pays pour qu’ils emboîtent le pas.

Un large éventail de domaines couverts par la loi

La loi, qui a été introduite pour la première fois en 2021, vise à proposer une « approche basée sur les risques pour réglementer l’IA sans étouffer l’innovation dans l’ensemble des 27 pays ».

Outre la fixation d'exigences de transparence, le Agis couvre également un éventail de sujets liés au droit d'auteur, à la confidentialité des données, à la propriété intellectuelle, à la santé et à la sécurité ainsi qu'à d'autres questions éthiques.

Un autre domaine que la loi abordera est la question des deepfakes, tandis que tout contenu lié aux élections nécessitera « des divulgations claires étiquetant les images, les vidéos et l’audio comme générés par l’IA ». Dans le monde entier, la question de deepfakes est d'actualité et constitue une priorité, en particulier avec la tenue d'élections dans de nombreux pays cette année, les premières élections majeures depuis le lancement de ChatGPT d'OpenAI, qui a déclenché une explosion de la génération d'IA.

S'exprimant lors d'une point de presse avant le vote, le député belge Dragos Tudorache a déclaré que les législateurs voulaient « créer des catalyseurs » pour les entreprises de l'UE tout en augmentant la protection des citoyens.

Tudorache, qui était co-rapporteur de la loi avec le député italien Brando Benifei, a déclaré que les entreprises faisaient pression pour conserver intacts les modèles d'IA de type « boîte noire », mais que les législateurs étaient conscients que les règles de transparence autour des données et du contenu seraient importantes.

"C'est le seul moyen de donner effet aux droits des auteurs, quels qu'ils soient, scientifiques ou médecins", a déclaré Tudorache.

"Sinon, comment sauraient-ils si leur travail a été utilisé dans un algorithme de formation qui est alors capable de reproduire ou d'émuler ce type de création ?"

A lire également: La protection de la parole par l'IA remise en question par les autorités judiciaires

D'autres mesures restent à prendre

Selon CBSAustin, il reste encore beaucoup à faire avant que la loi ne soit pleinement opérationnelle dans le bloc européen. On ne sait pas encore quand il sera mis en œuvre en raison des changements continus dans le secteur de l’IA.

"Nous devons voir comment les changements technologiques qui se produiront presque certainement au cours de la prochaine année, deux ans, cinq ans, etc., interagiront avec ce projet de loi et, par extension, avec toutes les lois potentielles que nous envisageons ici. aux États-Unis », a déclaré Matt Mittelsteadt, chercheur au Mercatus Center de l'Université George Mason.

La loi a été rédigée à l'aide d'un "Approche fondée sur le risque." Cela applique des restrictions plus strictes basées sur le niveau de risque, avec des utilisations « à haut risque » impliquant les systèmes d’IA qui présentent des risques pour la santé et la sécurité. Il s'agit notamment des machines médicales, des véhicules, des systèmes de reconnaissance des émotions et des forces de l'ordre, selon Digiday.

Le « faible risque » implique l’utilisation de systèmes d’IA qui ne sont pas susceptibles de nuire aux citoyens de l’UE. Toutefois, les entreprises ayant des utilisations à faible risque devraient également s’engager volontairement à respecter des codes de conduite.

Selon Benifei, les citoyens de l’UE restent sceptiques quant à l’IA, une situation qui pourrait étouffer l’innovation.

"Nous voulons que nos citoyens sachent que grâce à nos règles, nous pouvons les protéger et qu'ils peuvent faire confiance aux entreprises qui développeront l'IA en Europe et que c'est un moyen de soutenir l'innovation", a déclaré Benifei.

"En gardant à l'esprit nos valeurs fondamentales, la protection des consommateurs ou des travailleurs des citoyens, la transparence des entreprises pour les opérateurs en aval."

Pression sur d'autres pays

L’adoption de la loi sur l’IA en Europe devrait faire pression sur d’autres pays qui sont encore aux prises avec des conclusions sur la réglementation de la technologie de l’IA. Les pays du monde entier se battent pour trouver le meilleur moyen de lutter contre cette technologie, qui connaît une croissance rapide.

Aux Etats-Unis, Congrès a tenu plusieurs audiences et séances d'information pour mieux comprendre la technologie, son utilisation et les risques potentiels qui y sont associés.

Les prévisions des analystes sur l’IA vont de la nature transformatrice à l’apocalypse, créant des maux de tête pour les législateurs qui tentent d’élaborer un ensemble de réglementations pour cette technologie.

"La législation européenne va certainement faire pression sur d'autres pays, en particulier les États-Unis, pour qu'ils élaborent leurs propres réglementations", a déclaré Hamid Ekbia, directeur de l'Institut de politique des systèmes autonomes de l'Université de Syracuse et leader de l'Alliance académique pour la politique de l'IA.

« La question est : quel type de régulation ? Les grands acteurs vont faire pression sur le Congrès pour qu'il 'compense' les contraintes de l'UE au nom de l'innovation.»

Horodatage:

Plus de MétaActualités