Que signifie la loi européenne sur l’IA pour les startups ?

Que signifie la loi européenne sur l’IA pour les startups ?

Le Parlement européen a adopté la semaine dernière la très attendue loi sur l'IA, ce qui en fait la première grande juridiction au monde à introduire des règles complètes pour le secteur, mais le respect pourrait s'avérer difficile pour les startups qui découvrent la réglementation. 

Bien que certains aspects de la loi sur l'IA soient sujets à interprétation et n'aient pas encore été mis en œuvre, certains fondateurs craignent que les mesures ne puissent nuire aux petites entreprises et entraver l’investissement et l’innovation, plaçant l’Europe encore plus loin derrière les États-Unis et la Chine dans la course à l’IA.

Les nouvelles règles, qui visent à restreindre l’utilisation de l’IA considérée comme à haut risque, comme les deepfakes et les logiciels de reconnaissance faciale dans les espaces publics, s’appliqueront à toutes les entreprises qui déploient l’IA dans les 27 États membres de l’UE. Au total, le bloc représente environ 20 % de l’économie mondiale.

A lire également: Le Parlement européen adopte enfin la loi sur l’IA 

AI Act : les répercussions

"Bien que la loi soit assez progressiste et susceptible d'avoir un effet d'entraînement dans d'autres régions, des inquiétudes existent quant à son impact sur l'innovation dans l'UE", a déclaré à MetaNews Nitish Mittal, partenaire du groupe technologique américain Everest.

Mittal, qui dirige la transformation numérique et les services informatiques d'Everest en Europe, au Royaume-Uni et en Irlande, a déclaré qu'au cours des dernières décennies, l'Europe semble « avoir pris du retard sur les États-Unis et la Chine en termes d'innovation technologique ».

Mais il a également souligné que l'Union européenne avait anticipé ces faiblesses et commencé à s'y préparer avant que la loi, qui devrait être pleinement mise en œuvre au cours des deux prochaines années, n'entre en vigueur plus tard cette année.

"L'UE reconnaît certains de ces défis et tente de mettre en œuvre certaines pistes pour aider les startups et l'innovation autour de l'intelligence artificielle", a déclaré Mittal.

Fin janvier, le bloc annoncé une série de mesures visant à stimuler l’innovation pour les startups européennes développant ce qu’elle appelle une IA « digne de confiance » qui « respecte les valeurs et les règles de l’UE ».

Il a déclaré que les entreprises auront « un accès privilégié aux superordinateurs » et que l’UE elle-même construira des « usines d’IA » pour garantir que l’infrastructure d’IA soit disponible pour que les startups puissent l’acheter et la mettre à niveau.

Que signifie la loi européenne sur l’IA pour les startups ?
Un robot alimenté par l'IA et exploité par un ingénieur. Crédits image : Commission européenne

Affaire risquée

Avant même que le Parlement européen, principal organe législatif de l’UE, ne vote en faveur de la loi sur l’IA, la loi avait été critiquée par les fondateurs de startups travaillant avec des modèles génératifs.

En octobre, Cédric O, fondateur de la startup française d'IA Mistral, a déclaré que la loi « tuerait » son entreprise. L'entrepreneur s'inquiétait du fait que la loi accordait une surveillance excessive aux grands modèles de langage, même s'ils n'étaient pas utilisés pour des tâches sensibles comme l'embauche, a déclaré Sifted. rapporté.

Jonas Andrulis, PDG d'Aleph Alpha, le rival allemand du créateur américain de ChatGPT, OpenAI, a déclaré que classer « l’IA à usage général » comme les LLM comme à haut risque pourrait avoir des conséquences inattendues. Ses commentaires ont été repris par Peter Sarlin, PDG de la société finlandaise Silo AI.

« Si nous généralisons en quelque sorte la technologie de l'IA générative et disons que tous les cas d'utilisation qui utilisent des transformateurs génératifs pré-entraînés (GPT) sont à haut risque, alors je pense que nous réglementerons également un certain nombre de cas d'utilisation qui ne le sont pas. Ce n’est pas vraiment à haut risque », avait déclaré Sarlin à l’époque.

Les entrepreneurs ne sont pas les seuls à exprimer leurs inquiétudes concernant la loi sur l'IA. Une analyse du Département d’État américain publiée en octobre a averti que certaines règles de la loi étaient fondées sur des termes « vagues ou indéfinis », selon Bloomberg.

L'analyse indique que la loi européenne sur l'IA bénéficierait aux plus grandes entreprises technologiques qui disposent du poids financier nécessaire pour former des modèles d'IA et des systèmes d'apprentissage automatique. Les petites entreprises risquent de subir des pertes, ajoute-t-il.

La loi sur l’IA définit différentes catégories de risques liés à l’utilisation de l’IA, allant de « risque faible » à « risque élevé » et « risque inacceptable ». Les applications d’IA considérées comme une menace pour les droits individuels, comme les logiciels de notation sociale ou de reconnaissance faciale dans les lieux publics, seront purement et simplement interdites.

Les cas d’utilisation sensibles « à haut risque » qui seront autorisés incluent des éléments tels que la gestion des frontières, l’éducation et le recrutement. Les entreprises qui utilisent de telles technologies seront tenues de divulguer davantage d'informations sur les données utilisées pour entraîner leurs systèmes.

S'adapter à la loi sur l'IA

« Bien que la loi encourage le développement éthique de l’intelligence artificielle, elle introduit également des exigences et des obligations spécifiques, en particulier pour les systèmes d’IA à haut risque. » Michael Borrelli, PDG d'AI & Partners, basé à Londres, a déclaré à MetaNews.

Borrelli, dont le cabinet aide les entreprises à se conformer aux réglementations en Europe, a ajouté que les nouvelles règles pourraient nécessiter des ajustements dans la manière dont les startups fonctionnent et innovent.

« La nécessité de se conformer à ces réglementations peut dans un premier temps poser des défis, mais vise en fin de compte à favoriser un écosystème d'IA plus sûr et plus fiable, améliorant potentiellement la croissance et la compétitivité mondiale des start-ups européennes », a-t-il expliqué.

Un de problèmes majeurs Les questions soulevées par les fondateurs de startups portent sur la manière dont la nouvelle législation classe tous les modèles d'IA générative comme à haut risque, même lorsque les entreprises qui les sous-tendent sont confrontées à des défis différents.

Nitish Mittal, partenaire d'Everest Group, a tenu à souligner que certains secteurs classés comme à haut risque « auront probablement besoin de plus de garanties et de compréhension » sur la manière dont cela s'appliquera à leurs entreprises et sur les « mesures qu'elles devront prendre ».

« Chaque organisation devra examiner de plus près et de plus près les données et tous les aspects qui les entourent », nous explique Mittal.

"Par exemple, à qui appartiennent les données qu'ils utilisent, les utilisent-ils pour former leurs modèles, comment travaillent-ils avec les partenaires ainsi qu'avec les clients, etc", a-t-il ajouté.

Que signifie la loi européenne sur l’IA pour les startups ?

En concurrence avec les États-Unis

L’Europe est à la traîne des États-Unis en termes de nombre de grandes entreprises d’IA générative, mais elle continue de favoriser un écosystème actif de petits acteurs. Parmi les plus notables figurent Mistral AI, Iris AI basée à Oslo, Zeta Alpha basée à Amsterdam et d'autres.

L’AI Act reconnaît cette différence et s’adresse directement à la communauté européenne des startups. Comme Michael Borrelli l’a souligné, la loi impose un accès prioritaire aux bacs à sable réglementaires de l’IA pour les petites et moyennes entreprises, y compris les startups.

Il propose également des mesures pour soutenir l'innovation, telles que l'organisation de sensibilisation et « d'activités de formation adaptées aux PME et la réduction des frais d'évaluation de la conformité proportionnellement à leur taille », a-t-il déclaré.

Mais il est peu probable que les fonds de capital-risque investissent dans des startups classées par l'AI Act comme à haut risque, selon à une enquête menée en 2023 auprès de 14 sociétés de capital-risque européennes par l'Initiative for Applied AI. Onze des fonds ont déclaré qu'ils étaient moins susceptibles d'investir dans des sociétés présentant un risque élevé, et huit ont déclaré que cela aurait un impact négatif sur la valorisation de la startup.

Pour Borrelli, le fait que les États-Unis tentent encore de trouver un cadre juridique approprié pour l'IA – actuellement moins centralisé et variable selon les États – signifie que la loi européenne sur l'IA, qui fournit un ensemble de règles harmonisées pour l'ensemble du marché européen , a le dessus.

« Cette harmonisation peut offrir un environnement réglementaire clair et cohérent pour les startups, facilitant potentiellement leur expansion à travers l’UE sans se retrouver dans des réglementations disparates », a-t-il déclaré.

Mais il a prévenu que l’approche réglementaire collective pourrait également « ralentir [la] mise à l’échelle rapide » des produits d’intelligence artificielle.

"Les exigences strictes applicables aux systèmes d'IA à haut risque et l'accent mis sur le développement éthique de l'IA obligent les startups européennes à investir davantage dans la conformité et les considérations éthiques que leurs homologues américaines", a expliqué Borrelli.

Horodatage:

Plus de MétaActualités