Cet article s’appuie sur deux types d’échanges : (i) une table ronde dans le cadre du Sommet de l’IA, organisée par August Debouzy le 12 février 2025 ; les participants étaient Florence G’Sell, Visiting Professor of Private Law, Stanford Cyber Policy Center, Mahasti Razavi, Managing Partner August Debouzy, Pierre Sellal, Senior Counsel August Debouzy, et Marc Mossé, Senior Counsel August Debouzy ; (ii) des interviews menées avec Anissa Kemiche, Déléguée aux affaires européennes chez Numeum et Laurence Devillers, professeure en intelligence artificielle à l’Université Paris-Sorbonne.

En bref

L’IA connaît une expansion rapide, portée par OpenAI, Deepseek en Chine et Mistral AI en France, sur un marché estimé à 500 milliards de dollars d’ici 2028.

Face aux enjeux éthiques et économiques, l’Europe a adopté l’IA Act, première régulation mondiale, fondée sur une approche par les risques. L’UE prévoit aussi d’investir 200 milliards d’euros via InvestAI pour rester compétitive.

Cependant, la régulation reste fragmentée : les États-Unis n’ont pas signé la déclaration sur une IA responsable, et l’IA devient un enjeu stratégique majeur. L’enjeu clé : concilier innovation et régulation pour un développement maîtrisé.

robot

La révolution numérique est à un nouveau tournant avec le développement des intelligences artificielles, qui tend à bouleverser le rapport humain-machine. Les capacités de calcul permettent aujourd’hui de déployer des grands modèles de langage, démontrant une puissance inédite. Fin 2022, coup de théâtre : OpenAI met en ligne un robot conversationnel qui attire un million d’utilisateurs en moins d’une semaine. Aujourd’hui, la firme américaine annonce 300 millions d'utilisateurs hebdomadaires, et plus d'un milliard de messages échangés quotidiennement !

 

A peine deux ans après OpenAI, la Chine révèle au grand public Deepseek, une IA générative annoncée comme moins coûteuse et moins énergivore que le modèle américain. En France, Mistral AI devient rapidement une success story sur ce marché estimé à 500 milliards de dollars d’ici à 2028 (1).

L’IA Act, une première mondiale en matière de régulation

Cette spectaculaire ascension des modèles d’IA et de leur puissance soulève bien des questions d’ordre éthique, sociétal et environnemental. Comme l’indique Laurence Devillers, professeure en intelligence artificielle à l’Université Paris-Sorbonne : « Les citoyens n’ont pas compris les enjeux sociétaux, économiques et écologiques du numérique et de l’IA. Il faut apprendre à comprendre les machines, et éviter les risques de manipulation. »
 

Si l’IA présente des risques certains et reconnus par la communauté scientifique elle-même, l’Europe a été le premier continent à se saisir de ces préoccupations majeures, en adoptant, en mars 2024, un Règlement, l’IA Act, fondé sur une approche par les risques et conciliant la protection des droits fondamentaux et l’innovation. L’entrée en vigueur du règlement dans l’espace européen le 1er août 2024, avec des obligations en matière d’éducation qui ont pris effet le 2 février 2025, constitue une étape nécessaire, en phase avec les opportunités économiques sous-jacentes à cette technologie disruptive.

L’IA Act, les points clés

 

Le règlement AI Act du 13 mars 2024 vise à réguler des produits d’intelligence artificielle qui sont commercialisés sur le marché européen.

Il adopte une approche dite « par les risques », en fonction de l'usage prévu de la technologie.

 

Quatre niveaux de risque sont identifiés :

- Risque inacceptable (exemples : manipulation, notation sociale, etc.)
- Haut risque (sur des sujets règlementés : santé, dispositifs médicaux, sécurité des jouets, etc.)
- Risque de transparence (identification de l’IA)
- Risque minimal ou nul


L’IA, quels enjeux transatlantiques ?

Si les risques sont réels, les opportunités économiques le sont aussi. L'Union européenne envisage d’investir 200 milliards d'euros via le programme InvestAI pour renforcer ses positions. Selon le magazine britannique The Times, l'IA pourrait rapporter jusqu'à 2 700 milliards d'euros à l'économie européenne d’ici à 2030.

 

Le quotidien allemand Bild estime pour sa part que l’IA pourrait générer une croissance de 330 milliards d'euros pour l'économie germanique. L’approche réglementaire tient donc dans cette équation : ne pas opposer la régulation à l’innovation. Une équation qui doit tenir compte de contraintes dues aux aspects techniques et à la compréhension de ces modèles mathématiques et de codage : « La technicité de l’IA rend complexe le sujet de la réglementation. Mais l’IA Act est cohérent, il pose des règles exigeantes au regard de nos valeurs tout en permettant l’innovation », précise Mahasti Razavi, managing Partner August Debouzy. Pour la chercheuse Laurence Devillers : « Il ne s’agit pas de freiner les projets, mais de voir comment on y intègre des critères responsables et éthiques. »

 

L’IA Act, pionnier dans l’encadrement des « technologies de l’hypervitesse », a-t-il une chance d’inspirer les autres nations pour parvenir à un consensus global ?

 

Le Sommet sur l’IA à Paris cette année a, semble-t-il, marqué un premier pas dans ce sens, puisque plus de 60 pays ont signé une déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète. Dans la lignée du Pacte de Paris de 2023, la convention porte sur le partage des connaissances et des risques, et la prise en considération des besoins en énergie requise par l’IA.

 

Mais, fait notable, les Etats-Unis n’ont pas signé cette convention, rendant la gouvernance globale de l’IA incertaine. Florence G’Sell, Visiting Professor of Private Law, Stanford Cyber Policy Center, y voit une question de leadership : « La grande question aujourd’hui porte sur la standardisation et les normes. Les Etats-Unis veulent être les premiers à imposer un modèle, il en va de leur leadership, surtout dans ce domaine. »

Tensions géopolitiques et enjeux de compétition

Il est important de souligner la singularité du climat dans lequel se jouent les négociations sur la régulation de l’IA. Les tensions géopolitiques et la férocité de la compétition trouvent leur explication dans le caractère duale des technologies de l’IA, à usage à la fois civil et militaire. L’usage militaire est aussi au cœur de toutes les attentions et l’IA fait désormais partie de l’arsenal des États. La guerre en Ukraine a été la démonstration d’une « guerre du futur » qui se vit au présent : drones autonomes, réalité virtuelle, systèmes embarqués, soldat augmenté… L’IA modifie en profondeur la doctrine militaire, et exacerbe les tensions géopolitiques. Ce que souligne Pierre Sellal, Senior Counsel August Debouzy, ambassadeur de France, ancien représentant permanent de la France auprès de l’Union européenne : « Le cyberespace devait être un objet de coopération internationale, il devient un champ de bataille. »

robot

Par ailleurs, la compétition sur la maîtrise des savoirs (en mathématiques, en sémantique et en data analyse, notamment), couplée à la tension sur le marché des semi-conducteurs de pointe, renforce cette fragmentation du monde et alimente les conflits entre puissances.

 

Dans ce contexte, la réglementation de l’IA prend une tout autre dimension, plus forte sans doute que les autres réglementations du numérique : il est question non pas seulement de dialogue et de consensus sur un système de règles, mais bien des conditions de paix et de confiance… La confiance, le maître mot : « Sans cette confiance, pas d’innovation positive ; sans innovation responsable, pas de prospérité. C’est pourquoi, le dialogue entre toutes les parties prenantes est déterminant », rappelle Marc Mossé, Senior Counsel August Debouzy.

S’il est difficile de prédire l’avenir, aujourd’hui plus qu’hier, il faut parier sur le concept d’environnement stable, dont les États ont besoin pour développer l’innovation autour de l’IA. « Le fait d’avoir une réglementation dans différents pays ou régions ne va pas créer en soi une confiance générale. Il faut une approche plurielle impliquant toutes les parties prenantes pour créer le niveau de confiance indispensable pour l’adoption d’outils et d’usages d’IA positifs », rappelle ainsi Mahasti Razavi, Managing Partner August Debouzy.

 

Par ailleurs, la compétition sur la maîtrise des savoirs (en mathématiques, en sémantique et en data analyse, notamment), couplée à la tension sur le marché des semi-conducteurs de pointe, renforce cette fragmentation du monde et alimente les conflits entre puissances.

 

Dans ce contexte, la réglementation de l’IA prend une tout autre dimension, plus forte sans doute que les autres réglementations du numérique : il est question non pas seulement de dialogue et de consensus sur un système de règles, mais bien des conditions de paix et de confiance… La confiance, le maître mot : « Sans cette confiance, pas d’innovation positive ; sans innovation responsable, pas de prospérité. C’est pourquoi, le dialogue entre toutes les parties prenantes est déterminant », rappelle Marc Mossé, Senior Counsel August Debouzy.


« Vu de Bruxelles »

Anissa Kemiche, Déléguée aux affaires européennes chez Numeum (première organisation professionnelle du numérique en France).


Alors que l’AI Act commence à entrer en vigueur, comment envisagez-vous la régulation au sens large, alors que certains pays comme les États-Unis ont des visions différentes ?

 

L’AI Act positionne l’Europe comme un leader de la régulation de l’IA, en adoptant une approche basée sur les risques. Cette démarche tranche avec celle des États-Unis, où la régulation repose davantage sur des principes sectoriels et l’autorégulation des entreprises. Cette divergence soulève un enjeu majeur pour les entreprises opérant à l’international, qui doivent jongler avec des cadres réglementaires parfois incompatibles. Aujourd’hui, seulement 14 % des entreprises européennes utilisent l’IA, alors que l’UE s’est fixé un objectif ambitieux de 75 % d’ici 2030. Pour éviter que cette régulation ne devienne un frein à l’innovation, un accompagnement ciblé et une simplification des obligations seront essentiels.

Ces cinq dernières années, les entreprises européennes ont dû faire face à une vague de réglementations particulièrement dense, avec près de 70 textes impactant le numérique. Cette superposition de normes, parfois redondantes, complexifie la mise en conformité et génère des coûts importants. Une démarche de simplification serait donc nécessaire pour permettre aux entreprises d’appréhender plus sereinement des réglementations comme l’AI Act et d’en saisir pleinement les opportunités en matière d’innovation et de compétitivité.

 

Pensez-vous que la régulation se fera par « territoires » ? Quels seront les impacts pour les entreprises si chaque pays ou continent adopte ses propres règles ?



La régulation de l’IA tend effectivement vers une approche territorialisée, avec des cadres distincts en Europe, aux États-Unis et en Chine. Cette fragmentation complique la mise en conformité des entreprises et engendre des coûts importants, en particulier pour les PME et ETI. L’Union européenne, déjà en retard sur les technologies critiques, a vu son PIB chuter de 30 % par rapport à celui des États-Unis en 20 ans, et 30 % de ses licornes quitter son territoire. Face à ces défis, il devient impératif d’harmoniser les réglementations et de créer des standards internationaux pour éviter un frein à l’innovation et à la compétitivité des entreprises européennes.


 


(1) (source : Statista Market Insights).