retour

IA : 4 questions à Kai Zenner

Article IT et données personnelles | 28/07/23 | 7 min. |

4 questions à Kai Zenner, Chef de cabinet et conseiller politique numérique d’Axel Voss au Parlement européen. Mr. Zenner est impliqué dans les négociations politiques et la rédaction du règlement sur l'intelligence artificielle.

 

  1. La proposition de réglementation sur l'intelligence artificielle est actuellement en phase de trilogue. Quels sont les points de négociation les plus difficiles ?

Avant de répondre à votre question, il est important de souligner que les groupes politiques ont eu d'énormes problèmes pour s'accorder sur une ligne commune. Le Parlement européen est très divisé sur la question de l'intelligence artificielle (IA). Le compromis politique qui a finalement été trouvé en juin est donc très, très fragile. Cela ne facilite pas les négociations avec les États membres, car les co-rapporteurs ont peu de marge de manœuvre. Dans ce contexte, les sujets clés des prochains mois devraient être les suivants.

Premièrement, les techniques d'IA interdites et en particulier l'identification biométrique. Le Conseil de l'UE demande ici des exemptions significatives, en particulier pour leurs agences de maintien de l'ordre. Pour eux, il est crucial que, par exemple, les forces de police françaises soient autorisées à utiliser des systèmes d'IA de reconnaissance faciale lors des Jeux Olympiques d'été de Paris 2024. Le Parlement a la position inverse. Une majorité de groupes politiques ont affirmé que l'identification biométrique à distance dans tous les espaces accessibles au public devrait être interdite. Aucune exception ne serait accordée.

Deuxièmement, l'application et la gouvernance. Alors que certains acteurs politiques préféreraient une agence de l'IA ou au moins un organisme européen très puissant (approche centralisée), d'autres ont plaidé en faveur d'un mécanisme de coordination européen plutôt faible. Dans cette dernière hypothèse, la majorité des compétences reste acquise aux États membres. Ce qui rend le sujet délicat également, c'est que le Parlement et le Conseil sont divisés en interne. Les deux ont des positions différentes, tant parmi les groupes politiques qu'entre les États membres.

Troisièmement, les systèmes d'IA générative comme ChatGPT et leurs modèles de base tels que GPT-4. La Commission européenne ne les avait pas inclus dans sa proposition initiale de règlement sur l'IA. L'avancement technique des 24 derniers mois a cependant convaincu la plupart des personnes au sein des institutions de l'UE que cette décision doit être reconsidérée.

Enfin, l'évaluation de l'impact sur les droits fondamentaux et toutes les questions connexes. Le Parlement européen souhaite que de nombreux mécanismes de protection soient mis en place avant qu'un système d'IA puisse être déployé. Les individus devraient également avoir la possibilité de contester certaines décisions prises par un système d'IA ou de voir leurs préjudices y relatifs traités par un tribunal, par exemple en introduisant une action collective. Les États membres sont plutôt réservés face à toutes ces demandes.

 

  1. Comment le projet de texte envisage-t-il la régulation de l'IA générative ? 

Le Parlement européen a beaucoup étudié ce sujet et a discuté intensément des différentes options politiques. Il a également observé de près ce qui s'est passé après la sortie de ChatGPT en novembre 2022. Finalement, nous avons proposé une approche à deux niveaux dans les articles 28 et 28b du texte, en essayant de répondre efficacement aux défis posés par l'IA générative tout au long de la chaîne de valeur de l'IA.

Le premier niveau est donc l'article 28b. Le Parlement européen souhaite s'assurer que les modèles de fondation, que nous considérons comme des éléments constitutifs de milliers de systèmes d'IA, y compris ceux qui relèvent du terme « IA générative », soient bien compris en principe et sûrs à utiliser. Comme les modèles de fondation n'ont pas encore de but précis, ils ne peuvent pas remplir les obligations concrètes pour les systèmes d'IA à haut risque prévus aux articles 9 à 15 du règlement sur l'IA. C'est pourquoi les parlementaires ont développé certaines normes minimales que les développeurs comme OpenAI doivent respecter avant que leurs modèles de fondation n'entrent dans la chaîne de valeur de l'IA.

C'est le moment où le deuxième niveau, l'article 28 du règlement sur l'IA, entre en jeu. Il est fondé sur le principe qu'un système d'IA contemporain est très complexe et implique tellement d'acteurs différents que la conformité avec le règlement sur l'IA devrait être adéquatement répartie entre eux. Le Parlement européen voulait éviter une situation où seuls les fournisseurs européens 'en aval' du système d'IA qui est mis sur le marché auraient à se soucier de la conformité avec le règlement sur l'IA. Ces entreprises devraient bien sûr assumer l'essentiel du fardeau réglementaire, mais les autres acteurs du marché devraient au moins les aider et partager toutes les informations nécessaires pour être en conformité.

 

  1. Certaines personnes craignent que cette réglementation ne freine l'innovation. Qu'en pensez-vous ? 

Je pense que ces personnes ont un point. C'est pour cela que je partage également, en principe, certaines des préoccupations récemment mentionnées par le président Macron. Il est regrettable que l'Union européenne n'ait pas suivi ses premières idées sur la façon de devenir un leader mondial en matière d'IA. Lorsque la Commission européenne a présenté le livre blanc sur l'IA en 2020, elle a proposé la création de deux écosystèmes : un écosystème de confiance (un cadre réglementaire pour assurer la sécurité de l'IA) et un écosystème d'excellence (des mesures pour promouvoir l'innovation et le déploiement de l'IA). Le document était clair : nous avons besoin des deux pour atteindre nos ambitions en matière d'IA.

Cependant, le règlement sur l'IA est très unilatéral : sur ses 85 articles, 2 à 3 concernent l'innovation et le reste concerne les risques posés par l'IA et comment les gérer. Il est vrai qu'il y a des risques significatifs que l'IA pose et qui se sont déjà concrétisés. Mais l'IA pourrait également nous aider à surmonter des défis importants comme le changement climatique, la famine, etc. Ces cas d'utilisation positifs jouent à peine un rôle. De plus, on ne dit pas grand-chose sur la façon de stimuler l'innovation et de rendre l'investissement en IA rentable. Pour être juste, il faut mentionner que la Commission a proposé, en même temps que le règlement sur l'IA, une communication, appelée le plan coordonné de l'IA, qui tente de promouvoir un écosystème d'excellence. Il énumère des façons de devenir plus innovant. Le problème est que le plan coordonné n'est pas contraignant et il a donc conduit à la création de 27 stratégies nationales différentes en matière d'IA, ce qui a provoqué encore plus de fragmentation et d'incertitude juridique au sein de l'UE.

 

  1. La loi sur l'IA peut-elle, à l'instar du RGPD, établir des normes mondiales, ou des efforts conjoints avec d'autres États et régions du monde sont-ils nécessaires à cette fin (OCDE, etc.) ? 

À ce moment, personne ne peut répondre à cette question avec certitude. Ce qui augmente les chances d'un deuxième « effet Bruxelles », c'est que le règlement sur l'IA est basé sur des concepts internationalement acceptés comme la transparence, la supervision humaine ou l'équité. Il est important de souligner à cet égard que le règlement sur l'IA n'est pas une intervention européenne. Elle repose fortement sur l'excellent travail de préparation d'organisations comme l'OCDE. Celles-ci ont contribué à établir une sorte de compréhension commune à travers le monde au cours des deux dernières décennies. Si le règlement sur l'IA réussit à traduire ces principes convenus au niveau international pour la première fois dans une loi concrète, surtout si cela est fait de manière significative et équilibrée, de nombreux pays non européens suivront cette voie, effectivement. Ils concevront des lois sur l'IA très similaires.

Le problème cependant est que l'UE s'est récemment écartée de ce qui a été discuté au niveau international. Le Conseil et le Parlement ont remodelé le règlement sur l'IA et ajouté des éléments qui correspondent à des exigences très uniques de l'UE. Ce développement rend de plus en plus difficile pour les autres pays de comprendre nos règles en matière d'IA mais aussi de les intégrer dans leur système juridique.

En fin de compte, la situation la plus probable est que, comme avec le RGPD, d'autres pays vont choisir certains aspects du règlement sur l'IA qui leur conviennent, tout en ignorant le reste. Peut-être qu'ils prendront même le temps de surveiller de près quels aspects fonctionnent et lesquels échouent dans l'UE, en essayant de ne pas répéter les mêmes erreurs. Nous avons vu quelque chose de similaire se produire avec le RGPD. Prenons par exemple la Californie, qui a une loi sur la protection des données semblable au RGPD, cette dernière n'a retenu que les aspects qui ont du sens dans l’ouest des États-Unis.

 

Explorez notre collection de documents PDF et enrichissez vos connaissances dès maintenant !
[[ typeof errors.company === 'string' ? errors.company : errors.company[0] ]]
[[ typeof errors.email === 'string' ? errors.email : errors.email[0] ]]
L'email a été ajouté correctement