top of page
  • Instagram
  • LinkedIn
  • Facebook

Intelligence artificielle : les récits de la législation européenne

Joel Ficet



Le règlement de l’Union Européenne sur l’intelligence artificielle ou Artificial Intelligence Act (AIA), est entré en vigueur le 1er août 2024 à grand fracas. Il a en effet été largement salué comme une avancée significative concernant la prévention des risques posés par l’IA, dont l’impact pourrait, par le truchement du Brussels Effect[1], se faire sentir au-delà des frontières de l’UE.


La première pierre du long processus délibératif qui a mené à son adoption est probablement le vote en février 2017 d’une résolution du Parlement Européen principalement consacrée à la robotique, mais qui, déjà, incluait de nombreuses références aux dangers potentiels de l’IA[2]. Parallèlement à cette initiative, le Conseil européen, à l’issue de son « Sommet numérique » de Tallin en septembre 2017, appelle la Commission à élaborer une approche européenne visant à encadrer les technologies digitales émergentes telles que l’IA et les blockchains. Conséquemment, celle-ci établit dès 2018 les fondements d’une stratégie européenne pour l’IA[3]. En parallèle, elle met en place divers textes-cadres visant à harmoniser les actions des Etats-membres dans le secteur, parmi lesquels la communication  « Un plan d’action coordonné dans le domaine de l’IA » de 2018[4], le plan d’action coordonné révisé en 2021[5], ou encore la communication « Stimuler les start-up et l’innovation dans le domaine de l’intelligence artificielle digne de confiance » de janvier 2024[6].


La Commission cherche par ailleurs à recueillir la voix du secteur privé et de la société civile par la mise en place d’un forum consultatif, l’Alliance Européenne pour l’IA, ainsi que d’un  High-Level Group on Artificial Intelligence (HLGAI) composé d’acteurs du digital et d’éthiciens[7]. Ce groupe produira notamment deux rapports, le premier proposant des « Lignes directrices en matière d’éthique »[8], le second des recommandations en matière de législation et d’investissement[9]. L’enjeu des risques sociaux de l’IA est donc, à nouveau, au cœur des réflexions.  C’est sur la base de ces réflexions qu’Ursula Von der Leyen promet, lors de sa prise de fonction en 2019, de proposer dans ses cent premiers jours une réglementation de l’intelligence artificielle, en mettant notamment l’accent sur ses implications éthiques[10]. Un Livre Blanc largement inspiré des travaux du HLGAI est publié en février 2020[11] ; enfin, le 21 avril 2021, la première mouture de l’Artificial Intelligence Act est officiellement proposée.   


L’intensité de cette production discursive résulte de la nécessité de concilier diverses visions de l’IA, divers récits de son impact sur le monde, appelant par la même à des mesures différentes. L’analyse des politiques publiques nomme ces visions des « policy frames », à savoir des « récits normatifs et prescriptifs qui interprètent et traduisent une situation incertaine, problématique ou controversée en un problème politique qui nomme le phénomène et implique une ligne de conduite »[12]. Un « cadre de politique publique », ainsi, est un discours organisé, un ensemble d’arguments cohérent visant à définir les enjeux d’une controverse publique (s’agit-il d’une question d’emploi, d’environnement, de développement territorial ?), d’appeler à une intervention des autorités (la « mise sur agenda » du problème), mais aussi de délimiter le champ des solutions possibles.


L’émergence et la mise en place des politiques publiques passe par le développement de ces récits, qui vont permettre à la fois d’initier le processus décisionnel et d’en orienter les résultats. Il existe d’ailleurs souvent, pour une même controverse, plusieurs récits en compétition, promus par des acteurs ou groupes sociaux aux intérêts divergents et souhaitant, chacun, imposer les programmes qui leur bénéficient le plus. La forme finale prise par l’action publique dépendra donc, outre de la qualité intrinsèque des cadres proposés, des ressources et de l’habilité stratégique des « entrepreneurs de politique publique » en confrontation. Ces derniers utilisent en effet une multiplicité d’artifices rhétoriques afin de mobiliser leur audience, tels que le recours aux émotions collectives ou le recyclage de concepts et de slogans déjà routinisés et légitimes.


La lecture attentive des principaux documents préalables à l’adoption de l’AIA révèle au sein de la seule production textuelle des institutions européennes trois récits partiellement contradictoires de l’intelligence artificielle (les interventions des administrations nationales, entreprises privées ou ONG ne sont pas prises en compte ici, mais offriraient probablement un plus grand pluralisme). Chacun de ces récits puise dans des représentations communes de la technologie et tend à générer le sentiment d’une urgence à légiférer sur la question ; toutefois, comme on peut s’y attendre, ils n’appellent pas à l’adoption des mêmes programmes. Ces récits sont celui de l’IA salvatrice, porteuse de bienfaits pour l’humanité ; celui de l’IA productrice, remède au déclin économique et technologique européen ; enfin, celui de l’IA destructrice, instrument potentiel d’oppression politique ou d’exploitation économique. L’art des textes de la Commission est de concilier ces récits afin de construire un policy frame cohérent à même d’inspirer et légitimer une approche proprement européenne de l’intelligence artificielle.


L’IA salvatrice au secours de l’humanité


Ce premier registre de discours envisage l’intelligence artificielle comme une force bienveillante, destinée à supprimer tous les problèmes sociaux. Il ne fait pas que décrire l’IA comme une innovation positive ; il semble lui accorder un rôle historique unique, voire une volonté démiurgique d’élévation de l’humanité au-delà de ses malheurs éternels. La communication de la Commission « Renforcer la confiance dans l'intelligence artificielle axée sur le facteur humain » commence ainsi par cette appréciation de principe sur les vertus de l’IA : « L’intelligence artificielle est porteuse de transformations positives pour notre monde : elle peut améliorer les soins de santé, réduire la consommation d’énergie, rendre les voitures plus sûres et permettre aux agriculteurs d’utiliser plus efficacement l’eau et les ressources naturelles. Elle peut être utilisée pour prédire les changements climatiques et environnementaux, améliorer la gestion des risques financiers et fabriquer avec moins de déchets des produits adaptés à nos besoins »[13]. Le Livre Blanc sur l’IA renchérit en la présentant comme une force irrésistible : « À l’instar de la machine à vapeur ou de l’électricité dans le passé, l’IA est en train de transformer notre monde, notre société et notre industrie. La croissance de la puissance de calcul, la disponibilité des données et les progrès réalisés dans les algorithmes ont fait de l’IA une des technologies les plus stratégiques du 21e siècle ». La combinaison de ces postulats positionne l’IA comme un agent de transformation historique fondamental, que l’UE ne saurait négliger.


Cette fascination pour les vertus supposées de l’AI n’est évidemment pas propre à la Commission européenne. Elle s’ancre dans une forme de « solutionnisme technologique »[14] porté par l’industrie informatique, bien sûr, mais aussi par des organisations internationales telles que l’ONU et l’OCDE. L’ONU, en particulier, a promu le développement de l’IA comme condition de réalisation de ses objectifs de développement durable, au travers par exemple des sommets « AI for Good » de l’Union Internationale des Télécommunications, auxquels sont étroitement associés des acteurs de l’économie digitale. Le Secrétaire Général Antonio Guttieres déclarait ainsi en juin 2017 : « Artificial Intelligence has the potential to accelerate progress towards a dignified life, in peace and prosperity, for all people. The time has arrived for all of us – governments, industry and civil society – to consider how artificial intelligence will affect our future »[15].  A comparer avec cet extrait du premier rapport du  High-Level Group on Artificial Intelligence, composé lui aussi en majorité de représentants du secteur privé : « L’IA n’est pas une fin en soi, mais plutôt un moyen prometteur d’accroître la prospérité humaine, en renforçant ainsi le bien-être individuel et de la société ainsi que le bien commun, et en étant porteur de progrès et d’innovation »….


Ce mythe de l’AI salvatrice est employé par la Commission pour justifier un accroissement des financements de l’UE et des Etats-membres dans ce domaine. Ce travail de légitimation ne peut toutefois être efficace que si les solutions d’investissement proposées semblent cohérentes avec cette description quasi-messianique des bénéfices de l’IA. La Commission s’attache donc à montrer que son approche n’est pas seulement focalisée sur l’entreprise mais sur les secteurs d’intérêt public, comme l’illustre ce passage de la communication sur le « plan d’action coordonné dans le domaine de l’IA » de 2018 : « La Commission a proposé une approche qui place les citoyens au centre du développement de l’IA (IA axée sur le facteur humain) et encourage l’utilisation de cette technologie puissante pour relever les défis majeurs auxquels est confrontée notre planète: depuis l’éradication des maladies jusqu’à la lutte contre le changement climatique et la prévention des catastrophes naturelles en passant par l’amélioration de la sécurité des transports, la lutte contre la criminalité et l’amélioration de la cybersécurité ». Dans ce cadre, l’UE et les Etats-membres sont encouragés à soutenir la recherche et les investissement dans les applications de l’IA qui correspondent aux « valeurs éthiques » et aux « aspirations » des citoyens européens. Le plan d’action coordonné révisé en 2021 liste ainsi sept domaines sectoriels à privilégier, en lien notamment avec les orientations du Green Deal. Parmi ceux-ci, le climat et l’environnement ; la santé ; un mobilité « plus sûre et moins polluante » ; une agriculture durable… Le plan affiche également son ambition de faire du secteur public européen un « pionnier » en développant l’usage de l’IA pour accroître l’efficacité des administrations (par exemple, concernant les marchés publics, la gestion des données ou la justice), mais aussi pour « appuyer les processus démocratiques » (sans toutefois qu’il soit précisé en quoi…).


Ce message reste toutefois probablement trop altruiste pour être mobilisateur : les décideurs nationaux, au-delà des valeurs et des slogans, restent avant tout préoccupés par la prospérité de leur économie, et donc par le retour sur investissement du soutien à l’IA… Le discours de l’AI salvatrice devient toutefois beaucoup plus efficace quand articulé à un autre policy frame : celui de l’IA productrice,  remède au déclin technologique européen.



L’IA productrice contre le déclin technologique européen


Un des tropes les plus fréquents du discours politique européen est celui du déclin du continent, tant sur le plan géopolitique qu’économique. Cette rhétorique – qui trouve ses racines aux origines de l’intégration européenne – permet de susciter un sentiment d’anxiété face à l’avenir et d’urgence à agir, et ainsi de justifier l’adoption des réformes les plus radicales, un procédé employé par exemple dans l’introduction du récent rapport d’Enrico Letta sur la croissance européenne : « Il est temps de tracer une nouvelle trajectoire pour guider le marché unique dans ce scénario international complexe. De puissantes forces de changement (démographiques, technologiques, économiques et internationales) nécessitent des réponses politiques innovantes et efficaces. Compte tenu des crises et des conflits en cours, l’action n’en devient que plus urgente, d’autant plus que la fenêtre d’opportunité pour intervenir et relancer l’économie européenne risque de se refermer dans un avenir proche »[16].


La peur du décrochage technologique face aux géants américains ou chinois est évidemment aujourd’hui une des figures majeures de ce déclinisme, d’où l’accent mis sur l’économie de la connaissance et la recherche/développement dans les programmes européens depuis la mise en place de la Stratégie de Lisbonne (2000). La Commission mobilise également ces angoisses pour convaincre de l’urgence à investir dans l’IA, par exemple dans sa communication « Artificial Intelligence for Europe » : « L’un des principaux défis à relever, pour que l’UE soit compétitive, est d’assurer le recours aux technologies de l’IA dans l’ensemble de son économie. L’industrie européenne ne peut se permettre de rater le coche. Notre approche de l’IA définira le monde dans lequel nous vivons. Dans un contexte de concurrence mondiale féroce, un cadre européen solide s’impose.  L’UE doit être à la pointe des développements technologiques dans le domaine de l’IA et veiller à ce qu’ils soient exploités rapidement dans tous les secteurs de son économie (…) Sans ces efforts, l’UE risque de gâcher les chances offertes par l’IA, d’être confrontée à une fuite des cerveaux et de n’être qu’un simple consommateur de solutions mises au point ailleurs ».


Le récit productiviste, à cet égard, est moins messianique que le récit de l’IA salvatrice : l’IA n’y est pas une panacée à tous les maux humains, mais un moyen de préserver la compétitivité de l’UE face à ses rivaux. L’horizon proposé n’est donc pas le progrès universel ou le respect des valeurs européennes, mais la préservation du statut économique et de l’autonomie stratégique de l’Union. Ce message porte de la sorte à des mesures plus directement orientées vers la formation d’un « écosystème » favorable à l’industrie de l’IA : développement de la formation aux métiers de l’IA pour pallier le manque de main-d’œuvre qualifiée ; financements collaboratifs entreprises/universités pour intensifier l’innovation au local et éviter la fuite des cerveaux ; soutien spécifique aux start-ups via le European Innovation Council  ; mise en place d’infrastructures (« AI Factories ») autour des superordinateurs européens…    

  

Mais en dépit de ces nuances, les deux policy frames convergent autour de ce que l’on a appelé précédemment une forme de « solutionnisme  technologique » : ils se complètent plus qu’ils ne se contredisent, le récit salvateur étant plus présent dans les premiers grands textes-cadres tels que la communication « Artificial Intelligence for Europe », le récit productif dans des documents plus appliqués comme la communication « Stimuler les start-up et l’innovation dans le domaine de l’intelligence artificielle digne de confiance » de janvier 2024. La politique de l’UE ne se limite toutefois pas à des plans d’investissement : l’axe d’action européenne le plus visible s’articule autour de la confiance publique envers l’IA, répondant à une inquiétude sociétale forte sur l’impact possible de cette nouvelle technologie. Ceci correspond à ce que l’on pourrait appeler, de manière peut-être quelque peu dramatique, un récit apocalyptique de l’IA.  

 

L’AI destructrice : le récit de l’apocalypse technologique


Aussi attentives qu’elles soient aux intérêts des industries du digital, les autorités européennes ne sont pas imperméables aux peurs des citoyens.  Le ton souvent dramatique de la conversation publique autour de l’IA, décriée comme un danger existentiel pour l’humanité, trouve notamment quelque écho dans la Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant l’encadrement juridique de la robotique[17]. Le texte, connu pour avoir tiré inspiration des fameuses « lois de la robotique » du romancier Isaac Asimov et pour avoir préconisé l’attribution de la personnalité juridique aux robots, comporte également de nombreuses références à l’intelligence artificielle aux accents, sinon technophobes, du moins alarmants. Il s’inquiète ainsi qu’« à long terme, la tendance actuelle au développement de machines intelligentes et autonomes, dotées de la capacité d’apprendre et de prendre des décisions de manière indépendante, ne procure pas seulement des avantages économiques mais également de multiples préoccupations quant à leurs effets directs et indirects sur la société dans son ensemble ». Il note par ailleurs que l’IA « pose également des défis pour ce qui est de garantir l’absence de discriminations, un traitement équitable, la transparence et l’intelligibilité des processus décisionnels ». Il se fait enfin écho de la crainte, récurrente dans le débat public, « qu’à long terme, l’intelligence artificielle surpasse les capacités intellectuelles de l’être humain ». Toutefois, cette résolution apparaît rétrospectivement comme un acte isolé et  aura eu, au final, peu d’influence sur le travail de framing de la question de l’IA.


Si la vision destructrice de l’IA refait ultérieurement surface, dans les travaux du High-Level Group on Artificial Intelligence et dans le texte de l’Artificial Intelligence Act, c’est que les méfaits potentiels en sont apparus beaucoup plus concrètement  : atteintes à la vie privée, surveillance de masse des populations par les Etats, manipulation des consommateurs, désinformation et propagande, marginalisation accrue de certains groupes…


L’Artificial Intelligence Act est la traduction la plus concrète de ces appréhensions. Les attendus du Règlement indiquent ainsi que, malgré ses bénéfices économiques,  « l’IA peut générer des risques et porter atteinte aux intérêts publics et aux droits fondamentaux protégés par le droit de l’Union. Le préjudice causé peut être matériel ou immatériel, y compris physique, psychologique, sociétal ou économique ». Ainsi, « si l’IA peut être utilisée à de nombreuses fins positives, elle peut aussi être utilisée à mauvais escient et fournir des outils nouveaux et puissants à l’appui de pratiques de manipulation, d’exploitation et de contrôle social. De telles pratiques sont particulièrement néfastes et abusives et devraient être interdites, car elles sont contraires aux valeurs de l’Union relatives au respect de la dignité humaine, à la liberté, à l’égalité, à la démocratie et à l’état de droit, ainsi qu’aux droits fondamentaux consacrés dans la Charte ». Le texte particulièrement l’attention sur les usages de l’IA dans les secteurs cruciaux pour les droits et l’intégrité physique des personnes (Justice, police, santé…). Face à ce diagnostic pessimiste, un principe est posé : il est « indispensable que l’IA soit une technologie axée sur l’humain ». Ce faisant, les auteurs de l’AIA reprennent à leur compte une vision pessimiste de l’impact futur de l’IA sur l’humanité, en contraste directe avec les récits « salvateur » et « productif ».    


Le cœur de la législation – en tout cas, la partie qui a reçu le plus d’attention – est une classification des applications de l’IA selon les dangers qu’elles représentent, en définissant certaines d’entre elles comme inacceptables sur le territoire européen. Parmi les pratiques d’IA interdites : les techniques subliminales et manipulatrice « visant à entraver la prise de décision éclairée » (en clair, la désinformation), les systèmes de catégorisation biométriques, la notation sociale, le profilage, la constitution de bases de données de reconnaissance faciale, l’identification des émotions sur le lieu de travail ou les établissements d’enseignements, l’identification biométrique à distance par les forces de l’ordre (sauf pour cas de terrorisme, de crimes graves, de recherche de personnes disparues).


D’autres pratiques sont considérées comme licites mais « à haut risque » : les systèmes d’IA utilisés pour la gestion des infrastructures critiques (infrastructures numériques, dans le trafic routier ou dans la fourniture d'eau, de gaz, de chauffage ou d'électricité), les systèmes d’IA utilisés dans le domaine de l’éducation, dans le recrutement et l’évaluation professionnels,  les systèmes d’IA utilisés par les services répressifs, la justice ou le contrôle aux frontières, etc. Leur emploi est dès lors conditionné à certaines obligations : mise en place de systèmes de gestion des risques et de la qualité, gouvernance des données, documentation technique accessible aux autorités, surveillance humaine… Enfin, les autres applications, à risque minimal, ne sont pas réglementées ; cela peut concerner notamment les jeux vidéo et les filtres anti-spam activés par l'IA. La structuration de l’AIA autour d’une « approche par les risques » traduit l’influence de l’image de l’AI destructrice sur l’esprit des législateurs, une influence accrue par un contexte de campagnes de désinformation contre les démocraties européennes.    



Concilier les récits


Trois récits de l’IA, menant à trois batteries de mesures : la coexistence de ces policy frames partiellement contradictoires ne nuit-elle pas à l’homogénéité et à la légitimité de l’action européenne ? De fait, l’abondante production textuelle de la Commission vise à articuler un compromis rhétorique autour de la notion de confiance


Le Groupe d’experts indépendants, dans son rapport Lignes directrices en matière d’éthique pour une IA digne de confiance, appelait déjà  l’Europe à se positionner comme « foyer et leader d’une technologie éthique et de pointe » et donnait comme objectif à la législation européenne « un avenir dans lequel la démocratie, l’état de droit et les droits fondamentaux sous-tendent les systèmes d’IA et dans lequel ces systèmes améliorent et défendent de manière continue la culture démocratique permettra également de mettre en place un environnement dans lequel l’innovation et la compétitivité responsable peuvent se développer ». Les rapports du HLGAI sont ainsi les premiers à établir le lien entre prévention des risques posés par l’IA et performance économique. Ils font par-là déjà le lien entre les différents policy frames que nous avons relevé au cœur de l’action européenne.  


Ces réflexions servent très largement de matrice intellectuelle aux écrits ultérieurs de la Commission, ainsi qu’aux « plans coordonnés » d’investissement successifs et à l’Artificial Intelligence Act – même si chacun de ces textes renvoie prioritairement à un récit parmi les autres. Ainsi, le Livre blanc de la Commission sur l’IA, sous-titré  « Une approche européenne axée sur l’excellence et la confiance », annonce la création d’un « écosystème de confiance unique en son genre » : « La création d’un écosystème de confiance est un objectif stratégique en soi, qui devrait susciter chez les citoyens la confiance nécessaire pour adopter les applications d’IA et donner aux entreprises et aux organismes du secteur public la sécurité juridique voulue pour innover au moyen de l’IA ».


L’AIA, qui reprend à son compte nombre de préconisations du HLGAI, s’attache également à concilier les impératifs économiques et éthiques. Il se présente ainsi comme un cadre « appliqué dans le respect des valeurs de l’Union consacrées dans la Charte, en facilitant la protection des personnes physiques, des entreprises, de la démocratie, de l’état de droit et de l’environnement, tout en stimulant l’innovation et l’emploi et en faisant de l’Union un acteur de premier plan dans l’adoption d’une IA digne de confiance ». Si l’essentiel du texte est consacré à l’identification des pratiques à risques et des garanties nécessaires, il est bien rappelé que son ambition n’est pas seulement de protéger les citoyens, mais de contribuer à la consolidation du secteur de l’IA et, de manière générale, à la propagation de l’IA dans tous les secteurs. Une équation est ainsi posée : prévenir les dangers de l’IA (vision « destructrice ») établit un environnement de confiance auprès du public qui est nécessaire à sa diffusion dans des secteurs sensibles tels que la santé, l’éducation ou la justice (vision « salvatrice »), elle-même condition de la compétitivité de l’industrie digitale européenne (vision « productrice »). La notion de « trustworthy AI » permet ainsi d’opérer la synthèse entre les trois récits. 


[1] Anu Bradford, The Brussels Effect: How the European Union Rules the World, Oxford, Oxford University Press, 2021.

[3] European Commission, L’intelligence artificielle pour l’Europe, COM(2018) 237 final, 24 mai 2018.

[4] Commission Européenne, « Un plan d’action coordonné dans le domaine de l’IA », COM(2018) 795 final, 7 décembre 2018.  

[11] Commission européenne, Livre Blanc « Intelligence artificielle. Une approche basée sur l’excellence et la confiance », COM(2020) 65 final, 19 février 2020.

[12] David Laws, Martin Rein, “Reframing practice”, in Marteen Hajer, Hendryk Wagenaar (dir.), Deliberative Policy Analysis, Cambridge, Cambridge University Press, 2003, p. 174.

[13] Commission européenne, « Renforcer la confiance dans l'intelligence artificielle axée sur le facteur humain », COM(2019) 168 final, 8 avril 2019.

[14] E. Morozov, To Save Everything, Click Here: Technology, Solutionism and the Urge to Fix Problems that Don’t Exist, London, Penguin, 2013.

[15] Déclaration du Secrétaire Général Antonio Guttieres à l’occasion du meeting de l’ECOSOC    “The Future of Everything – Sustainable Development in the Age of Rapid Technological Change”, 11 octobre 2017.

[16] Enrico Letta, Bien plus qu’un marché, avril 2024.

 
 
 

Comments


bottom of page