Le gouvernement français a annoncé, début avril 2026, son intention d'encadrer formellement l'usage de l'intelligence artificielle au sein de la fonction publique, invoquant l'urgence de répondre à une adoption déjà bien avancée — et souvent non déclarée — de ces technologies par les agents de l'État. Selon les informations rapportées par Le Monde, l'exécutif entend lancer une « négociation sociale » avec les organisations syndicales pour définir des règles communes d'utilisation des outils d'IA dans l'administration.
Un recours parfois « clandestin » aux outils d'IA
Derrière l'annonce se dessine un constat préoccupant pour l'exécutif : des agents publics auraient d'ores et déjà recours à des applications d'intelligence artificielle — notamment des assistants conversationnels grand public — sans cadre officiel ni garantie de confidentialité pour les données traitées. Ce phénomène, qualifié d'usage « clandestin », soulève des questions concrètes sur la sécurité des informations sensibles manipulées par l'administration. Le gouvernement a parlé de « danger » pour justifier la nécessité d'agir rapidement, une formulation qui traduit une prise de conscience sur les risques opérationnels et juridiques liés à l'absence de règles claires.
La question n'est pas anodine dans un contexte où plusieurs pays européens tentent de concilier l'efficacité que promettent les outils d'IA avec les impératifs de souveraineté numérique et de protection des données personnelles. En France, la Commission nationale de l'informatique et des libertés (CNIL) a déjà alerté à plusieurs reprises sur les risques liés à l'utilisation de services d'IA hébergés hors de l'Union européenne par des entités publiques.
Les syndicats favorables, mais vigilants
L'initiative gouvernementale a été accueillie positivement par les principales organisations syndicales de la fonction publique, selon Le Monde. Ces dernières se disent prêtes à participer à une concertation, tout en faisant valoir leur intention de rester vigilantes sur plusieurs points : les conditions de déploiement des outils, leur impact sur l'emploi des agents, et les garanties à apporter concernant le contrôle humain des décisions assistées par algorithme.
Ce double positionnement — ouverture au dialogue, mais refus d'un blanc-seing — reflète une tension plus large que traverse l'ensemble du monde du travail face à l'automatisation. Dans la fonction publique, où les effectifs, les missions et les statuts sont encadrés par des textes réglementaires précis, toute modification des pratiques de travail induite par l'IA appelle en principe une révision des procédures existantes et, souvent, une consultation formelle des représentants du personnel.
Un chantier réglementaire à construire
Sur le fond, le gouvernement n'a pas encore précisé, à ce stade, les contours du futur cadre qu'il entend instaurer : les modalités concrètes de la négociation, le calendrier prévu, les administrations prioritairement visées ou encore la liste des outils susceptibles d'être autorisés ou proscrits restent à définir. La démarche s'inscrit néanmoins dans le sillage du règlement européen sur l'intelligence artificielle — l'AI Act — entré progressivement en application depuis 2024, qui impose aux administrations publiques des obligations renforcées en matière de transparence et d'évaluation des risques pour les systèmes d'IA dits « à haut risque ».
La négociation annoncée constituera un test pour l'exécutif : parvenir à transformer en règles opposables une pratique qui s'est déjà répandue dans les services de l'État, sans attendre que les usages non encadrés ne génèrent des incidents aux conséquences juridiques ou médiatiques difficilement maîtrisables.