Selon une étude interne réalisée à l'Assemblée nationale, huit assistants parlementaires sur dix ont régulièrement recours à l'intelligence artificielle dans leur travail. Une utilisation qui soulève notamment "des interrogations légitimes en matière de cybersécurité et de protection des données sensibles", pointe la Fondation Jean-Jaurès dans une note qui vient d'être publiée.
L'intelligence artificielle est-elle déjà massivement utilisée à l'Assemblée nationale ? Selon une étude interne réalisée au cours des mois de février et mars auprès de plus de 518 assistants parlementaires, un sur deux déclare utiliser l’IA quotidiennement dans le cadre de son travail, et un sur trois au moins une fois par semaine. En somme, huit assistants sur dix utilisent très régulièrement l’IA, souligne la Fondation Jean-Jaurès en s'appuyant sur les résultats d'une enquête transmise par la députée Brigitte Klinkert (Ensemble pour la République), qui fait partie des questeures du Palais-Bourbon.
Dans une note parue lundi 27 avril, le think tank ne s'étonne pas outre mesure de cette propension à recourir à l'IA, jugeant qu'une part importante de l'activité des collaborateurs parlementaires est automatisable. Ainsi, selon la Fondation, 55 % des tâches réalisées par les équipes parlementaires sont automatisables à plus de 50 % via l’emploi de solutions d’IA. Et 35 % des tâches font l’objet d’une transition vers l’IA considérée comme prête à l’emploi, c’est-à-dire pouvant être réalisée dès à présent.
Parmi les tâches les plus compatibles avec l'IA, la Fondation Jean-Jaurès recense la veille d'actualité médiatique et législative, le traitement des courriels, la gestion de l'agenda du député, voire même la rédaction de notes synthétiques. "On reçoit des rapports le mardi pour une audition le mercredi à 9h30. Donc il est très tentant d’utiliser un LLM [Large Language Model], même si on doit être vigilant aux données transmises", précise le député Nicolas Bonnet (Ecologiste et social), cité dans la note.
D'autres tâches semblent, en revanche, moins conciliables avec l'utilisation d'une intelligence artificielle : l'organisation des déplacements de l'élu, les relations publiques extérieures, la permanence en circonscription, ou encore la gestion des ressources humaines.
A terme, pour les tâches les plus critiques, les institutions parlementaires devront intégrer l'IA à leurs propres systèmes d'information, anticipe la Fondation Jean-Jaurès. Avec l'objectif de pouvoir disposer d'un suivi avancé des amendements - avec un historique des propositions similaires -, d'une pré-génération de textes finaux selon des scénarios de modification, de la transcription des séances, voire d'une prévision du déroulé des séances avec anticipation des créneaux de prise de parole d'un député. Autant de tâches chronophages en moins qui permettront de dégager du temps pour d'autres travaux, juge le think tank.
L'utilisation de plus en répandue de l'intelligence artificielle sans cadre clair questionne cependant le think tank. L'Assemblée nationale "ne propose aujourd’hui aucune solution supervisée - via un produit interne ou du marché - pour ce type de besoins", observe la Fondation. A ce stade, l'utilisation - ou non - de l'IA "reste à la discrétion des parlementaires et de leurs équipes, en l’absence d’un cadre protecteur, posant ainsi une question stratégique en matière de souveraineté".
Or, l'usage de l'intelligence artificielle soulève "des interrogations légitimes en matière de cybersécurité et de protection des données sensibles", d'autant plus que les solutions utilisées ne sont pas forcément françaises. "L’usage dans le travail parlementaire de plateformes LLM accessibles au grand public expose notre pays à des fuites majeures de données confidentielles, au partage souterrain d’informations politiques stratégiques et à des risques accrus de tentatives d’ingérences étrangères", met en garde le think tank.
"Nous considérons non seulement comme crucial, mais également comme urgent l’établissement d’un cadre commun d’usage des IA dans l’exercice du mandat électif et du travail de collaborateur parlementaire", écrivent les auteurs de la note. La Fondation appelle donc à la mise en place d'une "feuille de route pour le développement des usages de l’IA dans le travail parlementaire" et d'un débat politique préalable à la définition de la doctrine d’emploi impliquant l’ensemble des groupes politiques sur le cadre d’utilisation de l’IA.
A noter que les usages de l'intelligence artificielle pourraient toutefois être bientôt davantage encadrés. Un groupe de travail dédié, mené par les députés Arnaud Bonnet (Ecologiste et social) et Denis Masséglia (Ensemble pour la République) a en effet été lancé il y a quelques mois.
Le think tank alerte également sur un autre risque permis par la généralisation de l'usage de l'IA : l’automatisation de la rédaction d’amendements. "Nombre de plateformes LLM sont déjà en capacité de fournir des exposés des motifs convaincants et des dispositifs juridiques recevables. La généralisation de cette technologie et la performance croissante des modèles ouvrent ainsi la voie à une forme d’industrialisation de la production d’amendements, et donc au risque qu’un ordre de grandeur de plusieurs milliers d’amendements par texte, sinon plus, devienne la norme", souligne la note publiée hier.
Rappelant que l'exercice du droit d'amendement est garanti par la Constitution, la note s'inquiète toutefois des conséquences que pourrait avoir la systématisation de l'envolée du nombre d'amendements déposés sur un texte, "dans un système politique où l'obstruction parlementaire est un outil connu de tous". Une telle évolution pourrait limiter le nombre de lois étudiées, réduire leur durée d'examen réelle, voire provoquer en réaction un recours accrus aux outils de rationalisation du temps parlementaire.