Sécuriser la décision publique à l'ère de l'IA
Garantir la fiabilité et la conformité des décisions assistées par IA
L'intelligence artificielle s'installe dans la sphère publique comme dans la sphère privée. Elle promet rapidité, simplification et automatisation. Mais dans l'action publique, chaque décision engage : une aide versée, une autorisation délivrée, un avis rendu. Et plus la technologie s'invite dans ces processus, plus une question devient urgente : comment garantir que la décision reste sûre, traçable et conforme au droit ?
Quand la rapidité devient un risque juridique
La tentation est grande d'aller vite. Les assistants d'écriture, les générateurs de rapports ou d'analyses se multiplient. Ils produisent du texte fluide, des synthèses convaincantes, des réponses instantanées. Mais en matière publique, la forme ne suffit pas : une décision doit pouvoir être justifiée, auditable et opposable.
L'avis du Conseil d'État sur l'IA et l'action publique est explicite : "le recours à des systèmes d'intelligence artificielle ne peut se substituer à la responsabilité de la décision administrative". Autrement dit, déléguer sans contrôler, c'est exposer la collectivité à une chaîne de risques.
Les IA généralistes : l'illusion de la fiabilité
Les grands modèles de langage séduisent par leur aisance. Ils produisent des synthèses cohérentes, des argumentaires juridiques plausibles, parfois brillants. Mais cette fluidité masque une faiblesse structurelle : l'absence de traçabilité des sources.
Aucune administration ne peut fonder une décision sur une phrase générée sans savoir d'où vient l'information. La CNIL le rappelle : les IA dites "génératives" peuvent produire des hallucinations, c'est-à-dire des affirmations erronées mais formulées avec assurance.
Construire la sécurité à la source : données maîtrisées, textes officiels
La sécurité ne se décrète pas : elle se construit à la source. Une IA n'est fiable que si les données qui l'alimentent le sont. Cela suppose trois principes simples :
- Corpus maîtrisé : les informations utilisées doivent provenir de sources connues, identifiées, vérifiables.
- Référentiels officiels : textes réglementaires, délibérations, circulaires, jurisprudences.
- Traçabilité totale : chaque réponse doit pouvoir être reliée à son fondement juridique ou documentaire.
L'IA souveraine comme gage de conformité RGPD
La souveraineté numérique n'est pas une posture idéologique : c'est une condition de conformité au droit européen. Les données publiques et personnelles ne peuvent être traitées sans encadrement. Le RGPD impose que le responsable du traitement maîtrise le lieu, la finalité et la durée de conservation des données.
L'IA souveraine repose sur un principe inverse : les modèles sont hébergés, entraînés et utilisés dans un cadre contrôlé, sur des corpus internes et des textes officiels. Ce n'est pas un repli, c'est une garantie : celle que chaque décision issue de l'IA puisse être expliquée, vérifiée et défendue.