Dans nos organisations, nous avons longtemps vécu avec des « boîtes noires ». On acceptait une décision parce qu'elle venait d'un service, d'un logiciel, d'un modèle. Cette époque se termine. Comprendre avant d'agir devient une compétence partagée : agents, encadrants, éditeurs, juristes et DPO doivent savoir dire d'où vient une décision et sur quoi elle repose.

Comprendre avant d'agir : la fin de la boîte noire administrative

Dans l'administration, la règle est claire depuis la Loi pour une République numérique : quand une décision individuelle s'appuie sur un traitement algorithmique, l'usager doit en être informé et peut obtenir les règles et caractéristiques principales du traitement.

Concrètement, publier le code ne suffit pas. Il faut relier la lettre de la loi et le calcul effectué, exposer la logique et documenter les versions.

Pourquoi l'IA doit être explicable, pas magique

Une IA « magique » rassure… jusqu'au premier incident. Une IA explicable instaure une confiance durable. L'explicabilité n'est pas un vernis, elle conditionne la responsabilité, l'acceptabilité et l'amélioration continue des systèmes.

Côté conformité, la CNIL encadre désormais l'IA avec des recommandations techniques (finalité, gouvernance, annotation, sécurité, documentation, DPIA), qui exigent des preuves et des explications adaptées aux personnes concernées.

La logique décisionnelle comme bien commun

Traiter la logique de décision comme un bien commun change l'échelle : on aligne le code sur le droit, on génère l'explication à partir des mêmes sources, on audite et réutilise. C'est précisément l'ambition de CATALA, un langage pour traduire fidèlement la norme (impôt, prestations) en code exécutable, lisible par juristes et ingénieurs.

Former sans cours, par l'usage quotidien

On peut « former » sans amphithéâtre : chaque explication intégrée est une micro-séquence d'apprentissage. Quand l'agent voit : « Refus car la variable X < seuil Y fixé par la règle R, version v2025-09, source : article … », il apprend la règle, la met à jour mentalement et détecte les anomalies.

La montée en compétence automatique des équipes

Quand la preuve est native (liens vers la source, règles applicables, versions, logs), la compétence monte toute seule :

  • Les agents comprennent les déterminants d'une décision et corrigent plus vite.
  • Les juristes auditent les effets d'une évolution légale.
  • Les DPO tracent la conformité RGPD (responsabilités, DPIA, registre).
  • Les équipes SI itèrent sur des écarts objectivés (biais, données obsolètes, exceptions mal codées).

Adoptez une IA explicable et conforme