Retour à la liste complète

Justice administrative et intelligence artificielle : l’adoption d’une charte pour encadrer les usages

Face à la diffusion rapide des outils d’intelligence artificielle générative, la juridiction administrative s’est dotée, en décembre 2025, d’une charte d’utilisation de l’IA. Instrument de droit souple, ce texte vise à offrir un cadre commun aux acteurs de la justice administrative.
Au-delà de l’affichage institutionnel, cette initiative pose une question centrale : s’agit-il d’un simple guide de bonnes pratiques ou d’un véritable cadre normatif préventif face aux risques liés à l’IA ?

🟠 Pourquoi une charte aujourd’hui ?

Les mésusages d’IA générative dans le contentieux se multiplient : écritures entachées d’« hallucinations », décisions mentionnant explicitement un recours inadapté à ces outils, débats sur la fiabilité des productions automatisées.

Dans ce contexte, la charte s’inscrit dans la continuité des travaux européens et nationaux (charte éthique de la CEPEJ, rapport de la Cour de cassation, réflexions antérieures du Conseil d’État). Elle vise à concilier innovation technologique et exigence de contrôle humain effectif.

🟠 Un instrument de droit souple à double portée

La charte complète les textes existants (RGPD, règlement IA, loi Informatique et Libertés, code de justice administrative).

Elle poursuit une double ambition :

  • interne, en constituant un vade mecum pour les personnels des juridictions administratives ;
  • externe, en affirmant l’image d’une justice moderne mais soucieuse des droits fondamentaux.

Son architecture met en avant sept principes directeurs, sans toutefois les systématiser de manière pleinement pédagogique.

🟠 La primauté absolue du contrôle humain

Le cœur du dispositif repose sur un principe clair : aucune décision de justice ne peut être prise sans contrôle humain.

L’IA n’est qu’une aide. Les magistrats demeurent seuls responsables de leurs décisions et doivent vérifier les informations produites, prévenir les biais cognitifs et s’assurer de l’existence et de la hiérarchie des sources citées.

La charte insiste également sur un usage raisonné, incluant une attention à l’impact environnemental des systèmes mobilisés.

🟠 Une position particulièrement stricte sur les IA externes

Le texte adopte une ligne de prudence renforcée concernant les systèmes d’IA « grand public ».

Aucun document couvert par un secret (mémoires, pièces, projets de décision, conclusions) ne peut être versé dans ces outils, en raison des risques liés à la confidentialité, à la protection des données et à la réutilisation des contenus pour l’entraînement des modèles.

En pratique, seules des informations publiques peuvent être utilisées, ce qui limite fortement les usages possibles. Cette prudence, critiquée par certains comme excessive, apparaît néanmoins cohérente au regard des exigences du RGPD et du règlement IA.

🟠 Un encadrement prospectif des systèmes internes

La charte envisage également le développement de systèmes internes (pseudonymisation des décisions, aide au traitement de contentieux sériels).

Elle pose des exigences proches de celles applicables aux systèmes à haut risque : garantie humaine, transparence, auditabilité, explicabilité et réversibilité des outils. Elle ajoute des critères de performance, de soutenabilité environnementale et d’autonomie stratégique, avec une attention particulière à la sécurité des données.

🟠 Conclusion

La charte adoptée par la juridiction administrative institue un cadre rigoureux et préventif, fondé sur la primauté du contrôle humain et la protection des données.

Plus qu’un simple guide, elle trace les contours d’une doctrine prudente de l’IA judiciaire. Son évolution future dépendra de l’émergence de nouveaux cas d’usage, mais elle pourrait d’ores et déjà constituer une référence pour l’encadrement des applications d’IA dans l’ensemble des juridictions.