Algorithmes et services publics : la Défenseure des droits alerte sur les risques pour les citoyens

Le 13 novembre 2024, la Défenseure des droits a publié un rapport alarmant sur l’utilisation croissante d’algorithmes au sein des services publics français. Ce document attire l’attention sur les dérives potentielles que pourrait engendrer l’automatisation des décisions administratives.

Dans un contexte où les administrations se numérisent à grande vitesse, la question de la protection des droits fondamentaux face aux technologies d’intelligence artificielle devient importante.

🟠 1 – Des algorithmes omniprésent dans les décisions administratives

Les systèmes d’algorithmes sont aujourd’hui largement utilisés dans les services publics pour optimiser la gestion et le traitement de nombreuses procédures : calcul des prestations sociales, attribution des logements, gestion des inscriptions scolaires, et même évaluation des risques en matière de fraude.

S’ils permettent d’accélérer les traitements et de gagner en efficacité, leur fonctionnement repose souvent sur des critères opaques, et parfois biaisés. Or, lorsqu’un algorithme commet une erreur ou applique un raisonnement discriminatoire, c’est le citoyen qui en subit directement les conséquences.

🟠 2 – Des risques réels : erreur, opacité et discriminations

La Défenseure des droits pointe trois risques majeurs liés à ces systèmes automatisés :

  • Des erreurs: en raison de règles mal conçues, d’une mauvaise qualité des données ou de l’absence de mise à jour régulière des algorithmes, des décisions erronées peuvent être prises (exclusion injustifiée d’un dispositif social, surévaluation d’un impôt, etc.).
  • Des biais: les algorithmes peuvent reproduire, voire amplifier, des discriminations existantes, notamment en matière de genre, d’origine ou de situation sociale, si les données utilisées en amont sont elles-mêmes biaisées.
  • Un déficit de transparence: le fonctionnement technique des algorithmes est rarement expliqué aux usagers, qui peinent à comprendre les raisons d’une décision ou à exercer leurs droits de recours.

🟠 3 – Le nécessaire maintien d’un contrôle humain

Le rapport recommande fermement de ne pas confier de manière exclusive la prise de décisions à des algorithmes. La présence humaine est essentielle, non seulement pour garantir une compréhension individualisée des situations, mais aussi pour vérifier la justesse et l’équité des décisions rendues.

Autrement dit, l’algorithme doit être un outil d’aide à la décision, et non un substitut au jugement administratif.

🟠 4 – La transparence, un impératif pour garantir les droits des citoyens     

La Défenseure des droits appelle également à renforcer la transparence sur l’utilisation des algorithmes : les citoyens doivent être informés de la nature automatisée du traitement dont ils font l’objet, comprendre les règles appliquées, et pouvoir contester les décisions.

Ce principe rejoint les exigences posées par le Règlement Général sur la Protection des Données (RGPD), notamment :

  • Le droit à une explication intelligible d’une décision fondée sur un traitement automatisé ;
  • Le droit à un recours humain en cas de désaccord ;
  • L’obligation, pour le responsable de traitement, de réaliser une analyse d’impact pour tout traitement susceptible d’engendrer un risque élevé pour les droits et libertés.

🟠 Conclusion

À travers ce rapport, la Défenseure des droits rappelle que l’innovation technologique ne doit jamais se faire au détriment des principes fondamentaux du droit administratif.

Les administrations doivent veiller à garantir la loyauté et l’équité des outils numériques qu’elles déploient. L’encadrement juridique de l’usage des algorithmes dans le secteur public (au croisement du droit administratif, du droit des données personnelles et du droit du numérique) devient une priorité pour préserver la confiance des citoyens.

 

Pour en savoir plus / sources :

https://www.lemonde.fr/les-decodeurs/article/2024/11/13/la-defenseure-des-droits-appelle-a-la-vigilance-sur-l-usage-des-algorithmes-par-les-services-publics_6390994_4355770.html

https://www.defenseurdesdroits.fr/algorithmes-intelligence-artificielle-et-services-publics-2024

https://www.etalab.gouv.fr/algorithmes-publics/

Un an après avoir lancé une ambitieuse stratégie de démocratisation de l’intelligence artificielle (IA), le Barreau de Paris franchit une nouvelle étape décisive avec la publication de son premier Livre blanc dédié à cette technologie. Ce document, pensé comme un outil d’accompagnement pour les avocats, marque une volonté claire : intégrer l’IA dans la pratique juridique tout en respectant les exigences déontologiques et réglementaires.

Dans un contexte européen marqué par l’évolution constante des réglementations numériques, le Comité européen de la protection des données (CEPD) poursuit ses efforts pour garantir une meilleure transparence dans le traitement des données personnelles. Deux initiatives récentes illustrent cette dynamique : la publication de lignes directrices sur l’interaction entre le RGPD et le Digital Markets Act (DMA), et le lancement d’une action coordonnée sur la transparence en 2026.

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de bonnes pratiques pour l’intelligence artificielle à usage général (GPAI), marquant une nouvelle étape dans la régulation de l’intelligence artificielle en Europe. Ce Code, bien que volontaire, s’inscrit dans un contexte de montée en puissance du Règlement sur l’IA (AI Act), dont certaines dispositions, notamment celles concernant les GPAI, sont applicables depuis le 2 août 2025.

Le 3 septembre 2025, le Tribunal de l'Union Européenne a rejeté le recours d’un citoyen français (M. Philippe Latombe, député français et membre de la CNIL) visant à annuler la décision de la Commission européenne du 10 juillet 2023, établissant l’adéquation du nouveau cadre de transfert de données personnelles entre l’Union européenne et les États-Unis. Ce cadre, connu sous le nom de Data Privacy Framework (DPF), succède au Privacy Shield, invalidé en 2020 par la CJUE dans l’affaire Schrems II. Le DPF repose sur des engagements renforcés pris par les États-Unis en matière de protection des données, notamment via le décret présidentiel 14086, encadrant les activités de renseignement.