Face à une discrimination, la preuve est souvent l’arme décisive pour faire valoir ses droits. Pourtant, dans de nombreux cas, cette preuve repose sur l’utilisation de données personnelles, comme des statistiques ou des éléments factuels liés à des individus.
Avec l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD), ces pratiques se heurtent désormais à des règles strictes visant à protéger la vie privée. Dès lors, une question se pose : comment concilier la nécessité de prouver des discriminations avec les contraintes imposées par le RGPD ?
Ce défi illustre une tension profonde entre deux piliers du droit : la lutte contre les inégalités et la protection des libertés individuelles.
🟠 La charge de la preuve : un défi complexe
En matière de discrimination, la charge de la preuve incombe souvent à la victime, ce qui constitue une barrière majeure. Il ne s’agit pas seulement de démontrer un traitement différencié, mais aussi d’établir que ce traitement repose sur un critère prohibé, comme l’origine, le sexe ou le handicap. Cette démonstration s’appuie fréquemment sur des éléments statistiques ou des documents contenant des données personnelles.
Or, le RGPD limite strictement la collecte, le traitement et la conservation de ces données. Toute utilisation doit être légale, nécessaire et proportionnée à l’objectif poursuivi. Cela place les victimes et leurs défenseurs face à un dilemme : comme recueillir des preuves solides sans enfreindre les dispositions du RGPD ? La frontière entre preuve légitime et atteinte aux droit à vie privée est souvent ténue.
🟠 RGPD et preuve : des jurisprudences éclairantes
Les juridictions françaises ont progressivement établi des lignes directrices pour l’utilisation des données personnelles comme preuves en matière de discrimination, tout en respectant les exigences du RGPD. Un arrêt clé, en la matière, est celui de la Cour de cassation du 3 octobre 2024 (pourvoi n°21-20.979). Dans cette décision, la Cour a jugé que la communication de documents contenant des données personnelles, tels que des bulletins de paie, pouvait être admise à condition qu’elle soit indispensable à l’exercice du droit à la preuve et proportionnée au but poursuivi.
Le juge a ainsi la responsabilité d’évaluer si la production des données est strictement nécessaire à l’établissement des faits allégués et de s’assurer que les pièces fournies sont limitées aux informations pertinentes. Toute donnée superflue ou non essentielle doit être occultée afin de préserver la vie privée des personnes concernées. Cette jurisprudence, tout en respectant les principes fondamentaux du RGPD, garantit que les victimes de discrimination ne soient pas empêchées de faire valoir leurs droits faute de preuves admissibles.
En pratique, cette approche impose une analyse fine : d’un côté, le droit à la preuve, indispensable pour démontrer une injustice ; de l’autre, les exigences strictes de proportionnalité et de nécessité imposées par le RGPD. Cet équilibre reflète une volonté des juridictions de concilier la protection des données personnelles avec l’accès à une justice équitable, un enjeu crucial pour les litiges portant sur des discriminations systémiques ou individuelles.
🟠 Illustration : le recours aux statistiques anonymisées
Les statistiques anonymisées constituent un outil essentiel pour démontrer des discriminations systémiques tout en respectant les exigences du RGPD. Un exemple marquant est un arrêt de la Cour de cassation du 14 décembre 2022, dans lequel des analyses patronymiques ont été utilisées pour prouver une discrimination à l’embauche. L’étude statistique révélait des écarts significatifs dans l’accès à des CDI en fonction de l’origine supposée des candidats, montrant que les salariés à patronyme européen avaient beaucoup plus de chances d’être recrutés que ceux à patronyme extra-européen.
La Cour a jugé ces preuves admissibles en raison de leur anonymisation et de leur pertinence dans le cadre du litige. Cette décision souligne qu’un traitement rigoureux et proportionné des données peut concilier la nécessité de prouver des discriminations avec la protection des droits à la vie privée imposée par le RGPD. Ainsi, les statistiques anonymisées permettent de révéler des pratiques injustes sans porter atteinte aux libertés fondamentales.
🟠 Concilier justice et protection des données
L’utilisation des données personnelles pour prouver une discrimination est un exercice d’équilibre entre deux impératifs : garantir l’accès à la justice et protéger les droits fondamentaux des individus. Les décisions récentes, comme celles de le Cour de cassation, montrent qu’il est possible de concilier ces objectifs à condition de respecter les principes de nécessité et de proportionnalité.
Cependant, cette voie exige rigueur et innovation. Les statistiques anonymisées et les outils technologiques adaptés permettent de révéler des pratiques discriminatoires tout en restant conformes au RGPD. Ces solutions contribuent à garantir une justice équitable, essentielle pour construire une société plus juste et inclusive.
Pour en savoir plus / sources :
L’intelligence artificielle au service de la Justice : une stratégie opérationnelle et éthique Le 23 juin 2025, le rapport « L’IA au service de la Justice : stratégie et solutions opérationnelles » a été remis au Garde des sceaux, Gérald Darmanin, par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature (ENM). Ce document marque une étape décisive dans la transformation numérique du système judiciaire français.
Loi anti-narcotrafic du 13 juin 2025 : une ambition freinée par la censure constitutionnelle. Adoptée dans un contexte d’urgence face à l’essor du narcotrafic en France, la loi du 13 juin 2025 visait à doter les autorités judiciaires et administratives de nouveaux outils pour lutter contre les réseaux criminels(I). Mais, si le texte a été promulgué, il n’a pas échappé au contrôle du Conseil constitutionnel, qui a censuré six de ses dispositions, dont les articles 5 et 15 (II).
L’intelligence artificielle (IA) transforme notre quotidien, mais son développement repose souvent sur l’exploitation de données personnelles. Dans ce contexte, la CNIL a publié, le 19 juin 2025, de nouvelles recommandations pour encadrer l’usage de la base légale de l’« intérêt légitime » pour le développement de systèmes d’intelligence artificielle. Ces recommandations visent à concilier innovation technologique et respect des droits fondamentaux. Ainsi, deux nouvelles fiches pratiques ont été publiées sur l'intelligence artificielle. La première précise les conditions d'usage de la base légale de l'intérêt légitime pour développer un système d'IA (I) et la seconde traite plus spécifiquement de la collecte de données via "moissonnage" ou "web scraping (II)
Le European Accessibility Act (EAA) – ou directive européenne sur l'accessibilité – entre en application le 28 juin 2025. Ce texte vise à renforcer l’égalité d’accès aux biens et services pour les personnes en situation de handicap, en imposant des obligations nouvelles aux entreprises privées. Il s’agit d’un changement profond dans la manière de concevoir et de fournir les produits et services numériques sur le marché européen.