Des algorithmes de recrutement biaisés aux systèmes de prêt et de reconnaissance faciale discriminatoires, apprenez à lutter contre la discrimination par l'IA. Droits de l'Article 22 du RGPD, protections de la loi 144 de NYC, règlements de recours collectifs et poursuites individuelles pour biais algorithmique.
L'intelligence artificielle a discrètement révolutionné le recrutement, les prêts, le logement, l'assurance et la justice pénale – mais cette révolution a un côté sombre. Étude après étude, il est révélé que les systèmes d'IA, loin d'être des outils mathématiques neutres, discriminent systématiquement les groupes protégés. Amazon a abandonné son outil de recrutement par l'IA après avoir découvert qu'il pénalisait les CV contenant le mot « women's » (comme dans « women's chess club »). Le système d'entretien vidéo par IA de HireVue a fait l'objet d'un recours collectif de 228 millions de dollars pour discrimination présumée envers les candidats handicapés. Les systèmes de reconnaissance faciale identifient erronément les femmes noires à des taux jusqu'à 47 fois plus élevés que les hommes blancs, entraînant des arrestations injustifiées. Et les algorithmes de prêt refusent des prêts hypothécaires à des candidats qualifiés issus de minorités à des taux 40 à 80 % plus élevés que les candidats blancs ayant des profils de crédit identiques.
Ce ne sont pas des bogues, ce sont des caractéristiques intégrées dans des systèmes entraînés sur des données historiques biaisées (l'IA d'Amazon a appris des CV soumis à une entreprise technologique au cours de la dernière décennie, dont 99 % provenaient d'hommes) ou conçues avec des indicateurs imparfaits de « solvabilité » ou d'« adéquation au poste » qui sont corrélés à des caractéristiques protégées (les codes postaux comme indicateurs de race, les interruptions de carrière comme indicateurs de soins liés au genre, le prestige universitaire comme indicateur de classe socio-économique). Le résultat : une discrimination systémique à grande échelle, affectant des millions de personnes qui n'obtiennent jamais d'examen humain, ne voient jamais de motif de rejet, ne savent jamais que leur race ou leur genre a été le facteur décisif.
Mais la loi rattrape son retard. L'Article 22 du RGPD donne aux Européens le droit de contester les décisions automatisées et d'exiger un examen humain. La loi locale 144 de NYC (2023) exige des audits de biais pour tous les outils de recrutement par l'IA utilisés sur les résidents de NYC. L'AI Video Interview Act de l'Illinois impose la divulgation et le consentement pour l'analyse par l'IA des entretiens vidéo. La CCPA de Californie accorde l'accès aux données personnelles (y compris les scores d'IA) que les entreprises utilisent pour prendre des décisions. Et les lois fédérales sur les droits civiques (Title VII pour l'emploi, Fair Housing Act, Equal Credit Opportunity Act) s'appliquent à la discrimination par l'IA tout comme à la discrimination humaine – les entreprises ne peuvent pas se cacher derrière « c'est l'algorithme qui l'a fait ».
L'indemnisation provient de trois sources : (1) Règlements de recours collectifs pour biais systémique (200$-5 000$ par personne typiquement, avec Facebook payant 14 M$ pour le ciblage d'annonces d'emploi biaisées, HireVue faisant face à 228 M$ de réclamations) ; (2) Poursuites individuelles pour préjudice grave (10 000$-50 000$ pour perte d'emploi, arrestation injustifiée ou refus financier avec des preuves solides d'impact disparate) ; (3) Réclamations au titre de l'Article 82 du RGPD en Europe (2 000€-20 000€ pour le préjudice moral lié à la discrimination, plus élevé en cas de préjudice financier). Ce guide vous montre comment identifier la discrimination par l'IA, recueillir des preuves et explorer toutes les voies d'indemnisation.
L'Article 22 du RGPD accorde aux individus « le droit de ne pas faire l'objet d'une décision fondée uniquement sur un traitement automatisé... produisant des effets juridiques les concernant ou les affectant de manière significative de façon similaire ». Cela couvre les rejets de recrutement par l'IA, les refus de prêt, la tarification des assurances et toute décision automatisée ayant des conséquences majeures. Les entreprises doivent fournir des « informations significatives sur la logique sous-jacente » et permettre un examen humain si vous contestez la décision.
L'Article 82 vous permet de poursuivre pour « dommage matériel ou moral » résultant de violations du RGPD, y compris les décisions d'IA discriminatoires. Le dommage moral comprend la détresse émotionnelle, l'anxiété, la perte d'opportunité, l'atteinte à la réputation. Les tribunaux de l'UE ont accordé 2 000€-20 000€ pour le préjudice moral lié à la discrimination, avec des montants plus élevés (50 000€+) pour les cas graves impliquant une perte d'emploi ou une ruine financière.
Amendes maximales pour les entreprises : 20 millions d'euros ou 4 % du chiffre d'affaires annuel mondial.
La loi locale 144 de NYC exige des employeurs utilisant des « outils de décision automatisés pour l'emploi » (AEDT) à NYC de mener des audits de biais annuels et de publier les résultats. Les entreprises doivent informer les candidats si l'IA est utilisée et permettre des processus de sélection alternatifs. Violations : 500$ par jour (s'accumulant rapidement à 50 000$-100 000$ pour une non-conformité prolongée).
Bien que la loi 144 ne crée pas de droit d'action privé (vous ne pouvez pas poursuivre directement pour des violations), elle fournit des preuves solides pour les réclamations de discrimination au titre du Title VII. Si une entreprise n'a pas effectué d'audit de biais ou en a échoué un, c'est une preuve solide qu'elle savait (ou aurait dû savoir) que son IA était discriminatoire. Les avocats spécialisés dans les recours collectifs surveillent attentivement ces audits.
Le Département de la protection des consommateurs et des travailleurs de NYC applique la loi. Portail de plaintes : nyc.gov/site/dca
L'Illinois exige des employeurs utilisant l'IA pour analyser les entretiens vidéo (expressions faciales, ton, choix des mots) de : (1) informer les candidats par écrit que l'IA est utilisée, (2) expliquer comment l'IA fonctionne et quelles caractéristiques elle évalue, (3) obtenir un consentement écrit, (4) supprimer les vidéos dans les 30 jours suivant la demande. Violations : 1 000$-5 000$ par personne. Plusieurs recours collectifs ont été déposés, avec des règlements de l'ordre de 100$-500$ par personne pour les violations techniques, plus élevés si la discrimination est prouvée.
La CCPA accorde aux résidents de Californie le droit d'accéder aux « informations personnelles spécifiques » que les entreprises collectent, y compris les scores générés par l'IA, les évaluations de risques et les justifications des décisions. Si une entreprise utilise l'IA pour vous refuser un emploi, un prêt ou un logement, vous pouvez demander : (1) votre score/classement d'IA, (2) les facteurs pris en compte, (3) une comparaison avec les candidats acceptés. Les entreprises doivent répondre dans les 45 jours. Le refus de divulguer les expose à 7 500$ par violation (violations intentionnelles).
Le DOJ a poursuivi Facebook pour avoir permis aux annonceurs de cibler les annonces d'emploi par âge, sexe et race (par exemple, les emplois d'infirmières montrés uniquement aux femmes, les emplois de bûcherons uniquement aux hommes, les annonces de logement excluant les familles avec enfants). Règlement : 14,25 millions de dollars d'amende + 9,5 millions de dollars de fonds pour indemniser les personnes privées d'opportunités. Facebook a accepté de cesser d'autoriser le ciblage démographique pour les annonces d'emploi, de logement et de crédit.
Amazon a abandonné son outil de sélection de CV par IA après avoir découvert qu'il pénalisait les CV contenant le mot « femmes » (par exemple, « capitaine du club d'échecs féminin ») et déclassait les diplômées de deux collèges exclusivement féminins. Entraînée sur 10 ans de CV soumis à Amazon (majoritairement masculins), l'IA a appris que homme = bon candidat. Pas de règlement (Amazon a supprimé l'outil avant le procès), mais largement cité dans les affaires Title VII comme preuve que l'IA reproduit les biais historiques.
L'IA de HireVue analyse les entretiens vidéo – expressions faciales, ton, choix des mots, schémas de parole – pour noter les candidats. L'Electronic Privacy Information Center (EPIC) a déposé une plainte auprès de la FTC alléguant une discrimination fondée sur le handicap (pénalise les candidats autistes, la paralysie faciale, les troubles de la parole) et un manque de transparence. Une action collective potentielle pourrait impliquer plus de 100 millions de candidats soumis à l'IA de HireVue depuis 2015. Dommages estimés : 228 millions de dollars (2 à 5 dollars par personne pour violation de la vie privée, 500 à 5 000 dollars pour les opportunités refusées).
Clearview AI a collecté 3 milliards de photos sur les réseaux sociaux pour créer une base de données de reconnaissance faciale vendue à la police. Des poursuites judiciaires dans l'Illinois (BIPA), en Californie (CCPA) et au Vermont allèguent des violations de la vie privée et un impact disparate (taux d'erreur plus élevés pour les minorités conduisant à des arrestations injustifiées). Règlements : Illinois 50 millions de dollars (BIPA), ACLU 228 millions de dollars de restriction (ne peut pas vendre à des entreprises privées). Les victimes d'arrestations injustifiées ont intenté des procès pour 100 000 à 500 000 dollars.
Upstart utilise l'IA pour approuver des prêts basés sur 1 600 variables (éducation, historique d'emploi, modèles de clics sur les applications). Le CFPB a constaté que l'algorithme d'Upstart utilisait effectivement des proxys pour la race, ce qui entraînait des taux d'intérêt plus élevés pour les demandeurs issus de minorités que pour les demandeurs blancs dans une situation similaire. Pas d'amende (Upstart a coopéré), mais l'entreprise est tenue de surveiller l'impact disparate. Des poursuites privées en cours réclament 50 à 100 millions de dollars en dommages-intérêts collectifs.
L'IA COMPAS prédit le risque de récidive pour les décisions de libération conditionnelle/condamnation. L'enquête de ProPublica a révélé qu'elle signalait à tort les accusés noirs comme « à haut risque » à un taux deux fois supérieur à celui des accusés blancs (45 % contre 23 % de faux positifs). La Cour suprême du Wisconsin a confirmé son utilisation (Loomis v. Wisconsin), mais a exigé des avertissements sur les limites de précision. Aucune indemnisation individuelle, mais plusieurs États (Californie, Alaska) ont interdit ou restreint les évaluations algorithmiques des risques.
La discrimination par l'IA est difficile à prouver car les algorithmes sont des « boîtes noires ». Mais il existe cinq types de preuves qui fonctionnent :
Si vous pouvez montrer que l'IA nuit de manière disproportionnée à votre catégorie protégée, vous n'avez pas besoin de prouver l'intention. Exemple : Une analyse d'expert révèle que l'IA d'un prêteur refuse les demandeurs noirs à un taux 2 fois supérieur à celui des demandeurs blancs ayant le même score de crédit + revenu. Cela seul peut faire gagner un procès. Coût : 5 000 à 20 000 dollars pour une analyse statistique d'expert, mais de nombreux avocats spécialisés dans les droits civiques couvrent les frais initiaux.
Si une entreprise est soumise à la NYC Law 144 (ou à des lois futures similaires) et n'a pas effectué l'audit de biais requis, c'est une preuve solide qu'elle a été imprudente en matière de discrimination. De même si elle a effectué un audit qui a révélé un biais, mais qu'elle a quand même utilisé l'IA.
Montrez que l'IA utilise des variables qui sont corrélées avec des caractéristiques protégées : Code postal (race), prestige universitaire (classe/race), interruptions de carrière (garde d'enfants/genre), schémas de parole (handicap), âge du profil Facebook (âge). L'ECOA exige des prêteurs qu'ils divulguent les « principales raisons » du refus – demandez-les et recherchez les proxys.
Trouvez quelqu'un ayant des qualifications similaires mais une caractéristique protégée différente qui a été embauché/approuvé. Exemple : Vous et un collègue blanc avez tous deux postulé pour le même emploi, avec les mêmes qualifications, il a obtenu un entretien (l'IA l'a classé 8/10), vous non (l'IA vous a classé 3/10). Cela suggère que l'IA a pénalisé votre race/genre.
Amazon a admis que son IA de recrutement était biaisée (rapport Reuters 2018). HireVue a admis que l'IA notait moins bien les candidats handicapés (plainte EPIC FTC). Meta a admis le ciblage publicitaire racial (règlement DOJ). Si l'entreprise a admis un biais ou réglé des réclamations antérieures, citez cela comme preuve qu'elle était au courant du problème.
Recherchez des indices : Rejet instantané (aucun humain n'aurait pu examiner votre CV de 300 pages en 3 secondes), raison de rejet générique (« non qualifié »), l'entreprise se vante de l'efficacité de son recrutement par l'IA, l'offre d'emploi mentionne « suivi des candidatures par IA ». Exercez vos droits RGPD/CCPA pour demander : les données collectées, les scores de l'IA, la logique de décision. Les entreprises doivent répondre dans les 30 à 45 jours.
Envoyez une demande écrite : « Conformément à [RGPD Article 15 / CCPA Section 1798.110], je demande l'accès à toutes les données personnelles que vous avez collectées à mon sujet, y compris les scores générés par l'IA, les évaluations de risque, les classements et la logique de la prise de décision automatisée. » Incluez : votre nom, les dates de votre candidature, le poste/prêt/appartement pour lequel vous avez postulé, la vérification d'identité. Conservez une copie de la demande.
Calculer les dommages et intérêts : Salaires perdus (salaire de l'emploi non obtenu × mois de chômage), intérêts plus élevés payés (différence des taux de prêt × montant du prêt × années), préjudice moral (coûts de thérapie, notes de journal documentant l'anxiété/dépression), frais directs (réparation de crédit, frais juridiques). Une documentation solide vaut $5,000-$20,000 en règlements à l'amiable.
Avant de poursuivre pour discrimination au titre du Title VII ou du FHA, vous devez déposer une plainte auprès d'une agence : EEOC (emploi) : eeoc.gov/filing-charge-discrimination, HUD (logement) : hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (crédit) : consumerfinance.gov/complaint. Délai : 180-300 days à compter de la discrimination. L'agence enquête pendant 6-12 months, puis délivre une lettre de « droit de poursuivre ».
Recherchez sur Google « [Company Name] AI bias class action » ou consultez classaction.org. S'il existe une action collective, rejoignez-la en remplissant un formulaire de réclamation (facile, pas besoin d'avocat). S'il n'y a pas d'action collective, consultez un avocat spécialisé dans les droits civiques. La plupart travaillent au pourcentage (33-40% du recouvrement, pas de frais initiaux). Les dossiers solides (impact disparate clair, préjudice documenté >$10,000, grande entreprise avec des ressources importantes) attirent les meilleurs avocats.
Loi 144 de NYC : Signaler au NYC Department of Consumer and Worker Protection.
FTC (pratiques d'IA déloyales/trompeuses) : reportfraud.ftc.gov.
UE : Déposer une plainte auprès de l'autorité nationale de protection des données (par exemple, ICO au UK, CNIL en France).
Les amendes réglementaires incitent les entreprises à régler rapidement les poursuites privées.
Suivez ces étapes pour identifier les biais de l'IA, recueillir des preuves et obtenir une indemnisation
Recherchez les rejets instantanés, les raisons génériques, les grandes entreprises utilisant des systèmes de suivi des candidatures. Demandez vos données via le GDPR Article 15 (UE) ou le CCPA (Californie). Demandez : « L'IA a-t-elle été utilisée ? Quelles données a-t-elle analysées ? Quel était mon score ? »
Comparez vos qualifications à celles des personnes qui ont été embauchées/approuvées (même éducation, expérience, mais race/genre différents). Faites des recherches sur l'entreprise : ont-elles déjà réglé des plaintes pour biais de l'IA ? Ont-elles effectué les audits de biais requis ? Recherchez des articles de presse, des plaintes de l'EEOC, des enquêtes de la FTC.
Calculez les salaires perdus (salaire de l'emploi × mois), les intérêts plus élevés payés (différence de taux de prêt × montant × années), les coûts de préjudice moral (reçus de thérapie, dossiers médicaux pour l'anxiété/dépression), le temps passé (heures passées à postuler ailleurs, réparation de crédit). Des journaux détaillés augmentent la valeur du règlement de $5,000-$15,000.
Emploi : Plainte EEOC dans les 180-300 days. Logement : Plainte HUD dans 1 year. Crédit : Plainte CFPB dans les 2-5 years. Préservez le droit de poursuivre. L'agence peut trouver une cause et négocier un règlement, vous épargnant les coûts d'une action en justice.
Recherchez sur Google « [Company Name] AI discrimination class action » ou consultez classaction.org, topclassactions.com. S'il existe une action collective, remplissez un formulaire de réclamation pour la rejoindre (pas besoin d'avocat, cela prend 15 minutes). Surveillez les sites web de règlement pour les délais de paiement (généralement 12-24 months).
Si les dommages >$10,000 ou si les preuves sont solides, consultez un avocat pour une action en justice individuelle. La plupart travaillent au pourcentage (pas de frais initiaux). Préparez : chronologie des événements, lettres de rejet, candidats comparables qui ont été embauchés, réponses aux demandes de données GDPR/CCPA, calculs des pertes financières. Une préparation solide augmente l'intérêt de l'avocat et le levier de négociation pour le règlement.
Déposez des plaintes auprès de la FTC (pratiques d'IA déloyales), du NYC DCWP (violations de la Law 144), du procureur général de l'État (protection des consommateurs), de l'Autorité de protection des données de l'UE (violations du GDPR). Les enquêtes réglementaires incitent les entreprises à régler rapidement les plaintes privées (éviter les litiges prolongés + les amendes réglementaires).