Home/Digital Rights/AI Bias Discrimination

Biais et discrimination de l'IA : Obtenez une indemnisation pour les préjudices algorithmiques

Des algorithmes de recrutement biaisés aux systèmes de prêt et de reconnaissance faciale discriminatoires, apprenez à lutter contre la discrimination par l'IA. Droits de l'Article 22 du RGPD, protections de la loi 144 de NYC, règlements de recours collectifs et poursuites individuelles pour biais algorithmique.

$228M
Potentiel de recours collectif contre les entretiens vidéo par IA de HireVue (allégations de biais)
83%
Des entreprises utilisent l'IA pour le recrutement (2024), beaucoup avec des biais non audités
47%
Taux d'erreur de la reconnaissance faciale pour les femmes à peau foncée contre 1% pour les hommes blancs
€20M
Amende maximale du RGPD + dommages individuels pour discrimination par décision automatisée

Calculez votre indemnisation pour discrimination par l'IA

Our AI will analyze your description and guide you through the next steps

Biais et discrimination de l'IA : La crise de l'injustice algorithmique de 228 millions de dollars

L'intelligence artificielle a discrètement révolutionné le recrutement, les prêts, le logement, l'assurance et la justice pénale – mais cette révolution a un côté sombre. Étude après étude, il est révélé que les systèmes d'IA, loin d'être des outils mathématiques neutres, discriminent systématiquement les groupes protégés. Amazon a abandonné son outil de recrutement par l'IA après avoir découvert qu'il pénalisait les CV contenant le mot « women's » (comme dans « women's chess club »). Le système d'entretien vidéo par IA de HireVue a fait l'objet d'un recours collectif de 228 millions de dollars pour discrimination présumée envers les candidats handicapés. Les systèmes de reconnaissance faciale identifient erronément les femmes noires à des taux jusqu'à 47 fois plus élevés que les hommes blancs, entraînant des arrestations injustifiées. Et les algorithmes de prêt refusent des prêts hypothécaires à des candidats qualifiés issus de minorités à des taux 40 à 80 % plus élevés que les candidats blancs ayant des profils de crédit identiques.

Ce ne sont pas des bogues, ce sont des caractéristiques intégrées dans des systèmes entraînés sur des données historiques biaisées (l'IA d'Amazon a appris des CV soumis à une entreprise technologique au cours de la dernière décennie, dont 99 % provenaient d'hommes) ou conçues avec des indicateurs imparfaits de « solvabilité » ou d'« adéquation au poste » qui sont corrélés à des caractéristiques protégées (les codes postaux comme indicateurs de race, les interruptions de carrière comme indicateurs de soins liés au genre, le prestige universitaire comme indicateur de classe socio-économique). Le résultat : une discrimination systémique à grande échelle, affectant des millions de personnes qui n'obtiennent jamais d'examen humain, ne voient jamais de motif de rejet, ne savent jamais que leur race ou leur genre a été le facteur décisif.

Mais la loi rattrape son retard. L'Article 22 du RGPD donne aux Européens le droit de contester les décisions automatisées et d'exiger un examen humain. La loi locale 144 de NYC (2023) exige des audits de biais pour tous les outils de recrutement par l'IA utilisés sur les résidents de NYC. L'AI Video Interview Act de l'Illinois impose la divulgation et le consentement pour l'analyse par l'IA des entretiens vidéo. La CCPA de Californie accorde l'accès aux données personnelles (y compris les scores d'IA) que les entreprises utilisent pour prendre des décisions. Et les lois fédérales sur les droits civiques (Title VII pour l'emploi, Fair Housing Act, Equal Credit Opportunity Act) s'appliquent à la discrimination par l'IA tout comme à la discrimination humaine – les entreprises ne peuvent pas se cacher derrière « c'est l'algorithme qui l'a fait ».

L'indemnisation provient de trois sources : (1) Règlements de recours collectifs pour biais systémique (200$-5 000$ par personne typiquement, avec Facebook payant 14 M$ pour le ciblage d'annonces d'emploi biaisées, HireVue faisant face à 228 M$ de réclamations) ; (2) Poursuites individuelles pour préjudice grave (10 000$-50 000$ pour perte d'emploi, arrestation injustifiée ou refus financier avec des preuves solides d'impact disparate) ; (3) Réclamations au titre de l'Article 82 du RGPD en Europe (2 000€-20 000€ pour le préjudice moral lié à la discrimination, plus élevé en cas de préjudice financier). Ce guide vous montre comment identifier la discrimination par l'IA, recueillir des preuves et explorer toutes les voies d'indemnisation.

Principales affaires et règlements en matière de discrimination par l'IA

Règlement de 14,25 millions de dollars de Facebook (2022) : Ciblage biaisé des annonces d'emploi

Le DOJ a poursuivi Facebook pour avoir permis aux annonceurs de cibler les annonces d'emploi par âge, sexe et race (par exemple, les emplois d'infirmières montrés uniquement aux femmes, les emplois de bûcherons uniquement aux hommes, les annonces de logement excluant les familles avec enfants). Règlement : 14,25 millions de dollars d'amende + 9,5 millions de dollars de fonds pour indemniser les personnes privées d'opportunités. Facebook a accepté de cesser d'autoriser le ciblage démographique pour les annonces d'emploi, de logement et de crédit.

Outil de recrutement par IA d'Amazon (2018) : Biais de genre

Amazon a abandonné son outil de sélection de CV par IA après avoir découvert qu'il pénalisait les CV contenant le mot « femmes » (par exemple, « capitaine du club d'échecs féminin ») et déclassait les diplômées de deux collèges exclusivement féminins. Entraînée sur 10 ans de CV soumis à Amazon (majoritairement masculins), l'IA a appris que homme = bon candidat. Pas de règlement (Amazon a supprimé l'outil avant le procès), mais largement cité dans les affaires Title VII comme preuve que l'IA reproduit les biais historiques.

Entretiens vidéo par IA de HireVue (en cours) : Potentiel d'action collective de 228 millions de dollars

L'IA de HireVue analyse les entretiens vidéo – expressions faciales, ton, choix des mots, schémas de parole – pour noter les candidats. L'Electronic Privacy Information Center (EPIC) a déposé une plainte auprès de la FTC alléguant une discrimination fondée sur le handicap (pénalise les candidats autistes, la paralysie faciale, les troubles de la parole) et un manque de transparence. Une action collective potentielle pourrait impliquer plus de 100 millions de candidats soumis à l'IA de HireVue depuis 2015. Dommages estimés : 228 millions de dollars (2 à 5 dollars par personne pour violation de la vie privée, 500 à 5 000 dollars pour les opportunités refusées).

Reconnaissance faciale Clearview AI (plus de 33 millions de dollars de règlements)

Clearview AI a collecté 3 milliards de photos sur les réseaux sociaux pour créer une base de données de reconnaissance faciale vendue à la police. Des poursuites judiciaires dans l'Illinois (BIPA), en Californie (CCPA) et au Vermont allèguent des violations de la vie privée et un impact disparate (taux d'erreur plus élevés pour les minorités conduisant à des arrestations injustifiées). Règlements : Illinois 50 millions de dollars (BIPA), ACLU 228 millions de dollars de restriction (ne peut pas vendre à des entreprises privées). Les victimes d'arrestations injustifiées ont intenté des procès pour 100 000 à 500 000 dollars.

Algorithme de prêt Upstart (2023) : Règlement CFPB

Upstart utilise l'IA pour approuver des prêts basés sur 1 600 variables (éducation, historique d'emploi, modèles de clics sur les applications). Le CFPB a constaté que l'algorithme d'Upstart utilisait effectivement des proxys pour la race, ce qui entraînait des taux d'intérêt plus élevés pour les demandeurs issus de minorités que pour les demandeurs blancs dans une situation similaire. Pas d'amende (Upstart a coopéré), mais l'entreprise est tenue de surveiller l'impact disparate. Des poursuites privées en cours réclament 50 à 100 millions de dollars en dommages-intérêts collectifs.

Algorithme de récidive COMPAS (Justice pénale)

L'IA COMPAS prédit le risque de récidive pour les décisions de libération conditionnelle/condamnation. L'enquête de ProPublica a révélé qu'elle signalait à tort les accusés noirs comme « à haut risque » à un taux deux fois supérieur à celui des accusés blancs (45 % contre 23 % de faux positifs). La Cour suprême du Wisconsin a confirmé son utilisation (Loomis v. Wisconsin), mais a exigé des avertissements sur les limites de précision. Aucune indemnisation individuelle, mais plusieurs États (Californie, Alaska) ont interdit ou restreint les évaluations algorithmiques des risques.

Quelle indemnisation puis-je obtenir pour une discrimination par l'IA ?

Discrimination à l'embauche par l'IA

  • Action collective : 200 à 2 000 dollars par personne (violations techniques comme l'absence de notification), 500 à 5 000 dollars si la discrimination est prouvée.
  • Poursuite individuelle : 10 000 à 50 000 dollars pour un refus d'emploi avec des preuves solides d'impact disparate (analyse d'expert montrant que l'algorithme pénalise une catégorie protégée, preuve que vous étiez qualifié, calcul des salaires perdus).
  • RGPD (UE) : 2 000 à 20 000 € pour le préjudice moral résultant d'un rejet discriminatoire + droit à un examen humain.
  • Title VII (emploi aux États-Unis) : Arriérés de salaire (salaires que vous auriez gagnés) + indemnité de préavis (pertes de revenus futures si vous ne trouvez pas d'emploi comparable) + dommages-intérêts pour préjudice moral. Les règlements s'élèvent souvent à 50 000 à 200 000 dollars pour une discrimination prouvée.

Discrimination par l'IA en matière de prêt/crédit

  • Action collective : 500 à 3 000 dollars par personne (différence de taux d'intérêt × montant du prêt = dommages réels).
  • Poursuite individuelle : 5 000 à 30 000 dollars de dommages réels (intérêts plus élevés payés sur la durée du prêt) + dommages-intérêts légaux de 10 000 à 20 000 dollars + dommages-intérêts punitifs jusqu'à 500 000 dollars pour discrimination intentionnelle.
  • L'ECOA permet les honoraires d'avocat, donc pas de coût initial. De nombreux avocats spécialisés dans la protection des consommateurs prennent des affaires au pourcentage.

Discrimination par l'IA en matière de logement

  • Action collective : 1 000 à 5 000 dollars par personne (disponibilité limitée des réclamations – la plupart poursuivent individuellement).
  • Poursuite individuelle : 10 000 à 50 000 dollars pour préjudice moral (humiliation, insécurité du logement) + dommages réels (coût d'un logement alternatif, frais de déménagement) + dommages-intérêts punitifs.
  • Fair Housing Act : Permet des dommages-intérêts compensatoires et punitifs illimités. Les verdicts de jury peuvent dépasser 100 000 dollars pour une discrimination flagrante.

Arrestation injustifiée par reconnaissance faciale

  • Poursuite individuelle : 100 000 à 1 000 000 dollars (fausse arrestation, séquestration, préjudice moral, salaires perdus, atteinte à la réputation). Robert Williams (Detroit) a poursuivi pour arrestation injustifiée ; l'affaire a été réglée pour un montant non divulgué. Porcha Woodruff (Detroit, arrêtée enceinte de 8 mois) : poursuite en cours, réclamant plus de 5 millions de dollars.
  • Responsabilité municipale : Les services de police utilisant la reconnaissance faciale sans test de biais sont confrontés à des réclamations au titre de la Section 1983 des droits civiques. Les villes peuvent régler pour 500 000 à 2 millions de dollars pour éviter un procès.

Discrimination par l'IA en matière d'assurance

  • Action collective : 200 à 2 000 dollars par personne (primes trop payées remboursées).
  • Poursuite individuelle : 5 000 à 25 000 dollars si vous pouvez prouver un risque comparable mais une prime plus élevée basée sur un proxy pour une catégorie protégée (code postal = proxy de race, genre = tarification de l'assurance maladie).

Comment prouver le biais de l'IA : les preuves dont vous avez besoin

La discrimination par l'IA est difficile à prouver car les algorithmes sont des « boîtes noires ». Mais il existe cinq types de preuves qui fonctionnent :

1. Statistiques d'impact disparate

Si vous pouvez montrer que l'IA nuit de manière disproportionnée à votre catégorie protégée, vous n'avez pas besoin de prouver l'intention. Exemple : Une analyse d'expert révèle que l'IA d'un prêteur refuse les demandeurs noirs à un taux 2 fois supérieur à celui des demandeurs blancs ayant le même score de crédit + revenu. Cela seul peut faire gagner un procès. Coût : 5 000 à 20 000 dollars pour une analyse statistique d'expert, mais de nombreux avocats spécialisés dans les droits civiques couvrent les frais initiaux.

2. Absence d'audit de biais

Si une entreprise est soumise à la NYC Law 144 (ou à des lois futures similaires) et n'a pas effectué l'audit de biais requis, c'est une preuve solide qu'elle a été imprudente en matière de discrimination. De même si elle a effectué un audit qui a révélé un biais, mais qu'elle a quand même utilisé l'IA.

3. Proxys discriminatoires

Montrez que l'IA utilise des variables qui sont corrélées avec des caractéristiques protégées : Code postal (race), prestige universitaire (classe/race), interruptions de carrière (garde d'enfants/genre), schémas de parole (handicap), âge du profil Facebook (âge). L'ECOA exige des prêteurs qu'ils divulguent les « principales raisons » du refus – demandez-les et recherchez les proxys.

4. Preuve comparative

Trouvez quelqu'un ayant des qualifications similaires mais une caractéristique protégée différente qui a été embauché/approuvé. Exemple : Vous et un collègue blanc avez tous deux postulé pour le même emploi, avec les mêmes qualifications, il a obtenu un entretien (l'IA l'a classé 8/10), vous non (l'IA vous a classé 3/10). Cela suggère que l'IA a pénalisé votre race/genre.

5. Aveux de l'entreprise

Amazon a admis que son IA de recrutement était biaisée (rapport Reuters 2018). HireVue a admis que l'IA notait moins bien les candidats handicapés (plainte EPIC FTC). Meta a admis le ciblage publicitaire racial (règlement DOJ). Si l'entreprise a admis un biais ou réglé des réclamations antérieures, citez cela comme preuve qu'elle était au courant du problème.

Comment déposer une plainte pour discrimination par l'IA

1Étape 1 : Identifiez si vous avez été soumis à une décision de l'IA

Recherchez des indices : Rejet instantané (aucun humain n'aurait pu examiner votre CV de 300 pages en 3 secondes), raison de rejet générique (« non qualifié »), l'entreprise se vante de l'efficacité de son recrutement par l'IA, l'offre d'emploi mentionne « suivi des candidatures par IA ». Exercez vos droits RGPD/CCPA pour demander : les données collectées, les scores de l'IA, la logique de décision. Les entreprises doivent répondre dans les 30 à 45 jours.

2Étape 2 : Demandez vos données (RGPD Article 15 / CCPA)

Envoyez une demande écrite : « Conformément à [RGPD Article 15 / CCPA Section 1798.110], je demande l'accès à toutes les données personnelles que vous avez collectées à mon sujet, y compris les scores générés par l'IA, les évaluations de risque, les classements et la logique de la prise de décision automatisée. » Incluez : votre nom, les dates de votre candidature, le poste/prêt/appartement pour lequel vous avez postulé, la vérification d'identité. Conservez une copie de la demande.

3Étape 3 : Documenter le préjudice

Calculer les dommages et intérêts : Salaires perdus (salaire de l'emploi non obtenu × mois de chômage), intérêts plus élevés payés (différence des taux de prêt × montant du prêt × années), préjudice moral (coûts de thérapie, notes de journal documentant l'anxiété/dépression), frais directs (réparation de crédit, frais juridiques). Une documentation solide vaut $5,000-$20,000 en règlements à l'amiable.

4Étape 4 : Déposer une plainte administrative (Emploi/Logement aux États-Unis)

Avant de poursuivre pour discrimination au titre du Title VII ou du FHA, vous devez déposer une plainte auprès d'une agence : EEOC (emploi) : eeoc.gov/filing-charge-discrimination, HUD (logement) : hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (crédit) : consumerfinance.gov/complaint. Délai : 180-300 days à compter de la discrimination. L'agence enquête pendant 6-12 months, puis délivre une lettre de « droit de poursuivre ».

5Étape 5 : Rechercher une action collective ou intenter une action en justice individuelle

Recherchez sur Google « [Company Name] AI bias class action » ou consultez classaction.org. S'il existe une action collective, rejoignez-la en remplissant un formulaire de réclamation (facile, pas besoin d'avocat). S'il n'y a pas d'action collective, consultez un avocat spécialisé dans les droits civiques. La plupart travaillent au pourcentage (33-40% du recouvrement, pas de frais initiaux). Les dossiers solides (impact disparate clair, préjudice documenté >$10,000, grande entreprise avec des ressources importantes) attirent les meilleurs avocats.

6Étape 6 : Envisager une plainte réglementaire

Loi 144 de NYC : Signaler au NYC Department of Consumer and Worker Protection.

FTC (pratiques d'IA déloyales/trompeuses) : reportfraud.ftc.gov.

UE : Déposer une plainte auprès de l'autorité nationale de protection des données (par exemple, ICO au UK, CNIL en France).

Les amendes réglementaires incitent les entreprises à régler rapidement les poursuites privées.

Loading jurisdiction data...

FAQ : Plaintes pour biais et discrimination de l'IA

Comment savoir si l'IA a été utilisée pour me rejeter ?

Puis-je poursuivre même si l'entreprise n'avait pas l'intention de discriminer ?

Que faire si je n'ai pas les moyens de payer un avocat ?

Combien de temps ai-je pour déposer une plainte ?

Quelle est la fourchette de règlement réaliste pour la discrimination par l'IA ?

Mon employeur peut-il exercer des représailles si je me plains d'un biais de l'IA ?

Dois-je prouver que j'aurais été embauché/approuvé sans le biais de l'IA ?

Que faire si l'entreprise prétend que son IA est un « secret commercial » propriétaire ?

Votre plan d'action contre la discrimination par l'IA

Suivez ces étapes pour identifier les biais de l'IA, recueillir des preuves et obtenir une indemnisation

1Identifier la décision de l'IA

Recherchez les rejets instantanés, les raisons génériques, les grandes entreprises utilisant des systèmes de suivi des candidatures. Demandez vos données via le GDPR Article 15 (UE) ou le CCPA (Californie). Demandez : « L'IA a-t-elle été utilisée ? Quelles données a-t-elle analysées ? Quel était mon score ? »

2Recueillir des preuves d'impact disparate

Comparez vos qualifications à celles des personnes qui ont été embauchées/approuvées (même éducation, expérience, mais race/genre différents). Faites des recherches sur l'entreprise : ont-elles déjà réglé des plaintes pour biais de l'IA ? Ont-elles effectué les audits de biais requis ? Recherchez des articles de presse, des plaintes de l'EEOC, des enquêtes de la FTC.

3Documenter vos dommages

Calculez les salaires perdus (salaire de l'emploi × mois), les intérêts plus élevés payés (différence de taux de prêt × montant × années), les coûts de préjudice moral (reçus de thérapie, dossiers médicaux pour l'anxiété/dépression), le temps passé (heures passées à postuler ailleurs, réparation de crédit). Des journaux détaillés augmentent la valeur du règlement de $5,000-$15,000.

4Déposer une plainte administrative (États-Unis)

Emploi : Plainte EEOC dans les 180-300 days. Logement : Plainte HUD dans 1 year. Crédit : Plainte CFPB dans les 2-5 years. Préservez le droit de poursuivre. L'agence peut trouver une cause et négocier un règlement, vous épargnant les coûts d'une action en justice.

5Rechercher une action collective

Recherchez sur Google « [Company Name] AI discrimination class action » ou consultez classaction.org, topclassactions.com. S'il existe une action collective, remplissez un formulaire de réclamation pour la rejoindre (pas besoin d'avocat, cela prend 15 minutes). Surveillez les sites web de règlement pour les délais de paiement (généralement 12-24 months).

6Consulter un avocat spécialisé dans les droits civiques

Si les dommages >$10,000 ou si les preuves sont solides, consultez un avocat pour une action en justice individuelle. La plupart travaillent au pourcentage (pas de frais initiaux). Préparez : chronologie des événements, lettres de rejet, candidats comparables qui ont été embauchés, réponses aux demandes de données GDPR/CCPA, calculs des pertes financières. Une préparation solide augmente l'intérêt de l'avocat et le levier de négociation pour le règlement.

7Envisager les plaintes réglementaires

Déposez des plaintes auprès de la FTC (pratiques d'IA déloyales), du NYC DCWP (violations de la Law 144), du procureur général de l'État (protection des consommateurs), de l'Autorité de protection des données de l'UE (violations du GDPR). Les enquêtes réglementaires incitent les entreprises à régler rapidement les plaintes privées (éviter les litiges prolongés + les amendes réglementaires).