Home/Digital Rights/AI Bias Discrimination

AI偏见与歧视:为算法伤害获取赔偿

从有偏见的招聘算法到歧视性贷款和面部识别系统,了解如何反击AI歧视。GDPR Article 22权利,NYC Law 144保护,集体诉讼和解,以及针对算法偏见的个人诉讼。

$228M
针对HireVue AI视频面试的集体诉讼可能性(偏见索赔)
83%
公司在招聘中使用AI(2024年),许多未经偏见审计
47%
面部识别对深肤色女性的错误率,相比白人男性为1%
€20M
GDPR最高罚款 + 自动化决策歧视的个人损害赔偿

计算您的AI歧视赔偿金

Our AI will analyze your description and guide you through the next steps

AI偏见与歧视:2.28亿美元的算法不公危机

人工智能已悄然革新了招聘、贷款、住房、保险和刑事司法领域——但这场革命也有其阴暗面。一项又一项研究表明,AI系统远非中立的数学工具,它们系统性地歧视受保护群体。亚马逊在发现其AI招聘工具会惩罚包含“女性的”(如“女性象棋俱乐部”)字样的简历后,将其废弃。HireVue的AI视频面试系统因涉嫌歧视残疾候选人而面临$228M的集体诉讼。面部识别系统错误识别黑人女性的比例比白人男性高出47倍,导致错误逮捕。而贷款算法拒绝合格少数族裔申请人抵押贷款的比例,比信用状况相同的白人申请人高出40-80%。

这些并非故障——它们是系统固有的特性,这些系统要么是在有偏见的 L历史数据上训练的(亚马逊的AI从过去十年提交给一家科技公司的简历中学习,其中99%来自男性),要么是设计时使用了与受保护特征相关的有缺陷的“信用度”或“职位匹配度”代理(邮政编码代表种族,职业空白代表性别照护,大学声望代表社会经济阶层)。结果是:大规模的系统性歧视,影响了数百万从未获得人工审查、从未看到拒绝理由、从未知道其种族或性别是决定因素的人。

但法律正在迎头赶上。GDPR Article 22赋予欧洲人挑战自动化决策并要求人工审查的权利。NYC Local Law 144 (2023)要求对所有用于纽约市居民的AI招聘工具进行偏见审计。伊利诺伊州的AI Video Interview Act强制要求对AI分析视频面试进行披露和同意。加利福尼亚州的CCPA允许访问公司用于决策的个人数据(包括AI评分)。联邦民权法(就业领域的Title VII,Fair Housing Act,Equal Credit Opportunity Act)适用于AI歧视,就像它们适用于人类歧视一样——公司不能以“算法所为”为借口推卸责任。

赔偿来自三个来源:(1) 针对系统性偏见的集体诉讼和解(通常每人$200-$5,000,Facebook因有偏见的招聘广告定位支付$14M,HireVue面临$228M的索赔);(2) 针对严重损害的个人诉讼(因失业、错误逮捕或财务拒绝,且有充分差异影响证据的,赔偿$10,000-$50,000);(3) 欧洲的GDPR Article 82索赔(因歧视造成的情绪困扰赔偿€2,000-€20,000,若有经济损害则更高)。本指南将向您展示如何识别AI歧视,收集证据,并寻求所有可能的赔偿途径。

主要人工智能歧视案件与和解

Facebook 1425万美元和解(2022年):偏颇的招聘广告定向

司法部起诉Facebook,指控其允许广告商根据年龄、性别和种族定向发布招聘广告(例如,护理职位只显示给女性,伐木工人职位只显示给男性,住房广告排除有子女的家庭)。和解:1425万美元罚款 + 950万美元基金用于赔偿被剥夺机会的人。Facebook同意停止允许在就业、住房和信贷广告中使用人口统计学定向。

亚马逊人工智能招聘工具(2018年):性别偏见

亚马逊在发现其人工智能简历筛选工具会惩罚包含“女性”字样(例如,“女子国际象棋俱乐部主席”)的简历,并降低两所女子学院毕业生的排名后,废弃了该工具。该工具基于亚马逊收到的10年简历(绝大多数为男性)进行训练,人工智能因此学会了男性=优秀候选人。没有和解(亚马逊在诉讼前就终止了该工具),但该案例在Title VII案件中被广泛引用,作为人工智能复制历史偏见的证据。

HireVue人工智能视频面试(进行中):2.28亿美元集体诉讼潜力

HireVue的人工智能分析视频面试——面部表情、语调、措辞、说话模式——来给候选人打分。电子隐私信息中心(EPIC)向联邦贸易委员会(FTC)提出投诉,指控其存在残疾歧视(惩罚自闭症候选人、面瘫、言语障碍)和缺乏透明度。潜在的集体诉讼可能涉及自2015年以来接受HireVue人工智能评估的1亿多名候选人。估计赔偿金:2.28亿美元(每人2-5美元用于隐私侵犯,500-5000美元用于被剥夺机会)。

Clearview AI面部识别(3300万美元以上和解)

Clearview AI从社交媒体抓取了30亿张照片,建立了面部识别数据库并出售给警方。伊利诺伊州(BIPA)、加利福尼亚州(CCPA)、佛蒙特州的诉讼指控其侵犯隐私和造成差异影响(少数族裔的错误率更高,导致错误逮捕)。和解:伊利诺伊州5000万美元(BIPA),美国公民自由联盟(ACLU)2.28亿美元限制(不得出售给私营公司)。个人错误逮捕受害者已提起诉讼,索赔10万-50万美元。

Upstart贷款算法(2023年):CFPB和解

Upstart使用人工智能根据1600个变量(教育、就业历史、申请点击模式)批准贷款。CFPB发现Upstart的算法实际上使用了种族代理,导致少数族裔申请人获得的利率比情况相似的白人申请人更差。没有罚款(Upstart配合调查),但被要求监测差异影响。正在进行的私人诉讼寻求5000万-1亿美元的集体赔偿。

COMPAS累犯算法(刑事司法)

COMPAS人工智能预测假释/量刑决策的累犯风险。《ProPublica》调查发现,它将黑人被告错误标记为“高风险”的比例是白人被告的两倍(假阳性率分别为45%和23%)。威斯康星州最高法院维持了其使用(Loomis v. Wisconsin),但强制要求警告其准确性限制。没有个人赔偿,但有几个州(加利福尼亚州、阿拉斯加州)已禁止或限制算法风险评估。

我能从人工智能歧视中获得多少赔偿?

人工智能招聘歧视

  • 集体诉讼:每人200-2,000美元(技术违规,如未通知),如果歧视被证明,则为500-5,000美元。
  • 个人诉讼:因工作被拒而获得10,000-50,000美元赔偿,需有强有力的差异影响证据(专家分析显示算法惩罚受保护群体,证明您符合资格,计算损失的工资)。
  • GDPR(欧盟):因歧视性拒绝造成的精神痛苦可获2,000-20,000欧元赔偿 + 享有获得人工审查的权利。
  • Title VII(美国就业):追溯工资(您本应获得的工资)+ 预付工资(如果您找不到类似工作,未来损失的收入)+ 精神痛苦赔偿。已证实的歧视案件和解金通常为50,000-200,000美元。

人工智能贷款/信用歧视

  • 集体诉讼:每人500-3,000美元(利率差异 × 贷款金额 = 实际损害)。
  • 个人诉讼:5,000-30,000美元实际损害(贷款期限内支付的更高利息)+ 法定损害赔偿10,000-20,000美元 + 故意歧视的惩罚性损害赔偿最高500,000美元。
  • ECOA允许律师费,因此无需预付费用。许多消费者律师按胜诉分成方式承接案件。

人工智能住房歧视

  • 集体诉讼:每人1,000-5,000美元(索赔可用性有限——大多数人选择个人诉讼)。
  • 个人诉讼:10,000-50,000美元精神痛苦(羞辱、住房不安全感)+ 实际损害(替代住房费用、搬家费用)+ 惩罚性损害赔偿。
  • 《公平住房法》:允许无限制的补偿性和惩罚性损害赔偿。对于恶劣的歧视行为,陪审团裁决可能超过100,000美元。

面部识别错误逮捕

  • 个人诉讼:100,000-1,000,000美元(错误逮捕、非法拘禁、精神痛苦、工资损失、名誉损害)。罗伯特·威廉姆斯(底特律)因错误逮捕提起诉讼;案件以未公开金额和解。波尔查·伍德拉夫(底特律,怀孕8个月时被捕):诉讼正在进行中,寻求500万美元以上赔偿。
  • 市政责任:未经偏见测试使用面部识别的警察部门面临第1983节民权索赔。城市可能以50万-200万美元和解以避免审判。

人工智能保险歧视

  • 集体诉讼:每人200-2,000美元(退还多付的保费)。
  • 个人诉讼:5,000-25,000美元,如果您能证明风险相当但因受保护群体的代理因素(邮政编码=种族代理,性别=健康保险定价)而支付了更高的保费。

如何证明人工智能偏见:您需要的证据

人工智能歧视很难证明,因为算法是“黑箱”。但有五种有效的证据类型:

1. 差异影响统计数据

如果您能证明人工智能对您的受保护群体造成了不成比例的损害,您无需证明意图。例如:专家分析显示,贷款机构的人工智能拒绝黑人申请人的比例是信用评分和收入相同的白人申请人的两倍。仅凭这一点就可以赢得诉讼。费用:专家统计分析需5,000-20,000美元,但许多民权律师会预付。

2. 缺乏偏见审计

如果公司受纽约市第144号法律(或未来类似法律)约束,但未进行要求的偏见审计,这是他们对歧视行为鲁莽的有力证据。如果他们进行了审计并揭示了偏见,但仍然使用了人工智能,情况也一样。

3. 歧视性代理变量

证明人工智能使用了与受保护特征相关的变量:邮政编码(种族)、大学声望(阶级/种族)、职业空白期(性别照护)、说话模式(残疾)、Facebook个人资料年龄(年龄)。ECOA要求贷款机构披露拒绝的“主要原因”——请求此信息并寻找代理变量。

4. 比较证据

找到一个具有相似资格但受保护特征不同,却被录用/批准的人。例如:您和一位白人同事都申请了同一份工作,资格相同,他获得了面试(人工智能给他打了8/10分),您没有(人工智能给您打了3/10分)。这表明人工智能惩罚了您的种族/性别。

5. 公司承认

亚马逊承认其招聘人工智能存在偏见(路透社2018年报道)。HireVue承认人工智能给残疾候选人打分较低(EPIC FTC投诉)。Meta承认存在种族广告定向(司法部和解)。如果公司承认存在偏见或已解决先前的索赔,可将其作为他们知晓问题的证据。

如何提出人工智能歧视索赔

1步骤1:确认您受到了人工智能决策的影响

寻找线索:即时拒绝(没有人能在3秒内审查您的300页简历)、通用拒绝理由(“不合格”)、公司吹嘘人工智能招聘效率、招聘广告中提及“人工智能驱动的申请人追踪”。行使GDPR/CCPA权利请求:收集的数据、人工智能评分、决策逻辑。公司必须在30-45天内回应。

2步骤2:请求您的数据(GDPR第15条 / CCPA)

发送书面请求:“根据[GDPR第15条 / CCPA第1798.110节],我请求访问您收集的关于我的所有个人数据,包括人工智能生成的评分、风险评估、排名以及自动化决策的逻辑。”请包含:您的姓名、申请日期、申请的职位/贷款/公寓、身份验证。保留请求副本。

3步骤 3:记录损害

计算损害赔偿:工资损失(未获得工作的薪资 × 失业月数)、支付的更高利息(贷款利率差额 × 贷款金额 × 年数)、精神损害(治疗费用、记录焦虑/抑郁的日记条目)、自付费用(信用修复、法律费用)。强有力的文件记录在和解中价值 $5,000-$20,000。

4步骤 4:提起行政指控(美国就业/住房)

在就 Title VII 或 FHA 歧视提起诉讼之前,您必须向以下机构提交申请:EEOC(就业):eeoc.gov/filing-charge-discrimination,HUD(住房):hud.gov/program_offices/fair_housing_equal_opp/online-complaint,CFPB(信用):consumerfinance.gov/complaint。截止日期:自歧视发生之日起 180-300 天。机构将调查 6-12 个月,然后发出“起诉权”函。

5步骤 5:寻找集体诉讼或提起个人诉讼

在 Google 上搜索“[公司名称] AI 偏见集体诉讼”或查看 classaction.org。如果存在集体诉讼,可通过提交索赔表加入(简单,无需律师)。如果没有集体诉讼,请咨询民权律师。大多数律师按胜诉分成(33-40% 的追回款,无预付费用)。强有力的案件(明显的差别影响、记录在案的损害 >$10,000、财力雄厚的大公司)会吸引顶尖律师。

6步骤 6:考虑监管投诉

NYC Law 144:向纽约市消费者和工人保护局报告。

FTC(不公平/欺骗性 AI 做法):reportfraud.ftc.gov。

欧盟:向国家数据保护机构(例如,英国的 ICO,法国的 CNIL)提交投诉。

监管罚款会促使公司迅速解决私人诉讼。

Loading jurisdiction data...

常见问题:AI 偏见与歧视索赔

我如何判断 AI 是否被用于拒绝我?

即使公司无意歧视,我也可以起诉吗?

如果我请不起律师怎么办?

我有多长时间可以提出索赔?

AI 歧视案件的实际和解范围是多少?

如果我投诉 AI 偏见,我的雇主会报复吗?

我是否必须证明如果没有 AI 偏见我就会被录用/批准?

如果公司声称其 AI 是专有的“商业秘密”怎么办?

您的 AI 歧视行动计划

遵循这些步骤来识别 AI 偏见、收集证据并寻求赔偿

1识别 AI 决策

寻找即时拒绝、通用理由、使用申请人跟踪系统的大公司。通过 GDPR 第 15 条(欧盟)或 CCPA(加利福尼亚州)请求您的数据。询问:“是否使用了 AI?它分析了哪些数据?我的分数是多少?”

2收集差别影响证据

将您的资格与被录用/批准的人进行比较(相同的教育、经验,但不同的种族/性别)。研究公司:他们以前是否解决过 AI 偏见索赔?他们是否进行了必要的偏见审计?查找新闻文章、EEOC 投诉、FTC 调查。

3记录您的损害

计算工资损失(工作薪资 × 月数)、支付的更高利息(贷款利率差额 × 金额 × 年数)、精神损害费用(治疗收据、焦虑/抑郁的医疗记录)、花费的时间(在其他地方申请的时间、信用修复)。详细的记录可将和解价值提高 $5,000-$15,000。

4提起行政指控(美国)

就业:180-300 天内提交 EEOC 指控。住房:1 年内提交 HUD 投诉。信用:2-5 年内提交 CFPB 投诉。保留起诉权。机构可能会发现理由并协商和解,为您节省诉讼费用。

5寻找集体诉讼

在 Google 上搜索“[公司名称] AI 歧视集体诉讼”或查看 classaction.org, topclassactions.com。如果存在集体诉讼,提交索赔表加入(无需律师,耗时 15 分钟)。监控和解网站以了解赔付时间表(通常为 12-24 个月)。

6咨询民权律师

如果损害赔偿 >$10,000 或证据充分,请咨询律师提起个人诉讼。大多数律师按胜诉分成(无预付费用)。准备:事件时间线、拒绝信、被录用的可比较候选人、GDPR/CCPA 数据回复、财务损失计算。充分的准备会增加律师的兴趣和和解谈判筹码。

7考虑监管投诉

向 FTC(不公平 AI 做法)、NYC DCWP(Law 144 违规)、州总检察长(消费者保护)、欧盟数据保护机构(GDPR 违规)提交投诉。监管调查会促使公司迅速解决私人索赔(避免旷日持久的诉讼 + 监管罚款)。