从有偏见的招聘算法到歧视性贷款和面部识别系统,了解如何反击AI歧视。GDPR Article 22权利,NYC Law 144保护,集体诉讼和解,以及针对算法偏见的个人诉讼。
人工智能已悄然革新了招聘、贷款、住房、保险和刑事司法领域——但这场革命也有其阴暗面。一项又一项研究表明,AI系统远非中立的数学工具,它们系统性地歧视受保护群体。亚马逊在发现其AI招聘工具会惩罚包含“女性的”(如“女性象棋俱乐部”)字样的简历后,将其废弃。HireVue的AI视频面试系统因涉嫌歧视残疾候选人而面临$228M的集体诉讼。面部识别系统错误识别黑人女性的比例比白人男性高出47倍,导致错误逮捕。而贷款算法拒绝合格少数族裔申请人抵押贷款的比例,比信用状况相同的白人申请人高出40-80%。
这些并非故障——它们是系统固有的特性,这些系统要么是在有偏见的 L历史数据上训练的(亚马逊的AI从过去十年提交给一家科技公司的简历中学习,其中99%来自男性),要么是设计时使用了与受保护特征相关的有缺陷的“信用度”或“职位匹配度”代理(邮政编码代表种族,职业空白代表性别照护,大学声望代表社会经济阶层)。结果是:大规模的系统性歧视,影响了数百万从未获得人工审查、从未看到拒绝理由、从未知道其种族或性别是决定因素的人。
但法律正在迎头赶上。GDPR Article 22赋予欧洲人挑战自动化决策并要求人工审查的权利。NYC Local Law 144 (2023)要求对所有用于纽约市居民的AI招聘工具进行偏见审计。伊利诺伊州的AI Video Interview Act强制要求对AI分析视频面试进行披露和同意。加利福尼亚州的CCPA允许访问公司用于决策的个人数据(包括AI评分)。联邦民权法(就业领域的Title VII,Fair Housing Act,Equal Credit Opportunity Act)适用于AI歧视,就像它们适用于人类歧视一样——公司不能以“算法所为”为借口推卸责任。
赔偿来自三个来源:(1) 针对系统性偏见的集体诉讼和解(通常每人$200-$5,000,Facebook因有偏见的招聘广告定位支付$14M,HireVue面临$228M的索赔);(2) 针对严重损害的个人诉讼(因失业、错误逮捕或财务拒绝,且有充分差异影响证据的,赔偿$10,000-$50,000);(3) 欧洲的GDPR Article 82索赔(因歧视造成的情绪困扰赔偿€2,000-€20,000,若有经济损害则更高)。本指南将向您展示如何识别AI歧视,收集证据,并寻求所有可能的赔偿途径。
GDPR Article 22赋予个人“不接受仅基于自动化处理的决策的权利……该决策对其产生法律效力或以类似方式对其产生重大影响。”这涵盖了AI招聘拒绝、贷款拒绝、保险定价以及任何具有重大后果的自动化决策。如果您对决策提出异议,公司必须提供“有关所涉逻辑的有意义信息”并允许人工审查。
Article 82允许您就GDPR违规行为造成的“物质或非物质损害”提起诉讼,包括歧视性AI决策。非物质损害包括精神痛苦、焦虑、机会损失、声誉损害。欧盟法院已判决因歧视造成的情绪困扰赔偿€2,000-€20,000,对于涉及失业或财务破产的严重案件,赔偿金额更高(€50,000+)。
公司最高罚款:2000万欧元或全球年营业额的4%。
NYC Local Law 144要求在纽约市使用“自动化就业决策工具”(AEDT)的雇主进行年度偏见审计并公布结果。公司必须告知候选人是否使用AI,并允许替代选择流程。违规行为:每天$500(长期不合规可迅速累积至$50,000-$100,000)。
尽管Law 144并未设立私人诉讼权(您不能直接起诉违规行为),但它为Title VII歧视索赔提供了有力证据。如果一家公司未进行偏见审计或审计失败,这有力证明他们知道(或应该知道)其AI具有歧视性。集体诉讼律师正密切关注这些审计。
由纽约市消费者和工人保护局执行。投诉门户:nyc.gov/site/dca
伊利诺伊州要求使用AI分析视频面试(面部表情、语气、措辞)的雇主:(1) 书面通知申请人正在使用AI,(2) 解释AI如何运作及其评估的特征,(3) 获取书面同意,(4) 在收到请求后30天内删除视频。违规行为:每人$1,000-$5,000。已提起多起集体诉讼,技术违规的和解金额在每人$100-$500之间,如果证明存在歧视则更高。
CCPA赋予加利福尼亚州居民访问公司收集的“特定个人信息”的权利,包括AI生成的评分、风险评估和决策依据。如果公司使用AI拒绝您的工作、贷款或住房申请,您可以要求:(1) 您的AI评分/排名,(2) 考虑的因素,(3) 与被接受候选人的比较。公司必须在45天内回应。拒绝披露将使其面临每次违规$7,500的罚款(故意违规)。
司法部起诉Facebook,指控其允许广告商根据年龄、性别和种族定向发布招聘广告(例如,护理职位只显示给女性,伐木工人职位只显示给男性,住房广告排除有子女的家庭)。和解:1425万美元罚款 + 950万美元基金用于赔偿被剥夺机会的人。Facebook同意停止允许在就业、住房和信贷广告中使用人口统计学定向。
亚马逊在发现其人工智能简历筛选工具会惩罚包含“女性”字样(例如,“女子国际象棋俱乐部主席”)的简历,并降低两所女子学院毕业生的排名后,废弃了该工具。该工具基于亚马逊收到的10年简历(绝大多数为男性)进行训练,人工智能因此学会了男性=优秀候选人。没有和解(亚马逊在诉讼前就终止了该工具),但该案例在Title VII案件中被广泛引用,作为人工智能复制历史偏见的证据。
HireVue的人工智能分析视频面试——面部表情、语调、措辞、说话模式——来给候选人打分。电子隐私信息中心(EPIC)向联邦贸易委员会(FTC)提出投诉,指控其存在残疾歧视(惩罚自闭症候选人、面瘫、言语障碍)和缺乏透明度。潜在的集体诉讼可能涉及自2015年以来接受HireVue人工智能评估的1亿多名候选人。估计赔偿金:2.28亿美元(每人2-5美元用于隐私侵犯,500-5000美元用于被剥夺机会)。
Clearview AI从社交媒体抓取了30亿张照片,建立了面部识别数据库并出售给警方。伊利诺伊州(BIPA)、加利福尼亚州(CCPA)、佛蒙特州的诉讼指控其侵犯隐私和造成差异影响(少数族裔的错误率更高,导致错误逮捕)。和解:伊利诺伊州5000万美元(BIPA),美国公民自由联盟(ACLU)2.28亿美元限制(不得出售给私营公司)。个人错误逮捕受害者已提起诉讼,索赔10万-50万美元。
Upstart使用人工智能根据1600个变量(教育、就业历史、申请点击模式)批准贷款。CFPB发现Upstart的算法实际上使用了种族代理,导致少数族裔申请人获得的利率比情况相似的白人申请人更差。没有罚款(Upstart配合调查),但被要求监测差异影响。正在进行的私人诉讼寻求5000万-1亿美元的集体赔偿。
COMPAS人工智能预测假释/量刑决策的累犯风险。《ProPublica》调查发现,它将黑人被告错误标记为“高风险”的比例是白人被告的两倍(假阳性率分别为45%和23%)。威斯康星州最高法院维持了其使用(Loomis v. Wisconsin),但强制要求警告其准确性限制。没有个人赔偿,但有几个州(加利福尼亚州、阿拉斯加州)已禁止或限制算法风险评估。
人工智能歧视很难证明,因为算法是“黑箱”。但有五种有效的证据类型:
如果您能证明人工智能对您的受保护群体造成了不成比例的损害,您无需证明意图。例如:专家分析显示,贷款机构的人工智能拒绝黑人申请人的比例是信用评分和收入相同的白人申请人的两倍。仅凭这一点就可以赢得诉讼。费用:专家统计分析需5,000-20,000美元,但许多民权律师会预付。
如果公司受纽约市第144号法律(或未来类似法律)约束,但未进行要求的偏见审计,这是他们对歧视行为鲁莽的有力证据。如果他们进行了审计并揭示了偏见,但仍然使用了人工智能,情况也一样。
证明人工智能使用了与受保护特征相关的变量:邮政编码(种族)、大学声望(阶级/种族)、职业空白期(性别照护)、说话模式(残疾)、Facebook个人资料年龄(年龄)。ECOA要求贷款机构披露拒绝的“主要原因”——请求此信息并寻找代理变量。
找到一个具有相似资格但受保护特征不同,却被录用/批准的人。例如:您和一位白人同事都申请了同一份工作,资格相同,他获得了面试(人工智能给他打了8/10分),您没有(人工智能给您打了3/10分)。这表明人工智能惩罚了您的种族/性别。
亚马逊承认其招聘人工智能存在偏见(路透社2018年报道)。HireVue承认人工智能给残疾候选人打分较低(EPIC FTC投诉)。Meta承认存在种族广告定向(司法部和解)。如果公司承认存在偏见或已解决先前的索赔,可将其作为他们知晓问题的证据。
寻找线索:即时拒绝(没有人能在3秒内审查您的300页简历)、通用拒绝理由(“不合格”)、公司吹嘘人工智能招聘效率、招聘广告中提及“人工智能驱动的申请人追踪”。行使GDPR/CCPA权利请求:收集的数据、人工智能评分、决策逻辑。公司必须在30-45天内回应。
发送书面请求:“根据[GDPR第15条 / CCPA第1798.110节],我请求访问您收集的关于我的所有个人数据,包括人工智能生成的评分、风险评估、排名以及自动化决策的逻辑。”请包含:您的姓名、申请日期、申请的职位/贷款/公寓、身份验证。保留请求副本。
计算损害赔偿:工资损失(未获得工作的薪资 × 失业月数)、支付的更高利息(贷款利率差额 × 贷款金额 × 年数)、精神损害(治疗费用、记录焦虑/抑郁的日记条目)、自付费用(信用修复、法律费用)。强有力的文件记录在和解中价值 $5,000-$20,000。
在就 Title VII 或 FHA 歧视提起诉讼之前,您必须向以下机构提交申请:EEOC(就业):eeoc.gov/filing-charge-discrimination,HUD(住房):hud.gov/program_offices/fair_housing_equal_opp/online-complaint,CFPB(信用):consumerfinance.gov/complaint。截止日期:自歧视发生之日起 180-300 天。机构将调查 6-12 个月,然后发出“起诉权”函。
在 Google 上搜索“[公司名称] AI 偏见集体诉讼”或查看 classaction.org。如果存在集体诉讼,可通过提交索赔表加入(简单,无需律师)。如果没有集体诉讼,请咨询民权律师。大多数律师按胜诉分成(33-40% 的追回款,无预付费用)。强有力的案件(明显的差别影响、记录在案的损害 >$10,000、财力雄厚的大公司)会吸引顶尖律师。
NYC Law 144:向纽约市消费者和工人保护局报告。
FTC(不公平/欺骗性 AI 做法):reportfraud.ftc.gov。
欧盟:向国家数据保护机构(例如,英国的 ICO,法国的 CNIL)提交投诉。
监管罚款会促使公司迅速解决私人诉讼。
遵循这些步骤来识别 AI 偏见、收集证据并寻求赔偿
寻找即时拒绝、通用理由、使用申请人跟踪系统的大公司。通过 GDPR 第 15 条(欧盟)或 CCPA(加利福尼亚州)请求您的数据。询问:“是否使用了 AI?它分析了哪些数据?我的分数是多少?”
将您的资格与被录用/批准的人进行比较(相同的教育、经验,但不同的种族/性别)。研究公司:他们以前是否解决过 AI 偏见索赔?他们是否进行了必要的偏见审计?查找新闻文章、EEOC 投诉、FTC 调查。
计算工资损失(工作薪资 × 月数)、支付的更高利息(贷款利率差额 × 金额 × 年数)、精神损害费用(治疗收据、焦虑/抑郁的医疗记录)、花费的时间(在其他地方申请的时间、信用修复)。详细的记录可将和解价值提高 $5,000-$15,000。
就业:180-300 天内提交 EEOC 指控。住房:1 年内提交 HUD 投诉。信用:2-5 年内提交 CFPB 投诉。保留起诉权。机构可能会发现理由并协商和解,为您节省诉讼费用。
在 Google 上搜索“[公司名称] AI 歧视集体诉讼”或查看 classaction.org, topclassactions.com。如果存在集体诉讼,提交索赔表加入(无需律师,耗时 15 分钟)。监控和解网站以了解赔付时间表(通常为 12-24 个月)。
如果损害赔偿 >$10,000 或证据充分,请咨询律师提起个人诉讼。大多数律师按胜诉分成(无预付费用)。准备:事件时间线、拒绝信、被录用的可比较候选人、GDPR/CCPA 数据回复、财务损失计算。充分的准备会增加律师的兴趣和和解谈判筹码。
向 FTC(不公平 AI 做法)、NYC DCWP(Law 144 违规)、州总检察长(消费者保护)、欧盟数据保护机构(GDPR 违规)提交投诉。监管调查会促使公司迅速解决私人索赔(避免旷日持久的诉讼 + 监管罚款)。