偏った採用アルゴリズムから差別的な融資や顔認識システムまで、AI差別に対抗する方法を学びましょう。GDPR第22条の権利、NYC法144の保護、集団訴訟の和解、アルゴリズムバイアスに対する個別訴訟。
人工知能は、採用、融資、住宅、保険、刑事司法を静かに変革してきましたが、その変革には暗い側面があります。研究が示すように、AIシステムは中立的な数学的ツールとは程遠く、保護対象グループに対して体系的に差別を行っています。Amazonは、「women's」(「women's chess club」のように)という単語を含む履歴書にペナルティを課すことを発見した後、AI採用ツールを廃止しました。HireVueのAIビデオ面接システムは、障害のある候補者を差別したとして、2億2,800万ドルの集団訴訟に直面しました。顔認識システムは、黒人女性を白人男性よりも最大47倍高い割合で誤認識し、不当逮捕につながっています。また、融資アルゴリズムは、同一の信用プロファイルを持つ白人申請者よりも40~80%高い割合で、資格のあるマイノリティ申請者への住宅ローンを拒否しています。
これらは不具合ではなく、偏った過去のデータ(AmazonのAIは過去10年間にテクノロジー企業に提出された履歴書から学習しましたが、その99%は男性からのものでした)で訓練されたシステムに組み込まれた機能、または保護対象の特性と相関する「信用度」や「職務適合性」の欠陥のある代理変数(郵便番号は人種の代理変数、キャリアの空白期間は性別の育児の代理変数、大学の威信は社会経済的階級の代理変数)で設計されたものです。その結果、何百万人もの人々が人間の審査を受けることも、拒否理由を知ることも、自分の人種や性別が決定要因であったことを知ることもなく、大規模な体系的差別に影響を受けています。
しかし、法律は追いつきつつあります。GDPR第22条は、欧州の人々に自動化された意思決定に異議を唱え、人間の審査を要求する権利を与えています。NYC地方条例144(2023年)は、ニューヨーク市民に対して使用されるすべてのAI採用ツールにバイアス監査を義務付けています。イリノイ州AIビデオ面接法は、ビデオ面接のAI分析に対する開示と同意を義務付けています。カリフォルニア州のCCPAは、企業が意思決定に使用する個人データ(AIスコアを含む)へのアクセスを許可しています。そして、連邦公民権法(雇用に関するTitle VII、公正住宅法、平等信用機会法)は、人間の差別と同様にAI差別にも適用されます。企業は「アルゴリズムがやった」と隠れることはできません。
補償は3つの情報源から得られます。(1) 体系的なバイアスに対する集団訴訟の和解金(一人当たり200ドル~5,000ドルが一般的で、Facebookは偏った求人広告のターゲティングに対して1,400万ドルを支払い、HireVueは2億2,800万ドルの請求に直面しています)。(2) 重大な損害に対する個別訴訟(不均衡な影響の強い証拠がある場合、失業、不当逮捕、または金融拒否に対して10,000ドル~50,000ドル)。(3) 欧州におけるGDPR第82条に基づく請求(差別に基づく精神的苦痛に対して2,000ユーロ~20,000ユーロ、金銭的損害がある場合はさらに高額)。このガイドは、AI差別を特定し、証拠を収集し、補償を得るためのあらゆる手段を追求する方法を示します。
GDPR第22条は、個人に対し「専ら自動化された処理に基づいて行われる、自己に関する法的効果を生じさせる、または同様に自己に重大な影響を及ぼす決定の対象とならない権利」を付与しています。これは、AIによる採用拒否、ローン拒否、保険料設定、および重大な結果を伴うあらゆる自動化された意思決定を対象とします。企業は「関与するロジックに関する意味のある情報」を提供し、決定に異議を唱える場合は人間の審査を許可しなければなりません。
第82条は、差別的なAI決定を含むGDPR違反による「物質的または非物質的損害」に対して訴訟を起こすことを許可しています。非物質的損害には、精神的苦痛、不安、機会損失、評判の損害が含まれます。EUの裁判所は、差別に基づく精神的苦痛に対して2,000ユーロ~20,000ユーロを、失業や経済的破綻を伴う重大なケースではより高額(50,000ユーロ以上)を認めています。
企業に対する最大罰金:2,000万ユーロまたは全世界年間売上高の4%。
NYC地方条例144は、ニューヨーク市で「自動化された雇用決定ツール」(AEDT)を使用する雇用主に対し、年次バイアス監査を実施し、その結果を公表することを義務付けています。企業はAIが使用される場合、候補者に通知し、代替の選考プロセスを許可しなければなりません。違反:1日あたり500ドル(長期にわたる不遵守の場合、すぐに50,000ドル~100,000ドルに達する)。
法144は私的訴権(違反に対して直接訴訟を起こす権利)を創設していませんが、Title VIIの差別請求に対する強力な証拠を提供します。企業がバイアス監査を実施しなかった、または不合格だった場合、それは彼らがAIが差別的であることを知っていた(または知るべきだった)という強力な証拠となります。集団訴訟弁護士はこれらの監査を注意深く監視しています。
ニューヨーク市消費者・労働者保護局が執行。苦情ポータル:nyc.gov/site/dca
イリノイ州は、AIを使用してビデオ面接(顔の表情、声のトーン、言葉の選択)を分析する雇用主に対し、以下のことを義務付けています。(1) AIが使用されることを書面で応募者に通知する、(2) AIがどのように機能し、どのような特性を評価するかを説明する、(3) 書面による同意を得る、(4) 要求があれば30日以内にビデオを削除する。違反:一人当たり1,000ドル~5,000ドル。いくつかの集団訴訟が提起されており、技術的違反に対する和解金は一人当たり100ドル~500ドルの範囲ですが、差別が証明された場合はさらに高額になります。
CCPAは、カリフォルニア州居住者に対し、企業が収集する「特定の個人情報」、これにはAIが生成したスコア、リスク評価、意思決定の根拠が含まれますが、これらにアクセスする権利を付与しています。企業がAIを使用して仕事、ローン、または住宅を拒否した場合、あなたは以下の情報を要求できます。(1) あなたのAIスコア/ランキング、(2) 考慮された要因、(3) 採用された候補者との比較。企業は45日以内に対応しなければなりません。開示を拒否した場合、違反ごとに7,500ドル(意図的な違反の場合)の罰金が科せられる可能性があります。
司法省は、Facebookが広告主に対し、年齢、性別、人種に基づいて求人広告をターゲット設定することを許可したとしてFacebookを提訴しました(例:看護職は女性のみに表示、木こりの仕事は男性のみに表示、子供のいる家族を除外する住宅広告など)。和解:1,425万ドルの罰金と、機会を奪われた人々への補償のための950万ドルの基金。Facebookは、雇用、住宅、信用に関する広告における人口統計学的ターゲティングを許可しないことに同意しました。
Amazonは、AI履歴書スクリーニングツールが「女性の」(例:「女性チェスクラブ主将」)を含む履歴書を不利に扱い、2つの女子大学の卒業生を低評価することを発見した後、このツールを廃止しました。Amazonに提出された10年分の履歴書(圧倒的に男性が多い)で訓練されたAIは、男性=良い候補者と学習しました。和解はなかった(Amazonは訴訟前にツールを廃止した)が、AIが歴史的な偏見を再現することの証拠として、Title VIIの訴訟で広く引用されています。
HireVueのAIは、ビデオ面接における顔の表情、声のトーン、言葉の選択、話し方などを分析して候補者を評価します。電子プライバシー情報センター(EPIC)は、障害者差別(自閉症の候補者、顔面麻痺、言語障害を不利に扱う)と透明性の欠如を主張してFTCに苦情を申し立てました。2015年以降、HireVue AIの対象となった1億人以上の候補者が集団訴訟の対象となる可能性があります。推定損害賠償額:2億2,800万ドル(プライバシー侵害に対して1人あたり2ドル~5ドル、機会の剥奪に対して500ドル~5,000ドル)。
Clearview AIは、ソーシャルメディアから30億枚の写真をスクレイピングし、警察に販売される顔認識データベースを構築しました。イリノイ州(BIPA)、カリフォルニア州(CCPA)、バーモント州での訴訟では、プライバシー侵害と不均衡な影響(マイノリティに対する高い誤認識率が不当な逮捕につながる)が主張されています。和解:イリノイ州5,000万ドル(BIPA)、ACLU 2億2,800万ドルの制限(民間企業への販売禁止)。個々の不当逮捕の被害者は、10万ドル~50万ドルを求めて提訴しています。
Upstartは、1,600の変数(学歴、職歴、申請クリックパターン)に基づいてAIを使用して融資を承認します。CFPBは、Upstartのアルゴリズムが実質的に人種を代理変数として使用し、その結果、マイノリティの申請者が同様の状況にある白人申請者よりも悪い金利を受け取っていたことを発見しました。罰金はなし(Upstartは協力した)だが、不均衡な影響を監視することが義務付けられました。進行中の個人訴訟では、集団損害賠償として5,000万ドル~1億ドルが求められています。
COMPAS AIは、仮釈放/量刑決定のための再犯リスクを予測します。ProPublicaの調査では、黒人被告を「高リスク」と誤って分類する割合が白人被告の2倍(誤陽性率45%対23%)であることが判明しました。ウィスコンシン州最高裁判所は使用を支持しましたが(Loomis対ウィスコンシン州事件)、精度制限に関する警告を義務付けました。個別の補償はないが、いくつかの州(カリフォルニア州、アラスカ州)はアルゴリズムによるリスク評価を禁止または制限しています。
AI差別は、アルゴリズムが「ブラックボックス」であるため証明が難しい。しかし、効果的な5つの証拠タイプがある。
AIがあなたの保護対象クラスに不均衡な損害を与えていることを示せれば、意図を証明する必要はない。例:専門家分析により、貸し手のAIが、同じ信用スコアと収入を持つ白人申請者の2倍の割合で黒人申請者を拒否していることが明らかになった。これだけで訴訟に勝てる可能性がある。費用:専門家による統計分析に5,000ドル~20,000ドルかかるが、多くの公民権弁護士が前払いする。
企業がNYC法144(または将来の同様の法律)の対象であり、義務付けられたバイアス監査を実施しなかった場合、それは差別に対して無謀であったという強力な証拠となる。監査を実施し、バイアスが明らかになったにもかかわらず、それでもAIを使用した場合は同様である。
AIが保護対象特性と相関する変数を使用していることを示す:郵便番号(人種)、大学の威信(階級/人種)、キャリアの空白期間(性別による育児)、話し方(障害)、Facebookプロフィールの年齢(年齢)。ECOAは貸し手に対し、拒否の「主な理由」を開示することを義務付けている。これを要求し、代理変数を探すこと。
同様の資格を持つが、異なる保護対象特性を持つ人が採用/承認された例を見つける。例:あなたと白人の同僚が同じ仕事に応募し、同じ資格を持っていたが、彼が面接を受け(AIは彼を10点中8点と評価)、あなたは受けなかった(AIはあなたを10点中3点と評価)。これはAIがあなたの人種/性別を不利に扱ったことを示唆している。
Amazonは採用AIに偏見があったことを認めた(ロイター報道2018年)。HireVueはAIが障害のある候補者を低く評価したことを認めた(EPIC FTC苦情)。Metaは人種別広告ターゲティングを認めた(司法省和解)。企業が偏見を認めた、または以前の請求を和解した場合、それを問題を知っていた証拠として引用すること。
手がかりを探す:即時拒否(人間が300ページの履歴書を3秒でレビューすることは不可能)、一般的な拒否理由(「不適格」)、AI採用効率を自慢する企業、求人広告に「AI搭載の応募者追跡」と記載されている場合。GDPR/CCPAの権利を行使して、収集されたデータ、AIスコア、決定ロジックを要求する。企業は30~45日以内に回答しなければならない。
書面で要求を送る:「[GDPR Article 15 / CCPA Section 1798.110]に基づき、AI生成スコア、リスク評価、ランキング、自動意思決定のロジックを含む、私に関して収集したすべての個人データへのアクセスを要求します。」含めるもの:あなたの名前、応募日、応募した職位/融資/アパート、身元確認。要求書のコピーを保管すること。
損害を計算する:逸失賃金(得られなかった仕事の給与 × 失業月数)、過払い利息(ローン金利の差 × ローン金額 × 年数)、精神的苦痛(治療費、不安/うつ病を記録した日記)、自己負担費用(信用回復費用、弁護士費用)。強力な証拠書類は、和解において5,000ドル〜20,000ドルの価値があります。
Title VIIまたはFHAに基づく差別で訴訟を起こす前に、以下の機関に申立てを行う必要があります:EEOC(雇用):eeoc.gov/filing-charge-discrimination、HUD(住宅):hud.gov/program_offices/fair_housing_equal_opp/online-complaint、CFPB(信用):consumerfinance.gov/complaint。期限:差別から180〜300日。機関は6〜12か月間調査し、その後「訴訟提起権」の通知を発行します。
Googleで「[Company Name] AIバイアス集団訴訟」と検索するか、classaction.orgを確認してください。集団訴訟が存在する場合は、請求フォームを提出して参加します(簡単で弁護士は不要)。集団訴訟がない場合は、公民権弁護士に相談してください。ほとんどの弁護士は成功報酬制(回収額の33〜40%、前払い費用なし)で働きます。強力なケース(明確な不均等な影響、10,000ドルを超える文書化された損害、資金力のある大企業)は、一流の弁護士を引き付けます。
NYC法144:ニューヨーク市消費者・労働者保護局に報告する。
FTC(不公正/欺瞞的なAI慣行):reportfraud.ftc.gov。
EU:各国のデータ保護機関(例:英国のICO、フランスのCNIL)に苦情を申し立てる。
規制当局による罰金は、企業に私的訴訟を迅速に和解させるよう圧力をかけます。
AIバイアスを特定し、証拠を収集し、賠償を追求するための以下の手順に従ってください
即時不採用、一般的な理由、応募者追跡システムを使用している大企業に注目してください。GDPR第15条(EU)またはCCPA(カリフォルニア州)を通じてあなたのデータを要求してください。「AIは使用されましたか?どのようなデータを分析しましたか?私のスコアは何でしたか?」と尋ねてください。
あなたの資格を、採用/承認された人々(同じ学歴、経験だが異なる人種/性別)と比較してください。企業を調査してください:以前にAIバイアスに関する請求を和解しましたか?必要なバイアス監査を実施しましたか?ニュース記事、EEOCの苦情、FTCの調査を探してください。
逸失賃金(仕事の給与 × 月数)、過払い利息(ローン金利の差 × 金額 × 年数)、精神的苦痛の費用(治療費領収書、不安/うつ病の医療記録)、費やした時間(他の場所への応募時間、信用回復)を計算してください。詳細な記録は、和解額を5,000ドル〜15,000ドル増加させます。
雇用:180〜300日以内にEEOCに申立て。住宅:1年以内にHUDに苦情。信用:2〜5年以内にCFPBに苦情。訴訟提起権を保持してください。機関が原因を見つけて和解交渉を行うことで、訴訟費用を節約できる場合があります。
Googleで「[Company Name] AI差別集団訴訟」と検索するか、classaction.org、topclassactions.comを確認してください。集団訴訟が存在する場合は、請求フォームを提出して参加します(弁護士は不要、15分で完了)。支払い時期について和解ウェブサイトを監視してください(通常12〜24か月)。
損害が10,000ドルを超えるか、証拠が強力な場合は、個別訴訟のために弁護士に相談してください。ほとんどの弁護士は成功報酬制(前払い費用なし)で働きます。準備するもの:出来事のタイムライン、不採用通知、採用された比較可能な候補者、GDPR/CCPAデータ応答、経済的損失の計算。強力な準備は、弁護士の関心と和解交渉力を高めます。
FTC(不公正なAI慣行)、NYC DCWP(条例144違反)、州司法長官(消費者保護)、EUデータ保護機関(GDPR違反)に苦情を申し立ててください。規制当局の調査は、企業に私的請求を迅速に和解させるよう圧力をかけます(長期にわたる訴訟と規制当局の罰金を回避するため)。