पक्षपाती भर्ती एल्गोरिदम से लेकर भेदभावपूर्ण ऋण और चेहरे की पहचान प्रणालियों तक, जानें कि एआई भेदभाव के खिलाफ कैसे लड़ें। जीडीपीआर अनुच्छेद 22 अधिकार, एनवाईसी कानून 144 सुरक्षा, सामूहिक मुकदमे के समझौते, और एल्गोरिथम पूर्वाग्रह के लिए व्यक्तिगत मुकदमे।
कृत्रिम बुद्धिमत्ता ने चुपचाप भर्ती, ऋण, आवास, बीमा और आपराधिक न्याय में क्रांति ला दी है—लेकिन इस क्रांति का एक स्याह पक्ष भी है। अध्ययन के बाद अध्ययन से पता चलता है कि एआई प्रणालियाँ, तटस्थ गणितीय उपकरण होने के बजाय, संरक्षित समूहों के खिलाफ व्यवस्थित रूप से भेदभाव करती हैं। अमेज़ॅन ने अपने एआई भर्ती उपकरण को यह पता चलने के बाद बंद कर दिया कि यह उन रिज्यूमे को दंडित करता है जिनमें "महिला" शब्द (जैसे "महिला शतरंज क्लब" में) शामिल था। हायरव्यू की एआई वीडियो साक्षात्कार प्रणाली को कथित तौर पर विकलांग उम्मीदवारों के खिलाफ भेदभाव करने के लिए $228 मिलियन के सामूहिक मुकदमे का सामना करना पड़ा। चेहरे की पहचान प्रणालियाँ अश्वेत महिलाओं को गोरे पुरुषों की तुलना में 47 गुना अधिक दरों पर गलत पहचानती हैं, जिससे गलत गिरफ्तारियाँ होती हैं। और ऋण एल्गोरिदम योग्य अल्पसंख्यक आवेदकों को समान क्रेडिट प्रोफाइल वाले गोरे आवेदकों की तुलना में 40-80% अधिक दरों पर गिरवी से इनकार करते हैं।
ये गड़बड़ियाँ नहीं हैं—ये पक्षपाती ऐतिहासिक डेटा पर प्रशिक्षित प्रणालियों में अंतर्निहित विशेषताएँ हैं (अमेज़ॅन के एआई ने पिछले दशक में एक तकनीकी कंपनी को प्रस्तुत किए गए रिज्यूमे से सीखा, जिनमें से 99% पुरुषों के थे) या "क्रेडिट योग्यता" या "नौकरी उपयुक्तता" के लिए दोषपूर्ण प्रॉक्सी के साथ डिज़ाइन किए गए हैं जो संरक्षित विशेषताओं से संबंधित हैं (ज़िप कोड जाति के लिए प्रॉक्सी, करियर गैप लिंग देखभाल के लिए प्रॉक्सी, कॉलेज प्रतिष्ठा सामाजिक-आर्थिक वर्ग के लिए प्रॉक्सी)। परिणाम: बड़े पैमाने पर व्यवस्थित भेदभाव, लाखों लोगों को प्रभावित करता है जिन्हें कभी मानवीय समीक्षा नहीं मिलती, कभी अस्वीकृति का कारण नहीं दिखता, कभी नहीं पता चलता कि उनकी जाति या लिंग निर्णायक कारक था।
लेकिन कानून अब इस पर ध्यान दे रहा है। जीडीपीआर अनुच्छेद 22 यूरोपीय लोगों को स्वचालित निर्णयों को चुनौती देने और मानवीय समीक्षा की मांग करने का अधिकार देता है। एनवाईसी स्थानीय कानून 144 (2023) एनवाईसी निवासियों पर उपयोग किए जाने वाले सभी एआई भर्ती उपकरणों के लिए पूर्वाग्रह ऑडिट की आवश्यकता है। इलिनोइस का एआई वीडियो साक्षात्कार अधिनियम वीडियो साक्षात्कारों के एआई विश्लेषण के लिए प्रकटीकरण और सहमति अनिवार्य करता है। कैलिफ़ोर्निया का सीसीपीए कंपनियों द्वारा निर्णय लेने के लिए उपयोग किए जाने वाले व्यक्तिगत डेटा (एआई स्कोर सहित) तक पहुंच प्रदान करता है। और संघीय नागरिक अधिकार कानून (रोजगार के लिए शीर्षक VII, निष्पक्ष आवास अधिनियम, समान क्रेडिट अवसर अधिनियम) एआई भेदभाव पर भी उसी तरह लागू होते हैं जैसे वे मानवीय भेदभाव पर लागू होते हैं—कंपनियां "एल्गोरिथम ने किया" के पीछे नहीं छिप सकतीं।
मुआवजा तीन स्रोतों से आता है: (1) व्यवस्थित पूर्वाग्रह के लिए सामूहिक मुकदमे के समझौते (प्रति व्यक्ति $200-$5,000 सामान्य, फेसबुक ने पक्षपाती नौकरी विज्ञापन लक्ष्यीकरण के लिए $14 मिलियन का भुगतान किया, हायरव्यू को $228 मिलियन के दावों का सामना करना पड़ रहा है); (2) गंभीर नुकसान के लिए व्यक्तिगत मुकदमे (नौकरी छूटने, गलत गिरफ्तारी, या अलग-अलग प्रभाव के मजबूत सबूत के साथ वित्तीय इनकार के लिए $10,000-$50,000); (3) यूरोप में जीडीपीआर अनुच्छेद 82 के दावे (भेदभाव-आधारित भावनात्मक संकट के लिए €2,000-€20,000, यदि वित्तीय नुकसान हो तो अधिक)। यह मार्गदर्शिका आपको एआई भेदभाव की पहचान करने, सबूत इकट्ठा करने और मुआवजे के लिए हर संभव रास्ते का अनुसरण करने का तरीका बताती है।
जीडीपीआर अनुच्छेद 22 व्यक्तियों को "पूरी तरह से स्वचालित प्रसंस्करण पर आधारित निर्णय के अधीन न होने का अधिकार देता है...जो उसके संबंध में कानूनी प्रभाव पैदा करता है या उसे इसी तरह महत्वपूर्ण रूप से प्रभावित करता है।" इसमें एआई भर्ती अस्वीकृतियाँ, ऋण इनकार, बीमा मूल्य निर्धारण, और प्रमुख परिणामों वाले कोई भी स्वचालित निर्णय शामिल हैं। यदि आप निर्णय को चुनौती देते हैं तो कंपनियों को "शामिल तर्क के बारे में सार्थक जानकारी" प्रदान करनी चाहिए और मानवीय समीक्षा की अनुमति देनी चाहिए।
अनुच्छेद 82 आपको जीडीपीआर उल्लंघनों से "भौतिक या गैर-भौतिक क्षति" के लिए मुकदमा करने की अनुमति देता है, जिसमें भेदभावपूर्ण एआई निर्णय शामिल हैं। गैर-भौतिक क्षति में भावनात्मक संकट, चिंता, अवसर की हानि, प्रतिष्ठा को नुकसान शामिल है। यूरोपीय संघ की अदालतों ने भेदभाव-आधारित भावनात्मक संकट के लिए €2,000-€20,000 का पुरस्कार दिया है, जिसमें नौकरी छूटने या वित्तीय बर्बादी से जुड़े गंभीर मामलों के लिए अधिक राशि (€50,000+) शामिल है।
कंपनियों के लिए अधिकतम जुर्माना: €20 मिलियन या वैश्विक वार्षिक कारोबार का 4%।
एनवाईसी स्थानीय कानून 144 के तहत एनवाईसी में "स्वचालित रोजगार निर्णय उपकरण" (एईडीटी) का उपयोग करने वाले नियोक्ताओं को वार्षिक पूर्वाग्रह ऑडिट करने और परिणाम प्रकाशित करने की आवश्यकता है। कंपनियों को उम्मीदवारों को सूचित करना होगा कि क्या एआई का उपयोग किया जाता है और वैकल्पिक चयन प्रक्रियाओं की अनुमति देनी होगी। उल्लंघन: प्रति दिन $500 (लंबे समय तक गैर-अनुपालन के लिए तेजी से $50,000-$100,000 तक बढ़ जाता है)।
हालांकि कानून 144 कार्रवाई का एक निजी अधिकार नहीं बनाता है (आप सीधे उल्लंघनों के लिए मुकदमा नहीं कर सकते), यह शीर्षक VII भेदभाव के दावों के लिए शक्तिशाली सबूत प्रदान करता है। यदि किसी कंपनी ने पूर्वाग्रह ऑडिट नहीं किया या उसमें विफल रही, तो यह इस बात का मजबूत सबूत है कि वे जानते थे (या जानना चाहिए था) कि उनका एआई भेदभावपूर्ण था। सामूहिक मुकदमे के वकील इन ऑडिटों पर बारीकी से नज़र रख रहे हैं।
एनवाईसी उपभोक्ता और श्रमिक संरक्षण विभाग लागू करता है। शिकायत पोर्टल: nyc.gov/site/dca
इलिनोइस में एआई का उपयोग करके वीडियो साक्षात्कारों (चेहरे के भाव, स्वर, शब्द चयन) का विश्लेषण करने वाले नियोक्ताओं को यह करना होगा: (1) आवेदकों को लिखित रूप में सूचित करें कि एआई का उपयोग किया जाता है, (2) समझाएं कि एआई कैसे काम करता है और यह किन विशेषताओं का मूल्यांकन करता है, (3) लिखित सहमति प्राप्त करें, (4) अनुरोध के 30 दिनों के भीतर वीडियो हटा दें। उल्लंघन: प्रति व्यक्ति $1,000-$5,000। कई सामूहिक मुकदमे दायर किए गए हैं, तकनीकी उल्लंघनों के लिए प्रति व्यक्ति $100-$500 की सीमा में समझौते हुए हैं, यदि भेदभाव साबित होता है तो यह राशि अधिक होगी।
सीसीपीए कैलिफ़ोर्निया के निवासियों को कंपनियों द्वारा एकत्र की गई "व्यक्तिगत जानकारी के विशिष्ट टुकड़ों" तक पहुंचने का अधिकार देता है, जिसमें एआई-जनित स्कोर, जोखिम मूल्यांकन और निर्णय के तर्क शामिल हैं। यदि कोई कंपनी आपको नौकरी, ऋण या आवास से इनकार करने के लिए एआई का उपयोग करती है, तो आप अनुरोध कर सकते हैं: (1) आपका एआई स्कोर/रैंकिंग, (2) विचार किए गए कारक, (3) स्वीकृत उम्मीदवारों से तुलना। कंपनियों को 45 दिनों के भीतर जवाब देना होगा। खुलासा करने से इनकार करने पर उन्हें प्रति उल्लंघन $7,500 (जानबूझकर किए गए उल्लंघन) का सामना करना पड़ सकता है।
डीओजे ने फेसबुक पर विज्ञापनदाताओं को आयु, लिंग और नस्ल के आधार पर नौकरी विज्ञापनों को लक्षित करने की अनुमति देने के लिए मुकदमा दायर किया (उदाहरण के लिए, नर्सिंग की नौकरियां केवल महिलाओं को दिखाई गईं, लकड़हारा की नौकरियां केवल पुरुषों को, आवास विज्ञापन बच्चों वाले परिवारों को छोड़कर)। समझौता: $14.25 मिलियन का जुर्माना + $9.5 मिलियन का फंड उन लोगों को मुआवजा देने के लिए जिन्हें अवसर से वंचित किया गया था। फेसबुक ने रोजगार, आवास और क्रेडिट विज्ञापनों के लिए जनसांख्यिकीय लक्ष्यीकरण की अनुमति देना बंद करने पर सहमति व्यक्त की।
अमेज़न ने अपने एआई रिज्यूमे स्क्रीनिंग टूल को यह पता चलने के बाद बंद कर दिया कि यह उन रिज्यूमे को दंडित करता है जिनमें "महिलाओं के" (उदाहरण के लिए, "महिला शतरंज क्लब कप्तान") शब्द शामिल थे और दो पूरी तरह से महिला कॉलेजों के स्नातकों को कम रैंक देता था। अमेज़न को प्रस्तुत किए गए 10 वर्षों के रिज्यूमे (जिनमें पुरुषों की संख्या बहुत अधिक थी) पर प्रशिक्षित होने के कारण, एआई ने सीखा कि पुरुष = अच्छा उम्मीदवार। कोई समझौता नहीं हुआ (अमेज़न ने मुकदमे से पहले उपकरण को बंद कर दिया), लेकिन टाइटल VII के मामलों में इसे व्यापक रूप से इस बात के प्रमाण के रूप में उद्धृत किया जाता है कि एआई ऐतिहासिक पूर्वाग्रह को दोहराता है।
हायरव्यू का एआई वीडियो साक्षात्कारों का विश्लेषण करता है—चेहरे के हाव-भाव, लहजा, शब्द चयन, बोलने के पैटर्न—उम्मीदवारों को स्कोर करने के लिए। इलेक्ट्रॉनिक प्राइवेसी इंफॉर्मेशन सेंटर (ईपीआईसी) ने एफटीसी शिकायत दर्ज की जिसमें विकलांगता भेदभाव (ऑटिस्टिक उम्मीदवारों, चेहरे के पक्षाघात, बोलने में बाधाओं को दंडित करता है) और पारदर्शिता की कमी का आरोप लगाया गया। संभावित क्लास एक्शन में 2015 से हायरव्यू एआई के अधीन 100 मिलियन से अधिक उम्मीदवार शामिल हो सकते हैं। अनुमानित क्षति: $228 मिलियन (गोपनीयता उल्लंघन के लिए प्रति व्यक्ति $2-$5, अस्वीकृत अवसरों के लिए $500-$5,000)।
क्लियरव्यू एआई ने पुलिस को बेचे गए फेशियल रिकॉग्निशन डेटाबेस बनाने के लिए सोशल मीडिया से 3 अरब तस्वीरें स्क्रैप कीं। इलिनोइस (BIPA), कैलिफ़ोर्निया (CCPA), वर्मोंट में मुकदमों में गोपनीयता उल्लंघनों और असमान प्रभाव (अल्पसंख्यकों के लिए उच्च त्रुटि दरें जिसके परिणामस्वरूप गलत गिरफ्तारियां हुईं) का आरोप लगाया गया है। समझौते: इलिनोइस $50 मिलियन (BIPA), ACLU $228 मिलियन प्रतिबंध (निजी कंपनियों को नहीं बेच सकते)। व्यक्तिगत गलत गिरफ्तारी पीड़ितों ने $100K-$500K के लिए मुकदमा दायर किया है।
अपस्टार्ट एआई का उपयोग 1,600 चरों (शिक्षा, रोजगार इतिहास, आवेदन क्लिक पैटर्न) के आधार पर ऋणों को मंजूरी देने के लिए करता है। सीएफपीबी ने पाया कि अपस्टार्ट के एल्गोरिथम ने प्रभावी रूप से नस्ल के लिए प्रॉक्सी का उपयोग किया, जिसके परिणामस्वरूप अल्पसंख्यक आवेदकों को समान स्थिति वाले श्वेत आवेदकों की तुलना में खराब ब्याज दरें मिलीं। कोई जुर्माना नहीं (अपस्टार्ट ने सहयोग किया), लेकिन असमान प्रभाव की निगरानी करना आवश्यक है। चल रहे निजी मुकदमे क्लास क्षति में $50M-$100M की मांग कर रहे हैं।
कम्पास एआई पैरोल/सजा के निर्णयों के लिए पुनरावृत्ति जोखिम की भविष्यवाणी करता है। प्रोपब्लिका जांच में पाया गया कि इसने श्वेत प्रतिवादियों की तुलना में दोगुनी दर पर अश्वेत प्रतिवादियों को गलत तरीके से "उच्च जोखिम" के रूप में चिह्नित किया (45% बनाम 23% गलत सकारात्मक दर)। विस्कॉन्सिन सुप्रीम कोर्ट ने इसके उपयोग को बरकरार रखा (लूमिस बनाम विस्कॉन्सिन), लेकिन सटीकता सीमाओं के बारे में चेतावनियां अनिवार्य कीं। कोई व्यक्तिगत मुआवजा नहीं, लेकिन कई राज्यों (कैलिफ़ोर्निया, अलास्का) ने एल्गोरिथम जोखिम आकलन पर प्रतिबंध लगा दिया है या उन्हें प्रतिबंधित कर दिया है।
एआई भेदभाव को साबित करना मुश्किल है क्योंकि एल्गोरिदम "ब्लैक बॉक्स" होते हैं। लेकिन पांच प्रकार के साक्ष्य हैं जो काम करते हैं:
यदि आप यह दिखा सकते हैं कि एआई आपके संरक्षित वर्ग को असमान रूप से नुकसान पहुँचाता है, तो आपको इरादा साबित करने की आवश्यकता नहीं है। उदाहरण: विशेषज्ञ विश्लेषण से पता चलता है कि ऋणदाता का एआई समान क्रेडिट स्कोर + आय वाले श्वेत आवेदकों की तुलना में अश्वेत आवेदकों को दोगुनी दर पर अस्वीकार करता है। यह अकेले एक मुकदमा जीत सकता है। लागत: विशेषज्ञ सांख्यिकीय विश्लेषण के लिए $5,000-$20,000, लेकिन कई नागरिक अधिकार वकील अग्रिम रूप से कवर करते हैं।
यदि कंपनी NYC कानून 144 (या इसी तरह के भविष्य के कानूनों) के अधीन है और उसने आवश्यक पूर्वाग्रह ऑडिट नहीं किया, तो यह एक शक्तिशाली सबूत है कि वे भेदभाव के प्रति लापरवाह थे। यदि उन्होंने ऑडिट किया और उसमें पूर्वाग्रह का खुलासा हुआ, लेकिन उन्होंने फिर भी एआई का उपयोग किया, तो भी यही बात है।
दिखाएं कि एआई ऐसे चरों का उपयोग करता है जो संरक्षित विशेषताओं से संबंधित हैं: ज़िप कोड (नस्ल), कॉलेज की प्रतिष्ठा (वर्ग/नस्ल), करियर के अंतर (लिंग देखभाल), बोलने के पैटर्न (विकलांगता), फेसबुक प्रोफाइल की आयु (आयु)। ईसीओए ऋणदाताओं को अस्वीकृति के "मुख्य कारणों" का खुलासा करने की आवश्यकता है—इसका अनुरोध करें और प्रॉक्सी की तलाश करें।
समान योग्यता वाले लेकिन अलग संरक्षित विशेषता वाले किसी व्यक्ति को ढूंढें जिसे काम पर रखा गया/मंजूरी दी गई। उदाहरण: आपने और एक श्वेत सहकर्मी दोनों ने एक ही नौकरी के लिए आवेदन किया, समान योग्यताएं थीं, उसे साक्षात्कार मिला (एआई ने उसे 8/10 रैंक दिया), आपको नहीं मिला (एआई ने आपको 3/10 रैंक दिया)। यह बताता है कि एआई ने आपकी नस्ल/लिंग को दंडित किया।
अमेज़न ने स्वीकार किया कि उसका भर्ती एआई पक्षपातपूर्ण था (रॉयटर्स रिपोर्ट 2018)। हायरव्यू ने स्वीकार किया कि एआई ने विकलांग उम्मीदवारों को कम स्कोर दिया (ईपीआईसी एफटीसी शिकायत)। मेटा ने नस्लीय विज्ञापन लक्ष्यीकरण स्वीकार किया (डीओजे समझौता)। यदि कंपनी ने पूर्वाग्रह स्वीकार किया है या पिछले दावों का निपटारा किया है, तो इसे इस बात के प्रमाण के रूप में उद्धृत करें कि वे समस्या के बारे में जानते थे।
सुरागों की तलाश करें: तत्काल अस्वीकृति (कोई भी मानव आपके 300-पृष्ठ के रिज्यूमे की 3 सेकंड में समीक्षा नहीं कर सकता था), सामान्य अस्वीकृति का कारण ("योग्य नहीं"), कंपनी एआई भर्ती दक्षता के बारे में डींग मारती है, नौकरी पोस्टिंग कहती है "एआई-पावर्ड आवेदक ट्रैकिंग।" जीडीपीआर/सीसीपीए अधिकारों का प्रयोग करें अनुरोध करने के लिए: एकत्र किया गया डेटा, एआई स्कोर, निर्णय तर्क। कंपनियों को 30-45 दिनों के भीतर जवाब देना होगा।
लिखित अनुरोध भेजें: "जीडीपीआर अनुच्छेद 15 / सीसीपीए धारा 1798.110 के अनुसार, मैं आपके द्वारा मेरे बारे में एकत्र किए गए सभी व्यक्तिगत डेटा तक पहुंच का अनुरोध करता हूं, जिसमें एआई-जनित स्कोर, जोखिम आकलन, रैंकिंग और स्वचालित निर्णय लेने का तर्क शामिल है।" इसमें शामिल करें: आपका नाम, आवेदन की तारीखें, जिस पद/ऋण/अपार्टमेंट के लिए आवेदन किया गया था, पहचान सत्यापन। अनुरोध की प्रतिलिपि रखें।
क्षतिपूर्ति की गणना करें: खोई हुई मजदूरी (वह नौकरी का वेतन जो आपको नहीं मिली × बेरोजगार महीने), अधिक भुगतान किया गया ब्याज (ऋण दरों में अंतर × ऋण राशि × वर्ष), भावनात्मक संकट (चिकित्सा लागत, चिंता/अवसाद का दस्तावेजीकरण करने वाली पत्रिका प्रविष्टियाँ), जेब से हुए खर्च (क्रेडिट मरम्मत, कानूनी शुल्क)। मजबूत दस्तावेजीकरण समझौतों में $5,000-$20,000 के बराबर होता है।
Title VII या FHA भेदभाव के लिए मुकदमा करने से पहले, आपको एजेंसी के पास शिकायत दर्ज करनी होगी: EEOC (रोजगार): eeoc.gov/filing-charge-discrimination, HUD (आवास): hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (क्रेडिट): consumerfinance.gov/complaint। समय सीमा: भेदभाव से 180-300 दिन। एजेंसी 6-12 महीने तक जांच करती है, फिर "मुकदमा करने का अधिकार" पत्र जारी करती है।
Google पर "[Company Name] AI bias class action" खोजें या classaction.org देखें। यदि सामूहिक कार्रवाई मौजूद है, तो दावा प्रपत्र भरकर शामिल हों (आसान, वकील की आवश्यकता नहीं)। यदि कोई सामूहिक कार्रवाई नहीं है, तो नागरिक अधिकार वकील से सलाह लें। अधिकांश आकस्मिक शुल्क पर काम करते हैं (वसूली का 33-40%, कोई अग्रिम शुल्क नहीं)। मजबूत मामले (स्पष्ट असमान प्रभाव, दस्तावेजित नुकसान >$10,000, बड़ी कंपनी जिसके पास पर्याप्त धन है) शीर्ष वकीलों को आकर्षित करते हैं।
NYC कानून 144: NYC उपभोक्ता और श्रमिक संरक्षण विभाग को रिपोर्ट करें।
FTC (अनुचित/भ्रामक AI प्रथाएँ): reportfraud.ftc.gov।
EU: राष्ट्रीय डेटा संरक्षण प्राधिकरण (जैसे यूके में ICO, फ्रांस में CNIL) के पास शिकायत दर्ज करें।
नियामक जुर्माने कंपनियों पर निजी मुकदमों को जल्दी निपटाने का दबाव डालते हैं।
AI पूर्वाग्रह की पहचान करने, सबूत इकट्ठा करने और क्षतिपूर्ति प्राप्त करने के लिए इन चरणों का पालन करें
तत्काल अस्वीकृति, सामान्य कारण, आवेदक ट्रैकिंग सिस्टम का उपयोग करने वाली बड़ी कंपनी की तलाश करें। GDPR अनुच्छेद 15 (EU) या CCPA (कैलिफ़ोर्निया) के माध्यम से अपने डेटा का अनुरोध करें। पूछें: "क्या AI का उपयोग किया गया था? इसने किस डेटा का विश्लेषण किया? मेरा स्कोर क्या था?"
अपनी योग्यताओं की तुलना उन लोगों से करें जिन्हें काम पर रखा/अनुमोदित किया गया था (समान शिक्षा, अनुभव, लेकिन अलग जाति/लिंग)। कंपनी पर शोध करें: क्या उन्होंने पहले AI पूर्वाग्रह के दावों का निपटारा किया है? क्या उन्होंने आवश्यक पूर्वाग्रह ऑडिट किए? समाचार लेख, EEOC शिकायतें, FTC जांचें देखें।
खोई हुई मजदूरी (नौकरी का वेतन × महीने), अधिक भुगतान किया गया ब्याज (ऋण दर का अंतर × राशि × वर्ष), भावनात्मक संकट की लागत (चिकित्सा रसीदें, चिंता/अवसाद के लिए मेडिकल रिकॉर्ड), खर्च किया गया समय (कहीं और आवेदन करने के घंटे, क्रेडिट मरम्मत) की गणना करें। विस्तृत लॉग समझौते के मूल्य को $5,000-$15,000 तक बढ़ाते हैं।
रोजगार: 180-300 दिनों के भीतर EEOC शिकायत। आवास: 1 वर्ष के भीतर HUD शिकायत। क्रेडिट: 2-5 वर्षों के भीतर CFPB शिकायत। मुकदमा करने का अधिकार सुरक्षित रखें। एजेंसी कारण ढूंढ सकती है और समझौता बातचीत कर सकती है, जिससे आपके मुकदमे का खर्च बच जाएगा।
Google पर "[Company Name] AI discrimination class action" खोजें या classaction.org, topclassactions.com देखें। यदि सामूहिक कार्रवाई मौजूद है, तो शामिल होने के लिए दावा प्रपत्र भरें (वकील की आवश्यकता नहीं, इसमें 15 मिनट लगते हैं)। भुगतान समय-सीमा (आमतौर पर 12-24 महीने) के लिए समझौता वेबसाइटों की निगरानी करें।
यदि क्षतिपूर्ति $10,000 से अधिक है या सबूत मजबूत हैं, तो व्यक्तिगत मुकदमे के लिए वकील से सलाह लें। अधिकांश आकस्मिक शुल्क पर काम करते हैं (कोई अग्रिम लागत नहीं)। तैयारी करें: घटनाओं की समय-सीमा, अस्वीकृति पत्र, काम पर रखे गए तुलनीय उम्मीदवार, GDPR/CCPA डेटा प्रतिक्रियाएं, वित्तीय नुकसान की गणना। मजबूत तैयारी वकील की रुचि और समझौते के लाभ को बढ़ाती है।
FTC (अनुचित AI प्रथाएं), NYC DCWP (Law 144 उल्लंघन), राज्य अटॉर्नी जनरल (उपभोक्ता संरक्षण), EU डेटा संरक्षण प्राधिकरण (GDPR उल्लंघन) के पास शिकायतें दर्ज करें। नियामक जांच कंपनियों पर निजी दावों को जल्दी निपटाने का दबाव डालती हैं (लंबे मुकदमेबाजी + नियामक जुर्माने से बचें)।