Yanlı işe alım algoritmalarından ayrımcı borç verme ve yüz tanıma sistemlerine kadar, yapay zeka ayrımcılığına karşı nasıl mücadele edeceğinizi öğrenin. GDPR Madde 22 hakları, NYC Yasa 144 korumaları, toplu dava uzlaşmaları ve algoritmik yanlılık için bireysel davalar.
Yapay zeka, işe alım, borç verme, konut, sigorta ve ceza adaletini sessizce devrimleştirdi—ancak bu devrimin karanlık bir yüzü var. Yapılan her çalışma, yapay zeka sistemlerinin, tarafsız matematiksel araçlar olmaktan çok uzak, korunan gruplara karşı sistematik olarak ayrımcılık yaptığını ortaya koyuyor. Amazon, "kadınlar" kelimesini içeren özgeçmişleri (örneğin "kadınlar satranç kulübü"ndeki gibi) cezalandırdığını keşfettikten sonra yapay zeka işe alım aracını hurdaya çıkardı. HireVue'nun yapay zeka video mülakat sistemi, engelli adaylara karşı ayrımcılık yaptığı iddiasıyla 228 milyon dolarlık bir toplu davayla karşı karşıya kaldı. Yüz tanıma sistemleri, siyahi kadınları beyaz erkeklere göre 47 kata kadar daha yüksek oranlarda yanlış tanımlayarak haksız tutuklamalara yol açıyor. Ve borç verme algoritmaları, nitelikli azınlık başvuru sahiplerine, aynı kredi profiline sahip beyaz başvuru sahiplerine göre %40-80 daha yüksek oranlarda ipotek kredisi vermeyi reddediyor.
Bunlar aksaklık değil—yanlı tarihsel verilerle eğitilmiş sistemlere (Amazon'un yapay zekası, son on yılda bir teknoloji şirketine gönderilen ve %99'u erkeklerden gelen özgeçmişlerden öğrendi) veya korunan özelliklerle (posta kodları ırk için vekil, kariyer boşlukları cinsiyet temelli bakım için vekil, üniversite prestiji sosyoekonomik sınıf için vekil) ilişkili "kredi değeri" veya "işe uygunluk" için kusurlu vekillerle tasarlanmış özelliklerdir. Sonuç: milyonlarca insanı etkileyen, insan incelemesi almayan, reddedilme nedenini asla görmeyen, ırklarının veya cinsiyetlerinin belirleyici faktör olduğunu asla bilmeyen ölçekli sistematik ayrımcılık.
Ancak hukuk yetişiyor. GDPR Madde 22, Avrupalılara otomatik kararlara itiraz etme ve insan incelemesi talep etme hakkı veriyor. NYC Yerel Yasa 144 (2023), NYC sakinleri üzerinde kullanılan tüm yapay zeka işe alım araçları için yanlılık denetimleri yapılmasını zorunlu kılıyor. Illinois'in Yapay Zeka Video Mülakat Yasası, video mülakatların yapay zeka analizi için ifşa ve rıza alınmasını şart koşuyor. California'nın CCPA'sı, şirketlerin karar vermek için kullandığı kişisel verilere (yapay zeka puanları dahil) erişim sağlıyor. Ve federal medeni haklar yasaları (istihdam için Başlık VII, Adil Konut Yasası, Eşit Kredi Fırsatı Yasası), yapay zeka ayrımcılığına tıpkı insan ayrımcılığına uygulandığı gibi uygulanıyor—şirketler "algoritma yaptı" diyerek arkasına saklanamazlar.
Tazminat üç kaynaktan gelir: (1) Sistematik yanlılık için toplu dava uzlaşmaları (kişi başı tipik 200-5.000 Dolar, Facebook yanlı iş ilanı hedeflemesi için 14 Milyon Dolar ödedi, HireVue 228 Milyon Dolarlık taleplerle karşı karşıya); (2) Ciddi zarar için bireysel davalar (iş kaybı, haksız tutuklama veya farklı etkiye dair güçlü kanıtlarla finansal reddetme için 10.000-50.000 Dolar); (3) Avrupa'da GDPR Madde 82 talepleri (ayrımcılığa dayalı duygusal sıkıntı için 2.000-20.000 Avro, finansal zarar varsa daha yüksek). Bu rehber, yapay zeka ayrımcılığını nasıl tespit edeceğinizi, kanıt toplayacağınızı ve tazminat için her yolu nasıl takip edeceğinizi gösterir.
GDPR Madde 22, bireylere "yalnızca otomatik işlemeye dayalı bir karara tabi olmama hakkı... kendisi hakkında hukuki sonuçlar doğuran veya benzer şekilde kendisini önemli ölçüde etkileyen" hakkı tanır. Bu, yapay zeka işe alım reddini, kredi reddini, sigorta fiyatlandırmasını ve büyük sonuçları olan herhangi bir otomatik kararı kapsar. Şirketler, karara itiraz etmeniz durumunda "ilgili mantık hakkında anlamlı bilgi" sağlamalı ve insan incelemesine izin vermelidir.
Madde 82, ayrımcı yapay zeka kararları dahil olmak üzere GDPR ihlallerinden kaynaklanan "maddi veya manevi zarar" için dava açmanıza olanak tanır. Manevi zarar, duygusal sıkıntı, kaygı, fırsat kaybı, itibar zedelenmesini içerir. AB mahkemeleri, ayrımcılığa dayalı duygusal sıkıntı için 2.000-20.000 Avro, iş kaybı veya mali yıkım içeren ciddi vakalar için ise daha yüksek miktarlar (50.000 Avro+) ödüllendirmiştir.
Şirketler için maksimum para cezaları: 20 milyon Avro veya küresel yıllık cironun %4'ü.
NYC Yerel Yasa 144, NYC'de "otomatik istihdam karar araçları" (AEDT) kullanan işverenlerin yıllık yanlılık denetimleri yapmasını ve sonuçları yayınlamasını zorunlu kılar. Şirketler, yapay zeka kullanılıyorsa adayları bilgilendirmeli ve alternatif seçim süreçlerine izin vermelidir. İhlaller: Günlük 500 Dolar (uzun süreli uyumsuzluk için hızla 50.000-100.000 Dolar'a ulaşır).
Yasa 144 doğrudan dava açma hakkı (ihlaller için doğrudan dava açamazsınız) yaratmasa da, Başlık VII ayrımcılık iddiaları için güçlü kanıtlar sunar. Bir şirket yanlılık denetimi yapmadıysa veya başarısız olduysa, bu, yapay zekalarının ayrımcı olduğunu bildiklerine (veya bilmeleri gerektiğine) dair güçlü bir kanıttır. Toplu dava avukatları bu denetimleri yakından takip ediyor.
NYC Tüketici ve İşçi Koruma Departmanı uygular. Şikayet portalı: nyc.gov/site/dca
Illinois, video mülakatları (yüz ifadeleri, ton, kelime seçimi) analiz etmek için yapay zeka kullanan işverenlerden şunları yapmasını ister: (1) başvuru sahiplerini yapay zeka kullanıldığına dair yazılı olarak bilgilendirmek, (2) yapay zekanın nasıl çalıştığını ve hangi özellikleri değerlendirdiğini açıklamak, (3) yazılı onay almak, (4) talep üzerine videoları 30 gün içinde silmek. İhlaller: Kişi başı 1.000-5.000 Dolar. Teknik ihlaller için kişi başı 100-500 Dolar aralığında uzlaşmalarla birkaç toplu dava açılmıştır, ayrımcılık kanıtlanırsa daha yüksek olabilir.
CCPA, California sakinlerine şirketlerin topladığı "belirli kişisel bilgilere", yapay zeka tarafından oluşturulan puanlar, risk değerlendirmeleri ve karar gerekçeleri dahil olmak üzere erişim hakkı tanır. Bir şirket size iş, kredi veya konut vermeyi reddetmek için yapay zeka kullanıyorsa, şunları talep edebilirsiniz: (1) yapay zeka puanınız/sıralamanız, (2) dikkate alınan faktörler, (3) kabul edilen adaylarla karşılaştırma. Şirketler 45 gün içinde yanıt vermelidir. Açıklamayı reddetmeleri, ihlal başına 7.500 Dolar (kasıtlı ihlaller) cezaya tabi olmalarına neden olur.
DOJ, Facebook'a reklamverenlerin iş ilanlarını yaş, cinsiyet ve ırka göre hedeflemesine izin verdiği için dava açtı (örn. hemşirelik işleri sadece kadınlara, oduncu işleri sadece erkeklere gösterilmesi, çocuklu aileleri dışlayan konut reklamları). Uzlaşma: 14.25 milyon dolar ceza + fırsatları reddedilen kişilere tazminat ödemek için 9.5 milyon dolarlık fon. Facebook, istihdam, konut ve kredi reklamları için demografik hedeflemeye izin vermeyi durdurmayı kabul etti.
Amazon, yapay zeka özgeçmiş tarama aracının "kadınlara ait" ifadeler içeren özgeçmişleri (örn. "kadınlar satranç kulübü kaptanı") cezalandırdığını ve iki sadece kadınlara özel üniversiteden mezun olanları düşük sıraladığını keşfettikten sonra aracı kullanımdan kaldırdı. Amazon'a sunulan 10 yıllık özgeçmişler (büyük çoğunluğu erkek) üzerinde eğitilen yapay zeka, erkek = iyi aday olarak öğrendi. Bir uzlaşma olmadı (Amazon dava açılmadan aracı durdurdu), ancak yapay zekanın tarihsel önyargıyı tekrarladığının kanıtı olarak Title VII davalarında yaygın olarak atıfta bulunulmaktadır.
HireVue'nun yapay zekası, adayları puanlamak için video mülakatlarını—yüz ifadeleri, tonlama, kelime seçimi, konuşma kalıpları—analiz eder. Elektronik Gizlilik Bilgi Merkezi (EPIC), engellilik ayrımcılığı (otistik adayları, yüz felcini, konuşma bozukluklarını cezalandırıyor) ve şeffaflık eksikliği iddialarıyla FTC'ye şikayette bulundu. Potansiyel toplu dava, 2015'ten bu yana HireVue yapay zekasına maruz kalan 100 milyondan fazla adayı içerebilir. Tahmini tazminat: 228 milyon dolar (gizlilik ihlali için kişi başına 2-5 dolar, reddedilen fırsatlar için 500-5.000 dolar).
Clearview AI, polise satılan yüz tanıma veritabanı oluşturmak için sosyal medyadan 3 milyar fotoğraf kazıdı. Illinois (BIPA), California (CCPA), Vermont'taki davalar gizlilik ihlalleri ve orantısız etki (azınlıklar için daha yüksek hata oranları yanlış tutuklamalara yol açıyor) iddia etmektedir. Uzlaşmalar: Illinois 50 milyon dolar (BIPA), ACLU 228 milyon dolarlık kısıtlama (özel şirketlere satış yapamaz). Bireysel haksız tutuklama mağdurları 100 bin-500 bin dolar için dava açtı.
Upstart, 1.600 değişkene (eğitim, istihdam geçmişi, başvuru tıklama kalıpları) dayalı olarak kredileri onaylamak için yapay zeka kullanır. CFPB, Upstart'ın algoritmasının ırk için etkili bir şekilde vekil kullandığını ve bunun sonucunda azınlık başvuru sahiplerinin benzer durumdaki beyaz başvuru sahiplerinden daha kötü faiz oranları aldığını tespit etti. Para cezası yok (Upstart işbirliği yaptı), ancak orantısız etkiyi izlemesi istendi. Devam eden özel davalar, toplu tazminat olarak 50 milyon-100 milyon dolar talep ediyor.
COMPAS yapay zekası, şartlı tahliye/ceza kararları için tekrarlama riskini tahmin eder. ProPublica soruşturması, siyah sanıkları beyaz sanıklara göre iki kat daha fazla oranda (%45'e karşı %23 yanlış pozitif oranı) yanlış bir şekilde "yüksek riskli" olarak işaretlediğini buldu. Wisconsin Yüksek Mahkemesi kullanımı onayladı (Loomis v. Wisconsin), ancak doğruluk sınırlamaları hakkında uyarılar zorunlu kıldı. Bireysel tazminat yok, ancak bazı eyaletler (California, Alaska) algoritmik risk değerlendirmelerini yasakladı veya kısıtladı.
Yapay zeka ayrımcılığını kanıtlamak zordur çünkü algoritmalar "kara kutulardır." Ancak işe yarayan beş kanıt türü vardır:
Yapay zekanın korunan sınıfınıza orantısız şekilde zarar verdiğini gösterebilirseniz, niyeti kanıtlamanıza gerek yoktur. Örnek: Uzman analizi, borç verenin yapay zekasının aynı kredi puanı + gelire sahip beyaz başvuru sahiplerine göre Siyah başvuru sahiplerini 2 kat daha fazla oranda reddettiğini ortaya koyuyor. Bu tek başına bir davayı kazanabilir. Maliyet: Uzman istatistiksel analizi için 5.000-20.000 dolar, ancak birçok medeni haklar avukatı peşin öder.
Şirket NYC Yasası 144'e (veya benzer gelecekteki yasalara) tabi ise ve gerekli önyargı denetimini yapmadıysa, bu, ayrımcılık konusunda pervasız olduklarına dair güçlü bir kanıttır. Denetim yaptılar ve önyargı ortaya çıktı, ancak yine de yapay zeka kullandılar ise de aynıdır.
Yapay zekanın korunan özelliklerle ilişkili değişkenler kullandığını gösterin: Posta kodu (ırk), üniversite prestiji (sınıf/ırk), kariyer boşlukları (cinsiyet bakımı), konuşma kalıpları (engellilik), Facebook profilinin yaşı (yaş). ECOA, borç verenlerin reddetmenin "temel nedenlerini" açıklamasını gerektirir—bunu talep edin ve vekilleri arayın.
Benzer niteliklere sahip ancak farklı korunan bir özelliğe sahip, işe alınan/onaylanan birini bulun. Örnek: Siz ve beyaz bir meslektaşınız aynı işe başvurdunuz, aynı niteliklere sahiptiniz, o mülakata alındı (yapay zeka onu 8/10 olarak sıraladı), siz alınmadınız (yapay zeka sizi 3/10 olarak sıraladı). Bu, yapay zekanın ırkınızı/cinsiyetinizi cezalandırdığını gösterir.
Amazon, işe alım yapay zekasının önyargılı olduğunu kabul etti (Reuters raporu 2018). HireVue, yapay zekanın engelli adayları daha düşük puanladığını kabul etti (EPIC FTC şikayeti). Meta, ırksal reklam hedeflemesini kabul etti (DOJ uzlaşması). Şirket önyargıyı kabul ettiyse veya önceki iddiaları çözüme kavuşturduysa, bunu sorunu bildiklerinin kanıtı olarak gösterin.
İpuçlarını arayın: Anında reddedilme (hiçbir insan 300 sayfalık özgeçmişinizi 3 saniyede inceleyemezdi), genel reddedilme nedeni ("nitelikli değil"), şirket yapay zeka işe alım verimliliğiyle övünüyor, iş ilanında "yapay zeka destekli başvuru takibi" yazıyor. Toplanan verileri, yapay zeka puanlarını, karar mantığını talep etmek için GDPR/CCPA haklarınızı kullanın. Şirketler 30-45 gün içinde yanıt vermelidir.
Yazılı talep gönderin: "[GDPR Madde 15 / CCPA Bölüm 1798.110] uyarınca, hakkımda topladığınız tüm kişisel verilere, yapay zeka tarafından oluşturulan puanlar, risk değerlendirmeleri, sıralamalar ve otomatik karar verme mantığı dahil olmak üzere erişim talep ediyorum." Şunları ekleyin: adınız, başvurduğunuz tarihler, başvurduğunuz pozisyon/kredi/daire, kimlik doğrulaması. Talebinizin bir kopyasını saklayın.
Zararları hesaplayın: Kayıp ücretler (alamadığınız işin maaşı × işsiz kalınan ay sayısı), ödenen yüksek faiz (kredi oranlarındaki fark × kredi miktarı × yıl), duygusal rahatsızlık (terapi masrafları, anksiyete/depresyonu belgeleyen günlük kayıtları), cepten ödenen masraflar (kredi onarımı, yasal ücretler). Güçlü belgeler, anlaşmalarda $5,000-$20,000 değerindedir.
Title VII veya FHA ayrımcılığı nedeniyle dava açmadan önce, ilgili kuruma başvurmalısınız: EEOC (istihdam): eeoc.gov/filing-charge-discrimination, HUD (konut): hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (kredi): consumerfinance.gov/complaint. Son başvuru tarihi: Ayrımcılıktan itibaren 180-300 gün. Kurum 6-12 ay boyunca soruşturma yapar, ardından "dava açma hakkı" mektubu düzenler.
Google'da "[Şirket Adı] yapay zeka yanlılığı toplu dava" diye aratın veya classaction.org adresini kontrol edin. Eğer toplu dava varsa, talep formu doldurarak katılın (kolaydır, avukat gerekmez). Toplu dava yoksa, bir insan hakları avukatına danışın. Çoğu, başarıya bağlı ücretle çalışır (tazminatın %33-40'ı, peşin ücret yok). Güçlü davalar (açık ayrımcı etki, belgelenmiş >$10,000 zarar, derin ceplere sahip büyük şirket) en iyi avukatları çeker.
NYC Law 144: NYC Tüketici ve İşçi Koruma Departmanı'na bildirin.
FTC (haksız/aldatıcı yapay zeka uygulamaları): reportfraud.ftc.gov.
AB: Ulusal Veri Koruma Kurumu'na şikayette bulunun (örn. Birleşik Krallık'ta ICO, Fransa'da CNIL).
Düzenleyici para cezaları, şirketleri özel davaları hızla çözmeye zorlar.
Yapay zeka yanlılığını tespit etmek, kanıt toplamak ve tazminat talep etmek için bu adımları izleyin
Anında retleri, genel nedenleri, başvuru takip sistemleri kullanan büyük şirketleri arayın. GDPR Madde 15 (AB) veya CCPA (California) aracılığıyla verilerinizi talep edin. Şunları sorun: "Yapay zeka kullanıldı mı? Hangi verileri analiz etti? Puanım neydi?"
Niteliklerinizi işe alınan/onaylanan kişilerle karşılaştırın (aynı eğitim, deneyim, ancak farklı ırk/cinsiyet). Şirketi araştırın: daha önce yapay zeka yanlılığı iddialarını çözdüler mi? Gerekli yanlılık denetimlerini yaptılar mı? Haber makaleleri, EEOC şikayetleri, FTC soruşturmaları arayın.
Kayıp ücretleri (iş maaşı × ay), ödenen yüksek faizi (kredi oranı farkı × miktar × yıl), duygusal rahatsızlık maliyetlerini (terapi makbuzları, anksiyete/depresyon için tıbbi kayıtlar), harcanan zamanı (başka yerlere başvuru saatleri, kredi onarımı) hesaplayın. Detaylı kayıtlar, anlaşma değerini $5,000-$15,000 artırır.
İstihdam: 180-300 gün içinde EEOC şikayeti. Konut: 1 yıl içinde HUD şikayeti. Kredi: 2-5 yıl içinde CFPB şikayeti. Dava açma hakkınızı koruyun. Kurum, dava açma nedenini bulabilir ve anlaşma müzakeresi yaparak dava masraflarından sizi kurtarabilir.
Google'da "[Şirket Adı] yapay zeka ayrımcılığı toplu dava" diye aratın veya classaction.org, topclassactions.com adreslerini kontrol edin. Eğer toplu dava varsa, katılmak için talep formu doldurun (avukat gerekmez, 15 dakika sürer). Ödeme zaman çizelgeleri için anlaşma web sitelerini izleyin (genellikle 12-24 ay).
Zararlar >$10,000 ise veya kanıtlar güçlüyse, bireysel dava için avukata danışın. Çoğu başarıya bağlı ücretle çalışır (peşin maliyet yok). Hazırlanın: olayların zaman çizelgesi, ret mektupları, işe alınan benzer adaylar, GDPR/CCPA veri yanıtları, finansal kayıp hesaplamaları. Güçlü hazırlık, avukatın ilgisini ve anlaşma gücünü artırır.
FTC (haksız yapay zeka uygulamaları), NYC DCWP (Law 144 ihlalleri), eyalet başsavcısı (tüketici koruma), AB Veri Koruma Kurumu (GDPR ihlalleri) ile şikayette bulunun. Düzenleyici soruşturmalar, şirketleri özel iddiaları hızla çözmeye zorlar (uzun süreli davalardan + düzenleyici para cezalarından kaçınmak için).