Home/Digital Rights/AI Bias Discrimination

Sesgo y Discriminación de IA: Obtenga Compensación por Daño Algorítmico

Desde algoritmos de contratación sesgados hasta sistemas discriminatorios de préstamos y reconocimiento facial, aprenda cómo luchar contra la discriminación por IA. Derechos del Artículo 22 del GDPR, protecciones de la Ley 144 de NYC, acuerdos de demandas colectivas y demandas individuales por sesgo algorítmico.

$228M
Potencial de Demanda Colectiva Contra Entrevistas por Video con IA de HireVue (Reclamaciones por Sesgo)
83%
De las Empresas Usan IA en la Contratación (2024), Muchas Con Sesgo No Auditado
47%
Tasa de Error en el Reconocimiento Facial para Mujeres de Piel Oscura vs 1% para Hombres Blancos
€20M
Multa Máxima del GDPR + Daños Individuales por Discriminación en Decisiones Automatizadas

Calcule Su Compensación por Discriminación de IA

Our AI will analyze your description and guide you through the next steps

Sesgo y Discriminación de IA: La Crisis de Injusticia Algorítmica de $228 Millones

La inteligencia artificial ha revolucionado silenciosamente la contratación, los préstamos, la vivienda, los seguros y la justicia penal, pero la revolución tiene un lado oscuro. Estudio tras estudio revela que los sistemas de IA, lejos de ser herramientas matemáticas neutrales, discriminan sistemáticamente a grupos protegidos. Amazon desechó su herramienta de reclutamiento de IA tras descubrir que penalizaba los currículums que contenían la palabra "women's" (como en "women's chess club"). El sistema de entrevistas por video con IA de HireVue se enfrentó a una demanda colectiva de $228 millones por supuestamente discriminar a candidatos con discapacidad. Los sistemas de reconocimiento facial identifican erróneamente a mujeres negras a tasas hasta 47 veces más altas que a hombres blancos, lo que lleva a arrestos injustos. Y los algoritmos de préstamos deniegan hipotecas a solicitantes minoritarios calificados a tasas 40-80% más altas que a solicitantes blancos con perfiles de crédito idénticos.

Estos no son fallos, son características inherentes a sistemas entrenados con datos históricos sesgados (la IA de Amazon aprendió de currículums enviados a una empresa tecnológica en la última década, el 99% de los cuales provenían de hombres) o diseñados con proxies defectuosos para la "solvencia crediticia" o la "idoneidad para el puesto" que se correlacionan con características protegidas (los códigos postales como proxy para la raza, las lagunas profesionales como proxy para el cuidado de género, el prestigio universitario como proxy para la clase socioeconómica). El resultado: discriminación sistémica a gran escala, afectando a millones de personas que nunca obtienen una revisión humana, nunca ven una razón de rechazo, nunca saben que su raza o género fue el factor decisivo.

Pero la ley se está poniendo al día. El Artículo 22 del GDPR otorga a los europeos el derecho a impugnar decisiones automatizadas y exigir una revisión humana. La Ley Local 144 de NYC (2023) exige auditorías de sesgo para todas las herramientas de contratación de IA utilizadas en residentes de NYC. La Ley de Entrevistas por Video con IA de Illinois exige la divulgación y el consentimiento para el análisis de IA de las entrevistas por video. La CCPA de California otorga acceso a los datos personales (incluidas las puntuaciones de IA) que las empresas utilizan para tomar decisiones. Y las leyes federales de derechos civiles (Título VII para el empleo, Ley de Vivienda Justa, Ley de Igualdad de Oportunidades de Crédito) se aplican a la discriminación por IA al igual que a la discriminación humana: las empresas no pueden esconderse detrás de "lo hizo el algoritmo".

La compensación proviene de tres fuentes: (1) Acuerdos de demandas colectivas por sesgo sistémico (típicamente $200-$5,000 por persona, con Facebook pagando $14M por publicidad de empleo sesgada, HireVue enfrentando $228M en reclamaciones); (2) Demandas individuales por daño grave ($10,000-$50,000 por pérdida de empleo, arresto injusto o denegación financiera con fuerte evidencia de impacto desproporcionado); (3) Reclamaciones del Artículo 82 del GDPR en Europa (€2,000-€20,000 por angustia emocional basada en discriminación, más si hay daño financiero). Esta guía le muestra cómo identificar la discriminación por IA, recopilar pruebas y buscar todas las vías de compensación.

Casos y Acuerdos Importantes de Discriminación por IA

Acuerdo de Facebook por $14.25 Millones (2022): Orientación Sesgada de Anuncios de Empleo

El Departamento de Justicia demandó a Facebook por permitir que los anunciantes segmentaran anuncios de empleo por edad, género y raza (por ejemplo, trabajos de enfermería mostrados solo a mujeres, trabajos de leñador solo a hombres, anuncios de vivienda excluyendo a familias con niños). Acuerdo: multa de $14.25 millones + fondo de $9.5 millones para compensar a las personas a las que se les negaron oportunidades. Facebook acordó dejar de permitir la segmentación demográfica para anuncios de empleo, vivienda y crédito.

Herramienta de Contratación por IA de Amazon (2018): Sesgo de Género

Amazon desechó su herramienta de selección de currículums por IA después de descubrir que penalizaba los currículums que contenían la palabra "mujeres" (por ejemplo, "capitana del club de ajedrez femenino") y rebajaba la clasificación de graduadas de dos universidades exclusivamente femeninas. Entrenada con 10 años de currículums enviados a Amazon (abrumadoramente masculinos), la IA aprendió que masculino = buen candidato. No hubo acuerdo (Amazon eliminó la herramienta antes de la demanda), pero se cita ampliamente en casos de Título VII como prueba de que la IA reproduce el sesgo histórico.

Entrevistas por Video con IA de HireVue (En Curso): Potencial Demanda Colectiva de $228 Millones

La IA de HireVue analiza entrevistas en video (expresiones faciales, tono, elección de palabras, patrones de habla) para calificar a los candidatos. El Electronic Privacy Information Center (EPIC) presentó una queja ante la FTC alegando discriminación por discapacidad (penaliza a candidatos autistas, con parálisis facial, impedimentos del habla) y falta de transparencia. Una posible demanda colectiva podría involucrar a más de 100 millones de candidatos sometidos a la IA de HireVue desde 2015. Daños estimados: $228 millones ($2-$5 por persona por violación de privacidad, $500-$5,000 por oportunidades denegadas).

Reconocimiento Facial de Clearview AI (Acuerdos por más de $33 Millones)

Clearview AI recopiló 3 mil millones de fotos de redes sociales para construir una base de datos de reconocimiento facial vendida a la policía. Demandas en Illinois (BIPA), California (CCPA), Vermont alegan violaciones de privacidad e impacto desproporcionado (tasas de error más altas para minorías que conducen a arrestos injustos). Acuerdos: Illinois $50 millones (BIPA), ACLU $228 millones de restricción (no puede vender a empresas privadas). Víctimas individuales de arrestos injustos han demandado por $100K-$500K.

Algoritmo de Préstamos Upstart (2023): Acuerdo con la CFPB

Upstart utiliza IA para aprobar préstamos basándose en 1,600 variables (educación, historial de empleo, patrones de clics en la solicitud). La CFPB descubrió que el algoritmo de Upstart utilizaba efectivamente proxies para la raza, lo que resultaba en que los solicitantes de minorías recibieran peores tasas de interés que los solicitantes blancos en situaciones similares. No hubo multa (Upstart cooperó), pero se le exigió monitorear el impacto desproporcionado. Demandas privadas en curso buscan $50M-$100M en daños colectivos.

Algoritmo de Reincidencia COMPAS (Justicia Penal)

La IA de COMPAS predice el riesgo de reincidencia para decisiones de libertad condicional/sentencia. Una investigación de ProPublica encontró que marcaba falsamente a los acusados negros como de "alto riesgo" al doble de la tasa que a los acusados blancos (tasa de falsos positivos del 45% frente al 23%). El Tribunal Supremo de Wisconsin confirmó su uso (Loomis v. Wisconsin), pero exigió advertencias sobre las limitaciones de precisión. No hay compensación individual, pero varios estados (California, Alaska) han prohibido o restringido las evaluaciones algorítmicas de riesgo.

¿Cuánta Compensación Puedo Obtener por Discriminación por IA?

Discriminación por IA en la Contratación

  • Demanda colectiva: $200-$2,000 por persona (violaciones técnicas como falta de notificación), $500-$5,000 si se demuestra discriminación.
  • Demanda individual: $10,000-$50,000 por denegación de empleo con fuerte evidencia de impacto desproporcionado (análisis experto que demuestre que el algoritmo penaliza a una clase protegida, prueba de que usted estaba calificado, cálculo de salarios perdidos).
  • GDPR (UE): €2,000-€20,000 por angustia emocional por rechazo discriminatorio + derecho a revisión humana.
  • Título VII (empleo en EE. UU.): Salarios atrasados (salarios que habría ganado) + salarios futuros (ganancias futuras perdidas si no puede encontrar un trabajo comparable) + daños por angustia emocional. Los acuerdos a menudo son de $50,000-$200,000 por discriminación probada.

Discriminación por IA en Préstamos/Crédito

  • Demanda colectiva: $500-$3,000 por persona (diferencia en tasas de interés × monto del préstamo = daños reales).
  • Demanda individual: $5,000-$30,000 en daños reales (intereses más altos pagados durante el plazo del préstamo) + daños legales $10,000-$20,000 + daños punitivos de hasta $500,000 por discriminación intencional.
  • La ECOA permite honorarios de abogados, por lo que no hay costo inicial. Muchos abogados de consumidores toman casos a contingencia.

Discriminación por IA en la Vivienda

  • Demanda colectiva: $1,000-$5,000 por persona (disponibilidad limitada de reclamos; la mayoría busca demandas individuales).
  • Demanda individual: $10,000-$50,000 por angustia emocional (humillación, inseguridad de vivienda) + daños reales (costo de vivienda alternativa, gastos de mudanza) + daños punitivos.
  • Ley de Vivienda Justa (Fair Housing Act): Permite daños compensatorios y punitivos ilimitados. Los veredictos del jurado pueden exceder los $100,000 por discriminación flagrante.

Arresto Injusto por Reconocimiento Facial

  • Demanda individual: $100,000-$1,000,000 (arresto falso, detención ilegal, angustia emocional, salarios perdidos, daño a la reputación). Robert Williams (Detroit) demandó por arresto injusto; el caso se resolvió por una cantidad no revelada. Porcha Woodruff (Detroit, arrestada con 8 meses de embarazo): demanda en curso, buscando más de $5 millones.
  • Responsabilidad municipal: Los departamentos de policía que utilizan reconocimiento facial sin pruebas de sesgo enfrentan reclamos de derechos civiles de la Sección 1983. Las ciudades pueden llegar a acuerdos por $500K-$2M para evitar un juicio.

Discriminación por IA en Seguros

  • Demanda colectiva: $200-$2,000 por persona (reembolso de primas pagadas en exceso).
  • Demanda individual: $5,000-$25,000 si puede probar un riesgo comparable pero una prima más alta basada en un proxy para una clase protegida (código postal = proxy de raza, género = precio del seguro de salud).

Cómo Probar el Sesgo de la IA: Evidencia Necesaria

La discriminación por IA es difícil de probar porque los algoritmos son "cajas negras". Pero hay cinco tipos de evidencia que funcionan:

1. Estadísticas de Impacto Desproporcionado

Si puede demostrar que la IA perjudica desproporcionadamente a su clase protegida, no necesita probar la intención. Ejemplo: Un análisis experto revela que la IA de un prestamista niega a los solicitantes negros al doble de la tasa que a los solicitantes blancos con la misma puntuación crediticia + ingresos. Esto por sí solo puede ganar una demanda. Costo: $5,000-$20,000 por análisis estadístico experto, pero muchos abogados de derechos civiles cubren el costo inicial.

2. Falta de Auditoría de Sesgo

Si una empresa está sujeta a la Ley 144 de Nueva York (o leyes futuras similares) y no realizó la auditoría de sesgo requerida, eso es una prueba poderosa de que fueron imprudentes con respecto a la discriminación. Lo mismo si realizaron la auditoría y esta reveló sesgo, pero usaron la IA de todos modos.

3. Proxies Discriminatorios

Demuestre que la IA utiliza variables que se correlacionan con características protegidas: Código postal (raza), prestigio universitario (clase/raza), brechas profesionales (género por cuidado), patrones de habla (discapacidad), edad del perfil de Facebook (edad). La ECOA exige que los prestamistas revelen las "razones principales" de la denegación; solicite esto y busque proxies.

4. Evidencia Comparativa

Encuentre a alguien con cualificaciones similares pero con una característica protegida diferente que fue contratado/aprobado. Ejemplo: Usted y un colega blanco solicitaron el mismo trabajo, con las mismas cualificaciones, él obtuvo una entrevista (la IA lo clasificó 8/10), usted no (la IA lo clasificó 3/10). Esto sugiere que la IA penalizó su raza/género.

5. Admisiones de la Empresa

Amazon admitió que su IA de contratación era sesgada (informe de Reuters 2018). HireVue admitió que la IA calificaba a los candidatos discapacitados más bajo (queja de EPIC ante la FTC). Meta admitió la segmentación de anuncios raciales (acuerdo con el Departamento de Justicia). Si la empresa ha admitido sesgo o ha resuelto reclamos anteriores, cite eso como prueba de que conocían el problema.

How to File an AI Discrimination Claim

1Step 1: Identify You Were Subject to AI Decision

Look for clues: Instant rejection (no human could review your 300-page resume in 3 seconds), generic rejection reason ("not qualified"), company brags about AI hiring efficiency, job posting says "AI-powered applicant tracking." Exercise GDPR/CCPA rights to request: data collected, AI scores, decision logic. Companies must respond within 30-45 days.

2Step 2: Request Your Data (GDPR Article 15 / CCPA)

Send written request: "Pursuant to [GDPR Article 15 / CCPA Section 1798.110], I request access to all personal data you collected about me, including AI-generated scores, risk assessments, rankings, and the logic of automated decision-making." Include: your name, dates you applied, position/loan/apartment applied for, identity verification. Keep copy of request.

3Paso 3: Documente el Daño

Calcule los daños: Salarios perdidos (salario del trabajo que no obtuvo × meses de desempleo), intereses más altos pagados (diferencia en las tasas de préstamo × monto del préstamo × años), angustia emocional (costos de terapia, entradas de diario que documentan ansiedad/depresión), gastos de bolsillo (reparación de crédito, honorarios legales). Una documentación sólida vale entre $5,000 y $20,000 en acuerdos.

4Paso 4: Presente una Demanda Administrativa (Empleo/Vivienda en EE. UU.)

Antes de demandar por discriminación bajo el Título VII o la FHA, debe presentar una queja ante la agencia: EEOC (empleo): eeoc.gov/filing-charge-discrimination, HUD (vivienda): hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (crédito): consumerfinance.gov/complaint. Plazo: 180-300 días desde la discriminación. La agencia investiga durante 6-12 meses y luego emite una carta de "derecho a demandar".

5Paso 5: Busque una Demanda Colectiva o Presente una Demanda Individual

Busque en Google "[Company Name] demanda colectiva sesgo IA" o consulte classaction.org. Si existe una demanda colectiva, únase presentando un formulario de reclamación (fácil, no se necesita abogado). Si no hay demanda colectiva, consulte a un abogado de derechos civiles. La mayoría trabaja a comisión (33-40% de la recuperación, sin tarifa inicial). Los casos sólidos (impacto desproporcionado claro, daño documentado >$10,000, empresa grande con recursos) atraen a los mejores abogados.

6Paso 6: Considere una Queja Regulatoria

Ley 144 de NYC: Informe al Departamento de Protección al Consumidor y al Trabajador de NYC.

FTC (prácticas de IA desleales/engañosas): reportfraud.ftc.gov.

UE: Presente una queja ante la Autoridad Nacional de Protección de Datos (p. ej., ICO en el Reino Unido, CNIL en Francia).

Las multas regulatorias presionan a las empresas para que resuelvan rápidamente las demandas privadas.

Loading jurisdiction data...

Preguntas Frecuentes: Reclamaciones por Sesgo y Discriminación de IA

¿Cómo puedo saber si se utilizó IA para rechazarme?

¿Puedo demandar incluso si la empresa no tenía intención de discriminar?

¿Qué pasa si no puedo pagar un abogado?

¿Cuánto tiempo tengo para presentar una reclamación?

¿Cuál es el rango de acuerdo realista para la discriminación por IA?

¿Puede mi empleador tomar represalias si me quejo del sesgo de la IA?

¿Tengo que probar que habría sido contratado/aprobado sin el sesgo de la IA?

¿Qué pasa si la empresa afirma que su IA es un "secreto comercial" propietario?

Su Plan de Acción contra la Discriminación por IA

Siga estos pasos para identificar el sesgo de la IA, recopilar pruebas y buscar compensación

1Identifique la Decisión de IA

Busque rechazos instantáneos, razones genéricas, empresas grandes que utilizan sistemas de seguimiento de solicitantes. Solicite sus datos a través del Artículo 15 del GDPR (UE) o CCPA (California). Pregunte: "¿Se utilizó IA? ¿Qué datos analizó? ¿Cuál fue mi puntuación?"

2Reúna Evidencia de Impacto Desproporcionado

Compare sus cualificaciones con las de personas que fueron contratadas/aprobadas (misma educación, experiencia, pero diferente raza/género). Investigue la empresa: ¿han resuelto reclamaciones por sesgo de IA antes? ¿Realizaron las auditorías de sesgo requeridas? Busque artículos de noticias, quejas de la EEOC, investigaciones de la FTC.

3Documente Sus Daños

Calcule los salarios perdidos (salario del trabajo × meses), intereses más altos pagados (diferencia de tasa de préstamo × monto × años), costos de angustia emocional (recibos de terapia, registros médicos por ansiedad/depresión), tiempo invertido (horas aplicando en otros lugares, reparación de crédito). Los registros detallados aumentan el valor del acuerdo en $5,000-$15,000.

4Presente una Demanda Administrativa (EE. UU.)

Empleo: Queja ante la EEOC dentro de 180-300 días. Vivienda: Queja ante el HUD dentro de 1 año. Crédito: Queja ante el CFPB dentro de 2-5 años. Preserve el derecho a demandar. La agencia puede encontrar causa y negociar un acuerdo, ahorrándole el costo de un litigio.

5Busque una Demanda Colectiva

Busque en Google "[Company Name] demanda colectiva discriminación IA" o consulte classaction.org, topclassactions.com. Si existe una demanda colectiva, presente un formulario de reclamación para unirse (no se necesita abogado, toma 15 minutos). Monitoree los sitios web de acuerdos para conocer los plazos de pago (típicamente 12-24 meses).

6Consulte a un Abogado de Derechos Civiles

Si los daños superan los $10,000 o la evidencia es sólida, consulte a un abogado para una demanda individual. La mayoría trabaja a comisión (sin costo inicial). Prepare: cronología de eventos, cartas de rechazo, candidatos comparables que fueron contratados, respuestas de datos GDPR/CCPA, cálculos de pérdidas financieras. Una preparación sólida aumenta el interés del abogado y la capacidad de negociación del acuerdo.

7Considere Quejas Regulatorias

Presente quejas ante la FTC (prácticas de IA desleales), NYC DCWP (violaciones de la Ley 144), el fiscal general del estado (protección del consumidor), la Autoridad de Protección de Datos de la UE (violaciones del GDPR). Las investigaciones regulatorias presionan a las empresas para que resuelvan rápidamente las reclamaciones privadas (evitar litigios prolongados + multas regulatorias).