Desde algoritmos de contratación sesgados hasta sistemas discriminatorios de préstamos y reconocimiento facial, aprenda cómo luchar contra la discriminación por IA. Derechos del Artículo 22 del GDPR, protecciones de la Ley 144 de NYC, acuerdos de demandas colectivas y demandas individuales por sesgo algorítmico.
La inteligencia artificial ha revolucionado silenciosamente la contratación, los préstamos, la vivienda, los seguros y la justicia penal, pero la revolución tiene un lado oscuro. Estudio tras estudio revela que los sistemas de IA, lejos de ser herramientas matemáticas neutrales, discriminan sistemáticamente a grupos protegidos. Amazon desechó su herramienta de reclutamiento de IA tras descubrir que penalizaba los currículums que contenían la palabra "women's" (como en "women's chess club"). El sistema de entrevistas por video con IA de HireVue se enfrentó a una demanda colectiva de $228 millones por supuestamente discriminar a candidatos con discapacidad. Los sistemas de reconocimiento facial identifican erróneamente a mujeres negras a tasas hasta 47 veces más altas que a hombres blancos, lo que lleva a arrestos injustos. Y los algoritmos de préstamos deniegan hipotecas a solicitantes minoritarios calificados a tasas 40-80% más altas que a solicitantes blancos con perfiles de crédito idénticos.
Estos no son fallos, son características inherentes a sistemas entrenados con datos históricos sesgados (la IA de Amazon aprendió de currículums enviados a una empresa tecnológica en la última década, el 99% de los cuales provenían de hombres) o diseñados con proxies defectuosos para la "solvencia crediticia" o la "idoneidad para el puesto" que se correlacionan con características protegidas (los códigos postales como proxy para la raza, las lagunas profesionales como proxy para el cuidado de género, el prestigio universitario como proxy para la clase socioeconómica). El resultado: discriminación sistémica a gran escala, afectando a millones de personas que nunca obtienen una revisión humana, nunca ven una razón de rechazo, nunca saben que su raza o género fue el factor decisivo.
Pero la ley se está poniendo al día. El Artículo 22 del GDPR otorga a los europeos el derecho a impugnar decisiones automatizadas y exigir una revisión humana. La Ley Local 144 de NYC (2023) exige auditorías de sesgo para todas las herramientas de contratación de IA utilizadas en residentes de NYC. La Ley de Entrevistas por Video con IA de Illinois exige la divulgación y el consentimiento para el análisis de IA de las entrevistas por video. La CCPA de California otorga acceso a los datos personales (incluidas las puntuaciones de IA) que las empresas utilizan para tomar decisiones. Y las leyes federales de derechos civiles (Título VII para el empleo, Ley de Vivienda Justa, Ley de Igualdad de Oportunidades de Crédito) se aplican a la discriminación por IA al igual que a la discriminación humana: las empresas no pueden esconderse detrás de "lo hizo el algoritmo".
La compensación proviene de tres fuentes: (1) Acuerdos de demandas colectivas por sesgo sistémico (típicamente $200-$5,000 por persona, con Facebook pagando $14M por publicidad de empleo sesgada, HireVue enfrentando $228M en reclamaciones); (2) Demandas individuales por daño grave ($10,000-$50,000 por pérdida de empleo, arresto injusto o denegación financiera con fuerte evidencia de impacto desproporcionado); (3) Reclamaciones del Artículo 82 del GDPR en Europa (€2,000-€20,000 por angustia emocional basada en discriminación, más si hay daño financiero). Esta guía le muestra cómo identificar la discriminación por IA, recopilar pruebas y buscar todas las vías de compensación.
El Artículo 22 del GDPR otorga a los individuos "el derecho a no ser objeto de una decisión basada únicamente en un tratamiento automatizado... que produzca efectos jurídicos sobre él o ella o le afecte de manera similar y significativa". Esto cubre los rechazos de contratación por IA, las denegaciones de préstamos, la fijación de precios de seguros y cualquier decisión automatizada con consecuencias importantes. Las empresas deben proporcionar "información significativa sobre la lógica implicada" y permitir una revisión humana si usted impugna la decisión.
El Artículo 82 le permite demandar por "daños materiales o inmateriales" derivados de violaciones del GDPR, incluidas las decisiones discriminatorias de IA. Los daños inmateriales incluyen angustia emocional, ansiedad, pérdida de oportunidad, daño a la reputación. Los tribunales de la UE han otorgado €2,000-€20,000 por angustia emocional basada en discriminación, con cantidades más altas (€50,000+) para casos graves que implican pérdida de empleo o ruina financiera.
Multas máximas para empresas: €20 millones o 4% de la facturación anual global.
La Ley Local 144 de NYC exige a los empleadores que utilizan "herramientas automatizadas de decisión de empleo" (AEDT) en NYC que realicen auditorías anuales de sesgo y publiquen los resultados. Las empresas deben notificar a los candidatos si se utiliza IA y permitir procesos de selección alternativos. Violaciones: $500 por día (acumulándose rápidamente a $50,000-$100,000 por incumplimiento prolongado).
Aunque la Ley 144 no crea un derecho de acción privado (no se puede demandar directamente por violaciones), proporciona pruebas sólidas para las reclamaciones de discriminación del Título VII. Si una empresa no realizó una auditoría de sesgo o falló en una, es una prueba contundente de que sabían (o deberían haber sabido) que su IA era discriminatoria. Los abogados de demandas colectivas están siguiendo de cerca estas auditorías.
El Departamento de Protección al Consumidor y al Trabajador de NYC aplica la ley. Portal de quejas: nyc.gov/site/dca
Illinois exige a los empleadores que utilizan IA para analizar entrevistas por video (expresiones faciales, tono, elección de palabras) que: (1) notifiquen a los solicitantes por escrito que se utiliza IA, (2) expliquen cómo funciona la IA y qué características evalúa, (3) obtengan consentimiento por escrito, (4) eliminen los videos dentro de los 30 días posteriores a la solicitud. Violaciones: $1,000-$5,000 por persona. Se han presentado varias demandas colectivas, con acuerdos en el rango de $100-$500 por persona por violaciones técnicas, más altos si se demuestra discriminación.
La CCPA otorga a los residentes de California el derecho a acceder a "piezas específicas de información personal" que las empresas recopilan, incluidas las puntuaciones generadas por IA, las evaluaciones de riesgo y las justificaciones de las decisiones. Si una empresa utiliza IA para denegarle un empleo, un préstamo o una vivienda, puede solicitar: (1) su puntuación/clasificación de IA, (2) los factores considerados, (3) una comparación con los candidatos aceptados. Las empresas deben responder en un plazo de 45 días. La negativa a divulgar los expone a $7,500 por violación (violaciones intencionales).
El Departamento de Justicia demandó a Facebook por permitir que los anunciantes segmentaran anuncios de empleo por edad, género y raza (por ejemplo, trabajos de enfermería mostrados solo a mujeres, trabajos de leñador solo a hombres, anuncios de vivienda excluyendo a familias con niños). Acuerdo: multa de $14.25 millones + fondo de $9.5 millones para compensar a las personas a las que se les negaron oportunidades. Facebook acordó dejar de permitir la segmentación demográfica para anuncios de empleo, vivienda y crédito.
Amazon desechó su herramienta de selección de currículums por IA después de descubrir que penalizaba los currículums que contenían la palabra "mujeres" (por ejemplo, "capitana del club de ajedrez femenino") y rebajaba la clasificación de graduadas de dos universidades exclusivamente femeninas. Entrenada con 10 años de currículums enviados a Amazon (abrumadoramente masculinos), la IA aprendió que masculino = buen candidato. No hubo acuerdo (Amazon eliminó la herramienta antes de la demanda), pero se cita ampliamente en casos de Título VII como prueba de que la IA reproduce el sesgo histórico.
La IA de HireVue analiza entrevistas en video (expresiones faciales, tono, elección de palabras, patrones de habla) para calificar a los candidatos. El Electronic Privacy Information Center (EPIC) presentó una queja ante la FTC alegando discriminación por discapacidad (penaliza a candidatos autistas, con parálisis facial, impedimentos del habla) y falta de transparencia. Una posible demanda colectiva podría involucrar a más de 100 millones de candidatos sometidos a la IA de HireVue desde 2015. Daños estimados: $228 millones ($2-$5 por persona por violación de privacidad, $500-$5,000 por oportunidades denegadas).
Clearview AI recopiló 3 mil millones de fotos de redes sociales para construir una base de datos de reconocimiento facial vendida a la policía. Demandas en Illinois (BIPA), California (CCPA), Vermont alegan violaciones de privacidad e impacto desproporcionado (tasas de error más altas para minorías que conducen a arrestos injustos). Acuerdos: Illinois $50 millones (BIPA), ACLU $228 millones de restricción (no puede vender a empresas privadas). Víctimas individuales de arrestos injustos han demandado por $100K-$500K.
Upstart utiliza IA para aprobar préstamos basándose en 1,600 variables (educación, historial de empleo, patrones de clics en la solicitud). La CFPB descubrió que el algoritmo de Upstart utilizaba efectivamente proxies para la raza, lo que resultaba en que los solicitantes de minorías recibieran peores tasas de interés que los solicitantes blancos en situaciones similares. No hubo multa (Upstart cooperó), pero se le exigió monitorear el impacto desproporcionado. Demandas privadas en curso buscan $50M-$100M en daños colectivos.
La IA de COMPAS predice el riesgo de reincidencia para decisiones de libertad condicional/sentencia. Una investigación de ProPublica encontró que marcaba falsamente a los acusados negros como de "alto riesgo" al doble de la tasa que a los acusados blancos (tasa de falsos positivos del 45% frente al 23%). El Tribunal Supremo de Wisconsin confirmó su uso (Loomis v. Wisconsin), pero exigió advertencias sobre las limitaciones de precisión. No hay compensación individual, pero varios estados (California, Alaska) han prohibido o restringido las evaluaciones algorítmicas de riesgo.
La discriminación por IA es difícil de probar porque los algoritmos son "cajas negras". Pero hay cinco tipos de evidencia que funcionan:
Si puede demostrar que la IA perjudica desproporcionadamente a su clase protegida, no necesita probar la intención. Ejemplo: Un análisis experto revela que la IA de un prestamista niega a los solicitantes negros al doble de la tasa que a los solicitantes blancos con la misma puntuación crediticia + ingresos. Esto por sí solo puede ganar una demanda. Costo: $5,000-$20,000 por análisis estadístico experto, pero muchos abogados de derechos civiles cubren el costo inicial.
Si una empresa está sujeta a la Ley 144 de Nueva York (o leyes futuras similares) y no realizó la auditoría de sesgo requerida, eso es una prueba poderosa de que fueron imprudentes con respecto a la discriminación. Lo mismo si realizaron la auditoría y esta reveló sesgo, pero usaron la IA de todos modos.
Demuestre que la IA utiliza variables que se correlacionan con características protegidas: Código postal (raza), prestigio universitario (clase/raza), brechas profesionales (género por cuidado), patrones de habla (discapacidad), edad del perfil de Facebook (edad). La ECOA exige que los prestamistas revelen las "razones principales" de la denegación; solicite esto y busque proxies.
Encuentre a alguien con cualificaciones similares pero con una característica protegida diferente que fue contratado/aprobado. Ejemplo: Usted y un colega blanco solicitaron el mismo trabajo, con las mismas cualificaciones, él obtuvo una entrevista (la IA lo clasificó 8/10), usted no (la IA lo clasificó 3/10). Esto sugiere que la IA penalizó su raza/género.
Amazon admitió que su IA de contratación era sesgada (informe de Reuters 2018). HireVue admitió que la IA calificaba a los candidatos discapacitados más bajo (queja de EPIC ante la FTC). Meta admitió la segmentación de anuncios raciales (acuerdo con el Departamento de Justicia). Si la empresa ha admitido sesgo o ha resuelto reclamos anteriores, cite eso como prueba de que conocían el problema.
Look for clues: Instant rejection (no human could review your 300-page resume in 3 seconds), generic rejection reason ("not qualified"), company brags about AI hiring efficiency, job posting says "AI-powered applicant tracking." Exercise GDPR/CCPA rights to request: data collected, AI scores, decision logic. Companies must respond within 30-45 days.
Send written request: "Pursuant to [GDPR Article 15 / CCPA Section 1798.110], I request access to all personal data you collected about me, including AI-generated scores, risk assessments, rankings, and the logic of automated decision-making." Include: your name, dates you applied, position/loan/apartment applied for, identity verification. Keep copy of request.
Calcule los daños: Salarios perdidos (salario del trabajo que no obtuvo × meses de desempleo), intereses más altos pagados (diferencia en las tasas de préstamo × monto del préstamo × años), angustia emocional (costos de terapia, entradas de diario que documentan ansiedad/depresión), gastos de bolsillo (reparación de crédito, honorarios legales). Una documentación sólida vale entre $5,000 y $20,000 en acuerdos.
Antes de demandar por discriminación bajo el Título VII o la FHA, debe presentar una queja ante la agencia: EEOC (empleo): eeoc.gov/filing-charge-discrimination, HUD (vivienda): hud.gov/program_offices/fair_housing_equal_opp/online-complaint, CFPB (crédito): consumerfinance.gov/complaint. Plazo: 180-300 días desde la discriminación. La agencia investiga durante 6-12 meses y luego emite una carta de "derecho a demandar".
Busque en Google "[Company Name] demanda colectiva sesgo IA" o consulte classaction.org. Si existe una demanda colectiva, únase presentando un formulario de reclamación (fácil, no se necesita abogado). Si no hay demanda colectiva, consulte a un abogado de derechos civiles. La mayoría trabaja a comisión (33-40% de la recuperación, sin tarifa inicial). Los casos sólidos (impacto desproporcionado claro, daño documentado >$10,000, empresa grande con recursos) atraen a los mejores abogados.
Ley 144 de NYC: Informe al Departamento de Protección al Consumidor y al Trabajador de NYC.
FTC (prácticas de IA desleales/engañosas): reportfraud.ftc.gov.
UE: Presente una queja ante la Autoridad Nacional de Protección de Datos (p. ej., ICO en el Reino Unido, CNIL en Francia).
Las multas regulatorias presionan a las empresas para que resuelvan rápidamente las demandas privadas.
Siga estos pasos para identificar el sesgo de la IA, recopilar pruebas y buscar compensación
Busque rechazos instantáneos, razones genéricas, empresas grandes que utilizan sistemas de seguimiento de solicitantes. Solicite sus datos a través del Artículo 15 del GDPR (UE) o CCPA (California). Pregunte: "¿Se utilizó IA? ¿Qué datos analizó? ¿Cuál fue mi puntuación?"
Compare sus cualificaciones con las de personas que fueron contratadas/aprobadas (misma educación, experiencia, pero diferente raza/género). Investigue la empresa: ¿han resuelto reclamaciones por sesgo de IA antes? ¿Realizaron las auditorías de sesgo requeridas? Busque artículos de noticias, quejas de la EEOC, investigaciones de la FTC.
Calcule los salarios perdidos (salario del trabajo × meses), intereses más altos pagados (diferencia de tasa de préstamo × monto × años), costos de angustia emocional (recibos de terapia, registros médicos por ansiedad/depresión), tiempo invertido (horas aplicando en otros lugares, reparación de crédito). Los registros detallados aumentan el valor del acuerdo en $5,000-$15,000.
Empleo: Queja ante la EEOC dentro de 180-300 días. Vivienda: Queja ante el HUD dentro de 1 año. Crédito: Queja ante el CFPB dentro de 2-5 años. Preserve el derecho a demandar. La agencia puede encontrar causa y negociar un acuerdo, ahorrándole el costo de un litigio.
Busque en Google "[Company Name] demanda colectiva discriminación IA" o consulte classaction.org, topclassactions.com. Si existe una demanda colectiva, presente un formulario de reclamación para unirse (no se necesita abogado, toma 15 minutos). Monitoree los sitios web de acuerdos para conocer los plazos de pago (típicamente 12-24 meses).
Si los daños superan los $10,000 o la evidencia es sólida, consulte a un abogado para una demanda individual. La mayoría trabaja a comisión (sin costo inicial). Prepare: cronología de eventos, cartas de rechazo, candidatos comparables que fueron contratados, respuestas de datos GDPR/CCPA, cálculos de pérdidas financieras. Una preparación sólida aumenta el interés del abogado y la capacidad de negociación del acuerdo.
Presente quejas ante la FTC (prácticas de IA desleales), NYC DCWP (violaciones de la Ley 144), el fiscal general del estado (protección del consumidor), la Autoridad de Protección de Datos de la UE (violaciones del GDPR). Las investigaciones regulatorias presionan a las empresas para que resuelvan rápidamente las reclamaciones privadas (evitar litigios prolongados + multas regulatorias).