¿Pueden los proveedores de IA ser responsables de sesgos? Normas de California para 2025

Una mujer sosteniendo una caja con una planta dentro.

Las normas de California para 2025 marcan un cambio radical en la forma en que los proveedores de IA y los empleadores deben abordar el sesgo, la discriminación y la equidad en los sistemas de decisión automatizados (SDA). Pero la pregunta principal es: ¿pueden los proveedores de IA ser responsables del sesgo?

Con el auge de la IA en la contratación, la gestión de la fuerza laboral y el análisis predictivo del comportamiento, el estado está aclarando la responsabilidad por resultados discriminatorios derivados de sistemas automatizados de toma de decisiones. Estas regulaciones enfatizan la supervisión humana, las leyes contra la discriminación y la equidad bajo la Ley de Empleo y Vivienda Justos (FEHA), estableciendo nuevas responsabilidades de cumplimiento para los empleadores de California y los proveedores externos de IA.

Contexto: Herramientas de IA en las decisiones laborales

Hoy en día, muchos empleadores de California utilizan herramientas de IA para evaluar a los solicitantes de empleo, analizar las entrevistas en video y aplicar filtros automatizados de currículum. Estos sistemas utilizan aprendizaje automático y procesos computacionales para predecir la idoneidad del candidato, evaluar las características protegidas o incluso inferirlas indirectamente. Estas herramientas prometen eficiencia, pero corren el riesgo de replicar o amplificar el sesgo existente en los datos de entrenamiento, lo que perjudica a los grupos protegidos.

Las herramientas automatizadas de toma de decisiones pueden sustituir por completo el juicio humano o potenciarlo. Incluso cuando los responsables de la toma de decisiones están al tanto, las recomendaciones sesgadas pueden influir en las decisiones laborales, lo que plantea dudas sobre la responsabilidad legal en virtud de las leyes antidiscriminación.

El Consejo de Derechos Civiles de California y las Reglas de 2025

El Consejo de Derechos Civiles de California y el Departamento de Derechos Civiles de California están impulsando estas normas para 2025. Estas regulaciones están diseñadas para hacer cumplir la FEHA, que prohíbe la discriminación laboral basada en características protegidas como la raza, el sexo, la edad (discriminación por edad), la discapacidad y otras. El objetivo es garantizar la igualdad de oportunidades laborales, incluso cuando los empleadores utilizan sistemas de IA en los procesos de contratación.

Estas regulaciones finales definirán los “sistemas de decisión automatizada (SDA)” de manera amplia, incluyendo:

  • Herramientas de toma de decisiones automatizadas que reemplazan o ayudan a la toma de decisiones humana
  • La tecnología de IA utiliza procesos computacionales para evaluar o tomar decisiones de empleo.
  • Sistemas que realizan análisis predictivos del comportamiento de los solicitantes de empleo

Estas herramientas pueden incluir software de análisis de entrevistas en vídeo que evalúa el tono o los movimientos faciales, filtros de currículum automatizados o modelos de puntuación que predicen el éxito laboral.

un teléfono celular colocado encima de una computadora portátil

Auditorías de sesgo y requisitos de prueba

Un elemento central de las normas de 2025 son las pruebas de sesgo. Los empleadores y los proveedores de IA deben evaluar si los sistemas automatizados de toma de decisiones producen resultados discriminatorios para los grupos protegidos. Esto es similar en concepto a la guía federal de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC), pero se espera que las normas de California sean aún más estrictas.

Las auditorías de sesgo deben examinar:

  • Impacto adverso sobre las características protegidas
  • Si los datos de entrenamiento están sesgados o no son representativos
  • La validez de utilizar dichos datos para las necesidades del negocio

Las auditorías de sesgo tienen como objetivo exponer la discriminación oculta que podría estar incluida en los modelos, lo que permite a los empleadores de California tomar medidas correctivas antes de implementar estas herramientas.

¿Pueden los proveedores de IA ser responsables de sesgos? Normas de California para 2025

Una pregunta central en estas normas de 2025 es: ¿pueden los propios proveedores de IA ser responsables de sesgos? Históricamente, los empleadores han asumido la responsabilidad bajo la FEHA. Sin embargo, el nuevo marco de California reconoce que los proveedores externos de IA desempeñan un papel activo en el diseño, el mantenimiento y la implementación de estos sistemas. La Ley de Empleo aplicable en este caso ofrece la orientación adecuada.

Las reglas sugieren que los proveedores de inteligencia artificial pueden compartir la responsabilidad cuando:

  • Los proveedores proporcionan herramientas que causan un impacto adverso en los grupos protegidos
  • Los proveedores no realizan ni revelan auditorías de sesgo
  • Los proveedores diseñan sistemas que infieren características protegidas sin justificación
  • Los proveedores no permiten la supervisión humana ni las apelaciones de decisiones impulsadas por IA

Esta medida refleja el enfoque más amplio del estado hacia el derecho administrativo y la privacidad del consumidor (incluida la Ley de Privacidad del Consumidor de California), que impone obligaciones a los proveedores de servicios que manejan información personal confidencial.

Supervisión humana y decisiones finales

Las normas de California para 2025 no prohíben por completo las decisiones basadas en IA. En cambio, exigen la supervisión y la rendición de cuentas humanas:

  • Los empleadores deben asegurarse de que las decisiones finales no sean simplemente aprobadas automáticamente por sistemas de decisión automatizados.
  • Debe haber una revisión significativa por parte de tomadores de decisiones humanos que comprendan las limitaciones de la herramienta.
  • Los solicitantes de empleo deberían poder apelar las decisiones basadas en inteligencia artificial y cuestionar el resultado.

Estos requisitos tienen como objetivo preservar el juicio humano y reducir el riesgo de que sistemas sesgados reemplacen por completo la toma de decisiones humanas.

Disposiciones de cumplimiento y riesgo de cumplimiento

El Departamento de Derechos Civiles de California será responsable de hacer cumplir estas normas. Los empleadores y proveedores de inteligencia artificial se enfrentan a un riesgo significativo de incumplimiento si no cumplen con sus obligaciones:

  • Posibles quejas administrativas bajo la FEHA
  • Litigios civiles alegando discriminación o impacto adverso
  • Sanciones por no realizar auditorías de sesgo
  • Sanciones por no informar a los solicitantes de empleo sobre el uso de sistemas automatizados de toma de decisiones

Los empleadores deben revelar que utilizan dichas herramientas en la contratación, describir la naturaleza del proceso de toma de decisiones e informar a los solicitantes sobre sus derechos. El incumplimiento puede dar lugar a demandas por represalias si los empleadores sancionan a los solicitantes que hacen valer sus derechos.

La “Ley de Robo Bosses” y las leyes locales

Demandas por contratación injusta Se están volviendo más comunes de lo que se cree. A nivel estatal, los legisladores también están considerando proyectos de ley como la llamada "Ley de Robo-Jefes" para regular la IA en la contratación y la gestión. Estas leyes:

  • Exigir una divulgación clara del uso de sistemas de IA en la gestión de la fuerza laboral
  • Limitar la recopilación de datos sobre los trabajadores, incluida la información personal confidencial
  • Brindar derechos a los solicitantes de empleo y a los empleados para que sepan cómo se toman las decisiones.

Además de las leyes estatales, las leyes locales pueden imponer requisitos aún más estrictos. Muchos empleadores de California deben adaptarse a estos marcos normativos superpuestos para reducir el riesgo de incumplimiento.

Principios de lucha contra la discriminación y empleo justo

Todas estas regulaciones se basan en los principios antidiscriminatorios consagrados en la Ley de Igualdad en el Empleo y la Vivienda (FEHA). La FEHA prohíbe la discriminación por motivos de:

  • Raza, color, origen nacional
  • Sexo, identidad de género, orientación sexual
  • Edad (40+), discapacidad, condición médica
  • Religión, estado civil, condición de militar/veterano

Los empleadores de California que utilicen tecnología de IA deben demostrar que cualquier impacto adverso está justificado por la necesidad empresarial. Aun así, deben demostrar que no existe una alternativa menos discriminatoria. Las herramientas automatizadas de toma de decisiones que generan resultados discriminatorios sin justificación son ilegales.

El papel de la Ley de Privacidad del Consumidor de California

La Ley de Privacidad del Consumidor de California (CCPA) y sus modificaciones también afectan a los proveedores y empleadores de IA. Estas leyes imponen obligaciones sobre la recopilación de datos y el uso de información personal sensible, lo que incluye datos sobre características protegidas.

Según la CCPA:

  • Los solicitantes de empleo tienen derecho a saber qué datos se recopilan y cómo se utilizan.
  • Los empleadores y los proveedores de inteligencia artificial deben revelar el uso de la toma de decisiones automatizada.
  • Es posible que se requiera el consentimiento para determinados tipos de procesamiento.

Estas leyes de privacidad agregan otra capa de responsabilidades de cumplimiento para los empleadores que utilizan sistemas de IA en la contratación.

IA, concepto de inteligencia artificial, renderizado 3D, imagen conceptual.

Leyes vigentes y orientación federal

Más allá de la ley de California, existen leyes federales como Título VII Se aplican las directrices de la EEOC. Los empleadores deben garantizar que las herramientas de IA no produzcan resultados discriminatorios según las regulaciones laborales federales.

Se espera que las normas de California para 2025 sirvan de modelo para otros estados y puedan influir en las normas federales. Enfatizan que los proveedores de IA no son simplemente proveedores neutrales de tecnología. Al diseñar y vender sistemas de toma de decisiones automatizadas, comparten las obligaciones de cumplimiento para prevenir sesgos.

Implicaciones para empleadores y proveedores de IA

Estas regulaciones buscan garantizar que las decisiones de contratación basadas en IA sean justas y responsables. Tanto los empleadores de California como los proveedores externos de IA deben:

  • Realizar auditorías de sesgo en sistemas automatizados de toma de decisiones
  • Documentar la necesidad comercial ante cualquier impacto adverso
  • Proporcionar supervisión humana sobre las decisiones finales
  • Asegúrese de que los solicitantes de empleo puedan apelar o impugnar las decisiones basadas en IA
  • Revelar el uso de sistemas de IA en la contratación

El incumplimiento de estos requisitos puede resultar en demandas, sanciones y daños a la reputación. Para los proveedores de IA, estas normas implican que vender sistemas sesgados ya no será legalmente seguro.

Conclusión

Las normas de California para 2025 reflejan un cambio fundamental en el derecho administrativo, las regulaciones laborales y la aplicación de la legislación antidiscriminación. Reconocen que los proveedores de IA no pueden eludir la responsabilidad por el sesgo en sus productos.

En cambio, los proveedores y los empleadores deben trabajar juntos para garantizar que los sistemas de toma de decisiones automatizada promuevan la equidad, respeten las características protegidas y cumplan con la Ley de Vivienda y Empleo Justo.

Estos cambios redefinirán la gestión de la fuerza laboral, el proceso de contratación y la toma de decisiones humanas en California y en otros lugares. Los empleadores, los proveedores de IA y los asesores legales deben estar preparados para este nuevo panorama de obligaciones de cumplimiento y disposiciones de aplicación.

Combatir a los proveedores de IA responsables de sesgos con BLG

Si su empresa está evaluando herramientas de IA para la contratación o desea garantizar el cumplimiento de las normas cambiantes de California, comuníquese con Grupo Jurídico Bourassa Hoy para discutir sus obligaciones y reducir su riesgo.

Contáctanos ahora

Artículos Relacionados

Evaluación de Caso Gratis

¡La evaluación es GRATIS! No tiene que pagar nada para que un abogado evalúe su caso.