La inteligencia artificial está cambiando la forma en que las empresas contratan. Los empleadores recurren cada vez más a las herramientas de contratación basadas en IA, pero el sesgo algorítmico ha suscitado inquietudes legales y éticas. ¿Qué hay de sus derechos bajo la ley federal? ¿Hay algo que pueda hacer contra las herramientas de contratación basadas en IA y el sesgo algorítmico? ¿Puede impugnar una selección injusta? ¿Cómo le protegen las leyes federales contra la discriminación si el software le excluye basándose en características protegidas?
Si los sistemas automatizados determinan quién es entrevistado o ascendido, es crucial comprender sus derechos bajo la ley federal. Analicemos las normas, sus protecciones y qué hacer si sufre discriminación laboral a través de herramientas de IA.
Herramientas de contratación de IA y sesgo algorítmico: sus derechos según la ley federal
Los empleadores utilizan inteligencia artificial en muchas partes del proceso de contratación. Estas herramientas de IA revisan currículums, analizan entrevistas en video y califican evaluaciones. Las empresas esperan ahorrar tiempo y dinero. Sin embargo, el sesgo algorítmico puede perjudicar injustamente a los solicitantes de empleo, especialmente a aquellos con características protegidas como origen nacional, identidad de género, orientación sexual, edad o discapacidades. Esto también puede incluir otras características protegidas de una persona.
Después de todo, las empresas deben implementar políticas de gestión de riesgos en relación con la inteligencia artificial (IA). Contamos con legislación que prohíbe a los empleadores el uso indebido de la IA.
Por ejemplo, si la IA toma decisiones de ascenso, existe la posibilidad de que una persona merecedora no obtenga sus derechos debido a estas herramientas. La ley exige a los empleadores prestar especial atención a estos casos y garantizar la igualdad.
Cuando los empleadores utilizan sistemas automatizados sin supervisión humana ni diligencia razonable, pueden infringir las leyes federales contra la discriminación. Incluso si la tecnología decide, la ley aún responsabiliza a los empleadores de las decisiones laborales.
Comprender el sesgo en el proceso de contratación
¿Cómo se ve la discriminación algorítmica? Imagine un sistema de IA entrenado con datos de contrataciones anteriores que favorecieran a los hombres sobre las mujeres, o a los candidatos más jóvenes sobre los mayores. Sin un diseño cuidadoso, los algoritmos de IA replican estos sesgos.
La discriminación por impacto dispar ocurre cuando una práctica aparentemente neutral termina perjudicando a una clase protegida. No es necesario que sea discriminación intencional para ser ilegal.
Las leyes federales establecen que los empleadores no pueden simplemente culpar a los proveedores de IA ni a terceros. Son responsables de los resultados de estas herramientas de toma de decisiones automatizadas.
Leyes federales contra la discriminación que se aplican
Sus protecciones provienen de varias leyes federales clave que regulan las prácticas laborales:
El Título VII de la Ley de Derechos Civiles prohíbe la discriminación basada en raza, color, religión, sexo (incluida la orientación sexual y la identidad de género) y origen nacional.
La Ley contra la Discriminación por Edad en el Empleo (ADEA) protege a las personas de 40 años o más de la discriminación por edad.
La Ley de Estadounidenses con Discapacidades (ADA) prohíbe la discriminación contra personas calificadas con discapacidades y exige adaptaciones razonables.
La Ley de Igualdad Salarial exige igualdad de remuneración por igual trabajo.
Estas leyes son aplicadas por la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC), la agencia federal clave que supervisa la discriminación laboral. Incluso durante la administración Trump, la EEOC prestó mucha atención a los riesgos de los sistemas automatizados.
Orientación federal actual sobre herramientas automatizadas de toma de decisiones
en la contratación
La EEOC y el Departamento de Justicia han emitido una guía federal que advierte que las herramientas de contratación basadas en inteligencia artificial pueden violar las leyes contra la discriminación si se utilizan sin cuidado. En 2022, La EEOC explicó que el uso de herramientas automatizadas de toma de decisiones de empleo para excluir a personas con discapacidades, sin considerar adaptaciones razonables, puede violar la ADA.
La responsabilidad del Título VII también se aplica si estas herramientas causan discriminación por impacto desigual contra las clases protegidas. Los empleadores deben evaluar las herramientas de IA para detectar sesgos y garantizar la igualdad de acceso a las oportunidades laborales.
Los empleadores deben:
- Realizar auditorías de sesgo.
- Mantener políticas de gestión de riesgos.
- Avisar con antelación al utilizar herramientas automatizadas.
- Garantizar la supervisión humana en las decisiones relacionadas con el empleo.
El no seguir estos pasos puede dar lugar a demandas por discriminación en el tribunal de distrito, incluidos lugares como el Distrito Norte.
Las leyes estatales y locales agregan protecciones adicionales contra la automatización
Además de las leyes federales, muchas leyes estatales y locales imponen normas más estrictas sobre las herramientas de contratación de IA y el sesgo algorítmico. Por ejemplo:
- La ciudad de Nueva York exige que las empresas que utilizan herramientas automatizadas de toma de decisiones de empleo realicen y publiquen auditorías de sesgo cada año.
- Illinois exige notificación previa si la IA analiza entrevistas en video.
Otras jurisdicciones están siguiendo el ejemplo para garantizar la igualdad de oportunidades de empleo y evitar la discriminación en el empleo basada en características protegidas.
Responsabilidades del empleador según la legislación laboral
Los empleadores no pueden simplemente decir: "El software lo hizo". Según la legislación laboral, deben mostrar un cuidado razonable al usar sistemas de IA. Esto significa que son responsables de garantizar que cualquier herramienta, incluso si proviene de un proveedor externo, cumpla con las leyes federales, estatales y locales.
Ellos deben:
- Evaluar las herramientas de IA para determinar su posible impacto dispar.
- Exigir auditorías de sesgo a los proveedores de IA.
- Desarrollar políticas sólidas de gestión de riesgos para identificar y reducir el sesgo algorítmico.
- Capacitar a los tomadores de decisiones humanos para que revisen cuidadosamente los sistemas de decisiones automatizados.
Esto se aplica a todos los empleadores, agencias de empleo y otros proveedores de servicios basados en el empleo.
Áreas comunes donde surge el sesgo de la IA
El sesgo en las herramientas de contratación de IA suele ser evidente. Puede manifestarse cuando:
- Los evaluadores de currículum degradan a los candidatos con lagunas en su historial laboral (lo que afecta a los cuidadores, a menudo mujeres).
- Las herramientas de análisis de vídeo malinterpretan los acentos (perjudicando a las personas en función de su origen nacional).
- Las pruebas de personalidad excluyen a las personas neurodiversas o discapacitadas.
- Las herramientas entrenadas con datos pasados replican viejos sesgos.
Estos sistemas pueden causar impactos dispares incluso sin discriminación intencional. Por eso, incluir un abogado laboral experimentado en su demanda es importante.
Sus derechos como solicitante de empleo o empleado
Si cree que las herramientas automatizadas lo rechazaron injustamente basándose en características protegidas, tiene opciones. Según las leyes federales contra la discriminación, puede:
- Presentar una denuncia ante la Comisión para la Igualdad de Oportunidades en el Empleo. Más información Cómo ganar un caso ante la EEOC.
- Utilice opciones de mediación o acuerdo.
- Presente una demanda en el tribunal de distrito si recibe una carta de derecho a demandar.
También es posible que tenga derechos bajo las leyes estatales y locales, que a veces ofrecen recursos más fuertes.
Los empleadores no pueden tomar represalias contra empleados actuales ni solicitantes de empleo que ejerzan estos derechos. La Ley de Derechos Civiles, la Ley de Empleo y la Ley de Discapacidades ofrecen sólidas protecciones contra represalias.
El papel de las agencias y tribunales federales
Agencias federales como la EEOC investigan denuncias de sesgo en las herramientas de IA. Han demandado a empleadores por discriminación por impacto desigual y han aclarado en directrices federales que los sistemas automatizados no justifican la discriminación involuntaria.
Los tribunales de distrito, incluido el Distrito Norte, han dictaminado que las decisiones tomadas mediante algoritmos siguen estando sujetas a la legislación laboral. Los empleadores no pueden escudarse en la tecnología.
Privacidad de datos y responsabilidad de los proveedores
La privacidad de los datos también es esencial. Cuando los empleadores comparten datos de los solicitantes con proveedores de inteligencia artificial o proveedores externos, deben protegerlos y utilizarlos legalmente. Las prácticas deficientes en el manejo de datos pueden generar sesgos e infringir las leyes estatales y locales.
Los empleadores deben examinar a los proveedores de IA, exigir transparencia sobre los algoritmos de IA y establecer reglas claras para las herramientas de toma de decisiones automatizadas.
Garantizar la igualdad de acceso y la equidad
En esencia, el problema de las herramientas de contratación basadas en IA, el sesgo algorítmico y sus derechos bajo la ley federal se centra en la equidad. Los empleadores deben garantizar la igualdad de acceso al empleo para todas las personas, independientemente de sus características protegidas.
¿Ayudan estas herramientas a encontrar a los mejores candidatos? ¿O repiten viejos patrones de discriminación en formatos digitales nuevos? Esa es la pregunta que deben hacerse los empleadores. Y tú también tienes derecho a hacértela.
Herramientas de contratación de IA y sesgo algorítmico: Sus derechos bajo la ley federal — Reflexiones finales
La inteligencia artificial está transformando la forma en que las empresas toman decisiones de contratación. Pero incluso los sistemas automatizados más avanzados deben cumplir con las leyes federales contra la discriminación, así como con las protecciones estatales y locales.
Comprender las herramientas de contratación de IA, el sesgo algorítmico y sus derechos bajo la ley federal no se trata solo de tecnología, sino de proteger a las personas del trato injusto. Ya sea que esté solicitando un empleo o ya esté empleado, tiene derecho a un proceso justo e igualdad de oportunidades laborales.
Lucha contra las herramientas de contratación de IA y el sesgo algorítmico
Si cree que ha sufrido discriminación debido a las herramientas de IA, no se quede callado. Conozca sus derechos, exija responsabilidades a sus empleadores y busque asistencia legal profesional cuando la necesite. abogados de empleo at Grupo Jurídico Bourassa estamos aquí para ti
Si necesita ayuda con un problema de discriminación laboral, incluido el sesgo de la IA en la contratación,Comuníquese con Bourassa Law Group hoy mismo. para obtener orientación legal confiable.