Juan Manuel Ruz Lobo - Jue, 04/12/2025 - 09:00
Aplicación del Derecho a la Inteligencia Artificial.
Serie: 'El Derecho Responde' (CXCV)
La incorporación de sistemas de vigilancia digital y herramientas basadas en inteligencia artificial (IA) en el ámbito laboral plantea desafíos jurídicos y éticos de primer orden. No se trata únicamente de cámaras o geolocalización, sino de algoritmos que pueden evaluar desempeño, asignar tareas, determinar turnos o incluso influir en decisiones disciplinarias. Este contexto obliga a conciliar el poder de dirección empresarial, los derechos fundamentales de los trabajadores y las obligaciones derivadas de la protección de datos y de la normativa laboral específica sobre transparencia algorítmica.
El artículo 20.3 del Estatuto de los Trabajadores (ET) sigue siendo la base del control empresarial, condicionando el ejercicio de facultades de supervisión al respeto de la dignidad y los derechos fundamentales de los trabajadores. A este marco general se suma la LOPDGDD (arts. 87 a 91), que regula el uso de dispositivos digitales, videovigilancia y geolocalización. Pero, de manera específica para sistemas algorítmicos, el artículo 64.4.d) ET, introducido en la reforma de 2021, obliga al empresario a informar a los representantes de los trabajadores sobre los parámetros, reglas e instrucciones de los sistemas de IA que influyan en la toma de decisiones laborales. Este precepto es fundamental para garantizar la transparencia de los algoritmos y permite que las decisiones automatizadas puedan ser revisadas y supervisadas de manera efectiva.
La jurisprudencia del Tribunal Supremo sobre videovigilancia (STS 503/2022 y STS 1003/2021) proporciona criterios de proporcionalidad, necesidad e idoneidad que también resultan útiles para sistemas de IA. Aunque esas sentencias se centran en cámaras, los principios subyacentes —información previa, finalidad legítima, proporcionalidad de la medida— son plenamente aplicables al control automatizado de trabajadores. La tecnología puede ampliar enormemente el control, pero no puede sustituir la intervención humana ni el juicio crítico en decisiones que afecten a derechos fundamentales.
El RGPD, especialmente en sus arts. 22 y 35, impone obligaciones adicionales para decisiones automatizadas: exige intervención humana significativa, realización de evaluaciones de impacto (DPIA) y medidas de seguridad que reduzcan el riesgo de sesgos o discriminación. Por ejemplo, un algoritmo que puntúa el desempeño o asigna promociones debe ser transparente, auditado y revisable para garantizar que no produce perjuicios indebidos.
En este contexto, las obligaciones del empresario incluyen:
- Informar claramente sobre la existencia de sistemas de IA que influyan en decisiones relevantes.
- Garantizar que los sistemas sean proporcionados y adecuados para la finalidad perseguida, evitando la monitorización innecesaria.
- Cumplir con el art. 64.4.d) ET, proporcionando a los representantes de los trabajadores acceso a los parámetros, reglas y criterios de los algoritmos.
- Establecer mecanismos internos de revisión, auditoría periódica y control humano efectivo de las decisiones automatizadas.
En definitiva, la vigilancia digital en el trabajo ya no se limita a cámaras; la inteligencia artificial ha añadido una capa de complejidad que exige transparencia, participación colectiva y supervisión rigurosa. La combinación de proporcionalidad, control humano y transparencia algorítmica es esencial para conciliar la eficiencia organizativa con la tutela de derechos fundamentales, evitando que la tecnología se convierta en un instrumento que erosione la dignidad y la igualdad en el entorno laboral.
Editor: Universidad Isabel I
Burgos, España
ISSN: 2603-9087