
Escenificación de un algoritmo utilizado por la IA.
31 de julio de 2025. ¿Puede un algoritmo decidir con justicia quién merece un empleo? Esa es la pregunta que plantea el investigador José Luis Bustelo Gracia en su reciente artículo publicado en Cuadernos de Gobierno y Administración Pública, donde analiza los riesgos éticos y sociales de los sistemas de inteligencia artificial (IA) aplicados a la contratación laboral.
El profesor Bustelo Gracia, docente del Grado en Administración y Dirección de Empresas (ADE) y miembro de la Digital Business and Law School, publica en su artículo titulado Hacia una gobernanza algorítmica transparente: auditoría de sesgo. Estudio de caso una propuesta para implementar auditorías de sesgo como mecanismo estándar en la administración pública. “La auditoría algorítmica en plataformas de contratación es crucial para mitigar los sesgos inherentes que pueden perpetuar desigualdades”, señala.
El estudio incluye un caso concreto: un algoritmo utilizado por una plataforma de selección que mostró “una preferencia sistemática por candidatos masculinos para roles técnicos”, revelando que los sesgos no solo están presentes en los datos de entrenamiento, sino también en la estructura misma del modelo.
El problema no es nuevo
Según el profesor Bustelo, el problema no es nuevo ya que “los algoritmos penalizaban a los candidatos con nombres asociados a minorías étnicas, lo que resulta en una menor probabilidad de ser recomendados para entrevistas”. Una situación que, lejos de ser anecdótica, refleja un fenómeno estructural: los sesgos humanos replicados por las máquinas.
El artículo hace eco de la preocupación de varios expertos. Cita a Hickok et al. (2022), quienes subrayan la necesidad de auditorías que examinen no solo los resultados del algoritmo, sino también “la forma en que los datos son procesados y transformados a lo largo de todo el pipeline algorítmico”.
Ir un poco más allá
Pero el profesor Bustelo va más allá y advierte que la transparencia por sí sola no es suficiente: “La transparencia no siempre garantiza la equidad, ya que un sistema puede ser transparente en sus operaciones y aun así producir resultados sesgados”.
En este sentido, el estudio insta a establecer marcos regulatorios proactivos que combinen técnica, ética y derecho. “La colaboración entre expertos en ética, tecnología y derecho es crucial”, afirma el autor, destacando la necesidad de enfoques interdisciplinarios que permitan identificar las causas profundas del sesgo y no solo sus síntomas.
Además, plantea una alerta sobre la “opacidad de los algoritmos de caja negra”, que dificulta la rendición de cuentas y erosiona la confianza ciudadana. Por eso, propone que las auditorías incluyan también mecanismos de apelación para los afectados y herramientas de visualización de equidad.
Conclusiones
El estudio subraya la importancia crítica de las auditorías de sesgo como mecanismos esenciales para garantizar una gobernanza algorítmica justa y responsable. Lejos de ser herramientas neutrales, los sistemas de inteligencia artificial reflejan y amplifican desigualdades estructurales presentes en los datos con los que son entrenados. Por ello, la transparencia, la explicabilidad y la participación ciudadana deben entenderse como pilares fundamentales para una regulación efectiva que proteja los derechos fundamentales y promueva la equidad. Este enfoque requiere una acción coordinada entre desarrolladores, responsables políticos, organismos de control y sociedad civil.
Además, se destaca que la regulación debe ser dinámica y adaptable a los avances tecnológicos, incluyendo aspectos emergentes como los datos sintéticos y la IA explicable. Incluso en contextos con marcos regulatorios avanzados, como el europeo, persisten desafíos para detectar y corregir sesgos, lo que reafirma la necesidad de enfoques multidisciplinares y una supervisión continua. Solo así será posible construir sistemas algorítmicos éticos, auditables y al servicio del interés público en un entorno digital cada vez más complejo.