Roberto Cuesta Calvo Profesor de los Grados en Ciencias de la Seguridad, Ingeniería Informática y el Máster en Ciberseguridad
Mar, 10/03/2026 - 12:55

Infografía sobre el uso de la IA en datos sensiblesInfografía sobre el uso de la IA en datos sensibles.

Serie: 'Conectados' (LXXXI)

 

Recientemente ha salido a la luz el caso en el que Madhu Gottumukkala, director interino de la Agencia de Ciberseguridad y Seguridad de Infraestructura (CISA) de Estados Unidos, cargó documentos oficiales sensibles a una versión pública de ChatGPT, lo que desencadenó alertas de seguridad internas y generó un intenso debate sobre los protocolos de uso de IA en agencias gubernamentales.

La inteligencia artificial (IA) generativa ha pasado de ser una herramienta experimental a formar parte integral de las operaciones cotidianas en organizaciones públicas y privadas. Su capacidad para procesar lenguaje natural, generar contenido y asistir en tareas complejas ofrece beneficios innegables. Sin embargo, su adopción masiva también ha expuesto vulnerabilidades críticas de seguridad y gestión de datos que, si no se gestionan adecuadamente, pueden tener consecuencias graves para la privacidad, la seguridad nacional y la confianza institucional.

Un incidente reciente que ha puesto de manifiesto estos peligros fue la filtración de documentos gubernamentales clasificados como “solo para uso oficial” por parte del director interino de la Agencia de Ciberseguridad y Seguridad de Infraestructura de los Estados Unidos (CISA) al subirlos a una versión pública de ChatGPT. Aunque los documentos no eran “Top Secret”, su manejo fuera de los canales internos de la agencia activó múltiples alertas de seguridad internas y generó un debate público sobre los riesgos de usar IA generativa sin políticas claras y controles estrictos.

El peligro de los datos compartidos en plataformas públicas de IA

Una preocupación central es que las plataformas de IA generativa comercial, como ChatGPT y/o otras, procesan y almacenan las entradas de los usuarios para mejorar sus modelos a través del entrenamiento de datos. En términos prácticos, eso significa que cualquier información sensible introducida en una versión pública puede quedar incorporada en la base de datos del proveedor, de la que podría inferirse información o incluso recuperarse en consultas futuras.

Este fenómeno no es exclusivo de casos aislados. Estudios sobre fugas de datos en herramientas de IA muestran que muchos empleados introducen datos sensibles en prompts sin ser plenamente conscientes de las implicaciones, lo que puede suponer un violación de privacidad, incumplimiento normativo y exposición de información crítica.

Además, existe lo que se conoce como “Shadow AI”: el uso no autorizado por parte de empleados de herramientas de IA sin supervisión ni autorización de los departamentos de TI o seguridad de la organización. Este uso “al margen” puede crear canales invisibles de fuga de datos y puntos ciegos de seguridad equivalentes a los que tradicionalmente se veían en el fenómeno del Shadow IT.

Violación de la cadena de custodia y control de información

El envío de archivos confidenciales a un entorno no controlado rompe un principio básico de la gestión de documentos sensibles: la cadena de custodia. En el caso de CISA, la subida de contratos y datos de adquisiciones a un proveedor externo implica que estos archivos han salido de un dominio con controles estrictos hacia una plataforma cuya política de retención y uso de datos no se ajusta a los requisitos gubernamentales.

Esto no solo compromete la seguridad de la información, sino que puede violar normativas internas, contratos y estándares de protección de datos, poniendo en riesgo detalles estratégicos sobre proveedores y adquisiciones críticas.

Fallo en la implementación del principio de confianza cero

El incidente también pone de manifiesto una falla en la aplicación de un enfoque moderno de seguridad como es el modelo de confianza cero (Zero Trust). Bajo este principio, ningún usuario o sistema debería tener permisos automáticos para acceder o transferir datos sensibles sin controles estrictos de identidad, autorización y supervisión continuada. La omisión de estas restricciones en el caso del funcionario implicado creó un agujero en la muralla digital que estaba diseñada para proteger la infraestructura crítica.

Riesgo de fuga hacia actores maliciosos o estados extranjeros

Quizá el peligro más grave que destaca este episodio no sea tanto la filtración en sí, sino la posibilidad de que datos sensibles terminen expuestos en un entorno no controlado y accesible mediante consultas especializadas. En un escenario hipotético, un actor malicioso o una potencia extranjera podría explotar las capacidades de inferencia de un modelo de IA para recuperar o reconstruir partes de documentos sensibles que fueron introducidos en el entrenamiento del modelo.

Esto se agrava cuando consideramos fenómenos como las fugas latentes de datos (data leakage), donde modelos de aprendizaje profundo pueden, sin acceso directo a los archivos originales, exponer información sensible a través de inferencias o correlaciones entre múltiples datos aparentemente inocuos.

Implicaciones de regulación y cumplimiento

Más allá del daño técnico, el uso inadecuado de IA generativa puede tener efectos legales y regulatorios importantes. En muchos países, las leyes de protección de datos —como el GDPR en Europa o leyes similares en otros territorios— establecen obligaciones estrictas sobre cómo se puede gestionar, almacenar y transmitir información personal y sensible. El uso indiscriminado de herramientas de IA sin una evaluación de impacto puede poner a las organizaciones en riesgo de incumplimiento legal, sanciones y pérdida de reputación.

Cómo mitigar riesgos sin renunciar a los beneficios de la IA

Este tipo de incidentes no implica que la IA deba evitarse; más bien, subraya la necesidad de políticas de gobernanza claras, capacitación del personal y soluciones técnicas que permitan aprovechar la IA de forma segura. Entre las prácticas recomendadas se incluyen:

  • Establecer directrices específicas sobre qué datos pueden y no pueden procesarse con herramientas de IA.
  • Proveer alternativas aprobadas corporativamente con controles de privacidad integrados.
  • Implementar soluciones de Data Loss Prevention (DLP) que bloqueen la transmisión de datos sensibles hacia servicios externos no autorizados.
  • Educar constantemente a los empleados sobre los riesgos de compartir información sensible y la importancia de seguir protocolos internos.

Además, hay enfoques emergentes en investigación que proponen sistemas de IA con mecanismos de protección integrados, como filtros que detectan y bloquean entradas sensibles o marcos de supervisión humana que moderan la salida y preservación de datos.

Conclusiones

La expansión de la inteligencia artificial generativa está redefiniendo la forma en que las organizaciones procesan información, toman decisiones y automatizan tareas complejas. Sin embargo, este avance tecnológico no es neutro desde el punto de vista de la seguridad. Los mismos sistemas que aportan eficiencia pueden convertirse, en ausencia de controles adecuados, en nuevos vectores de fuga de información, pérdida de trazabilidad y debilitamiento de los modelos tradicionales de protección de datos.

El incidente analizado evidencia un problema estructural: la brecha entre la velocidad de adopción de la IA y la madurez de los marcos de gobernanza que deberían regular su uso. No se trata únicamente de un error individual, sino de un síntoma de un fenómeno más amplio en el que profesionales altamente cualificados, incluso en entornos de máxima sensibilidad, subestiman el impacto de introducir datos en plataformas de IA comerciales. Esto demuestra que la concienciación, la formación y las políticas internas aún no evolucionan al mismo ritmo que la tecnología.

Además, la IA generativa introduce un cambio cualitativo en el riesgo: la información ya no solo puede filtrarse mediante robo o acceso no autorizado, sino también a través de procesos de aprendizaje automático que difuminan la frontera entre dato de entrada y conocimiento del modelo. Esto plantea desafíos inéditos para conceptos tradicionales como la cadena de custodia, la clasificación de la información y el principio de mínima exposición.

Desde una perspectiva estratégica, el verdadero riesgo no es utilizar inteligencia artificial, sino hacerlo sin un marco claro de gobernanza, control y responsabilidad. Las organizaciones deben asumir que cualquier dato introducido en una plataforma de IA externa puede escapar de su perímetro de seguridad y, por tanto, debe ser tratado como potencialmente expuesto. Este cambio de mentalidad exige políticas específicas de uso de IA, controles técnicos como sistemas de prevención de fuga de datos (DLP), auditorías periódicas y alternativas corporativas seguras para el uso de estas herramientas.

Finalmente, este caso subraya una lección fundamental: la ciberseguridad ya no puede centrarse únicamente en proteger infraestructuras y redes, sino que debe ampliarse a la gestión segura de la interacción entre personas e inteligencia artificial. La resiliencia digital del futuro dependerá no solo de firewalls y sistemas de detección, sino de la capacidad de las organizaciones para integrar la innovación tecnológica con una cultura sólida de protección de la información.

En definitiva, la inteligencia artificial generativa representa una herramienta poderosa, pero también un entorno de riesgo emergente. Su adopción responsable no es una opción, sino una condición imprescindible para que sus beneficios no se vean eclipsados por consecuencias de seguridad, legales y estratégicas difíciles de revertir.

Editor: Universidad Isabel I

ISSN 2792-1794

Burgos, España