Víctor Martínez Martínez Director del Máster en Big Data
Mar, 17/10/2023 - 11:30

Inteligencia artificial

Inteligencia artificial. Representación en 3d de un Cyborg femenino con cerebro artificial.

Serie: 'Conectados' (LVI)

La inteligencia artificial (IA) ha experimentado una evolución significativa en los últimos meses, con avances en áreas como el aprendizaje automático, el procesamiento del lenguaje natural y la visión artificial. Es posible que estos conceptos técnicos no nos resulten familiares, pero seguro que casi todos hemos oído hablar de aplicaciones para la creación de imágenes artificiales como DALL-E, Midjourney o Stable Diffusion, hemos probado chatGPT o nos han llegado noticias o vídeos en los que aparecen escenas de películas famosas protagonizadas por personas que no eran sus actores originales [1] o con famosos hablando en idiomas que no dominan [2].

Estos avances de la IA están teniendo un impacto significativo en múltiples ámbitos y, dado que octubre es el mes de la ciberseguridad, en esta entrada vamos a analizar su influencia en este ámbito. El hecho de que la ciberseguridad sea un sector digital por naturaleza ofrece una gran variedad de posibilidades, gracias a la automatización existente y creciente en muchos procesos y debido al gran volumen de datos involucrados disponibles en todos los ámbitos de la ciberseguridad. Sin embargo, y como ocurre en mucho otros ámbitos, estos avances de la IA están dando lugar a impactos tanto positivos como negativos [3], que a continuación vamos a analizar por separado.

Riesgos y vulnerabilidades asociados a la IA

Alguno de los ejemplos más sencillos de riesgos derivados de la IA tiene que ver con el deepfake, que es una técnica de IA con la que se pueden crear vídeos, imágenes o audios falsos, que suplantan a una o varias personas reales. En los ejemplos que veíamos al principio de la entrada tenemos aplicaciones de deepfake con un punto de vista divertido, pero esta técnica también se está utilizando para fines maliciosos y con el objetivo de desinformar:

  • En 2018 se crearon vídeos falsos de políticos estadounidenses diciendo cosas que nunca dijeron. Estos vídeos se utilizaron para difundir información falsa y propaganda [4].
  • En 2019 publicaron un vídeo falso de Mark Zuckerberg, el CEO de Facebook, diciendo que la empresa estaba recopilando datos de los usuarios de forma ilegal. Este vídeo se utilizó para dañar la reputación de Facebook [5].
  • En 2020, y gracias a la clonación de voz, realizaron una suplantación de identidad con la que robaron 35 millones de dólares a un banco emiratí [6].

Como veis, todas estas noticias se produjeron hace al menos tres años, pero una rápida búsqueda en Google nos lleva a infinidad de ejemplos que se producen cada día con este tipo de estrategias.

Sin embargo, esto no debe hacernos caer en el desánimo y el miedo sino animarnos a estar informados y actualizados, y conocer estos riesgos para evitar o al menos reducir la posibilidad de que nos afecten. En este sentido, instituciones como el INCIBE (Instituto Nacional de Ciberseguridad) pone a nuestra disposición información fiable para mantenernos al día [7]. Además, debemos incorporar buenos hábitos que nos permitan evitar este tipo de problemas, teniendo en cuenta que reconocer una voz o un rostro, que hasta hace unos años era una prueba de autenticidad, ya no es suficiente y es recomendable realizar verificaciones extra en situaciones que puedan ser delicadas o peligrosas.

Entonces, ¿la IA es solo un riesgo para la ciberseguridad?

Aunque la sección anterior puede resultar muy preocupante, y realmente debamos estar alerta, la IA también proporciona y proporcionará herramientas que nos ayudan a mejorar nuestra seguridad en el ámbito digital. A continuación se muestran algunos casos en los que la IA está ayudando a mejorar nuestra seguridad.

El primer ejemplo no es algo novedoso, y todos los que hayamos usado un correo electrónico lo conoceremos: el spam y su filtro para correo no deseado. Este filtro usa unos determinados criterios (quién es el emisor del mensaje, el texto del asunto y del cuerpo del correo, la existencia de adjuntos sospechosos, etc.) para valorar si un correo es o no deseado y, en caso de no serlo, moverlo a la carpeta de spam de nuestra cuenta de correo. Aunque el spam es algo que todos conocemos desde hace años, la inteligencia artificial está ayudando a mejorar la lógica de este tipo de sistemas reduciendo la tasa de fallos: correos no deseados que llegan a la bandeja de entrada y correos deseados que van al spam.

Además del ejemplo anterior existen otros ejemplos en los que la IA y el machine learning están ayudando en diferentes ámbitos de la ciberseguridad. Estos ejemplos que expondremos a continuación no son tan cercanos al usuario final, pero son de vital importancia para nuestro día a día en Internet y en un mundo cada vez más conectado:

  • Detección de amenazas en red: La IA se puede utilizar para analizar grandes cantidades de datos de tráfico de red para identificar patrones sospechosos. Esto puede ayudar a identificar ataques que no pueden ser detectados por métodos tradicionales. En esta línea, muchos fabricantes tienen sus soluciones profesionales en sistemas como los SIEM (Security Information and Event Management) [8-9], con propuestas como las que abordaron O. Rebollo en su TFG del Grado en Ingeniería Informática [10] o C. Meléndez en su TFM del Máster en Ciberseguridad [11].
  • Análisis de malware: La IA se puede utilizar para analizar el código malicioso para identificar sus características y comportamientos. Esto puede ayudar a los investigadores a desarrollar herramientas para detectar y eliminar el malware, haciendo por ejemplo más efectivos los antivirus que usamos en muchos de nuestros equipos [12-13].
  • Respuesta a incidentes: La IA se puede utilizar para automatizar tareas de respuesta a incidentes, como el aislamiento de sistemas infectados y la restauración de datos. Esto puede ayudar a los equipos de seguridad a responder a los ataques de forma más rápida y eficiente [14].

Por lo tanto, y a modo de resumen, podemos ver cómo la Inteligencia Artificial tiene influencia tanto positiva como negativa en el ámbito de la ciberseguridad, y cómo los usuarios debemos ser conscientes de estas novedades y los riesgos asociados a las mismas para procurar estar a salvo de estos riesgos en la medida de lo posible.

Referencias:

[1]     Shamook YouTube Channel, Accedido el 9 de octubre de 2023.

[2]       N. Triguero, “Chiquito universal: así funciona el juguete de moda de la inteligencia artificial”, en Diario Sur, 15 de septiembre de 2023. Accedido el 9 de octubre de 2023.

[3]       J. Vicioso, A. Romero, L. Tardón y S. Fernández, “La inteligencia artificial, aliada y enemiga en el ciberespacio”, en El Mundo, 7 de mayo de 2023. Accedido el 9 de octubre de 2023.

[4]       D. O’Sullivan, “Un video falso sobre la elección se volvió viral (y Twitter tiene problemas con la verdad)”, en CNN.com, 7 de noviembre de 2018. Accedido el 9 de octubre de 2023.

[5]       “El 'deepfake' de Zuckerberg que reta las normas de Facebook sobre vídeos falsos”, en Verne – El País, 12 de junio de 2019. Accedido el 9 de octubre de 2023.

[6]       P. Rodríguez, “Las grandes estafas con deepfakes de voz ya son una realidad: roban 35 millones de dólares a un banco usando esta tecnología”, en Xataka, 15 de octubre de 2021. Accedido el 9 de octubre de 2023.

[7]       “Explorador de INCIBE - Deepfake”, en INCIBE.es. Accedido el 9 de octubre de 2023.

[8]       “What is SIEM?”, en Microsoft.com. Accedido el 9 de octubre de 2023.

[9]       “¿Qué es la SIEM?”, en IBM.com. Accedido el 9 de octubre de 2023.

[10]    O. Rebollo, “Ciberseguridad Total con PowerShell: Pentesting + Hardening + Scripts”, en blog de la Universidad Isabel I, 9 de agosto de 2022. Accedido el 9 de octubre de 2023.

[11]    C. Meléndez, “Sistema cloud para la monitorización y gestión de vulnerabilidades en equipos remotos”, en blog de la Universidad Isabel I, 27 de octubre de 2022. Accedido el 9 de octubre de 2023.

[12]    M. J. H. Faruk et al., “Malware Detection and Prevention using Artificial Intelligence Techniques”, in 2021 IEEE International Conference on Big Data (Big Data), 2021, pp. 5369-5377.

[13]    N. Siddhardha, “Sistema cloud para la monitorización y gestión de vulnerabilidades en equipos remotos”, en Medium.com, 8 de junio de 2023. Accedido el 9 de octubre de 2023.

[14]    E. Muñoz, “Evolución de la Ciberseguridad: la IA como herramienta de ataque y defensa”, en Telefónica Tech, 28 de junio de 2023. Accedido el 9 de octubre de 2023.

Editor: Universidad Isabel I

ISSN 2792-1794

Burgos, España

Añadir nuevo comentario

La Universidad Isabel I tratará la información que nos facilite con el fin de publicar su comentario como respuesta a esta entrada de su blog, así como para mantenerlo informado de nuestra actividad. Más información sobre este tratamiento y sus derechos en nuestra política de privacidad.