Mario Sastre Sánchez Profesor del Grado en Derecho
Jue, 18/05/2023 - 11:16

Inteligencia artificial y seguridad

Inteligencia artificial y seguridad.

Serie: 'Seguridad a tu alcance' (XXXIII)

Si nos pidieran que enumeráramos algo que nos pertenezca en exclusiva, al ser humano, como característica personal e intransferible, incluso de especie, ajeno a la injerencia tangible de nadie, la primera respuesta valida seria uno: el pensamiento.

Nuestro pensamiento nace y crece en nuestras mentes; se mantiene bajo nuestro exclusivo control y nos pertenecen en toda su extensión. Impugnable en nuestra mente hasta que nosotros decidimos el qué, el cómo y el cuándo externalizarlo para que comiencen a formar parte del mundo real.

Extraer el pensamiento humano con IA

Esto hasta ahora. El pasado día 1 de mayo, se publicaba en la revista Nature Neuroscience los resultados de un estudio científico llevado a cabo por un grupo de investigadores de la Universidad de Texas, donde mediante el uso un escáner cerebral y un sistema de inteligencia artificial (IA) han conseguido, lo que hasta ahora parecía imposible: extraer el pensamiento humano.

De modo muy resumido, en dicho trabajo los investigadores por medio del análisis de la actividad cerebral del individuo y el tratamiento de estos datos por la IA han conseguido extraer el pensamiento de los sujetos del experimento, afectados por enfermedades que le impedían expresarse oralmente, y materializarlo en formato escrito. Queda rota así, por la ciencia y de la mano de la IA, la muralla que separaba lo personalísimo e infranqueable del ser humano: su pensamiento. Y es que, este estudio demuestra como la IA permitirá por tanto extraer del individuo, voluntaria o involuntariamente, sus recuerdos, sus vivencias y conocimientos sobre un determinado hecho.

Peligro de la IA

Ahora bien, la algarabía mediática por los avances tecnológicos no puede obnubilarnos y hacernos perder de vista el peligro que un mal uso puede conllevar. Al contrario, la vertiginosa evolución de la IA y los nuevos retos que plantea nos debe conducir a un debate sosegado y tranquilo, pero sin dilaciones, para ofrecer una solución ética y de justicia a los retos que se plantean.

Cierto es, que no es un tema nuevo el hecho de que un avance tecnológico planteé un uso perjudicial del mismo, por ejemplo, la misma aleación que dio lugar al cobre permitió crear joyas para vestir y espadas para matar. Lo que, si es nuevo, es la rapidez con que la evolución de la IA plantea nuevas cuestiones, y la transcendencia de estas respecto a las estructuras e Instituciones que como sociedad nos hemos dado para garantizar la convivencia, y que con mayor o menor éxito, nos ha permitido organizarnos y evolucionar hasta hoy.

Son muchos los ejemplos que se podrían poner a debate. Por ejemplo, ¿Cómo afectará a la IA a la prueba?

Imaginemos un supuesto: un procedimiento ordinario por asesinato, donde la única prueba con la que cuenta el Tribunal es un supuesto video auto inculpatorio del presunto autor, el mismo que niega y mantiene su inocencia en sede judicial. La práctica forense hasta el momento da mayor valor a las declaraciones más cercanas en el tiempo a la comisión del hecho delictivo, por considerarse menos contaminadas. Debemos reconocer que la falsedad de la prueba no es un hecho nuevo en nuestros Tribunales, existiendo previsión legal para su tratamiento en el procedimiento, así como sanción penal para la misma. Pero la novedad que introduce la IA no es la falsedad de la prueba, si no la dificultad que en muchos casos plantea la identificación de la falsedad. O, dicho de otro modo, la perfección alcanzada en los procesos de IA destruye en parte la capacidad humana para poder identificar la falsedad de la prueba. Ello supone la necesidad de, por un lado, actualizar los medios atribuidos a la sempiterna maltratada Administración de Justicia. Y por otro, la necesidad de controlar la utilización o acceso a tales tecnologías.

Pensamiento, Ética e Inteligencia Artificial

Volviendo al supuesto que abría esta entrada. La admisibilidad de la utilización de la IA para extraer pensamiento, información en definitiva, hace necesario y urgente la apertura de un importante debate ético y jurídico en que sin duda deben establecerse los límites.

Si hasta el momento, como ya enuncio Ulpiano cogitationis poenam nemo patitur (nadie sufre pena por su pensamiento) y así ha llegado hasta nuestros días, ¿sería licito en aras de conservar la seguridad que el Estado, que se utilizara esta herramienta para adelantar la barrera criminal y sancionar penalmente a aquel cuyo pensamiento criminal puede suponer un problema de seguridad colectiva?

En el plano del Derecho Civil, más amable ¿podría ser utilizado para el control del consentimiento matrimonial ante la sospecha de un matrimonio blanco o de conveniencia? O en el plano administrativo, ¿podría el Estado utilizar esta herramienta para la selección de su personal y evitar así la incorporación de su funcionariado a sujetos deshonestos?

Todos estos supuestos irreales sí, hipotéticos, también, pero posibles en un futuro no tan lejano. Estos supuestos podrían ser legales, pero ¿y éticos?

Y es aquí la pregunta, hasta donde como individuos y como sociedad debemos permitir avanzar a la IA, o por el contrario, acotarla. La cuestión está, a mi parecer, en no permitir que el avance tecnológico suponga un menoscabo en todos los derechos que como individuos hemos alcanzado, pero sobre todo, que la IA no se convierta en unos grilletes 2.0 que nos esclavicen y nos robe la libertad que nos corresponde, llana y simplemente, por el hecho de ser hombres.

Editor: Universidad Isabel I

ISSN 2697-288X

Burgos, España

Añadir nuevo comentario

La Universidad Isabel I tratará la información que nos facilite con el fin de publicar su comentario como respuesta a esta entrada de su blog, así como para mantenerlo informado de nuestra actividad. Más información sobre este tratamiento y sus derechos en nuestra política de privacidad.