Este país será el primero en usar la IA para predecir delitos

Este país será el primero en usar la IA para predecir delitos

El presidente de este país ha creado una Unidad dedicada a la seguridad que, gracias a la IA, deberá "predecir futuros crímenes". Un sistema que preocupa mucho a los defensores de derechos humanos...

La videovigilancia  se ha convertido en parte de nuestra vida diaria al punto de no darnos cuenta. Si las cámaras de vigilancia se basaban antes en dispositivos analógicos y operadores humanos, ahora explotan cada vez más tecnologías digitales, más eficientes pero también más preocupantes. También asistimos al despliegue paulatino, a escala global, de las llamadas cámaras "aumentadas", que se utilizan para vigilar los espacios públicos. Una práctica muy extendida en países como Estados Unidos, China, Reino Unido, Israel, Singapur e India.

Es el turno del presidente argentino de extrema derecha, Javier Milei –conocido por haber hecho de una motosierra el símbolo de su campaña electoral– de poner el ojo en esta tecnología.  Según informa The Guardian , anunció, el jueves 1 de agosto, la creación de una Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS). Su misión será utilizar  "algoritmos de aprendizaje automático"  para analizar  "datos históricos sobre delitos" , con el objetivo de " predecir delitos futuros y contribuir a su prevención ". Un sistema que preocupa mucho a los defensores de los derechos humanos.

La UIAAS estará liderada por el Director de Cibercrimen y Asuntos Cibernéticos y estará integrada por la Policía Federal y las Fuerzas de Seguridad Argentinas. Su misión será  "la prevención, detección, investigación y persecución del delito y sus conexiones mediante el uso de inteligencia artificial".

Para ello, necesitará  "identificar patrones inusuales en las redes informáticas y detectar ciberamenazas antes de que se produzcan ataques" , ya sea malware, phishing u "otras formas de ciberataques" . También tendrá que "procesar grandes volúmenes de datos de diversas fuentes para extraer información útil y crear perfiles sospechosos o identificar vínculos entre diferentes casos" , así como patrullar las redes sociales públicas, aplicaciones, sitios web e incluso la Dark Web  "para investigar delitos e identificar a sus autores, así como detectar situaciones de grave riesgo para la seguridad" . Finalmente, deberá analizar las actividades en las redes sociales para "detectar amenazas potenciales, identificar los movimientos de grupos criminales y anticipar disturbios" .

Al mismo tiempo, la unidad será responsable de las operaciones de vigilancia con drones y utilizará el reconocimiento facial para reforzar las medidas de seguridad e identificar a las personas buscadas. 

Sin embargo, hay un inconveniente: los puntos desarrollados en el documento no especifican el marco detrás de este uso de la IA, lo que puede generar temores de una deriva hacia la vigilancia masiva. Según varias organizaciones, esta medida podría violar los derechos humanos. "La vigilancia a gran escala socava la libertad de expresión porque anima a las personas a autocensurarse o abstenerse de compartir sus ideas si sospechan que cualquier cosa que comenten o publiquen está siendo vigilada por las fuerzas de seguridad ", afirmó Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina.

Por su parte, el Centro Argentino de Estudios sobre Libertad de Expresión y Acceso a la Información (CELE) deplora " la opacidad en torno a la adquisición e implementación de tecnologías " y recuerda que estas tecnologías ya han sido utilizadas en el pasado para "perfilar a académicos, periodistas, políticos y activistas"

La otra preocupación se refiere a la recopilación de datos personales utilizados para investigar o establecer la famosa hoja de  "potenciales sospechosos" . Una vez más, los criterios para evaluar lo que puede o no hacer sospechar de una persona no están detallados en la resolución, lo que deja la puerta abierta a excesos totalitarios. En cuanto a la cuestión de la protección de datos, a los expertos les preocupa quién podrá acceder a la información producida por la IA y cómo se recuperará.