MENÚ
MALDITA TECNOLOGÍA

¿Se puede utilizar la inteligencia artificial para prevenir delitos?

Publicado
Actualizado
Comparte
Etiquetas

Aunque parezca un asunto más propio de la ciencia ficción, el uso de algoritmos e inteligencia artificial (IA) para combatir el crimen es ya una realidad en varios puntos del planeta. El debate sobre su conveniencia, sus ventajas o sobre sus posibles sesgos, sin embargo, también se está asentando en varios ámbitos de la sociedad civil de una forma cada vez más intensa.

Lo primero de todo, ¿qué se entiende como policía predictiva? Según la definición del Instituto Nacional de Justicia de Estados Unidos, uno de los países pioneros en la aplicación de este tipo de tecnologías, son los algoritmos que “tratan de aprovechar el poder de la información, las tecnologías geoespaciales y los modelos de intervención basados en pruebas para reducir la delincuencia y mejorar la seguridad pública”.

El objetivo, además, pasaría por utilizar las grandes bases de datos con la que cuentan los Estados en materia de delincuencia para hacer que “las fuerzas de seguridad pasen de reaccionar ante los delitos a predecir qué y dónde es probable que ocurra algo y desplegar los recursos en consecuencia”.

Esta definición, sin embargo, incluye términos que pueden llegar a ser confusos para el ciudadano acerca del respeto a sus derechos o sobre el propio papel de los algoritmos en el proceso de ‘alerta’ ante la posibilidad de que se cometan nuevos delitos.

Así lo advierte a Maldita Tecnología Cecilio Angulo Bahón, director del Centro de Investigación en Inteligencia Artificial y Ciencia de Datos de la Universitat Politècnica de Catalunya, quien propone ser más selectivo con los términos y competencias de las tecnologías desarrolladas en este campo.

“‘Prevenir delitos' y 'policía predictiva' son dos expresiones totalmente alejadas de lo que propone la inteligencia artificial (IA). Si fuese el caso, que debería valorarse éticamente, un sistema de IA puede 'predecir' delitos. Es decir, establecer que unas circunstancias pueden conllevar, con alta probabilidad o certeza a la comisión de un acto especificado como delito. La IA no actúa, en ningún caso”, detalla el experto.

Como prevenir estaría relacionado con la actuación previa a la comisión de un crimen, los algoritmos desarrollados en el campo de la seguridad no tienen la capacidad para ello, en todo caso para “predecir delitos en tanto que situaciones similares a (o definidas de forma similar a) otras anteriores que conllevaron actos definidos como delito”.

Una 'policía predictiva' es una contradicción. Un 'policía' es un agente y por tanto se entiende que actúa (de forma activa o pasiva) ante una situación. Si su función es predictiva, entonces hablamos de un agente investigador, como en el caso forense, pero no conlleva una actuación”, concluye el profesor.

Minneapolis prohíbe el reconocimiento facial y Canadá abre el debate

En los últimos meses, las tecnologías de reconocimiento facial y el uso de big data dentro de los cuerpos de Policía han estado de actualidad. Así, la Policía de Minneapolis ha prohibido el uso de reconocimiento facial en su departamento tras haber detectado sesgos “raciales, étnicos y de edad”, un debate que también se ha trasladado a Canadá.

En España, la empresa privada también ha estrechado lazos con las Fuerzas y Cuerpos de Seguridad del Estado, según detalla en este artículo El Salto. Empresas como Eurocop ya han conseguido varios contratos públicos para “proporcionar sistemas de software y soluciones de automatización, destinadas a aumentar la eficacia y productividad de los servicios de policía”. 

En nuestro país también se han pronunciado en este debate José Luis González y Miguel Camacho, miembros de la Secretaría de Estado de Seguridad del Ministerio del Interior y del Consejo de Estado, respectivamente, a través de este artículo científico fechado en noviembre de 2020.

Ejemplo que aportan González, Santos y Camacho en su investigación 'Policía predictiva en España. Aplicación y retos futuros' sobre el uso de big data. A la izquierda, conjunto de homicidios en una localidad segmentados por su motivación o entorno en el que sucedieron. A la derecha, vista del gráfico aplicando los filtros: víctima varón y menor de edad.

En él, se afirma que “la policía predictiva debe entenderse como un conjunto de herramientas de apoyo en la toma de decisiones de los investigadores policiales”. 

“Ni los sistemas predictivos ni la sociedad están aún preparados para dejar las decisiones enteramente en manos de estos modelos, por lo que actualmente, ni la confianza excesiva ni el rechazo total de estas prácticas son beneficiosos, ya que el uso de los datos en la toma de decisiones es el futuro de los cuerpos policiales”, sostiene el documento.

Pese a ello, se insta a avanzar en la implementación de estos algoritmos para mejorar el análisis global de todos los datos aislados con los que cuenta la base de datos de la Policía, trabajando a su vez en la “aceptación social de estas herramientas”.

Para las asociaciones de derechos digitales, el problema de una eventual implantación de este tipo de algoritmos depende de los sesgos con los que se diseñen. Un asunto que ya tratamos en este vídeo y sobre el que hace hincapié Simona Levi, fundadora de la asociación Xnet.

Según afirma a Maldita Tecnología, “la cuestión de la IA en general, ya sea en la policía predictiva o en cualquier otra cosa, son los sesgos. Sobre el papel es todo maravilloso porque todo se podría solucionar con las matemáticas, pero en realidad quien programa la IA es humano y se reproducen los sesgos”.

Por ello, la activista considera que estas técnicas  son “tremendamente peligrosas” porque la automatización de alguna toma de decisiones perpetuaría “los sesgos que ya encontramos en la policía actual. Sesgos de discriminación racial, por estatus social, etcétera. Esto además tiene un aura de infalibilidad por ser matemático, que es todavía peor porque complica la de apelar y defenderse”.


Primera fecha de publicación de este artículo: 25/02/2021

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.