MENÚ
MALDITA TECNOLOGÍA

Cómo funciona Veripol, el detector de mentiras con el que la policía busca denuncias falsas de robos y que podría empezar a usar la Guardia Civil

Publicado
Actualizado
Comparte
Categorías

Este reportaje de Naiara Bellio se ha publicado originalmente en inglés en AlgorithmWatch, con licencia Creative Commons BY 4.0. Esta versión es una traducción hecha en Maldita.es.

En 2018, la Policía Nacional comenzó a usar un algoritmo llamado Veripol en las comisarías para ayudar a detectar denuncias falsas de personas que acudiesen por robos y hurtos que nunca ocurrieron. Es la primera vez que se utiliza una herramienta así en España (y en ese momento, en el mundo).

Veripol es un programa informático que escanea las denuncias interpuestas por robos con violencia e intimidación y hurto por medio de tirones. Lo que hace es valorar si las denuncias pueden ser falsas o no. Cuando se empezó a usar en 2018, la idea era que complementase la tarea de los agentes a la hora de decidir si esas denuncias eran reales. El objetivo principal es ahorrar tiempo de investigación y evitar fraudes contra seguros. Por ejemplo, respecto a la denuncia de robos de smartphones.

84.000 denuncias

Según datos cedidos por el Ministerio de Interior a AlgorithmWatch, Veripol se ha usado en alrededor de 84.000 denuncias desde que se puso en marcha en octubre de 2018.

Busca detectar la simulación de un delito, que es en sí mismo un delito: se da cuando las personas que declaran que han sido víctimas de un robo o un hurto, por ejemplo, no acusan a una persona específica de ello. En 2019, el único año del que hay datos disponibles de todos los meses, Veripol procesó un total de 49.702 denuncias, de las cuales 2.338 se clasificaron como simulación de delito. Para que una denuncia se clasifique como 'falsa', debe haber una investigación posterior para que la persona denunciante lo admita.

Fuentes del Ministerio de Interior afirmaron a AlgorithmWatch que Veripol marcaba como una posible simulación de delito entre un 4,5% y un 5% de todas las consultas hechas al programa. Además, señaló que las consultas realizadas en Veripol suponen alrededor de un 35% de todas las denuncias presentadas.

Del departamento también explican que desde que se empezó a usar Veripol, el total de denuncias por robos con intimidación y hurto por medio de tirones están disminuyendo, así como los casos de simulación de delitos. Los últimos datos que tiene registrado el Instituto Nacional de Estadística (INE) sobre este tipo de delitos son de 2019, pero confirman el punto de vista del Ministerio sobre el descenso en la cifra de simulaciones de delito. Aun así, el hecho de que el total de delitos registrados se mantenga constante a medida que disminuyen las cifras de uso de Veripol, puede ser un indicativo de que el algoritmo no se usa tanto entre los agentes de policía.

Su uso no es tan generalizado

Veripol está disponible en todas las comisarías de Policía Nacional de España (alrededor de unas 240), según el Ministerio de Interior. Por ahora, Veripol solo lo usa la policía, pero fuentes de ese departamento han confirmado que tienen planes de usarlo para analizar más delitos y también en introducirlo en los sistemas de la Guardia Civil.

En teoría, el algoritmo lo utilizan policías que han sido entrenados para ello. Sin embargo, algunos policías a los que se entrevistó, miembros del sindicato Unión Federal de Policía (UFP) y de la asociación "Una policía para el siglo XXI", no señalan lo mismo. Muchos agentes no han recibido ese entrenamiento y algunos cren que el programa no es muy preciso.

Consideran que es una herramienta que puede funcionar muy bien en el "marco teórico", pero que no casa del todo con la forma de trabajar diaria en las comisarías. En primer lugar, porque falta más entrenamiento para usarlo, y segundo porque algunos consideran que la forma de la que se tramitan las denuncias no encaja con su funcionamiento.

Cuando una persona presenta una denuncia en una comisaría, un agente transcribe lo que dice el denunciante con sus propias palabras. Incluso cuando la denuncia se hace de forma online, puede que los agentes cambien fragmentos en el momento en el que sus autores acuden presencialmente a la comisaría para firmarla.

"No solemos hacer una transcripción estrica de lo que dice el denunciante", dijo uno de los agentes a AlgorithmWatch. "Por ejemplo, muchas de las oraciones que escribimos empiezan con la palabra 'que' para describir los hechos", añadió. Parte del entrenamiento a la hora de usar Veripol consiste en que los agentes escriban de una manera que el programa informático pueda procesar mejor.

¿Cómo fue entrenado?

Aunque Veripol no es una herramienta secreta, no se ha publicado demasiada información pública desde que se lanzó. El algoritmo en el que está basado lo desarrolló un expolicía y doctorado en Matemáticas y tres investigadores españoles. Son coautores de un estudio que asegura que Veripol tiene una eficacia del 91%.

El algoritmo se entrenó basándose en un corpus de 1.122 denuncias interpuestas en 2015 en España, de las cuales 534 figuraban como verdaderas y 588 como falsas. Todas fueron anonimizadas.

A la hora de etiquetar las denuncias como verdaderas o falsas, involucraron a un agente con "gran expriencia en interrogación, detección de mentiras e investigación". Revisó y clasificó las 1.122 denuncias durante un período de dos años. Los autores del estudio argumentan que usaron esa metodología porque "el ratio de denuncias falsas real" no podía saberse.

Las estadísticas oficiales con las que contaban en el momento mostraban que sólo una de cada 25 denuncias por robo con intimidación o hurto por tirón en 2015 eran falsas. Los investigadores aseguraban que, debido a que un 80% de estos casos no conseguían resolverse, el número total de denuncias falsas debía ser incluso mayor.

Basan las estimaciones con las que elaboraron el algoritmo en que "la comisaría con más éxito a la hora de detectar denuncias falsas sobre robos" (aunque no nombraron cuál era) calculaba un "ratio de falsedad" del 57% para todas las denuncias interpuestas en 2015.

¿Puede tener sesgos?

Las denuncias que escanea Veripol las escriben agentes en las propias comisarías, lo que significa que pasan por un primer filtro antes de que las procese el programa informático. Eso, sumado al modo en el que se entrenó al algoritmo (un agente especializado definió si las denuncias eran falsas o no), muestra que "los parámetros analizados no son objetivos", señala Sheila Queralt, una perito forense especializada en el lenguaje policial y directora del SQ Forensic Language de Barcelona.

Queralt asegura que se ha intentado suprimir un margen de error a la hora de analizar estas denuncias, y que sin embargo para hacerlo se está partiendo de un posible margen de error humano. "Partimos de que puede haberse manipulado el software porque no trabaja analizando el testimonio directo del denunciante, sino una transcripción o resumen que ha escrito un agente de policía", apunta.

Veripol trabaja identificando palabras y frases que estudios lingüísticos ya han confirmado que pueden ser identificadores de posibles mentiras, explica Queralt. Por ejemplo, el usar muchos adjetivos o el negarse a describir una escena pueden considerarse pistas de que un denunciante miente. "A mi lo que me preocupa, a falta de saber cómo funciona, es cómo se crea el corpus del cual se ha extraído ese algoritmo", asegura.

La clasificación de algunas palabras puede ser un problema: uno de los agentes entrevistados dijo que el uso de la palabra "navaja" ya podía hacer que Veripol se inclinara por que la denuncia fuera verdadera.

Los detectores de mentiras (así es como se llaman en este campo a los sistemas automatizados que "predicen" posibles crímenes, por ejemplo) ya tienen un historial malo, porque es muy difícil que funcionen bien. La detección de fraude a través del análisis de texto en una comisaría de policía es algo nuevo, eso sí, aclara una investigadora del Data Justice Lab, Fieke Jansen.

Jansen asegura que en este caso intervienen factores de género, generacionales, de clase y étnicos: a menos que la policía pueda asegurar que el algoritmo no discrimina de forma injusta, el sistema podría inconscientemente buscar palabras específicas o estructuras de oraciones que usan determinados grupos demográficos.


Primera fecha de publicación de este artículo: 27/10/2020

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.