Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

La Policía Nacional deja de usar Veripol, su IA estrella para detectar denuncias falsas

https://www.navarrainformacion.es/wp-content/uploads/2018/05/policia-nacional-ciberdelincuencia.jpg

La Policía Nacional ha optado por detener la utilización de Veripol, una tecnología de inteligencia artificial (IA) creada para identificar denuncias ficticias de robos violentos. Este sistema fue anunciado en 2018 como pionero a nivel global, con una efectividad superior al 90%. No obstante, su uso fue discontinuado en octubre de 2024 porque no cumplía con los requisitos exigidos para ser implementado en procesos legales, según informaron fuentes del Ministerio del Interior.

La creación de Veripol resultó del esfuerzo conjunto entre investigadores de las universidades Complutense y Carlos III, en cooperación con el oficial de policía Miguel Camacho-Collados. Para entrenar el algoritmo, se emplearon 1.122 denuncias de robo en España, de las cuales 534 eran verdaderas y 588 falsas. Los textos de estas denuncias fueron analizados utilizando técnicas de procesamiento de lenguaje natural (NLP) para reconocer patrones comunes en las denuncias fraudulentas. De este modo, se identificó que ciertos términos y expresiones, como «abogado», «seguro» o «espalda», estaban más frecuentemente vinculados con las denuncias falsas.

A pesar de su notable precisión durante las pruebas iniciales, en las cuales se logró identificar correctamente un alto porcentaje de denuncias fraudulentas, la herramienta ha recibido varias críticas a lo largo del tiempo. En 2022, un informe de especialistas en derecho y matemáticas de la Universidad de Valencia destacó diversas debilidades en la herramienta, incluyendo un conjunto de datos demasiado limitado, ya que solo se analizaron 1.122 denuncias en contraste con los miles de casos reales reportados anualmente en España. Además, se criticó que el algoritmo no analizaba las declaraciones completas de los denunciantes, sino las transcripciones hechas por los agentes de policía.

Uno de los aspectos más controvertidos resaltados por los críticos es la falta de claridad sobre el funcionamiento interno de Veripol. Aunque el sistema se desplegó en múltiples comisarías, no se ha divulgado información oficial sobre la cantidad de casos analizados ni sobre el proceso de entrenamiento de la IA. Asimismo, los informes indican que los agentes que manejaban la herramienta no siempre contaban con la capacitación adecuada para su correcta utilización.

Este caso destaca las tensiones presentes en la utilización de tecnologías avanzadas en el ámbito judicial. Aunque las IA como Veripol tienen el potencial de aumentar la eficiencia en la detección de fraudes, su aplicación debe estar sujeta a regulaciones estrictas y ser transparente, asegurando que no se vulneren los derechos fundamentales de los ciudadanos.

La discusión acerca del empleo de inteligencia artificial en el ámbito judicial se intensificó en 2024 con la implementación del Reglamento Europeo sobre Inteligencia Artificial, que categoriza las tecnologías de IA como de «alto riesgo» y fija requisitos más estrictos en relación con su fiabilidad y transparencia. Los inconvenientes de Veripol son un ejemplo claro de cómo estas herramientas, tanto en su desarrollo como en su aplicación, deben ser objeto de un escrutinio riguroso, no solo para garantizar su eficacia, sino también para prevenir vulneraciones de derechos o errores en el ámbito jurídico.

El debate sobre el uso de la inteligencia artificial en el ámbito judicial se intensificó en 2024 con la entrada en vigor del Reglamento Europeo sobre Inteligencia Artificial, que clasifica las tecnologías de IA como de «alto riesgo» y establece exigencias más estrictas en cuanto a su fiabilidad y transparencia. Los problemas de Veripol son un claro ejemplo de cómo, en su desarrollo y aplicación, estas herramientas deben ser sometidas a un escrutinio riguroso, no solo para asegurar su efectividad, sino también para evitar vulneraciones de derechos o errores judiciales.

Por lo tanto, la decisión de la Policía Nacional de dejar de utilizar Veripol refleja un reconocimiento de la necesidad de mejorar los métodos y protocolos de investigación en el ámbito de las denuncias falsas. A medida que la tecnología continúa avanzando, será esencial que las autoridades encuentren un equilibrio entre la innovación tecnológica y la protección de los derechos de los ciudadanos, garantizando que herramientas como Veripol sean utilizadas de manera ética y con una base de datos robusta y representativa.

Por Otilia Adame Luevano

También te puede gustar

  • Desafíos legales para Meta en Estados Unidos

  • Perspectivas sobre la energía potencial

  • Eficiencia y precisión en el uso de inteligencia autónoma

  • Expansión de IA en instituciones públicas mexicanas