Rodrigo Iglesias, apoderado de la causa que consiguió la suspensión del sistema de identificación por videovigilancia del Gobierno de la Ciudad de Buenos Aires, asegura que se trata de un software «racista». El abogado referente del Observatorio de Derecho Informático Argentino (ODIA) expresó que el sistema tiene grandes problemas para evitar confusiones entre personas que no respondan al prototipo caucásico europeo, lo cual deriva en «falsos positivos» y detenciones arbitrarias.

Así lo expresó en un artículo recientemente publicado por la revista Crisis que recopila las diferentes denuncias de funcionamiento erróneo y desmanejo de los datos biométricos obtenidos a partir del registro con cámaras de seguridad en territorio porteño.

Sumate y apoyá el periodismo autogestivo

ASOCIATE

Esta semana, el jefe de gobierno Horacio Rodríguez Larreta anunció que la Capital Federal contaba con un 75% de sus calles monitoreadas por cámaras de seguridad, lo que beneficiará a una baja del delito. En la previa de este anuncio, el GCBA resaltaba la identificación de 1.695 personas registradas en la lista denominada Consulta Nacional de Rebeldías y Capturas (CoNaRC).

Sin embargo, el artículo precisa que «las autoridades también reconocen al menos unas 450 identificaciones sin efecto (órdenes de captura no vigentes que sin embargo no fueron dadas de baja en el listado de prófugos) y la emisión de más de 3.000 alertas, lo que indica un alto número de falsos positivos».

“Me pusieron a mí y me detecta con un 97% de efectividad. Lo pusimos a Alphonse Tchami (exfutbolista) y lo confunde con una sombra», definió Iglesias en referencia al Sistema de Reconocimiento Facial de Prófugos (SRFP), una contratación directa de la Ciudad en 2019 y que cuenta con tecnología desarrollada por Rusia.

El artículo de Crisis, titulado «Videovigilancia policial: tu cara me suena» y resumido en un hilo de tuits de su cuenta @CrisisRevista, explica que «se ha probado que la tecnología de Inteligencia Artificial (IA) que se utiliza para realizar la identificación de rostros hace diferencias según raza o edad, ya que los datasets (enormes conjuntos de fotos de caras reales) que se usan para su “entrenamiento” no tienen un origen diverso sino más bien solo de adultos y caucásicos».

Así las cosas, la investigación a cargo de Bibiana Ruiz y Juan Suárez expresa que «la efectividad del reconocimiento variará según la etnia o edad, generando segmentos de la población más expuestos que otros a la identificación errónea. No hace falta aclarar que esos segmentos de la población también son los más vulnerables a la violencia institucional por parte de las fuerzas de seguridad».

Hasta el momento, el gobierno porteño fracasó en su intento de apartar al juez Roberto Gallardo del expediente, en el que se investiga por qué razón el SRFP se buscaron datos de casi diez millones de personas si sólo existía autorización para buscar, mediante el sistema de cámaras de seguridad desplegadas en la Capital Federal, a menos de 40 mil prófugos de distintas causas penales en todo el país. Tampoco pudo precisar la jefatura de gobierno cuál es el objeto de estas consultas, ni bajo qué convenio se realizaban.

Alberto Fernández, Axel Kicillof, Javier Milei, Patricia Bullrich y más figuras de la política fueron objeto de consultas. Cristina Fernández de Kirchner, por ejemplo, tuvo 225 pedidos, lo que equivale a casi una consulta por día en determinados lapsos temporales.

“Hay un montón de indicios de que algo raro pasa, no sabemos si es espionaje, si es un atentado contra la democracia, o una utilización desmedida por parte de la fuerza y nada más”, afirma Iglesias en el artículo de Crisis, y precisa que “Hay una sola conexión lógica entre Renaper y el Ministerio, hay un solo cable, un solo nodo, va de ahí hasta allá. Fin. Y los oficiales tienen una app de los policías de la Ciudad y cuando vos hacés el análisis de las consultas que hicieron, te dan pico los fines de semana”. ¿Acaso la fiesta de consultas podría tener una motivación lúdica?».