“Todo empieza con nuestra larguísima trayectoria de trivialidades en internet –alerta Beatriz Busaniche, presidenta de Fundación Vía Libre, una organización civil dedicada a la defensa de derechos fundamentales en entornos mediados por tecnologías de información y comunicación–. El 25 de diciembre, por ejemplo, subiste a tus redes sociales una foto del festejo de Nochebuena y taggeaste a tu tía Berta. Lo que hiciste, en realidad, fue entrenar al sistema de identificación para que aumente las probabilidades de la Inteligencia Artificial de reconocer a tu tía Berta en otra foto. Esas cosas triviales son las que alimentan al sistema para las cosas más serias como la persecución de disidentes. Todo este tiempo estuviste entrenando al sistema para su propósito real que es el control social”.

En el currículum de Busaniche destaca que es una activista por los derechos ciudadanos, la cultura libre y las libertades en Internet. Una reputación que colisiona con el anticipo de la ex candidata presidencial por Juntos por el Cambio y actual ministra de Seguridad de La Libertad Avanza, Patricia Bullrich. “Vamos a identificar a las personas. Vamos a tener cámaras, vamos a tener drones y vamos a tener distintas formas de identificarlas”, advirtió la funcionaria durante una entrevista con el conveniente canal de noticias LN+.

Unas horas antes, con la publicación en el Boletín Oficial, se había oficializado el protocolo antiprotestas que Amnistía Internacional, por citar solo uno de los muchos organismos de derechos humanos que alzaron su voz de repudio, describió como “formas de silenciar, inhibir y censurar a quienes reclaman a las autoridades”.

El sistema de reconocimiento facial que pretende usar la ministra Bullrich en las protestas callejeras es un software que busca identificar a determinadas personas, por ejemplo, a través de una cámara de vigilancia, y luego lo contrasta con una base de datos biométricos previa. “Hay antecedentes de personas detenidas por falsos positivos, es decir, personas que no cometieron ningún delito, pero el sistema igual levantó una alerta y la policía los detuvo. Se da por válido lo que el sistema reconoce, pero lo que es fundamental aclarar es que el sistema es probabilístico, lo que hay es una probabilidad de reconocimiento”, explica Busaniche. 

La corrupción y los Simpson

Esta indisimulable afinidad entre los sistemas de vigilancia (léase prohibir el derecho a manifestarse) y Juntos por el Cambio no es novedosa. En 2019, el vicejefe de gobierno y ministro de Seguridad porteño, Diego Santilli, anunció con el tono alegre de las buenas noticias la puesta en funcionamiento del Sistema de Reconocimiento Facial de Prófugos (SRFP) que cruzaría la información de la Base de Datos de Consulta Nacional de Rebeldías y Capturas (CONARC) con los datos del RENAPER (Registro Nacional de Personas) y del Ministerio del Interior.

Luego de realizar dos solicitudes de acceso a la información pública que fueron respondidas de manera poco satisfactoria, el Observatorio de Derecho Informático Argentina (ODIA) presentó un recurso de amparo para detener el funcionamiento del sistema de reconocimiento facial alegando que se implementó sin informe de impacto previo sobre datos personales, que se trató de una licitación privada y que la empresa operaba con software no abierto, por lo que no se sabía qué procesamiento hacían con los rostros y qué uso se le daba a esos datos, entre otros argumentos. 

“Hicimos el amparo sobre la base de la discriminación algorítmica porque estos sistemas tienen muchos problemas de sesgos raciales y de género, pero en el proceso empezaron a saltar otras cosas; encontramos una contratación muy por debajo de los estándares de la industria al momento de contratar tecnología”, recuerda Tomás Pomar, abogado especialista en derecho informático, docente de la UBA y presidente de ODIA.

“Estas contrataciones –insiste Pomar– son un foco de corrupción bastante alarmante, ya ni te hablo de vigilancia masiva, sino de transparencia. Muchas veces cuando se trata de tecnologías desde el Estado, la representación del temor de la gente está del lado de Black Mirror (en referencia a la serie distópica británica), pero la realidad es que se parece más al capítulo del monorriel de los Simpson en el sentido de que estas soluciones tecnológicas han demostrado un montón de falencias y además son caras”.

En septiembre de 2022, la jueza en lo Contencioso Administrativo Elena Liberatori declaró la inconstitucionalidad del Sistema de Reconocimiento Facial de Prófugos implementado por el gobierno porteño al considerar que fue gestionado por fuera de la norma que lo regula y sin mecanismos de control.

Antes, en pleno uso del sistema, Guillermo Federico Ibarrola fue detenido en la terminal de Retiro acusado de un robo agravado cometido en 2016 en Bahía Blanca. Fue un error: el buscado era Guillermo Walter Ibarrola, alguien con otro nombre y otro DNI. “Me podrían haber arruinado la vida”, se lamentó el hombre convertido en una “falla del sistema”.

«Un espacio fértil para los miedos»

Como si la fecha no tuviese una carga simbólica demasiado pesada, el último 20 de diciembre agentes de la Policía de Seguridad Aeroportuaria (PSA) subieron a colectivos sobre la Autovía Ricchieri pidiendo documentación y filmando a los pasajeros con el propósito de identificar a manifestantes que se dirigían a la movilización convocada en el centro porteño por parte de movimientos populares y organizaciones sociales. “Episodios así –reflexiona Tomás Pomar del Observatorio del Derecho Informático Argentino– son la prueba de que estos sistemas (en referencia a la identificación facial) cercenan la democracia porque se trata de un hecho disuasorio; gente de sectores humildes que viajan en transporte público a las que les antepusieron un elemento tecnológico disuasorio. La tecnología siempre tiene una asimetría entre quien la posee y la aplica y quien es el destinatario de esa tecnología, por eso es un espacio fértil para los miedos”.