Los sistemas de reconocimiento facial avanzan en el mundo en medio de un tira y afloje: mientras se suman espacios que lo implementan, crecen también los cuestionamientos a una metodología que vulnera derechos y cuya efectividad en materia de seguridad es puesta en duda. Mientras “lamentablemente hay países como el nuestro donde la implementación de estas tecnologías goza de buena prensa” –según alerta la especialista Beatriz Busaniche–, la organización Amnistía Internacional lanzó una campaña global para pedir que los Estados las prohíban: “Veto al escaneo”.

“El uso de herramientas biométricas de identificación es una forma de vigilancia masiva. La gente sale a la calle a protestar, y entendemos que esta suerte de reconocimiento masivo pone en riesgo la privacidad de las personas y amenaza los derechos a la libertad de expresión y reunión pacífica”, indica Paola García Rey, directora adjunta de Amnistía, en diálogo con Tiempo. Además, aduce, vulnera la presunción de inocencia y el debido proceso, ya que las personas son consideradas sospechosas hasta tanto se analizan sus datos biométricos y se concluye que son inocentes.

La campaña se lanzó en Nueva York, para replicarse luego en otras ciudades. El sistema volvió a estar en tela de julio especialmente por sus usos racistas en los Estados Unidos: las personas negras “siguen siendo foco de políticas discriminatorias de persecución”, advierte García Rey.

Sumate y apoyá el periodismo autogestivo

ASOCIATE

“Ante el considerable riesgo que la tecnología de reconocimiento facial significa para los derechos humanos, Amnistía Internacional pide a los Estados que impongan una prohibición total del uso, desarrollo, producción, venta y exportación de tecnología de reconocimiento facial con fines de identificación y vigilancia masiva”, plantea la campaña, mientras surgen otros pronunciamientos en el mismo sentido. El último informe de la Red Internacional por las Libertades Civiles (INCLO), por caso, alerta sobre los riesgos de crear sociedades en las que las personas estén observadas e identificadas cuando asistan a una protesta. Y el Comité consultivo del Convenio de Protección de Datos del Consejo de Europa recomendó que se prohíban “algunos usos de tecnologías de reconocimiento facial” para “evitar cualquier riesgo de discriminación”.

“Hay una dicotomía que a veces es difícil de clarificar: muchas veces criticamos una tecnología porque está inmadura, porque da falsos positivos. Hay ejemplos vinculados con gente de tez oscura –esto está documentado en varias investigaciones de Europa y EE UU–, hay sesgos que hacen que estas tecnologías fallen cuando se trata de personas de género femenino. Uno podría pensar que con una tecnología que funcione mejor sería útil. Pero es un razonamiento equivocado”, dice Busaniche, referente de la Fundación Vía Libre. Y explica: “Estas tecnologías tienen la doble vía de que son malas porque fallan, pero por otro lado, si funcionaran sin margen de error –cosa que es imposible–, implicarían una violación al estado de derecho porque supondrían un avance tal sobre la esfera pública y en términos de vigilancia que serían inadmisibles en un Estado democrático”.

El sistema de reconocimiento facial goza de buena salud en la Ciudad de Buenos Aires, donde quedó legitimado en la Legislatura en octubre del año pasado, con la reforma de la Ley 5688 del Sistema Integral de Seguridad Pública. Pese a esto, por vía judicial aún hay batallas por dar, según confirmaron desde el Observatorio de Derecho Informático Argentino. Desde ese espacio, Víctor Atila Castillejo sostiene que el sistema “es una herramienta de vigilancia masiva que no resuelve ningún problema de fondo en materia de seguridad”. Sin embargo, no solo avanza en Caba: se analiza su implementación en el municipio de Tigre e, indica Busaniche, también está en discusión en Rosario.  «


Para saber si usaron nuestras fotos


Ante el avance de las tecnologías de reconocimiento facial, una nueva herramienta web permite detectar si las fotos alojadas en servicios gratuitos como Flickr fueron empleadas por tales dispositivos.


Se trata de Exposing.AI,

el resultado de una investigación de años sobre cómo estos sistemas entrenan sus algoritmos con imágenes de sitios web sin el conocimiento ni el consentimiento de quienes las publicaron.


Solo hay que ingresar un nombre de usuario, la URL de la foto o hashtag en la barra de búsqueda para que se escaneen más de 3,5 millones de fotos y chequear si las propias fueron utilizadas.