Reconocimiento facial: prejuicios de la IA y marcha atrás

Por: Federico Trofelli

Como un "lombrosianismo" del siglo XXI, las tecnologías de reconocimiento facial cargan con los prejuicios de las fuerzas de seguridad que las utilizan.

Un software de imágenes podría reducir años de trabajo de la policía a sólo segundos. Explicada así, la inteligencia artificial aplicada al reconocimiento facial sonaba promisoria, pero hay un problema en el origen: estos avances tecnológicos replican los prejuicios de las fuerzas de seguridad, y por lo tanto sus errores y abusos. Atentas a esta problemática y a los últimos crímenes de ciudadanos afroamericanos en EE UU a manos de policías, grandes empresas como Amazon o IBM anunciaron la discontinuidad de estos cuestionados programas. La Ciudad de Buenos Aires adoptó estas herramientas hace poco más de un año para identificar personas en la vía pública, evidenciando los distintos problemas que acarrea su uso. Y si bien parece que estos sistemas de control social llegaron para quedarse, recrudecen la tensión entre su eficacia real y el respeto de derechos inalienables de las personas.

Mientras se multiplicaban las protestas en Estados Unidos y otros países contra la violencia institucional y el racismo, las multinacionales tecnológicas decidieron empezar a cuestionar los servicios informáticos que ellas mismas vienen proveyendo, ante las denuncias de que la policía utilizaba las imágenes captadas en las protestas para luego salir a la caza de los manifestantes. Rápido de reflejos, el CEO de IBM, Arvind Krishna, envió a las autoridades del Congreso estadounidense una carta en la que anuncia el “fin de sus productos de software de análisis y reconocimiento facial de uso general”, además de invitar a los congresistas a trabajar de manera conjunta en una verdadera “reforma policial” y que el propio Parlamento tenga una política más activa en la denuncia de los abusos.

IBM planteó que “la tecnología puede aumentar la transparencia y ayudar a la policía a proteger a las comunidades, pero no debe promover la discriminación o la injusticia racial”, por lo que “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y principios de confianza y transparencia”, agregó Krishna.

Para no ser menos, la compañía de Jeff Bezos, Amazon, adelantó que por un año no proporcionará a la policía el uso de su software de reconocimiento facial. Microsoft se sumó a la medida. Ambas empresas brindaban servicios a distintas agencias de seguridad, pero ahora prefieren esperar la sanción de una ley que regule, tutelando los derechos humanos, la aplicación de estas tecnologías.

No es la primera vez que Microsoft pide una mayor regulación de la Inteligencia Artificial. En 2018, el presidente de la empresa, Brad Smith, pidió al gobierno estadounidense que pusiera límites a su uso. Parece haber sido apenas una puesta en escena. Esta semana, la Unión Estadounidense por las Libertades Civiles dio a conocer un intercambio de mails en los que Microsoft intentaba vender estos avances tecnológicos a la Administración de Control de Drogas, la DEA.

“La sociedad civil debería participar de algún modo en el control de toda actividad que el Estado lleve adelante utilizando esta tecnología. Las empresas no deberían poder utilizar estos servicios o, como en Illinois, obtener un permiso ante alguna autoridad competente. En todo caso, debe haber una regulación específica”, sostiene el abogado Luciano Gandolla, especialista en la temática y exfuncionario de la Dirección Nacional de Protección de Datos Personales.

En la Argentina, la Asociación por los Derechos Civiles (ADC) planteó que un Plan Nacional de Inteligencia Artificial debería contemplar “políticas claras, transparentes y accesibles que permitan impugnar y remediar cualquiera de las decisiones tomadas mediante procesos automatizados”, por lo que debería existir una “intervención humana significativa que sea la responsable de tomar en última instancia esas decisiones”.

Para Gandolla, “aun con la participación de la sociedad civil, en el equilibrio que debe haber entre la seguridad y la privacidad, personalmente me inclino por la privacidad”. El experto concluye que “este tipo de tecnología tiene dos problemas de base: las tasas de error, que, si bien se van achicando por los avances tecnológicos, siguen estando presentes; y sobre todo el ‘bias’, es decir, la parcialidad que se ha detectado al momento de entrenar los algoritmos, que hace que con algunos grupos de personas (asiáticos, afroamericanos, etc.), los porcentajes de error sean hasta cien veces mayores”.

Compartir

Entradas recientes

Recordar para resistir al autoritarismo

El 9 de diciembre de 1985, la Cámara Federal dio por probado el plan criminal…

14 mins hace

Industriales se aferran a la reforma laboral mientras la crisis del sector dispara la interna fabril

La conducción de la UIA relativiza el cierre de plantas con el argumento de que…

46 mins hace

Juego de espías: internas, despilfarros y absurdos

En septiembre, el hijo del nuevo Señor 5 viajó con recursos de la SIDE a…

49 mins hace

Valentina Bassi: «Creo que este Gobierno quiere desmantelar todo el sistema de salud»

El documental de Ulises Rosell, "Presente continuo", acompaña el vínculo entre un joven con trastorno…

1 hora hace

Esperan una condena ejemplar contra el ginecólogo Diego Clementi por abusar sexualmente de al menos 14 mujeres

"El único objetivo de las denunciantes es que no siga victimizando", dijo la abogada Perugino…

1 hora hace

En Venezuela se estrena el Corolario Trump a la Doctrina Monroe

La Casa Blanca presentó la Estrategia de Seguridad Nacional 2025 con un detalle de la…

1 hora hace

Milei da un nuevo paso al subdesarrollo

Argentina gasta 301 millones de dólares para comprar 24 F16 de fabricación estadounidense que Dinamarca…

1 hora hace

Maradona y Messi, a través del hilo invisible del destino

Como Diego en 1994, Leo jugará su última Copa en Estados Unidos en 2026. Los…

1 hora hace

Jorge Macri intenta resistir la posible fuga de legisladores a La Libertad Avanza

Casi en espejo con la situación en Diputados, la cohesión de la bancada del PRO…

2 horas hace

Las negociaciones con los aliados prometen un verano de éxitos al gobierno nacional

El presidente dejó de lado la confrontación y habilitó a sus funcionarios a conceder pedidos…

2 horas hace

Imposible de negar: 40 años de la primera condena a los genocidas

El 9 de diciembre de 1985, la Cámara Federal dio por probado el plan criminal…

2 horas hace

Sin diálogo con la Casa Rosada, Provincias Unidas encara las extraordinarias debilitado

El bloque conformado por los gobernadores que quisieron armar una nueva avenida del medio pierde…

2 horas hace