Reconocimiento facial: prejuicios de la IA y marcha atrás

Como un "lombrosianismo" del siglo XXI, las tecnologías de reconocimiento facial cargan con los prejuicios de las fuerzas de seguridad que las utilizan.
21 de junio de 2020

Un software de imágenes podría reducir años de trabajo de la policía a sólo segundos. Explicada así, la inteligencia artificial aplicada al reconocimiento facial sonaba promisoria, pero hay un problema en el origen: estos avances tecnológicos replican los prejuicios de las fuerzas de seguridad, y por lo tanto sus errores y abusos. Atentas a esta problemática y a los últimos crímenes de ciudadanos afroamericanos en EE UU a manos de policías, grandes empresas como Amazon o IBM anunciaron la discontinuidad de estos cuestionados programas. La Ciudad de Buenos Aires adoptó estas herramientas hace poco más de un año para identificar personas en la vía pública, evidenciando los distintos problemas que acarrea su uso. Y si bien parece que estos sistemas de control social llegaron para quedarse, recrudecen la tensión entre su eficacia real y el respeto de derechos inalienables de las personas.

Mientras se multiplicaban las protestas en Estados Unidos y otros países contra la violencia institucional y el racismo, las multinacionales tecnológicas decidieron empezar a cuestionar los servicios informáticos que ellas mismas vienen proveyendo, ante las denuncias de que la policía utilizaba las imágenes captadas en las protestas para luego salir a la caza de los manifestantes. Rápido de reflejos, el CEO de IBM, Arvind Krishna, envió a las autoridades del Congreso estadounidense una carta en la que anuncia el “fin de sus productos de software de análisis y reconocimiento facial de uso general”, además de invitar a los congresistas a trabajar de manera conjunta en una verdadera “reforma policial” y que el propio Parlamento tenga una política más activa en la denuncia de los abusos.

IBM planteó que “la tecnología puede aumentar la transparencia y ayudar a la policía a proteger a las comunidades, pero no debe promover la discriminación o la injusticia racial”, por lo que “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y principios de confianza y transparencia”, agregó Krishna.

Para no ser menos, la compañía de Jeff Bezos, Amazon, adelantó que por un año no proporcionará a la policía el uso de su software de reconocimiento facial. Microsoft se sumó a la medida. Ambas empresas brindaban servicios a distintas agencias de seguridad, pero ahora prefieren esperar la sanción de una ley que regule, tutelando los derechos humanos, la aplicación de estas tecnologías.

No es la primera vez que Microsoft pide una mayor regulación de la Inteligencia Artificial. En 2018, el presidente de la empresa, Brad Smith, pidió al gobierno estadounidense que pusiera límites a su uso. Parece haber sido apenas una puesta en escena. Esta semana, la Unión Estadounidense por las Libertades Civiles dio a conocer un intercambio de mails en los que Microsoft intentaba vender estos avances tecnológicos a la Administración de Control de Drogas, la DEA.

“La sociedad civil debería participar de algún modo en el control de toda actividad que el Estado lleve adelante utilizando esta tecnología. Las empresas no deberían poder utilizar estos servicios o, como en Illinois, obtener un permiso ante alguna autoridad competente. En todo caso, debe haber una regulación específica”, sostiene el abogado Luciano Gandolla, especialista en la temática y exfuncionario de la Dirección Nacional de Protección de Datos Personales.

En la Argentina, la Asociación por los Derechos Civiles (ADC) planteó que un Plan Nacional de Inteligencia Artificial debería contemplar “políticas claras, transparentes y accesibles que permitan impugnar y remediar cualquiera de las decisiones tomadas mediante procesos automatizados”, por lo que debería existir una “intervención humana significativa que sea la responsable de tomar en última instancia esas decisiones”.

Para Gandolla, “aun con la participación de la sociedad civil, en el equilibrio que debe haber entre la seguridad y la privacidad, personalmente me inclino por la privacidad”. El experto concluye que “este tipo de tecnología tiene dos problemas de base: las tasas de error, que, si bien se van achicando por los avances tecnológicos, siguen estando presentes; y sobre todo el 'bias', es decir, la parcialidad que se ha detectado al momento de entrenar los algoritmos, que hace que con algunos grupos de personas (asiáticos, afroamericanos, etc.), los porcentajes de error sean hasta cien veces mayores”.

Esta nota fue posible gracias al apoyo de nuestros lectores.

Su aporte nos permite hacer periodismo sin condicionamientos. El sueño de un medio libre no es solo nuestro.

SEAMOS SOCIOS

Tiempo Audiovisual