Reconocimiento facial: el peligro de la hipervigilancia

Congreso

06_peligros_reconocimiento_facial_notas290120_ct.jpg

Foto: PXfuel

Político MX

Jue 30 Enero 2020 00:00

Por: Alejandra Lagunes, senadora por el PVEM. 

El 17 de enero de este año, la BBC y otros medios como The Guardian reportaron que un borrador de la Comisión Europea busca prohibir el uso de tecnologías de reconocimiento facial en lugares públicos por al menos 5 años. La intención es que durante ese tiempo se puedan poner en marcha mecanismos que permitan regular su despliegue y operación, reforzar la rendición de cuentas, y evitar que su uso viole derechos humanos como la privacidad y la protección de los datos personales. Este no es el único caso en que hacer un alto, será necesario para proteger los derechos, la dignidad y la vida de las personas. Lo cierto es que las tecnologías relacionadas con la inteligencia artificial tienen el enorme poder de dar forma a nuestras sociedades, pero si no existen principios éticos y democráticos - estas solo servirán para concentrar el poder en los mismos de siempre. 

El reporte de 2019 del AI Now Institute, un centro de investigación de la Universidad de Nueva York  dedicado a analizar las implicaciones sociales de la inteligencia artificial, se enfocó en las formas en las que la inteligencia artificial ha incrementado la desigualdad y reforzado las asimetrías de poder ya existentes. Entre las recomendaciones contenidas en el reporte se encuentran diversas relacionadas con el uso de tecnologías de herramientas de reconocimiento facial, entre ellas: 

1. El prohibir el uso de reconocimiento de afecto - una categoría de tecnologías que se presume puede detectar emociones, rasgos de la personalidad o de la salud mental - en aquellos ámbitos que puedan impactar la vida de las personas y su acceso a oportunidades. Por ejemplo, para acceder a un empleo, a la educación o a la justicia. 

2. Los gobiernos y las empresas deben de evitar el uso de tecnologías de reconocimiento facial en contextos políticos y sociales como la vigilancia, la educación y el trabajo, hasta que existan regulaciones adecuadas y los riesgos hayan sido cuidadosamente estudiados. 

3. Realizar cambios estructurales para terminar con el racismo, la misoginia y falta de diversidad que permean la industria de la inteligencia artificial. 

Estas recomendaciones se basan en casos alrededor del mundo en el que el despliegue de estas tecnologías ya ha causado daños a personas o grupos de personas específicas. Por ejemplo, el reporte da cuenta de que a pesar de que Microsoft cuenta con principios de no discriminación y de “vigilancia legal”, fondeó a la empresa AnyVision, que facilitó la vigilancia no autorizada de ciudadanos(as) palestinos en espacios públicos. Después de que la opinión pública denunció los daños de esta práctica, y de la inconsistencia con los principios que la misma Microsoft había trazado, la empresa tuvo que revisar sus políticas y su asociación con AnyVision. Otro caso controversialha sido el de la aplicación de vigilancia para el hogar de Amazon “Ring”. Esta aplicación compartía datos personales con empleados, y otras instituciones como la policía, sin el consentimiento de las personas usuarias. 

La necesidad de asegurar que las tecnologías de reconocimiento facial se diseñen e implementen siguiendo principios éticos claros tiene que ir mucho más allá de la elaboración de códigos de ética por parte de las corporaciones o de regulaciones - muchas de ellas tarde - de los gobiernos. El reto es mayúsculo: se trata de determinar en qué ámbitos de nuestra vida vamos a permitir el despliegue de estas tecnologías, y quiénes van a tomar esas decisiones. 

Uno de los problemas más graves es que, hasta hoy, las tecnologías de inteligencia artificial han tendido a servir a quienes ya tienen poder, incrementando la desigualdad y la vulnerabilidad de poblaciones específicas. Todo ello a través de tecnologías de vigilancia cada vez más invasivas y que no obtienen el consentimiento de las personas, la creación de perfiles o de toma decisiones  poco transparentes, sin claros canales de responsabilidad, y un largo etcétera. 

Si vamos a hablar de inteligencia artificial con principios éticos, ésta no puede ser una tarea que se deje solo en manos de gobiernos y empresas de tecnología. La tarea nos exige pensar e imaginar procesos mucho más democráticos, más abiertos, más transparentes y con mayores mecanismos de participación, rendición de cuentas y responsabilidad. Solo así podremos construir sistemas de gobernanza de  inteligencia artificial que beneficien a las personas, que protejan sus derechos, que sirvan para redistribuir el poder y no para concentrarlo. 

App Político MX

DESCARGA
NUESTRA APP

Degradado

y recibe lo mejor de Político.mx

Forma central Degradado
Político MX podcast

PODCAST

degradado Forma 45 grados

Escúchanos en estas plataformas:

degradado