miércoles, octubre 9, 2024
Nacionales

El fracaso del Gran Hermano

Buenos Aires es la decimocuarta ciudad con más cámaras de vigilancia y reconocimiento facial en el mundo. Se instalaron con la excusa de disminuir los delitos y no lo lograron. Sin embargo, son efectivas para avasallar derechos.

Frente a la propuesta del Gobierno de la Ciudad de Buenos Aires para la implementación de cámaras de reconocimiento facial en las manifestaciones de protesta y el descubrimiento judicial de que se utilizaron sus registros para realizar espionaje político, se colocó nuevamente en agenda el cuestionamiento de la constitucionalidad de la utilización de datos biométricos. La vigilancia mediante cámaras de seguridad que comenzó en 2016 fue ganando terreno mientras la privacidad de las personas la fue perdiendo.

La propuesta para que sean aceptadas socialmente, en 2019, tuvo como argumento que constituían una verdadera solución a los actos delictivos. Buenos Aires es la 14ª ciudad más videovigilada del mundo, sin embargo, estudios como los de la “Revista Latinoamericana de Estudios de Seguridad – URVIO” midieron el impacto del uso de cámaras de videovigilancia y de reconocimiento facial, y no obtuvieron resultados que pudieran vincular la instalación de cámaras con la reducción de los delitos. Rodrigo Iglesias, del Observatorio de Derechos Informáticos en Argentina, dijo a ANCCOM que ”hay muchos estudios que te dan un índice que marca que si colocás la cámara en un lugar, dos años después el índice delictivo sigue igual. Entonces, se invirtió dinero por un tiempo y el índice delictivo a los dos años sigue siendo el mismo.”

En su tesis “Ciudades, cámaras de seguridad y video-vigilancia: estado del arte y perspectivas de investigación”, la integrante del Instituto de Investigaciones en Humanidades y Ciencias Sociales de la Universidad de la Plata y el Conicet, Vanesa Lio, señala que la “ineficiencia (de cámaras y videovigilancia) ha sido explicada a partir de factores varios: la falta de concentración, la posibilidad de monitorear sólo un número limitado de cámaras al mismo tiempo, la ocurrencia de errores humanos y los altos costos por cámara. Todo esto sumado lleva a que muchas de las cámaras no sean siquiera monitoreadas y sus imágenes sean sólo grabadas para un uso probatorio posterior”.

El reconocimiento facial se implementó con el argumento de que sería una herramienta de búsqueda de aquellas personas que se encuentren en CONARC (Sistema de Consulta Nacional de Rebeldías y Capturas).

Foto: Candela Bandoni/ANCCOM

Alejandro Segarra, director de Litigio Estratégico y equipo de Asociación de Derechos Civiles (ADC) sostuvo que “estos algoritmos suelen tener más tasa de errores con gente de tez no blanca y mujeres. Una población de gran riesgo es la transexual. Tienen más tasas de error, es decir, que predomina que den falsos positivos.” Y agregó que para este tipo de sistemas cualquiera es culpable hasta que el algoritmo determine lo contrario.

Para los especialistas es un hecho que el sistema de reconocimiento tiene irregularidades a la hora de detectar personas, es decir, son muchas las malas consecuencias y escasas las soluciones que provee el sistema. Y pese a que está demostrado funciona con sesgos raciales, récord de identificaciones erróneas en la Ciudad, cantidad de violaciones a los derechos humanos, y que se cuestione que toda la sociedad queda sometida a una vigilancia masiva sin consentimiento ciudadano. Sin embargo, en mayo de 2019 Joseph Cannataci, relator de la ONU sobre el derecho a la privacidad, comentó que se siguió instalando cámaras, sin evaluaciones pertinentes sobre el impacto en la privacidad de la sociedad. “Un sistema en el que tenés una cámara que te está buscando todo el tiempo, supongamos que los dos vamos a una marcha y después yo me encuentro con una tercera persona que comete un delito. Cuando rastrean es muy probable que te vengan a buscar a vos también”, advierte  Rodrigo Iglesias.

Para este tipo de sistemas, cualquiera es culpable hasta que el algoritmo determine lo contrario.

“El problema es que no son solamente datos biométricos, la foto y nada más. Es distinción de raza, distinción de color, distinción de ideología política, distinción de dónde vas a estar, hasta la forma de caminar. Son datos sensibles, no solo reconocidos por nuestra ley nacional sino a nivel internacional. Antes era solamente la imagen, ahora los datos biométricos son incluidos como los más sensibles de todos, porque la persona no los puede cambiar y no puede despojarse de ellos”, refirió Iglesias frente a la complejidad que abarca la utilización de esta tecnología. El representante del Observatorio insistió en la gravedad de utilizar estas formas de vigilancia, no vinculada directamente a la comisión de un delito ya “sea espionaje o sea lo que fuere como mal desempeño de la función pública o atentado a la democracia”, sino que la mayor gravedad está dada en la vulneración de derechos.

Para Segarra, se vulnera “el derecho a transitar libremente sin ningún tipo de injerencia, el derecho a la privacidad, porque no importa que estés en un espacio público, lo que no querés es que el Estado te esté monitoreando. Muchas veces esto afecta al derecho a asociación, o al derecho de protesta, porque se corre el riesgo de dejar de ejercérselos por sentirnos vigilados. Esto tiene un efecto, vendría a llamarse Chilling effect, donde frente al miedo de sentirme vigilado yo dejo de hacer cosas. Dejo de protestar, dejo  de expresarme en la vía pública, dejo de asociarme o de reunirme con otras personas por miedo.”

“Es una tecnología de vigilancia que en realidad también es un producto -sostuvo Segarra-. Hay empresas a nivel mundial que manejan estas tecnologías, tampoco son tantas, que tienen una injerencia fuerte en todos los países. Por un lado está lo que hace a la propia constatación estatal, pero segundo prolifera tanto en el mundo porque es un arma o una herramienta de vigilancia masiva y eso prende mucho en un discurso”.

Segarra comentó que las sociedades se encuentran frente a un nueva época de “solucionismo tecnológico” donde pareciera ser la salvación a los problemas políticos, culturales y de la vida cotidiana a través de estrategias digitales. “Hoy hay que sospechar de todo lo que es gratuito, el oro de las empresas de hoy son los datos, entonces uno no sabe pero hay estudios que demuestran que nunca se leen las políticas de bases y condiciones, siempre se acepta la entrega de datos a cambio de prácticamente nada por cosas absolutamente superfluas.”

Y no es que el “solucionismo tecnológico” sea un distintivo nacional. El concepto abarca a todo el mundo, y la preocupación frente a la aplicación atravesando los límites de nuestros derechos no compete solo al país. Para Iglesias, el caso de San Francisco donde “se eliminó el sistema de identificación biométrica de prófugos porque el riesgo generado es mayor al beneficio de la seguridad pública” da en la tecla y confirma que el resguardo de esta información es vital.

Fotografías: Portada de Milagros González e interior de Candela Bandoni.

El artículo y las fotografías pertenecen a la Agencia de Noticias de Ciencias de la Comunicación (ANCCOM) de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires.