Carta Abierta por la prohibición total del uso de tecnologías digitales de Reconocimiento Facial en Seguridad Ciudadana

Las organizaciones y personas que firman esta carta exigen la prohibición total del uso de tecnologías digitales de reconocimiento facial en la seguridad pública1 en Brasil por las razones que se exponen a continuación. 

En primer lugar, estas herramientas son capaces de identificar, seguir, señalar y rastrear a las personas donde sea que vayan, y pueden violar derechos como: privacidad, protección de datos, libertad de reunión y asociación, igualdad y no discriminación. Además, pueden hacer que las personas se sientan inhibidas, minando el derecho a ejercer su libertad de expresión. 

Estas tecnologías han dado lugar a una serie de graves abusos y violaciones de los derechos humanos en todo el mundo. Un ejemplo, retratado en el documental Coded Bias, es el uso del reconocimiento facial por parte de la policía del Reino Unido y la asociación incorrecta (hasta el año 2018) del 98% de los rostros identificados como correspondientes a fugitivos. Ante estas preocupaciones, ciudades como San Francisco y Oakland, en los Estados Unidos, han prohibido el uso del reconocimiento facial en lugares públicos.

En Brasil, el país con la tercera población carcelaria más grande del mundo, el uso de tecnologías de reconocimiento facial en la seguridad pública conduciría al agravamiento de las prácticas racistas que constituyen el sistema penal. Sin embargo, a pesar de la gravedad de estas pérdidas, estas tecnologías ya están presentes en la gran mayoría de los estados brasileños. En Bahía, desde 2018, se instalaron cámaras de reconocimiento facial con el propósito oficial de combatir el crimen, pero sin evidencia de haber logrado efectivamente ese objetivo.

Ninguna cantidad de protección técnica o legal puede eliminar totalmente la amenaza que representan estas tecnologías. Incluso empresas como Amazon, IBM, Meta y Microsoft han replanteado el uso de estas herramientas en algunos contextos. Creemos, por lo tanto, que nunca deben ser utilizados en actividades de seguridad pública, ya sea por el gobierno o incluso por el sector privado, a través de la delegación de la ejecución de servicios públicos. El potencial de abuso es muy grande y las consecuencias potenciales muy serias.

Las tecnologías de vigilancia nos generan inseguridad por la violación de nuestros derechos, sin darnos la posibilidad de evitar o ni siquiera consentir su implementación y el hecho de que nos convirtamos en sus objetivos. Se destacan las violaciones a nuestra integridad, por la recolección y tratamiento de datos personales biométricos; de nuestra libertad de ir y venir y de autodeterminación, ya que podemos estar bajo vigilancia las 24 horas del día, los 7 días de la semana, creando un contexto aterrador; de nuestro derecho al debido proceso legal, ya que la vigilancia masiva declara culpables en principio a todas las personas, minando la garantía constitucional de la presunción de inocencia como presupuesto legal básico. 

Independientemente de los resguardos y correcciones que se puedan proponer para crear una tecnología presunta y supuestamente “libre de errores”, esta vigilancia constante, masiva e indiscriminada es –en sí misma– una violación de los derechos y libertades de las personas. Como estamos hablando de mecanismos aplicados de manera incompatible con los derechos humanos, llamamos a la prohibición, y no solo a la moratoria, del reconocimiento facial en el contexto de la seguridad pública. 

Muchas de las unidades federativas brasileñas emplean el reconocimiento facial en políticas públicas, total o parcialmente enfocadas a la seguridad; y los vehículos de comunicación reflejan indiscutiblemente la supuesta eficacia de este tipo de proyectos para la seguridad ciudadana. Por estas razones, esta campaña está enfocada en prohibir el reconocimiento facial en la seguridad pública. A pesar de este recorte, somos conscientes de los graves problemas derivados de otras formas de tecnovigilancia que utilizan datos biométricos (incluyendo voz, conteo de pasos, temperatura, frecuencia cardíaca, ADN, etc.) que son el objetivo de otras tantas campañas y comunicados importantes de la sociedad civil y expertos de todo el mundo. 

Aún en el ámbito de la seguridad pública, es importante destacar que, si bien puede existir la impresión de que la recolección y el procesamiento de datos biométricos son realizados únicamente por las autoridades públicas, muchas de estas se implementan a través de contratos con el sector privado. Estas alianzas tienen como objetivo brindar servicios que involucren infraestructura y herramientas tecnológicas, que pueden incluir el reconocimiento facial. 

Estos acuerdos entre el sector público y el privado suelen ser poco transparentes y no ofrecen al público detalles sobre el tratamiento de los datos, lo que puede dar lugar, entre otras cosas, a usos secundarios de dichos datos para fines de interés exclusivo de entidades del sector privado. En otras palabras, no es raro que se haga un mal uso de los datos personales utilizados en este tipo de proyectos.

La mayoría de las veces, las críticas y protestas que se oponen a este escenario van dirigidas al poder público, responsable de su implementación. Sin embargo, las alianzas público-privadas demandan especial atención, ya que no se puede obstaculizar el acceso a la información sobre este tipo de iniciativas bajo el argumento de que estarían protegidas por el secreto comercial o empresarial, por ejemplo. Las empresas también tienen la obligación de respetar los derechos humanos, independientemente de la naturaleza de su participación en proyectos de este tipo, lo que puede ocurrir a partir del suministro de datos personales a las autoridades públicas, por ejemplo.

Un caso conocido internacionalmente que ejemplifica el uso de datos recopilados por el sector privado con fines de ventaja competitiva (sin la ciencia de la población) es el de la empresa Axon (actualmente Taser). Axon usó datos generados por cámaras corporales que había donado previamente a los departamentos de policía de EE. UU. en el desarrollo interno de su Inteligencia Artificial. Imagine el impacto para la comunidad si ocurre una situación como esta en Brasil, afectando los datos biométricos recopilados a través del reconocimiento facial. En ese sentido, es importante destacar que una encuesta de Al Sur muestra que una parte importante de estas tecnologías utilizadas en Brasil provienen de donaciones de empresas2.

Como ya se mencionó, incluso si Brasil tuviera una ley para regular el procesamiento de datos personales en la seguridad pública, los peligros que plantea el reconocimiento facial aún no se eliminarían. Ante un contexto en el que factores como el racismo, el clasismo, la misoginia y la LGBTQIA+fobia impactan en la forma en que las personas, en su diversidad, ven sus cuerpos percibidos, interpretados, abordados e incluso discriminados y reprimidos, mecanismos cuyo funcionamiento se basa en el análisis facial traen preocupaciones específicas. 

Un gran problema con las tecnologías de reconocimiento facial es que se basan en la clasificación de cuerpos. Esto puede ocurrir por aspectos como el sexo y el género, por ejemplo, trayendo una visión binaria y basada en estereotipos que no reconocen la diversidad de cuerpos, identidades y expresiones – una situación aún más preocupante en Brasil, el país que mata las personas más trans

Además, hay registros de que se han utilizado mecanismos similares para reconocer las emociones de las personas – lo que, además de correr el riesgo de producir premisas racistas, no tiene pruebas científicas sólidas de funcionamiento. En ese sentido, cabe señalar que ViaQuatro, la concesionaria del metro de São Paulo, fue condenada judicialmente por haber aplicado este tipo de mecanismo a sus usuarios.

Es posible que su rostro, sin que te haz dado cuenta, haya sido objeto de un reconocimiento facial con fines de seguridad pública. Esto se debe a que, en Brasil, ya hay cámaras de vigilancia equipadas con este tipo de tecnología en las calles de varias ciudades, incluso en relojes públicos, y también en el transporte público. Las personas que transitan por este tipo de espacios muchas veces no se dan cuenta de que están siendo sometidas a algún tipo identificación. Aún así, hay registros de que el reconocimiento facial también se usa en aplicaciones de teléfonos celulares de la policía en sus acciones. La posibilidad de circular sin restricciones y ejercer diversos derechos en estos espacios se verá fuertemente amenazada mientras exista este tipo de proyectos.

Por ello, la presente campaña reclama la prohibición del reconocimiento facial en la seguridad ciudadana porque entiende que sus problemas no tienen solución, es decir, son inseparables del propio uso de estos mecanismos. Los algoritmos no funcionan de forma neutral y pueden reproducir discriminaciones relacionadas con el entorno y las personas que los formularon, y además, su lógica de funcionamiento no es fácilmente explicable al público. También podría haber una fuga de la enorme cantidad de datos necesarios para que estas tecnologías funcionen, dejando vulnerable a toda la población.

Incluso si se mejorara el funcionamiento de estos mecanismos, una necesidad que a menudo es señalada por las narrativas que defienden su implementación, esto no evitaría sus impactos negativos. Intentar reducir estos errores y programar la tecnología de acuerdo con la diversidad de las poblaciones objetivo haría que estos grupos fueran más fácilmente mapeados, identificados, monitoreados y rastreados, lo que significa que este uso seguiría siendo desproporcionado. Esto, también, porque existe el riesgo constante de que este tipo de tecnología pueda ser utilizada por los gobiernos para perseguir a ciertos grupos y personas. 

Incluso si se probaran los “beneficios” de estas tecnologías para la comunidad, no sería proporcionado restringir el derecho a la privacidad de la población que transita en ese espacio bajo la justificación de impactos positivos específicos -que también son cuestionables, dada la complejidad de factores necesarios para promover medidas de seguridad pública no discriminatorias que efectivamente tomen en consideración a la comunidad. En este contexto, también es importante cuestionar si los “beneficios” mencionados en estos debates reproducen y/o camuflan la violencia institucional en relación con grupos que ya son histórica y socialmente perseguidos y oprimidos, como la población negra e indígena, inmigrantes, personas trans y travestis.

Además de estos impactos directos sobre los derechos humanos, tampoco es ventajoso gastar tanto dinero público como exige este tipo de proyectos; con el pretexto de mejorar la seguridad pública, millones de reales ya se gastan (y aún se pueden gastar) en la búsqueda de objetivos que ni siquiera serían positivos para la población. 

Además, el uso masivo de estas herramientas no es consistente con los tratados internacionales a los que Brasil está comprometido, incluida la Declaración Universal de los Derechos Humanos (DUDH) y el Pacto Internacional de Derechos Civiles y Políticos (PIDCP). El artículo 17 del Pacto Internacional de Derechos Civiles y Políticos, por ejemplo, protege a las personas de injerencias arbitrarias o ilegales en su vida privada. Con respecto al derecho a la privacidad en la era digital, el Consejo de Derechos Humanos de la ONU señaló recientemente en una resolución3 que los crecientes usos de tecnologías como el reconocimiento facial, sin las debidas garantías, impactan el derecho a la privacidad y otros derechos humanos, incluida la libertad de opinión, expresión y reunión pacífica. El Consejo también expresó su preocupación por la reproducción y el agravamiento de las desigualdades raciales mediante el uso del reconocimiento facial, e instó a los Estados a garantizar que las tecnologías biométricas y de reconocimiento, incluido el reconocimiento facial, no conduzcan a una vigilancia arbitraria o ilegal.

Asimismo, se destaca la amenaza al ejercicio del derecho a la protesta. Las manifestaciones públicas en las calles son expresiones de grupos de los más diversos espectros políticos en Brasil. La posibilidad de ser objeto de vigilancia permanente puede llevar a las personas a cambiar su comportamiento, en una postura de autocensura, y se pueden inhibir movilizaciones legítimas. La autocensura puede llegar más profundamente a grupos que son más vulnerables a la represión y violencia estatal. En casos extremos, el uso de estas tecnologías puede conducir a la criminalización del derecho a la manifestación. 

A pesar de las alegaciones de una supuesta mejora de la seguridad ciudadana mediante el uso de tecnologías de reconocimiento facial, este tipo de proyectos reproducen la cultura punitiva y encarceladora, en detrimento de privilegiar las medidas de prevención y restauración. Hay evidencia de cómo estas tecnologías son usadas de manera abusivas y/o implementadas con poca o ninguna transparencia, un marco que ni siquiera permite que la población cuestione la forma en que funcionan. 

Es un uso de tecnologías de vigilancia que, por ser tan peligroso, debe ser rechazado en un contexto que pretende ser democrático. ¡Se hace necesario prohibir el uso de tecnologías de vigilancia que promuevan la violación de derechos! 

Por las razones anteriores, esta campaña tiene como objetivo que, en el ámbito de la seguridad pública, se produzca:

1. Prohibición del uso de tecnologías de reconocimiento facial, aprobándose reglas para su respectiva prohibición en cualquiera de los ámbitos de la Federación, incluso en lo relativo a la contratación de soluciones privadas por parte de la administración pública.

2. Suspensión de cualquier proyecto que utilice, incluso de manera secundaria, el reconocimiento facial con fines de seguridad pública. En los casos en que la tecnología ya haya sido utilizada en la población, los gobiernos responsables deben formular políticas públicas y planes de acción para que las personas cuyos derechos humanos han sido violados por estos mecanismos puedan obtener una reparación adecuada.

3. Publicación de informes de impacto sobre el uso de estas tecnologías, desde que fueron concebidas hasta sus respectivas interrupciones, incluyendo datos de inversión, número y características de las aproximaciones y detenciones realizadas, tasas de falsos positivos y negativos, documentación de procedimientos implementados, riesgos a los propietarios de los datos y las medidas adoptadas para minimizarlos, entre otra información relevante para medir el impacto de su uso. La Autoridad Nacional de Protección de Datos (ANPD), en cumplimiento de sus atribuciones institucionales legalmente establecidas, deberá exigir la realización y publicación de estos informes cuando sea necesario.

4. Rechazo del sector privado a incentivar la implementación de este tipo de proyectos por parte del poder público. Las agencias de cooperación y los bancos no deben proporcionar recursos a la administración pública para el desarrollo y ejecución de este tipo de proyectos. Las empresas y startups que desarrollen mecanismos de reconocimiento facial no deberían destinar este tipo de tecnología a políticas que involucren la seguridad ciudadana, sea ese el objetivo principal o subsidiario.

5. Movilización de instituciones que buscan defender derechos constitucionales – como la Defensoría Pública, el Ministerio Público y la Autoridad Nacional de Protección de Datos – a favor de prohibir el uso del reconocimiento facial en la seguridad pública, que puede ir desde la realización de gestiones administrativas hasta la realización de acciones legales contra los gobiernos.

1 Teniendo en cuenta que estas consideraciones se refieren al ámbito de la seguridad pública, es pertinente mencionar que, según la Constitución Federal brasileña (1988), la seguridad pública tiene por objeto preservar el “orden público” y la “incolumidad de las personas y de los bienes”, siendo ejercida por los organismos policiales que actúan en el país – que incluye, además de la policía civil y militar, la policía federal. Por otra parte, es relevante destacar que el texto del proyecto de ley que pretende consolidar la legislación brasileña de protección de datos para determinados fines que no están directamente contemplados en la Ley General de Protección de Datos Personales (2018), esta última ya en vigor, apunta a un entendimiento doctrinal de diferenciación entre la actividad de seguridad pública y la actividad de persecución penal.
2  https://www.alsur.lat/reporte/reconocimiento-facial-en-america-latina-tendencias-en-implementacion-una-tecnologia
3 Resolución adoptada por el Consejo de Derechos Humanos de la ONU el 7 de octubre de 2021. Disponible en: https://digitallibrary.un.org/record/3945627?ln=en

Organizaciones que firman esta carta:

Firmas individuales:

  • Aderica Campos
  • Aina Selles
  • Alan Fernandes Xavier
  • Alice Andrade Rodrigues
  • Ana Carolina Sousa Dias
  • Ana Clara Souza
  • Ana Gabriela Souza Ferreira
  • Ana Lucia Pompermaye
  • Ana Luisa Figueiredo de Melo
  • Anamaria D Andrea Corbo
  • Anderson Santos Mansano
  • André Lucas Fernandes
  • André Ramiro
  • Andressa Mello Davanso
  • Andreza Rocha
  • Anna Bentes
  • Bárbara Castilho Maximo
  • Bárbara Lorena e Silva Alves
  • Beatriz Cristina Assis Melo
  • Bernardo Gomes Alevato
  • Branda Camargo Rochwerger
  • Brenda Cunha
  • Brisca Bracchi
  • Bruna Santos, pesquisadora visitante no Berlin Social Science Center – WZB
  • Camila Mattos da Costa
  • Carla Azevedo de Aragao
  • Carla Vieira – Engenheira de Software e pesquisadora
  • Carlota Aquino
  • Carolina Batista Israel – Pós-doutoranda pela Universidade de São Paulo
  • Carolina Soares – Desenvolvedora de projetos Dados Livres
  • Clara Ferraz
  • Clara Marinho
  • Claudiana Lelis
  • Cleiton Nonato
  • Cynthia Picolo
  • Davey
  • Davi Neuskens
  • Débora Pio
  • Diego Cerqueira
  • Diogo Dal Magro
  • Eduarda Costa
  • Eduardo Gomes Mendonça
  • Eliana Grecco
  • Eliel Pinheiro
  • Emanuelle Félix Carvalho
  • Ênio Lourenço Leite da Silva
  • Eric Barbosa
  • Érico França Bonfim
  • Fabianne batista Balvedi
  • Fernando de Oliveira Vieira
  • Gabriela MachadoVergili
  • Geisa S. Silva – pesquisadora e raquerartivista
  • Gilberto Schein
  • Gu da Cei – Artista visual e produtor cultural
  • Gustavo Furtado
  • Gustavo Luz
  • Harumi Miasato
  • Helena Martins
  • Hélio Aparecido
  • Horrara Moreira da Silva
  • Ines Aisengart Menezes
  • Ingrid Lima dos Santos
  • Isabela Maria Rosal Santos
  • Isabelle Cristine Oliveira Ribeiro
  • Izabela Domingues da Silva
  • Izabella Bittencourt
  • Jamila Venturini
  • Janaina Pereira
  • Janaina Spode
  • Jaqueline Trevisan Pigatto
  • Jefferson Barbosa de Oliveira
  • Jess Reia – University of Virginia
  • Jessica Carmo
  • João Guilherme Bastos dos Santos
  • João Luiz Pena
  • João Pedro Vicente Trujillo
  • Johanna Monagreda
  • José Antonio
  • José Germano Neto
  • José Rolfran de Souza Tavares
  • José Vitor Pereira Neto
  • Julia D’Agostini
  • Kaio Duarte Costa – Hackerativista
  • Karina Cia Bartels Cabral
  • Karina Moreira Menezes
  • Katemari Rosa
  • Katiana Ventura da Silva
  • Kecia Miranda
  • Kelly
  • Kemel Zaidan
  • Kennedy Antônio Vasconcelos Ferreira Júnior
  • Larissa Milhorance dos Santos
  • Laura Calabi
  • Laura Gabrieli Pereira da Silva
  • Lauren – Coletivo Minha Nossa de luta contra as diversas violências que atingem as mulheres
  • Leandro Araujo
  • Leonardo Perseu
  • Leticia Venturoti do Nascimento
  • Lia Pereira de Araújo e Silva
  • Lisangela S Silva
  • Luã Cruz
  • Luciana Moherdaui
  • Luís Filipe Silvério Lima
  • Luiz Augusto Galicioli
  • Luiza Xavier Morales
  • Marcella de Melo Silva
  • Marcelo A Xaud
  • Marcelo Fornazin
  • Marcos Urupá
  • Marcos Woelz
  • Maria Aparecida da Vitória Neves
  • Maria Eunice Vicentin
  • Maria Luiza Duarte Sá
  • Maria Luiza Freire Merces
  • Mariana Canto Sobral
  • Mariana Monteiro
  • Marielle de Souza Mendonça
  • Marina Meira
  • Matheus Freitas
  • Maurício Magalhães
  • Mauro Beal
  • Mônica Mourão
  • Natalia Conceição Viana
  • Natane Santos
  • Neto Muniz
  • Nina Da Hora – Cientista da Computação
  • Olga Lopes
  • Otávio Santos Gomes
  • Patrícia Cunegundes Guimarães
  • Patricia Guernelli Palazzo Tsai
  • Paula Cardoso
  • Paulo Faltay
  • Paula Guedes Fernandes da Silva
  • Paulo Rená da Silva Santarém
  • Pedro Amaral
  • Pedro Diogo Carvalho Monteiro
  • Pedro Henrique Martins dos Santos
  • Pedro Martins
  • Pedro Paulo da Silva Neri
  • R, Ramires – Educador popular em tecnologia na InfoCria, Instituto Bola Pra Frente e Redes da Maré
  • Rafael Alves dos Santos
  • Rafaela Batista
  • Renata Caroline Alfarano Souza
  • Ramênia Vieira
  • Raphael Rosa
  • Raquel Lima Saraiva
  • Raquel Rachid
  • Renata Arruda
  • Renata Lima Ribeiro de Sena
  • Renata Telles de Miranda
  • Renny BARCELOS FERREIRA
  • Rhaiana Caminha Valois
  • Ricardo Yuji Mise
  • Roberta Sernagiotto Soares
  • Rodrigo Murtinho – pesquisador em saúde pública
  • Rodrigo P. R. Lopes
  • Rogério Marques
  • Ronald Bittencourt
  • Ronaldo Alves
  • Rosa Maria Tubaki
  • Rosana Pinheiro Nascimento
  • Samara Nery
  • Saulo Macedo
  • Sheley Gomes
  • Stephanny Resende de Melo
  • Taís Oliveira – Instituto Sumaúma
  • Talles Reis dos Santos
  • Tarcizio Silva – Tech + Society Fellow Mozilla
  • Tatiana Coelho
  • Thaís Cruz
  • Thallita Gabriele Lopes Lima
  • Thayane Guimarães Tavares
  • Trajano Pontes Neto
  • Valdinei Freire da Silva
  • Vanessa Gomes – desenvolvedora back-end e pesquisadora em segurança digital
  • Veridiana Alimonti
  • Veruska Sayonara de Góis
  • Vico Meirelles de Souza
  • Waldo Almeida Ramalho
  • Weverton dos Santos Ferreira
  • Wilson Borges
  • Winston Oyadomari
  • Yure Sousa Lobo
  • Zeilane Conceição

Para firmar la carta