Como o Brasil cria um “Big Brother” da vigilância e por que isso pode ameaçar a democracia

Sob pretexto da segurança pública, tecnologias de vigilância estão se convertendo em perigosa ferramenta de monitoramento em massa – Agência Brasil

Publicado originalmente no site Brasil de Fato

POR PEDRO RAFAEL VILELA

No romance “1984”, escrito por George Orwell, o Big Brother, ou Grande Irmão, é o personagem ao mesmo tempo oculto e onisciente em uma sociedade marcada pela vigilância total do Estado sobre os cidadãos. A clássica obra distópica do escritor britânico já deixou de ser um horizonte distante e sombrio. As tecnologias de vigilância, aplicadas sobretudo na segurança pública, estão se convertendo em uma ferramenta de monitoramento em massa da população, com riscos não apenas para a privacidade das pessoas, mas para o própria democracia.

No episódio mais recente dessa história da vida real, o site The Intercept Brasil revelou que o Ministério da Justiça e Segurança Pública (MJSP) está expandindo um sistema de inteligência artificial, batizado de Córtex, que usa milhares de câmeras rodoviárias espalhadas pelo país para monitorar placas de veículos e, com isso, obter informações em fração de segundos sobre os deslocamentos de qualquer pessoa. As informações são cruzadas com bancos de dados do governo federal, que por sua vez acessam registros pessoais dos indivíduos.

Mas o Córtex não é o único. Um levantamento do Instituto Igarapé mapeou ao menos 47 sistemas de reconhecimento facial já em operação no Brasil, utilizados em dezenas de cidades. Na maior parte dos casos, são câmeras que monitoram o sistema de transporte urbano (em ônibus e metrôs) e a circulação de veículos, seguido do uso aplicado na segurança pública, como sistemas que identificam possíveis pessoas implicadas com a Justiça. Há casos até de uso de vigilância com reconhecimento facial utilizado em escolas para monitorar e prevenir a evasão escolar.

Esse tipo de tecnologia vem sendo empregada desde 2011, mas se tornou ainda mais popular em 2019. Em janeiro do ano passado, pouco depois da posse de Jair Bolsonaro (sem partido) na Presidência da República, um grupo de deputados e senadores eleitos pelo PSL, o então partido do presidente, fez uma viagem à China que tinha como principal objetivo conhecer o sistema de vigilância em massa adotado pelo país, que usa tecnologia de reconhecimento facial com imagens obtidas por mais de 170 milhões de câmeras espalhadas pelo território do gigante asiático. A justificativa, claro, era sua aplicação em políticas de segurança pública.

“As tecnologias de vigilância trazem uma série de riscos pra diversos direitos. Isso é cada vez mais reconhecido e debatido entre acadêmicos e ativistas de direitos humanos no mundo inteiro. Elas ameaçam, por exemplo, o direito à privacidade, o direito à autodeterminação informativa, que fala da capacidade do cidadão exercer controle sobre seus dados pessoais, sobre como eles estão sendo tratados, para qual finalidade e, eventualmente, até demandar que aquele tratamento se encerre”, analisa Gustavo Ramos Rodrigues, pesquisador do Instituto de Referência em Internet e Sociedade (Iris).

“Não sabemos, por exemplo, a que finalidades a que esse tratamento, de fato, se destina. Nós não sabemos que autoridades estão tendo acesso a esses dados pessoais e nós não sabemos quais são os mecanismos que estão sendo colocados ali para evitar, por exemplo, um vazamento de dados, um uso indevido, um acesso não-autorizado e por aí vai”, acrescenta.

Vale tudo?

Na opinião de Helena Martins, professora da Universidade Federal do Ceará (UFC) e coordenadora do Laboratório de Pesquisas sobre Tecnologia, Políticas e Economia da Comunicação (Telas), esse “vale tudo” pela segurança pública, além de violar direitos, não tem tido eficiência em resolver o problema da violência urbana, como se propõe.

“Me parece fundamental questionar a capacidade execução desse monitoramento, a forma como isso é feito, o que é produzido em termos de políticas públicas a partir das informações que são coletadas, e mesmo quanto que é gasto e qual a efetividade da implementação desse tipo de política. Além, é claro, de outras questões, como a importância de medidas preventivas, a questão das desigualdades, medidas estruturantes pra gente enfrentar efetivamente a questão da segurança pública.”

Procurado, o Ministério da Justiça e Segurança Pública informou que o Córtex é usado desde 2018 “para cadastro de indicadores de produtividade das ações policiais, operações, modelagem de atividades e ações que permitem o acompanhamento de operações em tempo real”. Seu uso e desenvolvimento se dá, de acordo com a pasta, com base na Lei 13.675/2018 que instituiu o Sistema Único de Segurança Pública (SUSP).

O órgão cita a utilização do sistema na segurança das Eleições de 2018 e da Copa América 2019, além de operações no transporte de criminosos e de combate ao crime organizado. Segundo o ministério, o Córtex está em uso para monitorar os impactos da covid-19 para a segurança pública.

“A integração de informações de monitoramento urbano permite a detecção de veículos com indicativo criminal registrado, como furto e roubo para emprego exclusivo nas atividades de segurança pública para repressão ao crime organizado e criminalidade violenta”, informa a pasta.

Sobre a segurança digital das informações, o MJSP informou que as funcionalidades do Córtex permitem que as atividades realizadas dentro do sistema sejam auditáveis. “É importante ressaltar que o sistema está sendo desenvolvido com o trabalho de técnicos do Ministério da Justiça e Segurança Pública, além das contribuições dos usuários dos Estados que aos poucos são inseridos no contexto do sistema”.

Você está sendo vigiado 

Para Gustavo Ramos Rodrigues, há uma ameaça real para o exercício das liberdades democráticas com o uso indiscriminado e sem qualquer controle social dessas tecnologias de vigilância. Uma delas é o que se chama de direito inibitório, que é quando uma pessoa, tendo ciência que está sendo vigiada, se torna menos capaz de se expressar plenamente porque sabe que, especialmente quando a vigilância vem de uma autoridade, o comportamento pode gerar um sanção.

“As tecnologias de vigilância também trazem riscos para a liberdade de associação e de reunião, para o direito ao protesto, quando nós pensamos, por exemplo, que uma pessoa pode deixar de ir numa manifestação política, a um protesto, porque ela sabe que, ao ir naquele ato, ela está sujeita a ter um dado de localização, ou a ter uma imagem capturada, registrada e, posteriormente, num contexto em que há práticas antidemocráticas acontecendo, ter aquele dado sendo utilizado para algum tipo de perseguição política ou sendo acessado indevidamente por terceiros”.

Um dos casos mais explícitos de vigilância em massa vem sendo adotado no Ceará, com mais de 3,5 mil câmeras instaladas em todo o estado, sendo 2,5 mil apenas ne capital, Fortaleza. O governo do estado também possui uma versão local do Córtex, que se chama SPIA (Sistema Policial Indicativo de Abordagem), e também coleta dados de reconhecimento facial utilizados por policiais em abordagens e diligências.

O Brasil conta com uma Lei Geral de Proteção de Dados (LGPD), que afirma a proteção de dados pessoais como um direito. Essa lei, em seu artigo 4º, abre uma exceção para o uso de dados na segurança pública, mas prevê, nestes casos, a adoção de uma legislação própria que cumpra os mesmos princípios da Lei Geral.

“Qualquer lei que trata de dados na segurança pública deve seguir os princípios da LGPD, como finalidade, proporcionalidade, segurança dos dados, necessidade de consentimento, uso sempre muito restritivo. São questões que me parecem importantes e que vão de encontro dos sistemas como o Córtex ou mesmo o sistema aqui no Ceará”, afirma Helena Martins, da UFC.

Em nota enviada à reportagem, a Secretaria de Segurança Pública e Defesa Social (SSPDS) do Ceará afirmou que a ferramenta de reconhecimento facial utilizada pelo governo tem seu uso exclusivo por servidores da segurança pública, “com o objetivo de tornar as ações e investigações policiais mais assertivas”.

Ainda segundo a pasta, o sistema tem dado resultados. “Com pouco mais de um ano de uso, o reconhecimento facial utilizado no Portal do Comando Avançado (PCA) auxiliou os agentes de segurança cearenses na identificação de suspeitos foragidos da Justiça do Ceará e até de outros estados brasileiros. Alguns casos ocorreram durante abordagens policiais quando foram apresentados documentos falsos à equipe policial ou em casos de investigação policial quando se havia o rosto do suspeito, mas não a sua identificação.”

Em outra iniciativa recente, o governador Camilo Santana (PT) enviou à Assembleia Legislativa do Ceará um projeto de lei para regulamentar o uso compartilhado, em tempo real, pelas polícias do estado, de imagens de câmeras privadas captadas do ambiente externo a imóveis, públicos e privados do estado. Ou seja, as imagens de qualquer câmera, seja de um estabelecimento comercial ou prédio residencial, poderá se acompanhada em tempo real por agentes públicos.

Tanto no caso do Córtex como das tecnologias utilizadas no Ceará e em outras regiões do país, pouco ou nenhum debate público foi realizado antes da implementação desse tipo de sistemas. Pela lei, essas iniciativas têm que ser baseadas em finalidades legítimas, específicas, explícitas e informadas ao titular dos dados, que são as próprias pessoas objeto de monitoramento.

“Um ambiente democrático precisa de uma série de coisas para se desenvolver de forma saudável. Precisa de transparência, de privacidade, de liberdade de expressão. As pessoas precisam ser capazes de se opor ao governo sem sofrer sanções públicas por isso. A tecnologia, ela não só pode como muitas vezes é usada no mundo inteiro por governos com tendências autoritárias e antidemocráticas para suprimir as liberdades da população. Então, é preciso que haja um controle social muito forte sobre essas ferramentas, e extrema cautela no uso delas. Caso contrário, a própria democracia fica em risco”, afirma Rodrigues, do IRIS.

Sobre o novo projeto de lei que trata sobre o compartilhamento de câmeras de videomonitoramento privado com as forças de segurança, o governo do Ceará informou ao Brasil de Fato que “o objetivo é ter, a serviço do cidadão, mais uma importante ferramenta para a prevenção e a elucidação de crimes, que irá complementar outras ferramentas já utilizadas pelo estado em prol dos serviços de segurança”.

Reações

Em todo mundo, cresce uma reação da sociedade civil organizada contra o uso do reconhecimento facial em massa, que tem se expandido para formas de controle das próprias cidades, em movimento inverso ao que vem acontecendo no Brasil.

Os danos potenciais e essas iniciativas de vigilância em massa levaram a cidade de São Francisco, nos Estados Unidos, a banir o uso de tecnologia para fins de vigilância, uma espécie de “moratória” sobre esse tipo de política de segurança pública. A empresa de tecnologia IBM também anunciou recentemente que vai deixar pesquisas, desenvolver e oferecer tecnologia de reconhecimento facial.

“Estamos caminhando cada vez mais para um Big Brother, vigilantista, autoritário e sem nenhum diálogo com a população sobre essas políticas”, aponta Helena Martins.

Uma outra característica preocupante no uso dessas tecnologias de reconhecimento facial e vigilância é que elas reproduzem um lógica de discriminação já praticada historicamente.

“Do ponto de vista da tecnologia, embora haja esse ideário de que e sempre muito bom, moderno e neutro, várias pesquisas no mundo inteiro têm mostrado que as tecnologias não são neutras, elas incorporam um viés de classe, de raça e de gênero”, afirma Helena Martins.

“É muito difícil que uma pessoa branca, rica seja objeto de um reconhecimento facial por um celular de um policial, ao passo que nós sabemos que uma abordagem dessa é bem mais factível no caso de uma pessoa jovem, pobre e negra”, completa.

Sobre isso, a relatora Especial das Nações Unidas sobre formas contemporâneas de racismo, discriminação racial, xenofobia e intolerância relacionada, E. Tendayi Achiume, chegou a produzir um relatório intitulado “Discriminação racial e tecnologias digitais emergentes: uma análise dos direitos humanos”. No documento, ela pede que haja avaliações obrigatórias de impacto nos diretos humanos como pré-requisito para a adoção de novas tecnologias de vigilância, uma forma de conter o aprofundamento do preconceito e das desigualdades.

O jornalismo do DCM precisa de você para continuar marcando ponto na vida nacional. Faça doação para o site. Sua colaboração é fundamental para seguirmos combatendo o bom combate com a independência que você conhece. A partir de R$ 10, você pode fazer a diferença. Muito Obrigado!