Projeto de lei pretende vetar uso de reconhecimento facial em espaços públicos de Porto Alegre

117

Bancada negra na Câmara Municipal questiona eficiência e acusa viés racial no uso da tecnologia; SSP defende adaptações do programa que já é utilizado para a busca de pessoas desaparecidas no Estado

Centro Integrado de Comando da Cidade de Porto Alegre já trabalha com câmeras para monitorar vias públicas em tempo realJoel Vargas / Prefeitura Municipal de Porto Alegre / Prefeitura Municipal de Porto Alegre

GZH

A vigilância por câmeras que utilizam inteligência artificial para identificar pessoas em ambientes públicos tem gerado controvérsia no Brasil e em outras partes do mundo. Em Porto Alegre, a tecnologia não é a solução para os problemas de segurança pública na opinião dos vereadores da  bancada negra da Câmara Municipal . O grupo protocolou projeto de lei que pretende barrar o uso das tecnologias de reconhecimento facial para buscar criminosos em espaços públicos de  Porto Alegre. O texto causa debate na Casa.

Daiana Santos (PCdoB), Karen Santos (PSOL), Laura Sito (PT) e Matheus Gomes (PSOL) alegam, por meio de estudos acadêmicos, que a precisão dessa ferramenta não é confiável. Agentes da segurança que já utilizam a tecnologia no Estado defendem a confiança e adaptações na tecnologia, mostrando seus impactos positivos. A atual finalidade é encontrar pessoas desaparecidas a pedido de familiares, porém o programa também pode ser usado para prevenir e combater outros crimes. 

A proposta da bancada faz parte de uma mobilização nacional que conta com outros 50 parlamentares atuantes na área dos direitos humanos em 12 Estados e no Distrito Federal. O objetivo do  movimento #SaiDaMinhaCara  é baseado em estudos acadêmicos e de mercado que, entre 2018 e 2020, apontaram para baixa eficiência da ferramenta onde era utilizada. Os dados, organizados pelo coletivo Coding Rights, mostram desempenho ainda menor quando se trata de rostos negros e femininos, minoria nos bancos de dados norte-americanos, que são abastecidos majoritariamente por imagens de homens brancos, segundo as pesquisas mencionadas pelos vereadores.

Isso acontece porque cada algoritmo é “treinado” a encontrar rostos compatíveis comparando as distâncias entre determinados pontos na face humana (queixo e mandíbula, testa, bochechas, olhos, boca e nariz) detectada. Eles encontram mais material para comparação delas com imagens de pessoas brancas e masculinas, predominantes até agora nas bases de dados consultadas virtualmente. Isso significa que, sem ter grande base de comparação, os rostos de pessoas negras podem ser mais facilmente confundidos. Com um suspeito de crime, por exemplo.

— O Brasil precisa parar para discutir o avanço dessas tecnologias da informação, pois cada vez que elas avançam mais, os problemas de ordem jurídica, social e política vão crescendo. Nossa iniciativa quer debater e criar uma regulamentação antes que o reconhecimento facial se consolide sem que as pessoas entendam o que a câmera instalada na rua vai fazer com as imagens do cidadão — argumenta o vereador do PSOL.

Para a professora de ciência da computação na Pontifícia Universidade Católica do RS (PUCRS) e pós-doutora no assunto Soraia Musse, toda tecnologia deve ser incentivada como uma possibilidade de melhorar a vida das pessoas. A cientista, que tem 30 anos de atuação na linha de pesquisa que investiga ferramentas de computação gráfica, ressalta que os dispositivos de reconhecimento facial estão em franco desenvolvimento, corrigindo erros encontrados nos últimos anos.

— Faz sentido que esses dados sejam menos precisos para mulheres e que sejam menos precisos para não brancos, pois é uma questão de abastecimento desses dados por imagens de quem está na internet. A ciência da computação está atenta a esses problemas e trabalha para corrigir essas situações, revisar as falhas e promover a justiça nesse ambiente — argumenta.

gendershades.org / Reprodução
Tabela mostra margem de diferença entre precisão considerando rostos homens brancos e de mulheres negrasgendershades.org / Reprodução

Pesquisas tentam aprimorar tecnologia

Em 2019, a professora Soraia Musse e colegas desenvolveram um programa de reconhecimento facial que foi utilizado pela SSP para encontrar foragidos da Justiça em espaços públicos. Ela afirma que a ferramenta alcançou média de 95% de acerto. Esse índice, segundo ela, está em vias de ser superado por tecnologias semelhantes. 

— Há países onde o reconhecimento facial é utilizado de maneira invasiva pelos governos, a popularização da tecnologia mostrou os problemas, mas isso não significa que devemos parar de pesquisar ou tentar aprimorar essa ferramenta. Os eventuais usos dela é que precisam ser melhor estabelecidos pelos gestores — projeta.

A proposta que tramita na Câmara Municipal de Porto Alegre pede que a cidade não adquira nem desenvolva técnicas de investigação de crimes baseadas nas ferramentas de reconhecimento facial e que suspenda o uso das que já estejam operantes. Além da questão racial e de gênero que compromete a eficácia atual do sistema, conforme apontam os estudos citados pelos parlamentares, o vereador Matheus Gomes entende que há problemas de violação de privacidade das pessoas que não são alvo das buscas, mas também serão vigiadas pelas câmeras que buscariam suspeitos e foragidos.

— Interfere em direitos humanos básicos como a privacidade e cria uma generalização que também não é eficiente para a segurança pública. É medida ineficaz para garantir melhorias na segurança pública, pois faz com que todos sujeitos entrem em uma condição de suspeição — complementa Gomes. 

Cautela em nível mundial

Entre 2019 e 2020, empresas como o Facebook e entidades como o Massachusetts Institute of Technology (MIT) e a Universidade de Harvard, que são referências no desenvolvimento de tecnologia da informação, admitiram a necessidade de revisões no uso de reconhecimento facial em ambientes públicos. O doutorado da pesquisadora Joy Buolamwini mostrou que há diferença na precisão de 34,4% entre a tentativa de identificar um rosto branco masculino e um outro negro feminino nos testes do IBM Watson, uma dessas tecnologias. Na ferramenta da Microsoft, a conclusão foi que 93% dos erros cometidos nas análises eram com rostos negros femininos. O estudo está disponível neste link.

O texto do Projeto de Lei do Legislativo (PLL) 249/22 destaca que, em San Francisco, na Califórnia, Estados Unidos, e em outras cidades do Brasil, os primeiros resultados foram considerados insuficientes por observatórios da violência e frearam o uso dessas tecnologias pelas forças policiais. Um estudo de 2019 feito pela Universidade de Essex, na Inglaterra, analisou pela primeira vez de forma independente a ação da polícia local amparada em câmeras com reconhecimento facial em tempo real. Os pesquisadores Daragh Murray e Peter Fussey concluíram que os cruzamentos de dados usados em experimentos da polícia metropolitana de Londres apresentavam algum nível de erro em 80% das vezes.

“O relatório documentou deficiências operacionais significativas nos testes que poderiam afetar a viabilidade de qualquer uso futuro da tecnologia. Os pesquisadores também acharam ‘altamente possível’ que a implantação da tecnologia pela polícia fosse considerada ilegal quando contestada em tribunal”, conclui o resumo do estudo.

Olhando para o Brasil, em outubro de 2020, o pedreiro José Domingos Leitão, 52, morador de Ilha Grande, no Piauí, foi preso por ter sido apontado como autor de um crime que tinha acontecido em Brasília. A imagem do banco de dados que levou a investigação até ele era de uma carteira de identidade feita na década de 1990. A Polícia Civil admitiu o erro do sistema semiautomatizado de reconhecimento facial e levou-o de volta para sua casa depois de ter preso e levado a capital do país.

Em um artigo de 2019 do Centro de Estudos de Segurança e Cidadania, da Universidade Candido Mendes, de Campos dos Goytacazes, Rio de Janeiro, o mestre em Ciências Sociais e pesquisador Pablo Nunes publicou levantamento que mostra que eram negras 90,5% das 151 pessoas abordadas em cinco Estados brasileiros por meio de câmeras com reconhecimento facial entre março e outubro de 2019. Desde a chegada da pandemia ao Brasil, tais estudos e a implementação das tecnologias diminuíram em razão do menor índice de circulação da população nas ruas. 

“O reconhecimento facial tem se mostrado uma atualização high-tech para o velho e conhecido racismo que está na base do sistema de justiça criminal e guia o trabalho policial há décadas”, criticou Nunes.

Tecnologia utilizada no RS

Desde outubro de 2021, 20 das mais de mil câmeras do Departamento de Comando e Controle Integrado (DCCI) contam com um software que ajuda a Polícia Civil na missão de encontrar rostos específicos em meio a multidões, principalmente no centro de Porto Alegre. O foco dessa busca é por pessoas desaparecidas, sejam menores ou maiores de idade. O diretor do DCCI, coronel Marcel Vieira Nery, entende que a iniciativa dos vereadores tem motivação válida, mas garante que as falhas apontadas pelos estudos sobre a tecnologia não são repetidas no Rio Grande do Sul.

— Sou negro e também tenho essa mesma preocupação dos vereadores, mas ela não afeta nossas ferramentas atuais, pois utilizamos um banco de dados da nossa Secretaria de Segurança Pública (SSP), feito com fotos de pessoas do nosso Estado e segmentado apenas para pessoas desaparecidas procuradas pela família — assegura o militar.

A posição do diretor do DCCI é amparada pelo responsável pela Divisão de Tecnologia da Informação e Comunicação (DTIC), major Moacir Simões:

— Exigimos padrões de certificação internacional no momento da contratação, pois alguns softwares eram, de fato, problemáticos. Os feitos nos Estados Unidos, por exemplo, possuíam treinamento de bases étnicas feitas em países com maioria caucasiana. No Brasil, esse programa é configurado de maneira a contemplar toda a variedade étnica do nosso país — garante. 

O atual sistema utilizado em solo gaúcho é regrado pela portaria nº 065 de maio de 2021 da SSP. Ele utiliza fotos dos rostos das pessoas desaparecidas, fornecidas pela família que as procuram. Quando alguma imagem das câmeras que monitoram as ruas é apontada como 75% correspondente a uma dessas fotos do banco de dados do Instituto-Geral de Perícias (IGP) e Secretaria de Segurança Pública, é feita uma segunda verificação visual por algum operador humano e posterior análise de outros registros relacionados ao desaparecido.

— A tecnologia tem sido fundamental para a investigação. As imagens são  prova técnica, é como se fizesse impressão digital do rosto. Temos tido muito sucesso na busca por desaparecidos, não há viés ideológico no uso por nossa parte — rebate a diretora adjunta do DCCI, delegada Rosane Oliveira.

— Ajuda até mesmo identificando rostos parcialmente cobertos por máscara. Quando o nível de compatibilidade entre as imagens que a família nos dá e as imagens que vemos nas câmeras é alto, pensamos em alternativas para abordar a pessoa. Isso tem sido proveitoso para nós, ainda que seja um sistema novo e sem ligação automatizada com nossos sistemas de bancos de dados — elogia a titular da Delegacia de Investigação de Desaparecidos, delegada Caroline Machado.

Debates e longa tramitação na Câmara

A vereadora Nádia Gerhard (PP), tenente-coronel da Brigada Militar e eleita com propostas vinculadas à segurança pública, se posiciona de forma contrária ao projeto dos colegas. Ela elogia a chance de debater a tecnologia, pois acredita que a exposição do tema será positiva para a população.  

— É um projeto lamentável, que vai na contramão da utilização da tecnologia para garantia da segurança da população porto-alegrense. Clamamos por segurança, nossos agentes da segurança não são onipresentes, apesar de serem muito bons. Precisamos usar a tecnologia para auxiliar neste processo. A tecnologia não faz distinção das pessoas, simplesmente identifica expressões faciais — argumenta. 

O projeto está, desde quarta-feira (22), à disposição para consulta na biblioteca da Câmara, mas ainda não é disponibilizado virtualmente no link do processo na página da internet. De acordo com o presidente da Câmara, Idenir Cecchim (MDB), o texto não tem data para ser analisado pela procuradoria da Casa para decidir se o projeto é legal e se está dentro da alçada de atuação dos legisladores municipais. Depois, passará por comissões de assuntos específicos antes de ser levada ao plenário para debate e futura votação. 

— Há uma série de passos que ainda precisam ser dados. É uma tramitação muito inicial, sobre a qual nem tenho como opinar, ainda. O que sei sobre reconhecimento facial é que é uma tecnologia avançada e utilizada em vários lugares, mas certamente esta será uma oportunidade para que eu e todos os colegas possamos aprender mais durante os debates — projeta.