Um homem chinês sequestrado na infância foi encontrado 32 anos depois por um sistema de reconhecimento facial. Em Salvador, a mesma tecnologia conseguiu identificar e prender 42 foragidos da Justiça no ano passado.
Os benefícios desse tipo de ferramenta são muitos. Principalmente em tempos de pandemia, em que o monitoramento das políticas de lockdown tem sido mais do que necessário.
Na Rússia e na China, por exemplo, câmeras instaladas em espaços públicos foram usadas para rastrear quem quebrava a quarentena. Não por acaso, essa ideia tem crescido. Só no Brasil, 37 cidades já aderiram a algum tipo de tecnologia de reconhecimento facial.
A novidade parecia chegar à cidade de São Paulo, quando foi barrada por João Dória. O governador vetou o projeto de lei aprovado pela assembleia Legislativa de São Paulo que determinava a instalação de câmeras de reconhecimento facial nas estações e nos trens do Metrô e da Companhia Paulista de Trens Metropolitanos (CPTM).
Para o político, essa decisão não poderia ser definida pelo Estado, mas pelas empresas de transporte, e a proposta violaria leis estaduais. Embora a justificativa tenha tido base legal, a solução esbarra em polêmicas que ultrapassam a esfera jurídica. Confira algumas delas.
Problemas de privacidade
Nem todo mundo está disposto a compartilhar a própria imagem com órgãos públicos. Na Europa, por exemplo, um estudo recente mostrou que 80% das pessoas não se sentiam à vontade em fornecer seus dados faciais a autoridades.
Na esfera privada, a desconfiança pode ser ainda maior: o que fazer frente à possibilidade de sua imagem ser usada para fins comerciais? Em 2018, esse tipo de tecnologia foi usada no metrô de São Paulo para medir os efeitos de uma publicidade nas pessoas.
Nesse sentido, são dilemas que precisam ser abordados com extrema transparência, mediante regulamentações precisas para que a população assine embaixo, mas sabendo exatamente o que está assinando.
Falta de precisão
Outra questão que perpassa esse debate é a falta de precisão dos algoritmos. Se a tecnologia pode ser usada em favor da segurança e da justiça, deve ser precisa. E não é o que acontece em muitos casos.
Como a programação parte de dados humanos, muitas vezes está pautada em um viés socialmente determinado, que, não raro, transparece preconceitos do nosso tempo. Quer um exemplo? Ao apurar o programa de reconhecimento facial da Amazon, a ONG estadunidense American Civil Liberties Union encontrou erros preocupantes.
A plataforma identificou erroneamente 28 membros do Congresso dos Estados Unidos como criminosos cadastrados em uma base de fotos públicas. O pior é que quase 40% dos nomes errados eram de pessoas negras. Algo desproporcional, já que apenas 20% dos congressistas norte-americanos são negros.
Outro erro foi apontado pelo Instituto de Tecnologia de Massachusetts: em 35% dos casos, determinados algoritmos usados para identificar o gênero com base no rosto classificaram mulheres de pele escura como homens.
Equívocos como esse ainda colocam em xeque a efetividade dos sistemas de reconhecimento facial para determinadas funções, como as de segurança. Até que se regulamente o processo e se atinja a máxima precisão possível, essas ferramentas deverão causar incômodo e dúvidas.
Fonte: Agência Brasil
O Estadão Summit Mobilidade Urbana 2021 será online e gratuito. Inscreva-se agora!