Sociedade da Vigilância: Reconhecimento facial e Proteção de Dados Pessoais
23 de julho de 2019Os sistemas de reconhecimento facial são cada vez mais utilizados para diferentes serviços. Desbloqueio de smartphones, carros autônomos, formas de pagamento (China), vigilância policial, vigilância privada para segurança, câmeras de trânsito, marcação em fotos e posts em mídias sociais, embarque em aeronaves, dentre outros exemplos que poderiam ser citados. Parece um sonho, onde basta um sorriso para que muitos serviços estejam a nossa disposição, em um mundo seguro e confiável.
Por Marcelo Chiavassa de Mello*
Recentemente, foi noticiado que o estado de São Paulo pretende adotar a tecnologia de reconhecimento fácil nas linhas de metrô; além disso, em outros estados da Federação, a polícia já usa o sistema na tentativa de identificar criminosos.
Também podemos lembrar do sistema de reconhecimento facial da linha Amarela (Linha 4) do Metrô de SP, que acabou na Justiça, por violação da privacidade dos usuários.
A privacidade é, sim, o principal fundamento para que esse sistema não seja muito bem visto por muitos. É graças ao reconhecimento facial que Estados não democráticos estão criando sistemas de “score” social (China, por exemplo), baseado no comportamento dos cidadãos – monitorados o tempo todo, de forma quase ininterrupta (sobre a vigilância incessante, Londres leva isso a outro patamar, para não falarmos dos EUA e do caso Edward Snowden).
Além da violação da privacidade e, principalmente, da necessária adequação da utilização desta tecnologia às bases legais de coleta e tratamento de dados pessoais previstas na legislação brasileira (Lei nº 13.709/2018), outra questão merece profunda análise.
No meio dessa onda de “disrupção” e de “inovação desenfreada”, o fato é que o sistema de reconhecimento fácil é absurdamente falho.
Falho a ponto de ter sido recentemente banido na cidade de São Francisco/EUA (coração do Vale do Silício e sede das mais famosas empresas de tecnologia do mundo).
O motivo do banimento foi a privacidade (do receio com um Estado opressivo, na linha do que vem acontecendo na China), mas também o seu mau funcionamento e baixa confiabilidade, já comprovados em diversos estudos ao redor do mundo.
O Rio de Janeiro – que adotou tal sistema – já sentiu isso na pele. Logo no segundo dia de funcionamento, uma mulher foi detida pela Polícia Militar e depois descobriu-se que havia sido falha do sistema de reconhecimento facial.
A mesmíssima coisa (falha no reconhecimento) ocorreu em Nova York, conforme relatado pelo The Wall Street Journal. Em Londres, um estudo sugere que o sistema falhe em 80% das vezes.
O jornal inglês The Independent produziu uma matéria em abril de 2019 apontando que o carro autônomo tem maior probabilidade de atropelarem negros do que brancos, na medida em que o sistema de reconhecimento facial não identificava satisfatoriamente que negros eram pessoas.
Podemos lembrar, ainda, do sistema do Google Fotos que acabou identificando uma pessoa negra como sendo um gorila. Trágico e deprimente.
A BBC, em maio de 2019, chegou a reportar que o uso de sistemas de reconhecimento facial é perigosamente irresponsável. Infelizmente, um sistema absurdamente falho e problemático está ganhando cada vez mais espaço no Brasil, colocado em risco a população, seja em relação à falha do reconhecimento fácil, seja em relação à vigilância constante e opressora, seja, por fim, em relação à utilização dos dados coletados (e sua provável inadequação com a Lei Geral de Proteção de Dados Pessoais).
*Marcelo Chiavassa de Mello Paula Lima – Professor de Direito Civil, Direito Digital e Direito da Inovação da Universidade Presbiteriana Mackenzie
Sobre o Mackenzie
A Universidade Presbiteriana Mackenzie está entre as 100 melhores instituições de ensino da América Latina, segunda a pesquisa QS Quacquarelli Symonds University Rankings, uma organização internacional de pesquisa educacional, que avalia o desempenho de instituições de ensino médio, superior e pós-graduação.