Os dados ficarão guardados em um sistema que também faz parte dos serviços que devem ser contratados no pregão eletrônico marcado para a próxima terça-feira (23). A instalação da plataforma e dos novos equipamentos terá início após a assinatura do contrato com a empresa vencedora
Das 20 mil câmeras que devem ser instaladas na cidade, 1,5 mil devem ser colocadas no perímetro do projeto de intervenção urbana do setor central, segundo a prefeitura,. A área abrange especialmente o centro histórico, nos bairros da Sé e da República, mas também a região expandida dos distritos do Brás, Belém, Pari, Bom Retiro e Santa Cecília. Atualmente, a prefeitura tem, por meio da Companhia de Engenharia de Tráfego, 427 câmeras em toda a cidade.
O TCM havia suspendido o edital em dezembro do ano passado após receber seis representações em relação a concorrência. A licitação foi liberada no final de abril, após a prefeitura apresentar resposta a 35 pontos levantados durante a análise. Entretanto, segundo nota do tribunal, “durante os votos, os conselheiros demonstraram preocupação com o uso de algoritmos de inteligência artificial para reconhecimento facial, especialmente no que diz respeito à preservação dos direitos e liberdades individuais previstos na Constituição Federal”.
Na nova versão do edital, um dos itens determina que a empresa deverá apresentar um relatório de como reduzir os riscos em relação a análise dos dados coletados pelo sistema. Na matriz de riscos, anexa ao texto do pregão, é apontada a “alta probabilidade” de acesso não autorizado a dados pessoais.
De acordo com o documento, as medidas para conter esses riscos devem seguir as definições da Lei Geral de Proteção de Dados. O texto lembra ainda que “Brasil é um alvo constante de ataques cibernéticos” que podem levar a exposição das informações contidas no sistema.
As informações de reconhecimento facial que, de acordo com o edital, vão permitir identificar pessoas mesmo com o uso de barba, óculos ou diferentes cortes de cabelo, serão usadas para localizar foragidos da Justiça, em cruzamento de informações com outros órgãos, com o Secretaria de Estado da Segurança Pública de São Paulo. Pessoas consideradas suspeitas também poderão ser rastreadas pelas câmeras.
O TCM também questionou a prefeitura sobre os riscos da tecnologia violar os direitos de cidadãos, especialmente pessoas negras. A primeira versão do texto divulgado pela administração municipal dizia que o monitoramento seria feito a partir de características como “cor, face, roupas, forma do corpo/aspecto físico”. Na atual, o edital diz que serão usadas informações como “cor predominante das roupas, forma do corpo/aspecto físico e outras características”.
O edital aponta ainda como risco de “probabilidade alta” falhas na tecnologia de reconhecimento facial que podem levar a identificação errada de pessoas. Para reduzir esses problemas, o documento apresenta as recomendações de que sejam feitos testes regulares da inteligência artificial e treinamento para melhorar a precisão do sistema. Além disso, a empresa deverá ter políticas e procedimentos claros para lidar com casos desse tipo.
A vereadora Silvia da Bancada Feminista (PSOL) entrou com uma ação civil pública pedindo a suspensão do edital Smart Sampa afirmando que há risco de discriminação com uso da tecnologia de reconhecimento facial. “No Brasil, nas localidades em que essa tecnologia já foi testada, a apurou se que 90,5% das pessoas presas por meio da tecnologia do reconhecimento facial, eram negras”, afirma o texto que pede uma decisão liminar da Justiça de São Paulo contra o sistema.
No embasamento da ação, o mandato destaca ainda que mesmo no relatório do TCM que analisou o edital parece haver pouca preocupação com o tema. “Não há em todo o relatório sequer a menção a palavra raça, e qualquer derivado do radical discriminação aparece somente uma vez, totalmente en passant”, acrescentou.
Em janeiro, o promotor estadual Reynaldo Mapelli Junior instaurou inquérito para apurar o risco de discriminação com uso da tecnologia, especialmente a pessoas em situação de rua.
Em um estudo lançado em 2018, as pesquisadoras Joy Buolamwini, do Instituto de Tecnologia do Massachusetts (MIT), e Timnit Gebru, à época na Microsoft, identificaram que as tecnologias de reconhecimento facial chegavam a ter um índice de erro de 34,7% ao tentar identificar mulheres de pele escura. Entre os homens de pele clara, o percentual, segundo o estudo, era de 0,8%.
Em julho de 2019, uma mulher foi detida por engano na cidade do Rio de Janeiro ao ser identificada pela tecnologia de reconhecimento facial como foragida da Justiça. O caso é mencionado no relatório “Mais câmeras, mais segurança?”, lançado pelo Instituto Igarapé em 2020, analisando as experiências de uso de câmeras associadas a inteligência artificial em Salvador (BA), Campinas (SP) e no Rio de Janeiro.
O estudo alerta para os riscos das identificações erradas, caso a programação não seja feita a partir de uma base de dados diversa de rostos, e de vazamento de dados pessoais. “A possibilidade de prisões e/ou detenções injustas e de perpetuação de práticas discriminatórias é um risco real e iminente”, enfatiza a pesquisa.