[Coluna 5] Transparência Algorítmica: uma nova agenda de incidência

Um dos temas que a Transparência Brasil tem monitorado no último ano é o da Transparência Algorítmica [1]. De redes sociais, a mecanismos de busca, passando pelo nosso celular, o uso de Inteligência Artificial [2] é cada vez mais ubíquo em nossa sociedade. Mas e o seu uso pelo poder público? Quais as necessidades de transparência de algoritmos na esfera pública?

A demanda por mais transparência na utilização desses algoritmos envolve não apenas saber quais dados estão sendo coletados e compartilhados, mas também como eles são utilizados pelo poder público. Algoritmos também podem ser injustos e discriminatórios, e a comunidade de inteligência artificial tem acordado para esse problema.

Nos Estados Unidos, temos vários exemplos de localidades que têm avançado na discussão sobre transparência algorítmica. A cidade de Nova Iorque, por exemplo, criou uma força tarefa para avaliar e fazer recomendações sobre o uso de algoritmos pela prefeitura. Uma das conclusões desta força tarefa é que não está claro o que é um algoritmo que deve ser objeto de maior accountability, o que mostra como a questão é complexa e requer estudos adicionais.

O Legislativo do estado de Washington está debatendo uma lei de accountability algorítmica, com potencial impacto maior até do que a lei aprovada pela cidade de Nova Iorque. A legislação obrigaria, por exemplo, que sistemas automatizados utilizados pelo poder público fossem disponibilizados para auditoria, teste ou pesquisa livremente para agências independentes. E o estado de Idaho aprovou uma lei de transparência para ferramentas computadorizadas de avaliação de risco de crime. Esta lei garante o direito de acesso à informação sobre como a ferramenta foi desenhada e os dados utilizados para seu desenvolvimento.

E há casos também de cidades com amplo uso dessas ferramentas, mas sem legislação, e outra já proibindo sua utilização. A cidade de Los Angeles, por exemplo, usa algoritmos de forma bastante generalizada, chegando a fazer parcerias com empresas privadas para o compartilhamento de dados dos usuários com empresas de combate ao crime. E por lá não há previsão de lei de transparência algorítmica. Já a cidade de São Francisco, por outro lado, baniu em junho a utilização de ferramentas de reconhecimento facial pelo poder público municipal, além de ter estabelecido regras de prestação de contas no uso de tecnologias de vigilância.

A regulação da transparência dos algoritmos no Brasil

Aqui no Brasil a discussão é praticamente inexistente. Em julho deste ano, O Globo publicou reportagem apontando que a polícia do Rio usa um sistema de reconhecimento facial de imagens e classificou uma mulher como tendo 70% de probabilidade de ser uma foragida da justiça. Depois, constatou-se que a criminosa já se encontrava presa e houve um engano. Mas não sabemos muito mais sobre uso dessas tecnologias e ferramentas pelo poder público.

A título de curiosidade, eu fiz um pedido de acesso à informação para a Secretaria de Segurança Pública do estado de São Paulo para saber se o órgão utiliza algum tipo de algoritmo ou modelo estatístico, e a resposta foi negativa. De acordo com a secretaria, portanto, não se utiliza nem uma tecnologia como a empregada no estado do Rio de Janeiro. Por outro lado, o Metrô de São Paulo terá sistema de reconhecimento facial, aparentemente de modo similar o que a polícia do Rio está utilizando.

A legislação relevante existente no Brasil garante poucos direitos sobre o tema. As referências explícitas de que tenho notícia estão na nova Lei Geral de Proteção de Dados (LGPD) e no novo Decreto nº 9.936/2019, que regulamenta o cadastro positivo. A LGPD diz, em seu artigo 20: “O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. Similarmente, o Decreto 9.936/2019, em seu artigo 19, autoriza a revisão de decisão “realizada exclusivamente por meios automatizados”.

O problema desses artigos é que se restringem a casos em que foram utilizados exclusivamente o tratamento automatizado, o que é raro nos dias atuais. Além disso, como determinar se foi o caso, sem transparência de como o algoritmo é utilizado?

Como se vê, as discussões são complexas. E, como aconteceu com a proteção de dados pessoais, a temática chegará ao Brasil mais cedo ou mais tarde, com demanda para desenvolvimento de aparato regulatório relativamente complexo. Teremos de definir o que deve ser monitorado, até onde deverá ir a transparência, quais os direitos dos usuários e como garantir justiça e equidade na utilização dos algoritmos e Inteligência Artificial. Quanto antes iniciarmos essa discussão, melhor será para a sociedade brasileira.


Manoel Galdino
Diretor-executivo da Transparência Brasil

[1] O que é algoritmo?
Um algoritmo nada mais é que um conjunto de instruções ou passos a serem seguidos, especificando o que fazer para cada situação. Uma receita de bolo é um exemplo de algoritmo. Na ciência da computação, algoritmos são em geral instruções para o computador executar ações e não têm necessariamente relação com inteligência artificial.

[2] O que é Inteligência Artificial?
Não existe uma definição consensual de Inteligência Artificial (IA). Contudo, nos dias de hoje, os principais casos de sucesso de aplicação de inteligência artificial estão relacionados à aprendizagem de máquina, em que se utiliza grandes volumes de dados para se treinar algoritmos, para automatizar a realização de tarefas como reconhecimento de imagem, tradução etc.