Algoritmos da desigualdade, por Luiz Henrique Lima

Aconteceu recentemente com uma pessoa amiga. Ao se apresentar para um exame de imagem previamente agendado, e devidamente solicitado por seu médico, teve a autorização negada pelo plano de saúde, embora suas mensalidades estivessem rigorosamente em dia. Quem negou não foi um outro médico, munido de critérios clínicos divergentes. Foi um algoritmo. Sem interação humana ou motivação fundamentada, o paciente foi compelido a horas de diálogo estéril com robôs de atendimento, exigindo-se até vídeos do médico assistente para justificar o pedido. Em uma emergência, o desfecho poderia ter sido fatal.

Este não é um caso isolado, mas um sintoma de uma “caixa-preta” digital. Há situações ainda mais graves: processos de recrutamento que descartam candidatos pelo CEP de residência — penalizando quem vive em áreas vulneráveis — ou algoritmos etaristas que eliminam currículos acima de 55 anos, ignorando a senioridade.

A obra Automating Inequality, de Virginia Eubanks,[i] é um alerta incômodo sobre o rumo das políticas públicas quando decisões sensíveis são delegadas a sistemas opacos. Eubanks demonstra que a tecnologia não é neutra; ela carrega vieses que, historicamente, punem os mais vulneráveis. No Brasil, essa preocupação é corroborada por Allan Carvalho,[ii]  que defende a necessidade de supervisão humana e auditorias independentes para mitigar o racismo e o sexismo algorítmico, e por Ana Lídia Lira Ribeiro,[iii] que destaca como a eficácia da Lei Geral de Proteção de Dados (LGPD)[iv] depende de uma fiscalização ativa contra a opacidade decisória.

Nesse sentido, Rafaela Vilela Gonçalves[v] ressalta que sistemas baseados em big data exigem governança ética e avaliação de impacto para não reproduzir injustiças. Diante desse cenário, torna‑se evidente que a busca pela justiça algorítmica não pode ser delegada à autorregulação das empresas de tecnologia. É indispensável que instituições públicas dotadas de independência e capacidade técnica — como os Tribunais de Contas e o Ministério Público — assumam protagonismo na fiscalização desses sistemas, especialmente quando utilizados na prestação de serviços essenciais.

Cabe aos Tribunais de Contas auditar os algoritmos empregados em políticas públicas e contratos administrativos, verificando a sua aderência aos princípios da transparência, proporcionalidade e não discriminação. Ao Ministério Público, compete zelar pelos direitos fundamentais, acionando o Judiciário sempre que a automação violar a dignidade humana. Somente com a atuação efetiva e coordenada dessas instituições garantiremos que a tecnologia sirva ao interesse público, e não à reprodução silenciosa das desigualdades que ela deveria ajudar a superar.

Luiz Henrique Lima é Conselheiro Substituto do TCE-MT e Vice-presidente de Controle Externo da Audicon.

O conteúdo do artigo reflete a opinião pessoal do seu autor.


[i] EUBANKS, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press, 2018.

[ii] CARVALHO, Allan. Viés algorítmico e discriminação: possíveis soluções regulatórias para o Brasil. 2020. Disponível em: <https://www.academia.edu>. Acesso em: 26 mar. 2026.

[iii] RIBEIRO, Ana Lídia Lira. Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios. 2023. Disponível em: https://repositorio.ufpb.br/ (repositorio.ufpb.br in Bing). Acesso em: 26 mar. 2026.

[iv] Lei nº 13.709/2018.

[v] GONÇALVES, Rafaela Vilela. Discriminação em algoritmos de inteligência artificial: estudo da LGPD como mecanismo de controle dos vieses discriminatórios. Revista Científica da UNIFENAS, v. 6, n. 8, 2024.