O problema: decisões sem rosto
Imagine a cena: você chega ao aeroporto após uma viagem internacional. Passa pela imigração, pega sua mala e caminha em direção à saída. De repente, um agente da Receita Federal te para.
"Por favor, acompanhe-me para inspeção."
Você pergunta por quê. O agente responde: "O sistema indicou."
Que sistema? Quais critérios? Por que você e não a pessoa ao seu lado? Ninguém sabe explicar. Ou, pior, sabem mas não podem dizer.
Essa situação já acontece hoje, em aeroportos brasileiros. A Receita Federal usa inteligência artificial com reconhecimento facial para decidir quais passageiros devem ser fiscalizados. Câmeras identificam você, cruzam dados — dias no exterior, peso da bagagem, gastos no cartão, declaração de bens — e o algoritmo sugere: "pare este".
O problema não é a tecnologia. É a opacidade.
O que é devido processo legal (e por que ele importa)
Ao longo de séculos, a humanidade construiu mecanismos para limitar o arbítrio de quem exerce poder. Quando o Estado pode afetar sua liberdade, sua propriedade ou seus direitos, existem garantias que você pode invocar:
- Motivação: toda decisão precisa ter fundamento explícito
- Contraditório: você pode apresentar sua versão dos fatos
- Ampla defesa: você pode produzir provas e argumentos
- Recurso: você pode pedir revisão por instância superior
- Publicidade: você tem direito de saber as regras do jogo
Essas garantias formam o devido processo legal — um princípio constitucional que existe para evitar que autoridades ajam de forma arbitrária.
O detalhe crucial: todas essas garantias foram criadas para controlar humanos.
Juízes, fiscais, policiais, servidores públicos. Pessoas que podem explicar suas razões, ser questionadas, mudar de ideia diante de novos argumentos.
E quando quem decide é uma máquina?
O novo desafio: algoritmos no exercício do poder
Como observa Hugo de Brito Machado Segundo, professor e jurista:
"Algoritmos não são necessariamente neutros, e são falíveis. A questão é: como submetê-los ao devido processo legal? Os institutos criados para limitar o arbítrio humano podem não ser inteiramente adequados ao controle do poder quando exercido por sistemas de inteligência artificial."
O ponto é preciso. Não se trata de ser contra a tecnologia — ela pode ser mais eficiente e até mais justa que humanos em muitos contextos. A questão é: como garantir controle sobre decisões algorítmicas que afetam direitos fundamentais?
Considere alguns exemplos atuais:
Crédito: Bancos usam algoritmos para aprovar ou negar empréstimos. Se você for negado, tem direito a saber por quê. Mas o banco diz que o modelo é "proprietário" e não pode revelar os critérios.
Benefícios sociais: Sistemas automatizados decidem quem recebe auxílio emergencial, aposentadoria, benefícios de saúde. Milhões de pessoas afetadas por decisões que não conseguem compreender.
Saúde: Algoritmos priorizam pacientes para tratamento. Quem deve ser atendido primeiro? A IA decide com base em critérios que nem os médicos conhecem totalmente.
Judiciário: Tribunais usam IA para triagem de processos, sugestão de decisões, cálculo de penas. O juiz pode discordar, mas quantos realmente revisam cada sugestão do sistema?
Em todos esses casos, a mesma pergunta: quando o algoritmo erra, como você contesta?
O argumento do sigilo (e por que não funciona)
Defensores da opacidade algorítmica costumam argumentar: "Se revelarmos os critérios, as pessoas vão burlar o sistema."
O argumento parece razoável à primeira vista. Se você sabe exatamente o que a Receita Federal procura, pode esconder melhor suas compras. Se sabe o que o banco considera, pode manipular seu perfil.
Mas, como aponta Machado Segundo, esse raciocínio poderia justificar o fim de garantias fundamentais:
"O mesmo argumento poderia afastar a irretroatividade das leis, a legalidade e a publicidade dos atos administrativos. O planejamento tributário existe justamente porque as regras são conhecidas. É um preço baixo a pagar pela contenção do arbítrio."
Conhecer as regras do jogo não é bug — é feature. É o que permite que cidadãos se planejem, se defendam e confiem nas instituições.
Além disso, no caso do Judiciário, o argumento sequer se aplica. Não há razão para manter em sigilo os critérios que um tribunal usa para triar recursos ou sugerir decisões. A publicidade é da essência da função jurisdicional.
O problema do machine learning
Há ainda outro argumento: "Nem nós sabemos como o algoritmo decide."
Em sistemas de machine learning, a máquina constrói seus próprios critérios com base em experiências. O programador define o objetivo ("identificar passageiros suspeitos") e fornece dados de treinamento, mas o modelo desenvolve padrões que nem seu criador consegue explicar completamente.
É a famosa caixa-preta.
Isso impede a transparência? Não necessariamente.
Mesmo que os critérios não possam ser conhecidos antes da decisão, eles podem ser revelados depois. O sistema pode (e deve) manter um registro — um log — dos parâmetros que utilizou em cada caso específico.
É análogo ao que exigimos de juízes humanos: não conhecemos os processos neuronais em seu cérebro, mas exigimos que apresentem fundamentos para suas decisões. O que não se admite é a resposta "foi o sistema que decidiu, ponto final".
O que a lei brasileira já exige
A LGPD (Lei Geral de Proteção de Dados) trouxe avanços importantes:
Artigo 20: O titular tem direito a solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado que afetem seus interesses. E o controlador deve fornecer "informações claras e adequadas sobre os critérios e procedimentos utilizados".
Artigo 23: Quando o poder público usa dados pessoais, deve informar "a previsão legal, a finalidade, os procedimentos e as práticas utilizadas, em veículos de fácil acesso".
A lei existe. A implementação é outra história.
Quantas empresas estão realmente preparadas para explicar, de forma compreensível, por que seu algoritmo tomou determinada decisão sobre você?
O caminho: devido processo legal tecnológico
Não se trata de abandonar a tecnologia, mas de adaptá-la às exigências do Estado de Direito. Algumas propostas concretas:
1. Transparência inteligível
Não basta jogar dados em um relatório técnico. A informação precisa ser compreensível para o cidadão comum. Se você foi negado em um crédito, tem direito a saber, em linguagem clara, quais fatores pesaram contra você.
2. Explicabilidade sob demanda
Todo sistema de IA que toma decisões com impacto significativo deve ser capaz de gerar uma explicação individualizada. "Por que EU fui selecionado para fiscalização?" deve ter uma resposta.
3. Logs auditáveis
Mesmo em machine learning, o sistema deve registrar os parâmetros usados em cada decisão. Isso permite revisão posterior — seja pelo próprio interessado, seja por órgãos de controle.
4. Comitês de supervisão
Antes de implementar IA em decisões críticas, especialistas de áreas diversas (Direito, Computação, Ética) devem testar o sistema, submetendo-o a situações extremas para identificar vieses e falhas.
5. Direito efetivo de recurso
Não adianta ter direito teórico a contestar se, na prática, a resposta é "o sistema decidiu assim". Deve haver mecanismo real de revisão humana para quem discorda da decisão algorítmica.
Conclusão: a tecnologia a serviço do direito, não o contrário
A inteligência artificial pode tornar decisões mais rápidas, consistentes e até mais justas. Mas ela não está acima da lei. E a lei existe para proteger pessoas de decisões arbitrárias — venham elas de humanos ou de máquinas.
O devido processo legal não é um obstáculo à inovação. É a garantia de que a inovação servirá às pessoas, e não o contrário.
Como bem resume Machado Segundo:
"O uso de algoritmos para instrumentalizar o exercício do poder não está imune a problemas e excessos. As instituições jurídicas atuais podem não ser adequadas ou suficientes para controlá-los. Tal como se deu ao longo de séculos com instituições criadas para conter o arbítrio humano, apenas o tempo e os problemas que surgirem permitirão encontrar as melhores soluções para um 'devido processo legal tecnológico'."
A construção começa agora.
Sua empresa usa IA para tomar decisões que afetam clientes, funcionários ou parceiros?
Você sabe explicar como essas decisões são tomadas? Está preparado para a LGPD e para as exigências de transparência que vêm por aí?
Se a resposta for "não sei" ou "talvez não", é hora de conversar sobre governança de IA.
#GovernançaIA #DevidoProcessoLegal #LGPD #InteligênciaArtificial #Compliance #DireitoDigital
Comentários
Participe da conversa. Respeito e cordialidade acima de tudo.