Em março de 2025, o Conselho Nacional de Justiça publicou a Resolução 615, substituindo a antiga 332/2020 e estabelecendo o novo marco regulatório para uso de inteligência artificial no Poder Judiciário brasileiro.
A atualização era necessária. A resolução anterior foi escrita num mundo pré-ChatGPT, quando "inteligência artificial" no Judiciário significava sistemas de classificação de processos e automação de tarefas repetitivas. Desde novembro de 2022, com a explosão dos grandes modelos de linguagem, magistrados passaram a usar ferramentas como ChatGPT e Claude para auxiliar na redação de decisões — e a regulamentação precisava alcançar essa realidade.
A nova resolução não proíbe o uso de IA generativa. Pelo contrário: ela reconhece seu potencial e estabelece as condições para um uso seguro, ético e transparente. Mas as implicações variam significativamente dependendo de quem você é no ecossistema judiciário.
O que a resolução estabelece
Antes de entrar nas especificidades por público, vale entender a estrutura geral.
Princípios fundamentais
A resolução estabelece que todo uso de IA no Judiciário deve observar:
- Supervisão humana efetiva em todas as etapas
- Transparência, explicabilidade e auditabilidade
- Respeito aos direitos fundamentais
- Não-discriminação
- Devido processo legal
- Capacitação contínua dos usuários
Classificação de riscos
Inspirada no AI Act europeu, a resolução divide os sistemas de IA em duas categorias:
Alto risco: Sistemas que podem influenciar diretamente o mérito de decisões judiciais. Exemplos: análise de padrões comportamentais, valoração de provas, tipificação de crimes, juízos conclusivos sobre aplicação de normas.
Baixo risco: Sistemas que desempenham funções acessórias. Exemplos: classificação de processos, transcrição de áudio, sumarização de documentos, detecção de precedentes, produção de textos de apoio.
Vedações absolutas
Alguns usos são expressamente proibidos:
- Sistemas que não permitem revisão humana ou geram dependência absoluta
- Valoração de traços de personalidade para prever crimes ou reincidência
- Classificação de pessoas para avaliar plausibilidade de direitos ou testemunhos
- Reconhecimento biométrico para identificar emoções
Para Magistrados: O que muda na prática
Pode usar ChatGPT para redigir decisões?
Sim, com condições.
O artigo 19 da resolução autoriza expressamente o uso de "modelos de linguagem de larga escala (LLMs) e outros sistemas de inteligência artificial generativa" como "ferramentas de auxílio à gestão ou de apoio à decisão".
Mas há ressalvas importantes:
O uso deve ser auxiliar e complementar. A resolução veda expressamente "a utilização como instrumento autônomo de tomada de decisões judiciais sem a devida orientação, interpretação, verificação e revisão por parte do magistrado".
O magistrado permanece integralmente responsável. Não importa se a IA escreveu o primeiro rascunho — a responsabilidade pelo conteúdo final é do juiz, sem exceções.
Capacitação é obrigatória. Magistrados que usarem essas ferramentas devem realizar treinamentos específicos sobre "melhores práticas, limitações, riscos, e uso ético, responsável e eficiente".
Posso usar minha conta pessoal de ChatGPT?
Sim, quando o tribunal não oferece solução corporativa.
O parágrafo 2º do artigo 19 permite a "contratação direta de solução mediante assinatura ou cadastro de natureza privada" — ou seja, você pode usar sua conta pessoal de ChatGPT Plus ou Claude Pro para trabalho.
Mas há limites:
Dados sigilosos não podem ser processados em ferramentas externas, salvo quando devidamente anonimizados ou com mecanismos técnicos que garantam proteção.
Não pode usar para finalidades de alto risco. Se você está valorando provas ou tipificando condutas, não pode delegar para o ChatGPT.
Deve informar ao tribunal. Se você contrata solução de mercado para uso em suas atividades, deve prestar informações ao tribunal sobre essa utilização.
Preciso declarar quando uso IA?
Parcialmente.
Mencionar no corpo da decisão que IA generativa auxiliou na redação é opcional, a critério do magistrado. Mas o registro no sistema interno do tribunal é obrigatório — para fins de estatísticas, monitoramento e eventual auditoria.
Ou seja: você não precisa escrever "esta decisão foi auxiliada por IA", mas o sistema vai registrar automaticamente quando isso acontecer.
O risco das alucinações
A resolução reconhece expressamente o problema das "alucinações" — quando a IA gera informações incorretas ou sem fundamento. Por isso, a supervisão humana é enfatizada especialmente para "evitar dois tipos de problemas recorrentes: falhas técnicas e alucinações".
O caso Mata v. Avianca (2023), em que advogados americanos foram sancionados por citar casos fictícios fabricados pelo ChatGPT, é um alerta permanente. Se um juiz incluir em decisão uma citação falsa gerada por IA, a responsabilidade é integralmente sua.
Recomendação prática: Nunca confie em citações, jurisprudência ou estatísticas geradas por IA sem verificar na fonte primária.
Para Advogados: Novos direitos e oportunidades
Acesso a informações
A resolução garante à advocacia acesso aos relatórios de auditoria e monitoramento dos sistemas de IA utilizados pelo Judiciário (artigo 12, VIII). Isso significa que você pode solicitar informações sobre como um sistema específico funciona, quais dados utiliza e quais resultados produz.
Além disso, havendo "notícia ou indícios de violação a direitos fundamentais", a OAB (e outras entidades legitimadas) pode peticionar ao Comitê Nacional de IA para que seja avaliada a necessidade de auditorias (artigo 5º, §3º).
Participação no Comitê
A OAB tem dois representantes no Comitê Nacional de Inteligência Artificial do Judiciário. Eles têm direito a voz (podem participar das discussões), embora não tenham voto nas deliberações. É um canal direto para a advocacia influenciar a regulamentação.
Contestabilidade
A resolução estabelece a "contestabilidade" como princípio: a possibilidade de questionamento e revisão dos resultados gerados pela IA. Se uma decisão foi influenciada por sistema de IA que apresenta viés ou erro, você tem fundamento normativo para contestar.
Argumentos para petições
A resolução oferece base para diversos argumentos:
Artigo 5º: Se um sistema de IA viola direitos fundamentais do seu cliente, você pode exigir sua suspensão ou correção.
Artigo 8º: Se houver viés discriminatório, a resolução determina medidas corretivas — incluindo suspensão temporária ou eliminação definitiva da solução.
Artigo 10: Se o tribunal está usando sistema expressamente vedado (ex: avaliação de personalidade para prever reincidência), você tem fundamento para questionar.
O outro lado: advogados também usam IA
A resolução foca no Judiciário, mas o recado vale para todos. Se você usa IA para redigir petições, pesquisar jurisprudência ou preparar argumentos, as mesmas precauções se aplicam: verifique citações, não confie cegamente, mantenha supervisão humana.
O caso Mata v. Avianca aconteceu com advogados, não com juízes.
Para TI de Tribunais: Checklist de adequação
A resolução traz obrigações significativas para as áreas de tecnologia.
Cadastro obrigatório
Todo sistema de IA deve ser cadastrado na plataforma Sinapses (artigo 23). Isso inclui:
- Descrição do sistema
- Finalidade
- Classificação de risco
- Responsáveis
- Métricas de desempenho
Avaliação de risco
Antes de colocar em produção, cada sistema deve passar por avaliação que classifique seu grau de risco. Para sistemas de alto risco, é obrigatória uma avaliação de impacto algorítmico mais detalhada.
Governança técnica
O artigo 12 lista requisitos de governança:
- Transparência: Relatórios públicos sobre funcionamento, finalidades, dados utilizados
- Prevenção de vieses: Monitoramento contínuo com análise de resultados
- Comitês internos: Pessoas responsáveis pela fiscalização
- Interoperabilidade: Soluções que possam ser compartilhadas entre tribunais
- Gestão de produto: Requisitos, desenvolvimento, testes, implementação, suporte
- APIs: Comunicação com sistemas de outras instituições
Documentação
Para sistemas de alto risco, é obrigatório:
- Documentação em linguagem simples do funcionamento
- Registro de fontes de dados e supervisão humana
- Indicação clara de objetivos e resultados pretendidos
- Ferramentas de log automático da operação
Eventos adversos
Qualquer incidente que resulte em impactos negativos deve ser comunicado ao Comitê Nacional em até 72 horas, com descrição do problema, causas e medidas adotadas.
Prazo
Os tribunais têm 12 meses a partir da publicação para adequar sistemas existentes. O relógio está correndo.
Checklist prático
- [ ] Mapear todos os sistemas de IA em uso
- [ ] Classificar cada um por nível de risco
- [ ] Cadastrar no Sinapses
- [ ] Documentar funcionamento em linguagem acessível
- [ ] Implementar logs de operação
- [ ] Criar processo de monitoramento de vieses
- [ ] Estabelecer comitê interno de governança
- [ ] Treinar equipe sobre a resolução
- [ ] Definir canal para comunicação de eventos adversos
- [ ] Revisar contratos com fornecedores de IA
O Comitê Nacional: Quem decide o quê
A resolução cria o Comitê Nacional de Inteligência Artificial do Judiciário, com 14 membros titulares de composição plural: CNJ, tribunais, escolas da magistratura, OAB, Ministério Público, Defensoria Pública e sociedade civil.
O Comitê é responsável por:
- Atualizar a classificação de riscos
- Reclassificar sistemas específicos
- Avaliar uso de soluções comerciais de IA
- Definir periodicidade de auditorias
- Publicar relatório anual sobre o estado da IA no Judiciário
É, na prática, o órgão que vai operacionalizar a resolução — interpretando casos duvidosos, atualizando regras conforme a tecnologia evolui e fiscalizando a implementação pelos tribunais.
O que não muda
Algumas coisas permanecem constantes:
O juiz decide. IA é ferramenta, não substituto. A decisão final, a responsabilidade, o julgamento de mérito — tudo permanece humano.
Direitos fundamentais prevalecem. Qualquer uso de IA que viole direitos constitucionais é inválido, independente de regulamentação específica.
Transparência é obrigatória. Não existe mais espaço para "caixas-pretas" que ninguém entende ou supervisiona.
Por que isso importa
A Resolução 615/2025 não é apenas regulamentação técnica. É uma declaração de princípios sobre como o Judiciário brasileiro pretende incorporar inteligência artificial.
A abordagem é equilibrada: reconhece o potencial transformador da tecnologia sem abrir mão de garantias fundamentais. Permite inovação, mas exige supervisão. Aceita ferramentas comerciais, mas impõe condições.
O resultado dependerá da implementação. Regulamentação no papel não significa prática no dia a dia. Os próximos 12 meses — período de adequação — serão cruciais para definir se a resolução será marco real ou letra morta.
Para quem atua no sistema de justiça, o recado é claro: IA veio para ficar, mas sob supervisão humana, com transparência e responsabilidade. Quem entender isso primeiro terá vantagem — seja juiz, advogado ou gestor de TI.
Este artigo faz parte de uma série sobre Governança de IA. Acompanhe para mais análises sobre frameworks, regulação e ética em inteligência artificial.
Referências:
- BRASIL. Conselho Nacional de Justiça. Resolução nº 615, de 11 de março de 2025.
- BRASIL. Conselho Nacional de Justiça. Resolução nº 332/2020 (revogada).
- BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados).
- Sotto Maior & Nagel Advogados. "CNJ Publica Resolução nº 615/2025." Disponível em: smnadv.com.br
- Meu Site Jurídico/Juspodivm. "Inteligência Artificial no Judiciário: a Resolução 615/2025." Maio/2025.
Comentários
Participe da conversa. Respeito e cordialidade acima de tudo.