JusPod: Fredie Didier explica como a Inteligência Artificial facilita a litigância predatória
A inteligência artificial tem transformado práticas profissionais em todo o mundo e o direito não ficou de fora. No entanto, enquanto muitos exaltam os ganhos em produtividade e precisão, o jurista Fredie Didier, em participação no JusPod - podcast jurídico do Bahia Notícias -, nesta quarta-feira (23), alertou para como o uso da IA tem facilitado a litigância predatória, uma prática abusiva que ameaça sobrecarregar o judiciário e comprometer a justiça.
A litigância predatória, também chamada de litigância abusiva, é um fenômeno distinto da litigância de má-fé tradicional. Segundo Didier, a má-fé é um problema antigo e já previsto no Código de Processo Civil. A litigância predatória, por outro lado, é “uma litigância volumosa e ilícita”, caracterizada pelo uso estratégico de um grande número de processos com o objetivo de explorar falhas no sistema judicial ou obter ganhos indevidos.
“A litigância abusiva é como uma nuvem de gafanhotos”, compara Didier. “Não é um caso isolado de má-fé, mas uma estratégia pensada para predar, comprometer o judiciário, dificultar a defesa do réu e até prejudicar concorrentes no mercado.”
Fredie Didier | Foto: Reprodução / Youtube / JusPod
O uso da IA agrava esse cenário. De acordo com Didier, ferramentas de IA são capazes de gerar petições em massa com base em modelos previamente alimentados, permitindo a replicação de ações judiciais praticamente com um clique. “Você joga o documento que precisa, um Ctrl+C e Ctrl+V da situação jurídica... A IA adapta aquela peça trinta mil vezes. Isso facilita demais a litigância abusiva”, afirma.
O jurista relata ter identificado casos em que a IA gerou textos com menções a artigos de lei e jurisprudência inexistente. “É preciso cuidado. Não se trata apenas de facilitar o trabalho, mas de evitar o mau uso da ferramenta.”
Apesar dos riscos, Didier destaca que a inteligência artificial também pode ser aliada na prevenção da litigância abusiva. Ele menciona iniciativas como a recomendação 159 do Conselho Nacional de Justiça (CNJ), que orienta tribunais a adotar mecanismos de análise de dados e sistemas de monitoramento para detectar padrões abusivos.
“Hoje temos painéis integrados e cruzamento de bases de dados, que permitem identificar grandes volumes de demandas concentradas”, exemplifica.
Didier afirma que não há retorno possível, pois a IA veio para ficar. Ele diz que é preciso tratá-la como uma ferramenta, como um martelo ou um serrote, que pode tanto construir quanto ferir. “O mau uso da ferramenta pode gerar consequências ruins. Mas a ferramenta está lá. O lápis que ajuda a escrever, também pode matar. É uma questão de uso ético e responsável.”