No atual cenário corporativo e jurídico, a inteligência artificial (IA) tornou-se um centro de atenção devido aos seus conflitos éticos. Usuários oportunistas estão utilizando a tecnologia para fabricar litígios, dando origem à chamada “litigância algorítmica”. De acordo com informações do ConJur, essa prática compromete a boa-fé objetiva, essencial nas relações contratuais e de consumo.
Conforme o Relatório CX Trends 2025 da Zendesk, 68% dos consumidores esperam respostas mais rápidas em serviços de atendimento, o que leva a uma saturação dos canais por reclamações sintéticas. Esta dinâmica resulta na geração automática de notificações, muitas vezes com “juridiquês” vazio, que estão sobrecarregando os sistemas judiciais.
Como a IA está afetando o sistema jurídico?
No Brasil, há um aumento notável nas petições “sintéticas”, repletas de citações fictícias de tribunais superiores. Segundo analistas, advogados usam a IA para otimizar tempo e aumentar a produtividade. Em resposta, o Tribunal de Justiça de Goiás desenvolveu uma ferramenta para identificar padrões repetitivos e combater a litigância predatória. Esta ferramenta representa um esforço para mitigar o impacto negativo do uso abusivo da IA no Judiciário.
A Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ) estabelece diretrizes sobre a responsabilidade do usuário da IA, impondo um “dever de revisão humana obrigatória”. Assim, a integridade das informações apresentadas é de responsabilidade única do indivíduo.
Como lidar com usos maliciosos da IA?
A “engenharia de prompt maliciosa” consiste em usuários induzirem erros nas respostas da IA, forçando o sistema a dar respostas equivocadas ou comprometedoras. Exemplos internacionais incluem casos como o da Chevrolet Watsonville e da Air Canada, que enfrentaram problemas jurídicos significativos. Tais práticas apontam para a necessidade de implementação rigorosa de políticas que identifiquem e combatam essas manipulações.
Empresas de tecnologia estão promovendo campanhas de “uso consciente de IA” para educar usuários sobre a importância da veracidade dos dados e da supervisão humana. Guia de boas práticas são desenvolvidos para ajudar a distinguir entre uso legítimo da IA e manipulações desonestas.
Quais os impactos em outras áreas?
A utilização imprópria da IA é perigosa em setores como a saúde, onde diagnósticos podem ser gerados sem validação profissional. Isso desafia o Código de Defesa do Consumidor ao eximir responsabilidade do fornecedor em caso de culpa exclusiva do consumidor. Assim, o uso negligente de IA pode resultar na perda de direito a indenizações.
Neste contexto, o desafio é preservar a integridade do sistema de Justiça, incentivando normas claras e colaboração entre Judiciário, reguladores e agentes privados. Ferramentas de triagem podem auxiliar na triagem de casos reais, garantindo que o acesso à tecnologia seja ético e eficaz.