A 9ª Turma do Tribunal Regional do Trabalho de Minas Gerais (TRT-MG) confirmou por unanimidade a condenação de um trabalhador por litigância de má-fé após seu advogado apresentar em juízo uma suposta súmula do Tribunal Superior do Trabalho (TST) que, na realidade, não existe. A decisão mantém a multa de R$ 1.200,00 aplicada na primeira instância, em sentença proferida pela Vara do Trabalho de Araçuaí.
A controvérsia surgiu após o advogado do trabalhador ter usado o texto da suposta súmula para tentar contestar o laudo de uma perícia médica. A argumentação, no entanto, foi rapidamente desmentida: o conteúdo atribuído ao TST não corresponde a nenhuma súmula oficial e, segundo o relator do caso, desembargador Weber Leite de Magalhães Pinto Filho, tudo indica que o material foi gerado por uma ferramenta de inteligência artificial.
IA usada como argumento jurídico falso
No recurso apresentado, o autor alegou que a citação incorreta se deu por “erro material”, sem intenção de enganar o juízo. Disse ainda que o uso de inteligência artificial generativa para redigir peças processuais seria legítimo e que a falha não gerou prejuízo à parte contrária.
Apesar disso, o relator rejeitou os argumentos. Para ele, não se tratava de um erro de citação, mas da criação de conteúdo inexistente, o que poderia levar o juiz a uma decisão baseada em informação falsa — caracterizando tentativa de indução em erro.
Segundo o desembargador, o uso de ferramentas de IA não exime o advogado de responsabilidade sobre o conteúdo apresentado, e a atuação no Judiciário exige o respeito ao princípio da probidade processual. A decisão foi embasada no artigo 793-B da Consolidação das Leis do Trabalho (CLT), que trata da litigância de má-fé.
Reflexo de um problema crescente
O caso, embora pontual, levanta uma discussão mais ampla sobre o uso irresponsável de IA generativa no sistema de Justiça. A prática de advogados recorrerem a ferramentas como ChatGPT, Bard e Gemini para elaborar petições, pareceres e peças tem se tornado cada vez mais comum — mas nem sempre com a devida checagem da veracidade das informações geradas.
Nos Estados Unidos, por exemplo, casos semelhantes já resultaram em sanções disciplinares contra advogados que inventaram jurisprudência ou decisões judiciais com base em conteúdo falso criado por IA. A preocupação com esse fenômeno levou tribunais e ordens de advogados em diversos países a emitirem alertas sobre o uso criterioso dessas ferramentas.
No Brasil, o Conselho Nacional de Justiça (CNJ) e a Ordem dos Advogados do Brasil (OAB) ainda não estabeleceram diretrizes específicas sobre o tema, mas o caso em Minas Gerais pode abrir caminho para discussões normativas mais rígidas sobre a adoção de IA em petições judiciais.


