O uso de inteligência artificial no contexto jurídico ganhou um novo capítulo com decisão proferida pela 3ª Vara do Trabalho de Parauapebas, no Pará, em processo trabalhista no qual foi identificada a inserção de comando oculto em petição.
Ao processar o documento por meio do Galileu, ferramenta de inteligência artificial desenvolvida pelo Tribunal Regional do Trabalho da 4ª Região e nacionalizada pelo Conselho Superior da Justiça do Trabalho, o sistema detectou trechos não visíveis ao leitor humano, inseridos em fonte branca sobre fundo branco. O conteúdo oculto era direcionado à própria inteligência artificial e buscava induzir eventual resposta superficial à petição, sem impugnação dos documentos apresentados.
Prompt Injection
No ambiente tecnológico, prompt injection é a inserção de instruções ocultas, maliciosas ou não autorizadas em conteúdos que serão processados por sistemas de inteligência artificial. A finalidade é interferir no comportamento do modelo, contornar comandos anteriores ou direcionar o resultado gerado pela ferramenta.
Esse tipo de vulnerabilidade ganha relevância em ambientes nos quais documentos, e-mails, arquivos em PDF e peças processuais podem ser lidos tanto por pessoas quanto por sistemas automatizados de apoio à análise, pesquisa ou elaboração de documentos. Nesses casos, informações invisíveis, ou pouco perceptíveis ao usuário, podem ser interpretadas pela ferramenta de IA como instruções válidas, com potencial de comprometer a integridade do resultado.
A Decisão Judicial
No caso concreto, o magistrado entendeu que a conduta não poderia ser tratada como mera irregularidade processual. A sentença registrou que a inserção do comando oculto poderia afetar a credibilidade das ferramentas institucionais de IA e a integridade da atividade jurisdicional.
A multa foi fixada em 10% sobre o valor da causa, totalizando aproximadamente R$ 84 mil, e direcionada às advogadas subscritoras da petição, sem imputação de responsabilidade ao trabalhador representado. Também foi determinado o envio de ofício à Ordem dos Advogados do Brasil para ciência e eventual apuração disciplinar.
As advogadas, por sua vez, manifestaram discordância em relação à decisão e afirmaram, conforme noticiado, que o comando não teria sido destinado a manipular a atuação do magistrado ou de servidores, mas a proteger o cliente diante de eventual uso de IA pela parte contrária.
Segurança, Governança e Revisão Humana
De acordo com informações divulgadas sobre o caso, o Galileu identificou a anomalia, emitiu alerta ao usuário e impediu que o conteúdo oculto fosse processado pela ferramenta.
O episódio evidencia a importância de mecanismos de segurança tanto no desenvolvimento quanto na utilização de ferramentas de IA, especialmente em contextos de maior impacto sobre direitos fundamentais. Os princípios gerais de governança (Mapeamento de riscos, Mensuração e Gerenciamento) devem estar sempre presentes e em constante atualização diante do dinâmico cenário tecnológico.
Considerações Finais
O caso se insere em um movimento mais amplo de amadurecimento da governança de inteligência artificial no Judiciário e no mercado jurídico. À medida que sistemas de IA passam a interagir com documentos processuais, a integridade do conteúdo digital, a transparência no uso da tecnologia e a preservação da boa-fé processual tornam-se elementos centrais para a confiança nas ferramentas e nos resultados produzidos.
Organizações e profissionais que atuam com tecnologia, contencioso e gestão de documentos devem acompanhar de perto a evolução do tema, avaliando medidas preventivas para reduzir riscos operacionais, reputacionais e regulatórios. A Avaliação de Impacto Algorítmico (documento de conformidade citado tanto no EU AI Act quanto no PL/2338 do Brasil), se apresenta como grande aliado para um mapeamento eficaz de riscos em ferramentas de Inteligência Artificial.
A equipe de Tecnologia e Inovação permanece à disposição para esclarecer dúvidas e apoiar na adequação às melhores práticas regulatórias e de mercado.