Supremo Tribunal multa peticionários por se basearem em decisões falsas geradas por IA em petições legais

O Supremo Tribunal de Israel rejeitou, no último fim de semana, uma petição que fazia referência a precedentes legais inexistentes gerados por inteligência artificial. Além de descartar a ação, o tribunal condenou o peticionário ao pagamento de 7.000 shekels em custas judiciais, aproximando-se de US$1.900.

Este episódio marca o segundo caso, em apenas uma semana, em que a corte enfrentou o uso indevido de ferramentas de IA em petições. O juiz Noam Sohlberg alertou que esse comportamento pode indicar uma tendência preocupante no meio jurídico.

Em seu despacho, Sohlberg destacou que “essa ferramenta detém um grande potencial, mas seus riscos devem ser evitados. Devemos abraçar sua essência e descartar sua casca. Enquanto o tribunal tem demonstrado paciência diante da novidade, essa paciência não é ilimitada.” A partir de agora, os profissionais do direito serão totalmente responsáveis por eventuais erros decorrentes do uso de IA e deverão adotar máxima cautela ao elaborar suas petições.

A petição, apresentada em janeiro por uma ONG israelense de defesa dos direitos dos animais contra o Ministério da Agricultura, pedia que o ministério justificasse a decisão de prorrogar uma regulamentação temporária que autorizava a eutanásia de cães vadios. Essa regulamentação, criada inicialmente devido ao grande número de cães estrangeiros que entraram no país a partir de Gaza após o ataque de 7 de outubro e a consequente destruição da cerca de fronteira, foi estendida por mais um ano. A ONG argumentava que a prorrogação era desproporcional e violava as leis de proteção animal em Israel, apresentando, ainda, soluções alternativas para o problema.

Durante o andamento do processo, verificou-se que o peticionário havia citado precedentes judiciais que não existem nos registros oficiais do país. O juiz Sohlberg ressaltou que “o peticionário foi instado a responder unicamente a essa questão grave e a fornecer cópias de todas as decisões referenciadas na petição.” Sem apresentar qualquer justificativa ou os documentos solicitados, a ação foi prontamente rejeitada.

A organização também solicitou que a corte não impusesse as custas processuais, alegando dificuldades financeiras. No entanto, Sohlberg rejeitou o pedido, afirmando que “o peticionário não apresentou fontes legais que sustentassem seu caso, o que leva a um único desfecho.”

O magistrado enfatizou que “as cortes não podem aceitar petições contendo afirmações falsas, incluindo referências a fontes legais inexistentes. Embora as ferramentas de IA ofereçam inegáveis benefícios, seu uso inadequado pode gerar falhas graves no conteúdo jurídico submetido.” Segundo ele, o tribunal não fará distinção entre desinformação gerada por IA e outras formas de engano, ressaltando que os peticionários devem comparecer ao tribunal “com mãos limpas e intenção honesta.”

Recorda-se que, em um caso anterior, uma advogada envolvida em uma disputa de divórcio citou decisões judiciais fabricadas por IA. Na ocasião, a corte procedeu à análise do mérito do processo para proteger a parte demandante, mas rejeitou as alegações baseadas nas referências jurídicas não confiáveis. No presente caso, o colegiado formado pelos juízes Sohlberg, David Mintz e Yosef Elron decidiu, por unanimidade, rejeitar a petição e impor o pagamento das custas processuais.

Especialistas consideram essa decisão um marco, sinalizando o fim da tolerância para erros relacionados ao uso indevido de inteligência artificial no meio jurídico. Segundo analistas, os advogados devem verificar rigorosamente todas as fontes legais utilizadas em suas petições, pois as consequências de se apoiar em informações geradas por IA sem a devida validação se tornam cada vez mais evidentes.