A tomada de decisão pelo juiz e pela inteligência artificial

7 de junho de 2024

Compartilhe:

Ganhador do Prêmio Nobel de Economia de 2002, Daniel Kahneman, falecido em março, explicou ao mundo porque os seres humanos têm um comportamento aparentemente irracional na tomada de decisões, influenciados por emoções, intuições, tentações e gatilhos. Todos sabemos dos riscos de enviar mensagens ao dirigir, por exemplo. Decidiríamos de forma puramente racional se resistíssemos a essa tentação. 

Kahneman é um dos fundadores da economia comportamental, termo que vem da junção da economia com psicologia, neurociência e outras ciências sociais, reunidas para compreender como os indivíduos tomam decisões, analisando a partir de aspectos psicológicos, comportamentais, emocionais e sociais.

As lições da economia comportamental podem ser aplicadas ao Direito. Magistrados, assim como todos os seres humanos, por mais que confiem na sua racionalidade, estão igualmente sujeitos, ainda que inconscientemente, a emoções, simplificações, inclinações e preconceitos que podem afetar as decisões no seu trabalho. Esse cenário precisa ser considerado quando se estudam as decisões que resultam de um sistema de inteligência artificial (IA) no Judiciário em comparação com as decisões de julgadores humanos. 

Como seres humanos decidem – Conforme leciona Daniel Kahneman, o cérebro humano atua por meio de dois sistemas de funcionamento paralelos, porém complementares. 

O sistema intuitivo, chamado de sistema 1, é rápido, instintivo e automático, pois se destina à sobrevivência e permite decisões que decorrem de experiências acumuladas ao longo da vida. Ele atua, por exemplo, quando alguém se afasta ao ver um animal perigoso ou quando comportamentos reiterados tornam-se automáticos, como dirigir veículos. O sistema 2 do cérebro, por sua vez, é reflexivo, devagar e deliberativo. Raciocínios complexos usam esse sistema, que permite tomar decisões mais racionais, funcionando com base na busca de informações ofertadas pelo sistema 1. Por conseguinte, aprender a dirigir exige a atuação do sistema 2, e o ato, uma vez automatizado pela repetição, passa a integrar o sistema 1. 

Os chamados vieses de cognição humana decorrem do funcionamento do cérebro. O sistema 2 é lento, já que exige reflexão, porém é mais preciso. O sistema 1 é bem rápido, mas é falho, pois trabalha ancorado em memórias de experiências de vida que podem ser enviesadas, apresentando respostas simples e pré-concebidas que muitas vezes não representam a realidade. Vieses de cognição humana decorrem, portanto, do sistema 1. 

Vieses de cognição (cognitive bias) são distorções ou ilusões cognitivas, erros sistêmicos de avaliação, que afetam o entendimento e as crenças da pessoa em relação ao mundo à sua volta. Em outras palavras, todas as pessoas são enviesadas e tendenciosas em boa parte do tempo. 

Diversos vieses foram identificados pela psicologia e ciência cognitiva. Um exemplo é o viés de ancoragem (anchoring bias), que consiste na tendência de que as pessoas confiem em informações que tiveram primeiro sobre determinado assunto, passando a usá-las como referencial (ou seja, como âncoras), ainda que sejam aleatórias ou infundadas, influenciando diretamente o sentido das suas decisões. Em razão desse viés, “não é difícil imaginar que, no recurso de apelação, o tribunal se ancore na sentença apelada e que no julgamento colegiado o resto da turma julgadora se ancore no voto do relator”.

Outro exemplo é o viés de status quo (status quo bias), tendência do tomador de decisão de deixar as coisas como estão. O viés pode gerar no magistrado a predisposição de manter o entendimento jurídico que vinha adotando, por simplificação cognitiva, ainda que a jurisprudência que sobreveio não mais embase a conclusão. 

Pelo que se percebe, a tomada de decisões judiciais por magistrados – assim como por todos os seres humanos – possui alguma “opacidade”, estando marcada por vieses que lhes são inerentes e que, naturalmente, não serão demonstrados na fundamentação judicial, que expõe somente parcela do processo decisório. Assim, poder-se-ia argumentar que a fundamentação das decisões humanas traria apenas a ilusão de transparência quando comparada com a decisão algorítmica. Será mesmo? 

Como a máquina decide. A opacidade da inteligência artificial – A inteligência artificial e, mais especificamente, a técnica de machine learning (aprendizado de máquina, em português) costumam ser descritas como opacas ou como uma “caixa preta”. No Judiciário brasileiro atual, a aprendizagem de máquina é a técnica mais comum entre os sistemas de IA, presente em 77% dos sistemas.

A opacidade significa que embora os especialistas possam explicar como o modelo algorítmico funciona, eles não podem elucidar com precisão porque foi gerado resultado concreto com base nos dados de entrada. Em outras palavras, refere-se à ideia de que “os seres humanos são cada vez mais incapazes de entender, explicar ou prever o funcionamento interno dos algoritmos, seus vieses e eventuais problemas”, como bem resumem Doneda e Almeida.

Além disso, os conjuntos de dados nesses casos podem ser compostos por milhões ou bilhões de dados, especialmente diante do uso de redes neurais profundas, tipo de aprendizado de máquina baseado no uso de arquitetura de modelo mais complexa. No entanto, diferente dos computadores, os seres humanos não são capazes de processar grandes quantidades de dados. Esses fatores causam a opacidade de diversos sistemas de IA. 

No Judiciário brasileiro, como já tratamos nesta Revista, a grande maioria dos modelos computacionais implementados e em desenvolvimento destina-se a tarefas processuais de apoio à gestão dos gabinetes, fazendo a triagem de processos similares e classificação de petições ou recursos. 

A preocupação com a transparência aumenta, contudo, se o sistema de IA for utilizado para a elaboração de minuta de decisão judicial. Vale lembrar que são poucos os sistemas que auxiliam na elaboração de minutas com conteúdo decisório, a exemplo do Victor do STF e do Elis do TJPE. Nestes dois exemplos, trata-se de decisões simples, relativas a temas processuais e sujeitas à revisão humana. 

Portanto, ainda que se diga haver opacidade nos sistemas de IA em funcionamento no Judiciário atualmente, o risco de causar prejuízo às partes não parece alto, nem sequer existirá na maior parte das hipóteses de utilização dos referidos sistemas.

A desconhecida interação homem-máquina – No Judiciário, a tomada de decisão pela máquina exige a supervisão judicial nos termos da Resolução CNJ 332/2020. No entanto, é problemático confiar excessivamente nessa supervisão. 

Uma das razões do problema é o viés de automação (machine bias), outro viés cognitivo humano, que consiste na tendência humana de privilegiar os resultados gerados pelo sistema automatizado, pela crença de que estes estão embasados em operações matemáticas e, por isso, são científicos e estão corretos. A consequência é que o tomador de decisão acaba por diminuir sua discordância em relação ao resultado de sistemas de IA, aderindo total ou parcialmente, seja porque não reconhece quando os sistemas automatizados erram, seja porque nem sequer dá importância a eventuais informações contraditórias. 

Em que pese a relevância da preocupação com os vieses nas decisões dos juízes (como seres humanos que são), é essencial enfatizar que o Poder Judiciário tem a legitimidade embasada na fundamentação das decisões judiciais. Por mais que estas sejam proferidas por magistrados – que possuem, pela própria humanidade, vieses e pré-conceitos, os quais não ficam claramente expostos na fundamentação –, obrigatoriamente haverá na decisão os motivos de fato e de direito da conclusão judicial, permitindo-se discordância e recurso pelas partes. 

Diversamente, a decisão que resulte de um sistema de IA não transparente não viabilizaria a compreensão dos motivos em todos os casos. O aprofundamento da discussão foge ao objeto deste texto. O que importa, por ora, é saber que é crescente e bem-vinda a preocupação de especialistas com a transparência e a confiança na tomada de decisões, pelos humanos e pelas máquinas.

Notas______________________________

1 KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Cap. 8 – Como os julgamentos acontecem. São Paulo: Objetiva, 2012 (versão Kindle).

2 COSTA, Eduardo José da Fonseca. Levando a imparcialidade a sério: proposta de um modelo interseccional entre direito processual, economia e psicologia. 2016, 187 f. Tese (Doutorado) – PPGDP, PUC, São Paulo, 2016, p. 110. Disponível: [https://tede2.pucsp.br/handle/handle/6986].

3 Ver nossa análise mais abrangente em: Inteligência Artificial no Judiciário Brasileiro: Estudo Empírico sobre Algoritmos e Discriminação. Revista Diké (Uesc), v. 22, n 23, p. 02-32, jan./jun. 2023. Disponível: [https://periodicos.uesc.br/index.php/dike/article/view/3819/2419].

4 DONEDA, Danilo; ALMEIDA, Virgilio A.F. What is Algorithm Governance? IEEE Internet Computing, vol. 20, no. 4, pp. 60-63, julho-ago. 2016, aqui, p. 60. Disponível: [https://ieeexplore.ieee.org/document/7529042].

5 https://www.editorajc.com.br/nao-existe-discriminacao-algoritmica-no-judiciario-brasileiro/  

6 Ver nossa análise completa em: Objetivos do sistema de inteligência artificial: estamos perto de um juiz robô? Conjur, 11 mai 2022. Disponível: [https://www.conjur.com.br/2022-mai-11/salomao-tauk-estamos-perto-juiz-robo/].

conteúdo relacionado: