top of page

Olhar para um lado só, o risco de erro no ensino de temas da IA nos Cursos de Direito

Atualizado: 30 de jun. de 2021

A inteligência artificial é uma realidade, algoritmos tornam mais eficientes diversos procedimentos que precisam avaliar dados para gerar decisões. A crescente aplicação dessa tecnologia cria uma demanda de capacitação dos estudantes de direito, capacitação não apenas para usar a IA como ferramenta, mas, principalmente, para ser ativo na regulação e na discussão de suas aplicações. Parece, entretanto, que algumas pessoas estão olhando para um lado só.


Duas abordagens importantes


O Supremo Tribunal Federal, desde 2018, usa um sistema de inteligência artificial para rastrear dados nos recursos que lhe são encaminhados. O VICTOR, robô virtual (sistema de IA) batizado em homenagem ao ex-ministro Victor Nunes Leal, tem a habilidade de ler os recursos extraordinários e realizar tarefas como a comparação desses textos com temas de repercussão geral julgados ou postos para julgamento. O Tribunal Superior do Trabalho possui o BEM-TE-VI, criado no mesmo ano, com o objetivo de gerir o acervo processual, indicando, incialmente, questões relativas a prazo e impedimentos.


Nos dois casos, os robôs virtuais buscam aumentar a eficiência do Judiciário, mas devemos questionar quais seriam os limites para esse tipo de utilização. Como as pessoas envolvidas podem ser afetadas e como poderia ser garantida uma padronização de critérios entre os vários tribunais? Como o advogado deveria atuar em face desse novo contexto? Quem seria o responsável por eventuais erros? Qual é o nível de transparência que cada projeto desse tipo terá no futuro? As respostas para essas perguntas – e até a formulação correta das indagações – depende do quanto nossos profissionais do direito estão ou estarão preparados para tratar de questões técnicas e éticas da IA.


Acontece que, hoje, os estudantes têm pouca ou nenhuma informação nas escolas de direito e quando tiverem correm o risco de tratar apenas da aplicada da IA no seu trabalho. Será necessário, é certo, mostrar aos advogados como utilizar robôs de análise e interpretação de textos, gerenciar mecanismos on-line de solução de demandas (ODR, no termo em inglês Online Dispute Resolution), aplicar ferramentas de análise preditiva de decisões judiciais (Judicial Analytics) e outros softwares que já fazem parte da rotina de alguns gabinetes ou escritórios de advocacia. Mas isso não basta.


A inteligência artificial (IA) pode ser definida como “sistemas que apresentam um comportamento inteligente, analisando o seu ambiente e tomando medidas — com um determinado nível de autonomia — para atingir objetivos específicos”[i]. Este conceito, que é apenas uma descrição inicial, usada em 2018 pela Comunidade Europeia, já dá indícios do quão complexo pode ser a interação desse assunto com o Direito.


Se os sistemas de IA “analisam o seu ambiente”, precisam de dados e em virtude dessa necessidade deve ser ponderada a importância do uso de dados no processo de aprendizagem de máquina e a privacidade das pessoas. Se agem “com um determinado nível de autonomia”, é preciso discutir a existência de um ente – ou pessoa – digital, diferente de seu criador, e questionar os limites da responsabilidade desse ente e das empresas ou governos que ofertam serviços a partir da IA.


Ainda, sendo autônomos, é importante definir se quem os cria tem propriedade de sua obra ou se divide tal direito com aqueles que são titulares dos dados que são compilados pelo programa. E não há consenso sequer sobre a existência de um resultado patenteável ou obra concluída, porque o sistema aprende por conta própria e evolui.


Não bastassem tantas questões de direito privado, é preciso discutir como o novo direito público poderá dar as pessoas o poder de conhecer e discutir os objetivos específicos que são postos para a IA, bem como os critérios que o algoritmo usado pelo Governo usa. Diante desse quadro, ensinar aos estudantes de direito apenas como usar as novas ferramentas de IA pode ser insuficiente e pode levar vários cursos jurídicos a se tornarem defasados.


O mais importante talvez seja dotar os egressos dos cursos de direito da capacidade de entender minimamente os algoritmos, saber discuti-los e forjar uma visão crítica, capaz de antecipar, constatar ou rever vieses e falhas nos robôs virtuais e físicos que estarão presentes em nosso dia-a-dia.


Um viés nas incipientes legislações sobre ensino jurídico, tecnologia e inteligência artificial


Ao analisarmos as diretrizes dos cursos de graduação em direito publicadas, coincidentemente, no mesmo ano de 2018, as questões centrais sobre as duas abordagens acima estão colocadas, porém há risco de nos fixarmos apenas em uma tarefa educacional Afinal, há um incentivo para focarmos superficialmente no que é novo e incluir o que é novo como um novo conteúdo, normalmente uma nova disciplina.


O direito digital é tratado como um potencial conteúdos ou componente curricular, sob o nome de “Direito Cibernético”. Quanto a esse assunto e em termos gerais, não há menção a transversalidade nem sequer uma separação entre conteúdos técnicos e tópicos que, de fato, são transformadores. Noutras palavras, a norma que contém a diretriz para os cursos de graduação em direito não diferencia, por exemplo, o direito civil (conteúdo) da mudança digital (contexto).


Por outro lado, na lista de competências dos egressos em Direito, prevista no Art. 4º, da Resolução CNE/CES 05/2018 consta claramente que os mesmos devem: “compreender o impacto das novas tecnologias na área jurídica”. Essa indicação complementa a confusão citada acima, pois a expressão “compreensão do impacto” dá a entender que as novas tecnologias são algo posto, que não depende e não pode ser modelado pelo Direito.


A proposta de Política Nacional de Inteligência Artificial, incluída no PL 5.691/2019, reforça essa ideia ao incluir uma diretriz de: capacitação de profissionais da área de tecnologia em Inteligência Artificial, como se os profissionais do direito não tivessem de ser capacitados para a IA. Esta proposta reafirma a visão de que os profissionais do direito são apenas usuários da IA, cuja capacitação não é estratégica para as políticas públicas ligadas à nova tecnologia.


Talvez por esses fatos e pela dificuldade de mudar profundamente os cursos, há risco de olharmos para o lado errado e prepararmos os estudantes apenas para usar a IA, para aplica-la e não para regular e contribuir na sua consolidação.


Sobre a importância de olhar para o outro lado


Imagine uma situação em que duas pessoas façam entre si um contrato para uso de um imóvel de veraneio em uma praia brasileira. Imagine que as pessoas contrataram essa locação por meio de um aplicativo que faz um belo contrato em visual law, explicando tudo por meio de desenhos e vídeos. Nesse contrato, ficará claro que o locatário não poderá fazer barulho acima de 80dB e que o volume sonoro será controlado por um assistente virtual que tem embutido um decibelímetro. Ficará claro, também, que ao ser verificada qualquer infração contratual a casa será automaticamente fechada por meio de um equipamento que tranca a casa e cancela senha usada para abri-la. A partir daí, por meio de um sistema de blockchain, a relação passa a ser regida por esse contrato, um smart contract, que agirá por conta própria, sem comandos ou interferências de humanos.


Nessa situação, suponha que um trovão provoque um barulho repentino, superior a 80dB. Suponha que todos os adultos estejam do lado de fora e dentro exista apenas um bebê, que acabou de ser colocado na cama. Por fim, considere que o contrato inteligente feche o imóvel e que os pais não consigam entrar por algumas horas, enquanto tentam, sem êxito, contatar o centro de atendimento ao consumidor do aplicativo.


Como seriam resolvidas as questões atinentes a esse evento? As pessoas poderiam ser automaticamente consideradas inadimplentes por causa do barulho? O contrato-robô poderia ser responsabilizado pelo dano moral dos pais, que certamente sofreriam com o filho preso na casa? Ou seria responsabilidade da empresa que gere o aplicativo? Ou, mais especificamente, do próprio contrato-robô?


Surgiriam ainda questões sobre se contratos assim deveriam ser permitidos; sobre uma possível margem de tolerância de descumprimento contratual; sobre ponderação entre o direito de proteção da criança a possível inadimplência no contrato; e, certamente, sobre o direito de defesa do locatário.


Esse é o novo contexto ao qual, em breve, os profissionais do direito serão expostos. É essencial conhecer visual law, smart contract e até algo sobre o blockchain, mas isso não bastará. Nenhuma tradução ou compreensão desses termos será suficiente.


O profissional precisa saber um novo direito privado – novos sujeitos, responsabilidade civil da IA e teoria da imprevisão aplicada aos contratos inteligentes – e precisa saber criar uma poderosa argumentação baseada na ética e nos direitos fundamentais.


A nova demanda do mercado soma-se a diretriz do Projeto de Lei sobre Política Nacional para a IA, que impõe a necessidade de: respeito à ética, aos direitos humanos, aos valores democráticos e à diversidade. Para cumprir essa meta, se aprovada, o Brasil precisará de profissionais de direito que não sejam apenas usuários das ferramentas baseadas em IA.


Ainda nesta linha, o Projeto de Lei que trata princípios para o uso da Inteligência Artificial no Brasil, PL 5.051/2019, trata como diretriz para atuação dos órgãos públicos a ação proativa na regulação das aplicações da Inteligência Artificial. Esta diretriz reitera o papel do Direito, como principal forma de regulação, em face do desenvolvimento constante da IA.

Enfim, é preciso olhar para esse outro lado da questão. Não é suficiente o treinamento dos estudantes de direito para o uso dos softwares baseados em IA; é preciso induzir e fomentar reformulação profunda nos cursos jurídicos, não apenas novas disciplinas ou atividades no núcleo de prática, mas um novo curso, que, do início ao fim, considere um novo contexto.


  1. [i] Comissão Europeia, Comunicação ao Parlamento Europeu, ao Conselho Europeu, ao Conselho, ao Comitế Econômico e Social e ao Comitế das Regiões “Inteligência Artificial para a Europa”, Bruxelas, 25 de abril de 2018, COM(2018) 237 final



Gostou deste artigo? Faça parte de nossa lista de e-mail para receber regularmente textos como este e notícias de seu interesse.


Fazendo seu cadastro você também pode receber mais informações sobre nossos cursos: em março de 2020 teremos o curso de Direito de Informação e Proteção de Dados nas Instituições de Ensino. Em breve também faremos nossos encontros sobre Direito Educacional.


99 visualizações
bottom of page