IA e regulação setorial: o exemplo da nova Resolução CNJ 615/25

0
130
Imagem gerada por Inteligência Artificial (IA)

O Brasil tem debatido, nos últimos anos, a edição de uma lei que discipline o uso e desenvolvimento de ferramentas baseadas em inteligência artificial. No Congresso Nacional, diferentes projetos de lei foram propostos, merecendo destaque o PL 2338/2023. O parlamento hesita, contudo, em sancionar uma nova lei e o faz, neste caso, de modo compreensível, já que muitas dúvidas e incertezas ainda cercam o tema.

Por outro lado, é evidente que o uso da inteligência artificial já se proliferou entre nós – como revelam, de modo emblemático, os modelos de linguagem, em especial o onipresente ChatGPT. Os riscos trazidos pelo uso indiscriminado da inteligência artificial não podem conviver com um vácuo normativo, nem ficar à espera de uma lei geral que contemple todos os seus aspectos e desdobramentos.

Uma boa solução, neste contexto, é a regulação setorial, atenta aos perigos específicos de cada atividade em que a inteligência artificial vem sendo empregada. Foi o que fez, em março, o Conselho Nacional de Justiça (CNJ), que editou uma nova Resolução estabelecendo diretrizes para o uso de ferramentas de IA nas atividades de todo o Poder Judiciário brasileiro.[1]

Em seus quase 50 artigos, a nova Resolução do CNJ traz diretrizes para governança do uso de inteligência artificial (arts. 12 a 14), impõe o dever de supervisão humana (arts. 15 a 18) e exige a realização de auditorias (arts. 39 a 42) sobre os resultados e os meios de utilização da inteligência artificial pelos tribunais brasileiros, tudo em consonância com a tutela dos direitos fundamentais e da dignidade da pessoa humana.

A Resolução do CNJ externa especial preocupação com as fontes das bases de dados utilizadas por sistemas de inteligência artificial. A nova normativa exige a adoção de fontes seguras, rastreáveis e auditáveis pelos tribunais (art. 2º, IX). Para tanto, deve-se dar preferência às bases governamentais, sendo permitida a contratação de fontes privadas, “desde que atendam aos requisitos de segurança e auditabilidade estabelecidos nesta Resolução ou pelo Comitê Nacional de Inteligência Artificial do Judiciário”.

O aludido Comitê Nacional de Inteligência Artificial do Judiciário será formado por 14 membros titulares e 13 suplentes, incluindo membros da Magistratura, da OAB, do Ministério Público, da Defensoria Pública e da sociedade civil (art. 15). O Comitê atuará no detalhamento das regras de governança, na avaliação da necessidade de atualização das hipóteses de categorização dos riscos, no monitoramento da capacitação e treinamento dos servidores dos tribunais, entre outras relevantes atividades listadas no artigo 16 da nova Resolução.

A nova Resolução do CNJ mostra-se coerente com as mais conhecidas abordagens regulatórias da IA, que procuram estabelecer deveres e responsabilidades que variam conforme o grau de risco envolvido em cada uso específico da nova tecnologia.

É o que acontece, ilustrativamente, no celebrado AI Act da União Europeia, que institui, por exemplo, regras mais rígidas no caso de aplicações de inteligência artificial que envolvam o chamado “risco elevado”.[2]

A Resolução do CNJ segue a mesma trilha em seus artigos 9º a 11, classificando como de “alto risco”, por exemplo, a atividade de realização por IA das atividades de avaliação, perfilamento ou valoração da pessoa humana – incluindo aspectos comportamentais e biométricos – potencialmente deletérios dos direitos fundamentais e dos direitos da personalidade. Neste caso, a Resolução do CNJ impõe a adoção de medidas para mitigar e prevenir vieses discriminatórios, bem como a instituição de mecanismos voltados à viabilização da explicabilidade adequada, sempre que tecnicamente possível, dentre outras providências.

Por outro lado, atividades como execução de atos processuais, detecção de padrões decisórios e produção de textos para a tomada de decisão de decisões judiciais são classificadas como de “baixo risco”, atraindo regras mais brandas, ainda que mesmo estas aplicações devam ser monitoradas e revisadas periodicamente a fim de assegurar a permanência dentro desta categorização de risco (art. 13, §3º).

A Resolução do CNJ também traz vedações expressas ao uso de IA nas hipóteses classificadas como de “risco excessivo” (art. 10). É o caso, por exemplo, de ferramentas que valorem traços da personalidade, características ou comportamento das pessoas naturais para fins de avaliar ou prever o cometimento de crimes ou de reiteração delitiva.

Também há regras importantes relativas à transparência no uso das soluções de IA, como aquela constante do artigo 22 da Resolução, segundo o qual “qualquer modelo de inteligência artificial que venha a ser adotado pelos órgãos do Poder Judiciário deverá observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as Resoluções e as Recomendações do Conselho Nacional de Justiça, a Lei Geral de Proteção de Dados Pessoais, a Lei de Acesso à Informação, a propriedade intelectual e o segredo de justiça”.

Naturalmente, como toda nova disciplina normativa, a Resolução do CNJ contém aspectos que poderiam ser aprimorados. Por exemplo, o artigo 20, II, afirma que “o uso dos dados fornecidos pelos usuários do Poder Judiciário para treinamento fica condicionado às bases legais da Lei Geral de Proteção de Dados Pessoais”, sem especificar a quais dispositivos da LGPD está se referindo, o que pode suscitar dúvidas interpretativas.

Outra discussão importante diz respeito à tutela dos direitos autorais no campo das IAs generativas. Em relação à alimentação das ferramentas de inteligência artificial (“input”), tem-se discutido se é realmente lícito o treinamento algorítmico, que se desenvolve a partir da mineração de dados que incluem a coleta de obras intelectuais protegidas por direitos autorais disponíveis na internet, como textos, imagens e vídeos. Já em relação aos resultados obtidos pelas ferramentas de inteligência artificial (“output”), debate-se se há e, em havendo, a quem pertencem os direitos autorais incidentes sobre os resultados criativos gerados pelas máquinas inteligentes.[3]

A nova Resolução do CNJ limita-se a afirmar a necessidade de fornecedores de sistema de IA generativa observarem os “padrões de política (…) de propriedade intelectual” (art. 19, §3º, III). Vale destacar, a título de exemplo, que muito embora decisões judiciais não sejam protegidas por direitos autorais na ordem jurídica brasileira (art. 8º, IV, Lei nº 9.610/1998)[4], a compilação de bases de dados (incluindo repositórios de jurisprudência) que, por sua seleção, organização ou disposição, constituam uma criação intelectual é passível de proteção (art. 7º, XIII, da mesma lei).[5]

Outro ponto que exigirá esforço dos tribunais brasileiros, mas vem bem delimitado na nova Resolução do CNJ, é aquele que diz respeito à segurança da informação (arts. 26 a 31). Torna-se imperiosa a adoção de criptografia robusta e outras medidas protetivas. O incremento da segurança de informação é uma medida urgente no Brasil, que é o vice-campeão em ataques cibernéticos no mundo.[6] Nosso país coleciona episódios de invasões e “hackeamentos”, inclusive em sites de tribunais, atingindo até mesmo o STJ, alvo de um rumoroso ataque há poucos meses.[7]

A preservação da confiança nos tribunais e, em última análise, no próprio Estado democrático de Direito depende, nos tempos atuais, da segurança de dados, que, paradoxalmente, se torna mais e mais sensível, uma vez que o mau uso da tecnologia também avança. É reconfortante saber que o CNJ está atento ao tema.

Crédito: Anderson Schreiber / JOTA – @ disponível na internet 18/3/2025


Anderson Schreiber
Professor titular de direito civil da UERJ e professor da Fundação Getulio Vargas (FGV)

[1] A íntegra da Resolução CNJ 615, de 14 de março de 2025, encontra-se disponível em: https://atos.cnj.jus.br/atos/detalhar/6001

[2] Art. 6º e Anexo III do AI Act (Diretiva 2024/1689).

[3] Para mais detalhes, confira o artigo “Direito à Reserva Humana: um limite para a IA” (JOTA, 4.2.2025).

[4] Lei 9.610/1998: “Art. 8º Não são objeto de proteção como direitos autorais de que trata esta Lei: IV – os textos de tratados ou convenções, leis, decretos, regulamentos, decisões judiciais e demais atos oficiais.

[5] Lei 9.610/1998: “Art. 7º São obras intelectuais protegidas as criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro, tais como: XIII – as coletâneas ou compilações, antologias, enciclopédias, dicionários, bases de dados e outras obras, que, por sua seleção, organização ou disposição de seu conteúdo, constituam uma criação intelectual.

[6] Ver relatório Cost of Data Breach 2024, produzido pela IBM e disponível em: https://www.ibm.com/reports/data-breach

[7] Confira-se a reportagem “STJ sofre ataque hacker; tribunal diz que não houve prejuízos” (UOL, 8.9.2024).

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui