top of page

A IA Generativa sob a perspectiva da Data Privacy Brasil e as particularidades de sua regulação

A Associação Data Privacy Brasil é uma organização da sociedade civil, sem fins lucrativos, que promove a proteção de dados pessoais e outros direitos fundamentais diante do surgimento de novas tecnologias, desigualdades sociais e assimetrias de poder. As pesquisas e demais produções são de interesse público  de um modo geral.


Um dos últimos materiais publicados pela associação foi o Temas Centrais na  Regulação  de IA: o local, o regional e o global na busca da interoperabilidade regulatória, cujo objetivo primário é organizar conceitos e referenciais teóricos básicos sobre três temas estruturais de qualquer proposta regulatória sobre inteligência artificial (IA), verificando-se como eles foram cobertos pelas iniciativas legislativas no Brasil. O secundário é mapear o nível de convergência das propostas brasileiras às de outros países e organismos internacionais. Por agora vamos focar no tema IA generativa.


Pois bem, o lançamento do ChatGPT ganhou o discurso público e tornou urgente a discussão sobre sua regulação. Definir este tipo de IA já não é consensual. Vamos ficar aqui com o conceito do texto em questão, que nos explica que a IA generativa é uma classe de modelos de linguagem (LLMs) que usa algoritmos de deep-learning e é treinada em bases de dados que podem ter tamanho de múltiplos terabytes.


Modelos de linguagem


Os LLMs podem ser generativos ou segregatórios. Os generativos são os que tem como resultado um texto, uma resposta a uma questão ou ainda um ensaio sobre um tópico específico. Eles são tipicamente não supervisionados ou semi-supervisionados em relação ao seu modelo de aprendizagem e fazem uma previsão de qual seria a resposta dada por um humano para uma determinada tarefa. Os segregatórios são modelos de aprendizado supervisionados que determinam se um texto foi feito por um ser humano ou por uma máquina.


No Brasil, os atuais projetos de lei não trazem definições ou regras para as IAs generativas. O PL 2338/23 não traz uma conceituação, mas menciona o termo “sistemas de inteligência artificial de propósito geral”, em que devem incluir em sua avaliação preliminar  as finalidades ou aplicações indicadas (art. 13, §1º).


Além de ser difícil conceituar a IA Generativa, sua regulação é complicada porque se relaciona com o risco ao qual ela expõe as pessoas impactadas. O modelo regulatório é basicamente contextual, dependendo, portanto, de qual situação específica a IA será aplicada para, então, avaliar eventuais riscos aos direitos de pessoas envolvidas e, de acordo com estes riscos, graduar as obrigações decorrentes.


E, como já explicamos, os modelos de linguagem (LLMs) se prestam a diferentes finalidades, que podem não ser possíveis de antever quando desenvolvidos. É claro que algumas disposições podem ser adicionadas para reduzir ou solucionar os desafios postos ao modelo regulatório baseado no risco, mas não há como prever todas as situações que surgirão ao longo do tempo. 


Para a Data Privacy Brasil de Pesquisa, apesar de não resolver o desafio por si só, a previsão de “inteligência artificial de propósito geral”, dentro de uma regulação baseada no risco, estabelecendo regras específicas para tal modelo, é um primeiro passo em direção à sua regulação. Posteriormente, seria interessante incluir a ideia dos modelos fundacionais e generativos, ainda não inseridos na maioria dos projetos de lei em tramitação no CN.


Regulação baseada no risco


A regulação baseada no risco obedece ao  princípio da precaução. Não há certeza quanto à existência de certos riscos, o que não impede de se empregar medidas para evitar que eles aconteçam. O PL 2338/23, no caso, estabelece que, se a IA de propósito geral for utilizada para uma das finalidades listadas como de alto risco pelo art. 17, o sistema deverá cumprir com uma série de obrigações de governança, incluindo a elaboração de uma avaliação de impacto. 


A partir da introdução do conceito de “riscos razoavelmente esperados”, o PL brasileiro tentou fazer com que, mesmo não sendo possível prever todos os casos de riscos associados ao sistema de IA fundacional (base da IA generativa, a grosso modo), que seus fornecedores lidem com os riscos que razoavelmente seriam dele esperados, mesmo que estes riscos não venham a se concretizar. A ideia está alinhada com a União Europeia e com as leis canadenses.


E os riscos, é importante mencionar, são relevantes não só para os direitos humanos, mas também para a economia e a sociedade. Eles são relacionados


  • aos consumidores;

  • à geração de desinformação;

  • à restrição da competição econômica no mercado;

  • à discriminação,

  • à sustentabilidade ambiental; e 

  • à propriedade artística e intelectual, especialmente no que tange aos direitos autorais.


A propósito, o governo norte-americano também tem se mostrado muito preocupado com os modelos fundacionais de IA e já criou protocolos apropriados. Basta pensarmos no conteúdo sintético que pode ser negativamente utilizado para produção de deep-fake e deep nudes, por exemplo. Ou na possibilidade da IA generativa produzindo material de abuso sexual infantil ou de imagens íntimas não consensuais de pessoas reais.


Particularidades nacionais para a regulação de IA à brasileira

 

O relatório da Data Privacy Brasil de Pesquisa afirma que o Brasil, apesar de ser atravessado por questões sociais, raciais, de gênero, de colonialidade e de território,  faz ampla utilização de sistemas de IA que carregam em si majoritariamente vozes e padrões masculinos, ocidentais, europeus, de branquitude e de riqueza, vivenciando um colonialismo digital


“em que grande parte do mundo majoritário/sul global, incluindo o Brasil, encontra-se em uma posição de colônia, utilizada para obtenção de mão de obra barata e mineração extrativista de dados e de matéria-prima bruta, enquanto também é posta em condição de mercado consumidor de tecnologias emergentes vindas do norte global, especialmente de grandes empresas monopolistas de tecnologia.
Considerando esse cenário atual de violências, desigualdades e opressões, o país não pode adotar uma postura de importação irrefletida de modelos regulatórios de contextos de norte-global, uma vez que possuímos circunstâncias (políticas, econômicas e sociais), identidades, características e problemas que nos são próprios – e que devem ser considerados na construção regulatória, o que demanda que a regulação brasileira de inteligência artificial seja pensada por meio de nossas peculiaridades.” (BIONI, Bruno; GARROTE, Marina; GUEDES, Paula. Temas centrais na Regulação de IA: O local, o regional e o global na busca da interoperabilidade regulatória. São Paulo: Associação Data Privacy Brasil de Pesquisa, 2023.)

Ou seja, a incorporação de dispositivos estrangeiros que façam sentido para nossa realidade é bem vinda, mas ainda é mais importante a criação de outros específicos para lidarmos com as nossas particularidades.


Assim, o PL 21/20 e o 759/23 não avançam nessa temática, pois apresentam redação genérica, majoritariamente principiológica e com baixa carga coercitiva. Um exemplo dado no texto citado é o termo “não-discriminação” utilizado como fundamento e princípio para o uso responsável da IA no Brasil no PL 21/20 e sequer mencionado no texto do PL 759, 872 e 5051.


Avanços do PL 2338/2023


No caso, os avanços estão no texto do PL 2338/2023, que reconhece as desigualdades e assimetrias estruturais do contexto brasileiro e adota expressamente as definições de discriminação direta e indireta, por exemplo.  O texto também protege  grupos (hiper)vulneráveis em diferentes momentos e reforça a importância da participação da sociedade na avaliação e no conhecimento dos riscos dos sistemas de IA.


Para a regulação da tecnologia no país, portanto, quando comparado com o PL 5051/19, PL 21/20, PL 871/21 e com 753/23, o PL 2338/23 pode ser interpretado  como um avanço, já que sua construção foi pensada de forma ampla e em conjunto com a sociedade por meio de consultas e audiências públicas, multidisciplinares e multissetoriais, nacionais e internacionais, realizadas ao longo do processo da CJSUBIA em 2022, inclusive com maior inclusão de grupos possivelmente afetados pelos sistemas de IA, especialmente minorias e comunidades vulnerabilizadas.


E as análises dizem que o PL 2338/23 ainda pode avançar em seu compromisso antirracista e antidiscriminatório,  especialmente em contextos de sistemas de reconhecimento facial para a segurança pública ou ferramentas que avaliam a periculosidade de um indivíduo para fins judiciais.


Este PL também precisa avançar de forma significativa em propostas que estimulem a produção de bancos de dados e sistemas de IA éticos diversos, abertos e multidisciplinares em território nacional, e que fomentem a educação e a capacitação das pessoas. Nesta seara, o PL 2338/23 apenas menciona o acesso à informação e à educação, bem como a conscientização sobre os sistemas de IA e suas aplicações como um de seus fundamentos, ao passo que o país tem potencial não só para liderar a produção de tecnologias digitais éticas e combater os vieses de conhecimento, como para investir em capacitação da população para o uso e desenvolvimento de sistemas de IA para sua utilização segura, consciente e responsável.

 

A Data Privacy, portanto, percebe a possibilidade de refinamento no PL 2338, mas afirma que ele é, hoje, ao menos, uma “via menos acidentada” na governança de IA em consonância com o contexto socioeconômico brasileiro enquanto país do sul global. O país precisa construir uma regulação de IA com convergência regulatória aos modelos estrangeiros, mas atentando para as particularidades do país e das pessoas que aqui vivem. O mais importante é que a IA e sua regulação sirvam à sociedade e não reforçem suas práticas estruturais desiguais e tão prejudiciais a todos. 

 

Leia também


 



Gostou deste texto? Faça parte de nossa lista de e-mail para receber regularmente materiais como este. Fazendo seu cadastro você também pode receber notícias sobre nossos cursos, que oferecem informações atualizadas e metodologias adaptadas aos participantes.

 

Temos cursos regulares já consagrados e também modelamos cursos in company sobre temas gerais ou específicos relacionados ao Direito da Educação Superior. Conheça nossas opções e participe de nossos eventos.

17 visualizações

コメント


bottom of page