Inteligência Artificial (PL 2338/2023 - Câmara dos Deputados)
Relatório da Audiência Pública n.º 2 para debater Proteção de diretos fundamentais e novas tecnologias
RADAR BRASÍLIA
André Fortes Chaves
6/23/202515 min ler


COMISSÃO ESPECIAL DO PL 2338/2023 – INTELIGÊNCIA ARTIFICIAL
Audiência Pública n.º 2 para debater Proteção de diretos fundamentais e novas tecnologias
Conforme plano de trabalho previsto e aprovado, mais a segunda sessão temática da Comissão Especial destinada a apreciar o Projeto de Lei (PL) n.º 2338/2023 foi realizada nesta última terça-feira (17/06/25) para exposição e discussão de tópicos relacionados a proteção do direitos fundamentais e o incentivo a inovações tecnológicas – potenciais riscos em sistemas de Inteligência Artificial. Foram, então, convidados especialistas para que pudessem expor suas perspectivas.
Nos termos do relator, Deputado Aguinaldo Ribeiro (PP/PB), além da percepção de uma aparente aceitação quanto ao texto recebido do Senado Federal, os principais tópicos discutidos foram: Revisão dos direitos autorais no texto; Inclusão do treinamento de IAs no marco regulatório; Abordar riscos por categorias tecnológicas; Necessidade de modelos criados em português e sob dados da realidade brasileira; Exemplificados programas no Brasil em que são viabilizados direitos fundamentais por meio de aplicações de IA; O atual texto trás formas de flexibilizações regulatórias, inclusive no art. 1º; Necessidade de que a lei seja “viva”, prevendo atualizações periódicas (arts. 14 e 15); Preocupações com capacitação e garantias trabalhistas; Retomar a avaliação de crédito como categoria de risco; Precedência da estratégia nacional de IA em relação à regulação, de forma que aquela deve nortear esta; Excesso de foco em IA generativa, deixando de contemplar outras categorias em geral; Riscos devem ser olhados sob perspectivas setoriais; e Risco de aplicação de IA acabar reverberando vieses.
Quem iniciou as apresentações foi o Luis Fernando Prado, Conselheiro e Líder do Comitê de IA Responsável da Associação Brasileira de Inteligência Artificial – ABRIA. Luis abriu sua fala ilustrando casos em que ferramentas de IA serviram para empoderar direitos fundamentais, inclusive no Brasil. Neste sentido, mencionou startup que oferece um sistema que corrige simulações de redações do ENEM, a qual, dentro de grupo de implementação, teria contribuído para melhora na performance de candidatos na prova oficial.
Quanto ao PL 2338/2023, mais especificamente, defendeu que pode haver dificuldades no tocante à realização de treinamentos dessas ferramentas no Brasil. Entende que é papel da Câmara trazer não entraves, mas sim clareza e segurança no que se refere aos dispositivos que tratam de direitos autorais. Argumenta que o texto atual pode em alguma medida inviabilizar o treinamento de IAs no Brasil, especialmente se considerado que “quase todos os conteúdos disponibilizados online estão protegidos por direitos autorais” e, assim, recomenda “especificamente que o treinamento de IA seja inclusive incluído como fundamento do marco legal de inteligência artificial”.
Ainda, defendeu a necessidade desses treinamento sob dados relevantes para o Brasil, seja ele estimulado por empresas ou pelo poder público. Concluiu no sentido de que “que cabe na área de fomento e inovação, mais especificamente no art. 59 do PL, que a gente tenha diretrizes para o poder público para que também incentive o acesso a dados diversificados e representativos para o treinamento de IA no Brasil”.
Na sequência, foi convidada a falar a Nina Da Hora, cientista da computação, pesquisadora e ativista. Nina entende ser necessário que o treinamento de ferramentas seja feito com base em dados representativos da sociedade brasileira. Neste sentido, defende que, “além da auditabilidade, importante não apenas trazer dados para treinamento a nível de Brasil, mas a qualidade desses dados, que deve representar a diversidade populacional”. Ainda, afirma que “devemos pensar em como podemos prevenir o viés algorítmico para impedir algumas discriminações históricas já presentes na nossa sociedade”.
No que se refere ao perfil das partes ouvidas ao longo da construção de consensos relativos à tramitação do projeto de lei, defende que, além de juristas, devem ser incluídos, sociedade civil, especialmente técnicos da área de computação, reguladores, universidades e seus laboratórios.
Por fim, Relatou trabalho em andamento em parceria com laboratórios de universidades relacionado a ameaças decorrentes de deep fakes, que “ferem diretamente a integridade da informação e a dignidade individual”.
Em seguida, foi concedida a palavra a Gabriel Renault, Diretor Executivo e Cofundador da Dharma.AI, que iniciou sua fala apontando a necessidade de se diferenciar com maior clareza categorias diversa de ferramentas de IA, como, por exemplo, otimizações, predição de venda, score de crédito, entre outros que estão “fora da polêmica”.
Gabriel defende que “o importante é que não pensemos sob a ótica de modelos de IA generativa apenas para os grande modelos fundacionais. Uma oportunidade enorme que o Brasil vai ter como maior país que fala português é termos modelos mais especializados em português”. Assim, segundo avaliação do convidado, poderá ser criado um bloco que é chamado de IAs verticais sobre assuntos. Ou seja, seria possível ter um modelo de IA treinado especificamente para grandes indústrias, o que soa muito positivo. Especialmente se pensado à luz do efeito de rede, em que uma plataforma ganha mais valor para cada usuário que a adota.
Importante também distinguir, na visão do expositor, os Large Language Models, que são aqueles fundacionais de investimentos de larga escala, dos Small Language Models, que são menores. Os Large Language Models geralmente estão associados a 400 bilhões de parâmetros e os Small Language Models até 10 bilhões. Estes, portanto, em vez abrangentes são modelos muito mais focados em áreas e aplicações específicas (e.g. jurídico, finanças, etc.).
Neste sentido, existe todo um grupo de empresas que pode gerar um expressivo valor agregado para o Brasil numa indústria de ponta, que vai reforçar inclusive que indústrias globais, tendo uma boa indústria de criação e treino de modelos no País, tragam seus datacenters para cá, especialmente se considerado que dispomos de um grande diferencial de fontes de energia elétrica limpas. “Mas precisamos de produção de modelo aqui para rodar no país. Se a gente não estimular isso vamos matar uma elemento que pode ser muito relevante para o futuro econômico do país”.
No entendimento de Gabriel a tese de que todo modelo deve passar por um crivo prévio de conformidade não deve prosperar. Isso porque elevaria demasiadamente os custos de entrada para novos atores no Brasil, inviabilizando muitas novas iniciativas. “Precisamos não pensar em regular para limitar as bigtechs, mas também pensar nas startups de potencial no Brasil.” A fala de Gabriel é interessa pois trás luz ao fato de que no ecossistema deverão coexistir tanto as big techs quanto novos entrantes, seja do ponto de vista regulatório seja de mercado. Por fim, defendeu que ainda que algoritmos possam ter vieses, também são passíveis de avaliação e existem soluções. Acredita também que é preferível uma validação a posteriori por órgãos de controle, não a priori. “Deve ser via denúncia e aí uma investigação e punição”, afirma.
Posteriormente, foi aberta a palavra para Nicolas Andrade, Head of LATAM & Caribbean Policy da Open AI, que afirmou ser importante falar sobre a responsabilidade dos diversos atores do ecossistema. Compartilhou que são adotadas três fases de treinamento: 1) pré-treinamento, onde se usa supercomputadores durante um período de meses para ensinar o modelo a predizer a seguinte palavra; 2) fase de post trainning, onde colocamos ainda mais salvaguardas e um olhar humano para trazer feedbacks e reais e mostrar para o modelo se ele está dando respostas que são úteis ou não para o usuário; e 3) processo de afinamento, onde é ensinado para um modelo como ser melhor numa área muito específica e refinada de conhecimento.
Ressaltou que, a nível global, investimentos (seja no treinamento de modelo, abertura de operação de pequenas a grandes empresas, na infraestrutura) fluirão na direção de países que tenham ambientes regulatórios mais favoráveis, porque são investimentos de longo prazo e de custos muito elevados. Quanto ao Projeto de Lei n.º 2338/2023, entende que seriam possíveis alguns aprimoramentos técnicos, os quais serão abordados em documento a ser compartilhado com a Comissão Especial. Por fim, sustentou que “é importante que a categorização de riscos seja harmonizada com outros países líderes em IA (sim, pois acredito que o Brasil é líder em IA)”.
Na sequência foi concedida a fala para Paula Guedes, Senior Program Advisor ONG Artigo 19, que entende fundamental um olhar ativamente protetivo de direitos. Quanto a questionamento apresentado (“quais os direitos fundamentais impactados pela tecnologia?”), Paula entende que, como a IA está sendo utilizada para tomada de decisão em diferentes instâncias ela é potencialmente violadora de todos os direitos fundamentais, sejam eles políticos, sociais, individuais, coletivos e, neste sentido, traz alguns exemplos:
1) direito à imagem – quando um sistema de IA é utilizado para criar um deep fake ou deep nudes de meninas e crianças;
2) direito à igualdade quando sistemas de IA discriminam ilegítima ou ilegalmente, seja direta ou indiretamente, com base em marcadores sociais como raça, gênero, território e condição social, especialmente quando esses critérios são somados; e
3) o fruto de discriminações algorítmicas podem impactar o bom exercício de diversos direitos, como direito à saúde, educação, moradia, trabalho, liberdade e até mesmo o acesso ao crédito.
Em seguida, afirmou que, para identificar e mitigar eventuais impactos negativos de sistema de IA, o ideal é que seja submetido a testes e avaliações prévios à utilização do sistema no mercado, permitindo identificação e, portanto, mitigação de riscos. “O Projeto de Lei n.º 2338/2023 prevê esses mecanismos. Inicialmente a previsão da figura da avaliação preliminar no artigo 12 idealmente ocorre para que antes do emprego da utilização do sistema pelo agente de IA possa se avaliar para determinar o grau de risco do sistema baseado nos critérios previstos na lei”, afirma. Sobre a última pergunta, sobre como conciliar incentivo à inovação e garantir direitos fundamentais, defendeu que o PL n.º 2338/2023 é um caminho bastante equilibrado. Ainda, levantou que o conflito entre regulação e inovação é um mito: “E, assim, a regulação também cria segurança jurídica, para que os próprios agentes de inteligência artificial saibam as obrigações que têm que seguir”.
Destacou que um ponto de equilíbrio entre inovação e direitos no projeto de lei são as flexibilizações são as denominadas flexibilizações. “Por exemplo, tem algumas exceções do escopo de atuação no artigo 1º, ou seja, situações em que a lei não vai se aplicar, como é o caso de usos de IA para fins particulares e não econômicos e os sistemas utilizados para investigação, pesquisa, testagem e desenvolvimentos”.
Por fim, concluiu que o projeto de lei é um bom ponto de partida a ser aprimorado e recomendou a retomada dos sistemas de avaliação de crédito e sistemas de recomendação para o rol de alto risco, bem como um maior incentivo à capacitação e garantias trabalhistas.
A seguir, foi a vez da fala de Rodrigo Ferreira, assessor de Diretoria Executiva da Casa da Moeda do Brasil, que introduziu sua exposição defendendo que o primeiro passo para o Brasil é definir uma estratégia nacional, definindo o papel que quer ter neste mercado em relação a que o Congresso Nacional tem uma função essencial, assim como o Executivo. Ainda neste sentido, argumento que não faz sentido estabelecer uma regulação que seja conflitante com o que, enquanto país, se fixou como sendo a estratégia: “Então, se a gente tem como parte da nossa estratégia favorecer o desenvolvimento de, por exemplo, modelos generativos compatíveis com a realidade brasileira, eu não posso ter uma regulação que impeça o treinamento de modelos com esses dados”.
Na linha de outros expositores, defendeu que é uma falácia o dilema entre regulação e inovação, bem como maior participação de especialistas técnicos que dominem as tecnologias envolvidas. Ainda, reforçou que todos os direitos fundamentais serão potencialmente impactados por inteligências artificiais, para o bem ou para o mal e, neste sentido, o objetivo da regulação deve ser maximizar o impacto benéfico, minimizando o impacto negativo. No tocante a regulação como meio de mitigação de eventuais impactos negativos dos sistemas de IA, afirmou que “regular riscos de automação mirando IA generativa é um grande erro. A heterogeneidade dos riscos inviabiliza um conceito uniforme de IA que limite adequadamente a incidência da lei. Os contornos dos riscos são complexos e impõem regulação setorial inclusive quanto à delimitação de incidência das prescrições regulatórias”. O desafio neste sentido é que diferentes fases de desenvolvimento de sistemas de IA podem ter agentes distintos, riscos distintos e se submeter reguladores distintos em jurisdições distintas, como numa cadeia de produção.
No tocante ao treinamento das ferramentas, defendeu que limitações ao treinamento de modelos com base em propriedade intelectual e dados pessoais restringem acesso a base de dados para modelos massivos, especialmente generativos e, neste sentido, uma possível alternativa seria flexibilizar treinamento e restringir outputs. Por fim, concluiu argumentando que a regulação deve ser dinâmica, fruto de debate multidisciplinar e predominantemente setorial, sendo contraproducente a criação de uma autoridade centralizada para IA).
Por fim, para concluir a primeira parte da exposição dos convidados, foi aberta a palavra para Marina Pita, Diretora na Secretaria de Políticas Digitais da SECOM da Presidência da República, que introduziu sua fala afirmando que o país ficaria para trás se não fossem previstos direitos e garantidas, medidas de prevenção e precaução incorporadas ao texto: “Se não olharmos para o nosso passado de discriminação, não poderemos criar remédios e entregarmos uma sociedade mais justa para o futuro e é por isso que estamos aqui nessa audiência pública falando sobre direitos”. Ainda, no entendimento do governo, defendeu que o Senado fez um bom trabalho, especialmente se considerada a natureza multiministerial do tema: “O senador Eduardo Gomes ouviu diversos atores do setor e o texto foi bastante aprimorado e é flexível, projetado para a realidade brasileira, reconhece direitos e os protege a partir da assimetria orientada por graus de risco. O projeto incentiva a inovação inclusive por flexibilização para pequenas empresas”. No tocante ao ecossistema, observou que é de uma complexidade particular, em que há sobreposição de fornecedores para oferta de serviços, com sistemas opacos que levam a assimetria entre cidadãos e prestadores de serviço. “Regulação é importante para i) orientar a direção da inovação e promover segurança jurídica; ii) corrigir falhas de mercado, minimizar externalidades negativas e garantir proteção do interesse público; iii) regulação muitas vezes estimula as empresas a aprimorarem suas tecnologias (coisa que não fariam se não tivessem estímulos econômicos e sanções previstas em lei): o setor de saúde é dos mais regulados e dos mais inovadores”. Por fim, sustentou que a inovação era apoiada em diversos pontos do projeto de lei, que, quantitativamente, contava com diversas disposições favoráveis no texto em discussão.
Na sequência foi aberta palavra para os deputados membros da Comissão Especial para que pudessem fazer perguntas e fazer considerações. Inicialmente falou o Deputado Lafayette de Andrada (Republicanos/MG), que questionou que se os princípios e direitos constitucionais já são de aplicação imediata, faria sentido elencar novos direitos e princípios que a Lei deveria observar. Argumentou que talvez fosse mais producente elencar quais as medidas concretas para proteção destas garantias constitucionais.
Em seguida, falou o Deputado Orlando Silva (PCdoB/SP), quem defendeu que deveria ter mais foco na discussão do texto propriamente dito e que, assim como foi feito no texto da Lei Geral de Proteção de Dados, deveria ser seguido um modelo com estrutura principiológica, que garantisse espaço para normas infralegais. “Faz sentido regulação setorial. Conforme citado pelos convidados, temos um texto flexível, com margem para regulação setorial, como deve ser”.
O Deputado Vitor Lippi (PSDB/SP), por sua vez, afirmou ser a IA uma tecnologia que vai ser usada cada vez mais por pessoas, empresas, administração pública e assim por diante, representando crescentes riscos de aplicação. “Precisamos ajudar a reposicionar o Brasil como país que inova, para que não seja um mero consumidor, mas protagonista. Temos um ambiente favorável em um povo muito criativo”. Concluiu dizendo ser necessário pensar no quanto a lei vai impactar no custo, especialmente para startups e, por outro lado, importante estimular a autorregulação por grandes plataformas.
Já o Deputado Pedro Uczai (PT/SC) trouxe o questionamento sobre como que o Brasil vai se posicionar em um mundo multipolar. Por outro lado, questionou “em que medida a disseminação dessas tecnologias gera divisão e redistribuição de riqueza e renda? O progresso pode trazer profundas contradições. Nos Estados Unidos, três big techs têm mais riqueza que 170 milhões de norte-americanos”. Exemplificou que o ChatGPT se apropria de bilhões de dados, produzidos pela humanidade, para treinar suas ferramentas. “Necessário pensar em como socializar essa apropriação. Cabe um debate sobre o público, o privado e os direitos autorais”. Por fim, trouxe que os vieses dos textos que informam as IAs são subjetivamente assimilados e reverberados pelas plataformas de IA.
Por fim, a Deputada Fernanda Melchionna (PSOL/RS) manifestou que pesquisas mostram transferências para o ambiente tecnológico de preconceitos já existentes na sociedade, visto que o mundo virtual é uma extensão do mundo real. “Diante de casos concretos de discriminação trazidos no debate, o texto do Senado Federal é fraco no tocante à preservação de direitos fundamentais. Mais especificamente, por exemplo, precisa voltar para o texto do projeto o art. 31, que determina que ‘o desenvolvedor de um sistema de IA generativa deve, antes de disponibilizar no mercado para fins comerciais, garantir a adoção de medidas de identificação, análise e mitigação de riscos razoavelmente previstos no que tange a direitos fundamentais, meio ambiente, integridade da informação, liberdade de expressão e acesso a informação’, que foi excluído na votação em Plenário”.
Ainda, apontou que o texto do Senado recuou sobre temas como proteção de diretos de trabalhadores, como avaliação de impacto sobre emprego. Também foi tirado do texto final do Senado a vedação à demissão em massa. “Então, a regulação frágil só prejudica os trabalhadores e favorece as grandes corporações. Além desses, tem muitos outros temas para voltar”.
Em contraponto ao comentário do relator, Deputado Aguinaldo Ribeiro (PP/PB), Luis Fernando Prado, Conselheiro e Líder do Comitê de IA Responsável da Associação Brasileira de Inteligência Artificial – ABRIA, disse “não sei se há consenso em relação a que o texto do Senado seja melhor, mas o consenso caminha para o ponto de que todos os problemas aqui trazidos para IA são agravados se tiver uma limitação no treinamento desses modelos de ferramentas”. Ressaltou que o texto do Senado Federal foi em considerável medida baseado no texto da União Europeia, mas que este mesmo bloco está avaliando se aprovou ou melhor texto. “Isso especialmente porque países diferentes estão adotando diversos modelos para regulação de IA”.
Nina Da Hora, cientista da computação, pesquisadora e ativista, sustentou em sua fala a importância de trazer transparência para os métodos e resultados de pesquisa, sejam eles positivos ou negativos e de haver “transparência no processo de tomada de decisão das big techs”. Importante trazer clareza para conceitos por meio de técnicos da computação, para que seja uma regulação compreensível. Não basta as ferramentas serem treinadas com base em dados e/ou imagens brasileiros. É sobre as decisões das regras algorítmicas colocadas quando se está desenvolvendo a ferramenta.
Um ponto fundamental a ser levado em consideração, na perspectiva de Nicolas Andrade, Head of LATAM & Caribbean Policy da Open AI, é que todos ainda estão aprendendo sobre o tema e “por isso decidimos fazer um boot camp, um bloco de aulas para parlamentares e assessores em 26 de junho, para trazer insumos técnicos e regulatórios”. Segundo Nicolas, o Brasil já é líder em criação e uso de ChatGPT e tem pessoas desenvolvendo em todos os estados brasileiros, assim como na sede da Open AI nos Estados Unidos. Esclareceu também que, na fase de pós treinamento, e feita uma prática voltada a diversidade. É trazida diversidade em relação ao resultado do prompt, como por exemplo em casos de médicos, parlamentares, que são sempre retratados com prevalência masculina. Por fim, observou que “houve alguma menções ao modelo europeu de regulação, que possui boas ideias, assim como se quer ter boas ideias para o Brasil. No entanto, hoje a Europa revisita suas decisões para avaliar se não foram longe demais”.
Do ponto de vista de Rodrigo Ferreira, assessor de Diretoria Executiva da Casa da Moeda do Brasil, o PL 2338/2023 é uma base razoável, embora ainda não esteja plenamente maduro, tendo alguns pontos mais rígidos do que deveriam ser, até mesmo inviabilizando alguns processos. “Pelo atual texto do PL, o simples fato do desenvolvedor ter que listar tudo o que é objeto, independentemente de ter que pagar, só essa tarefa, consideradas as bases massivas de dados que são utilizados no treinamento dos modelos maiores já inviabilizariam”. Sugeriu que as pessoas que realmente trabalham com esse modelo pudessem dar uma orientação melhor de como esse processo ocorre: “ficaria muito claro que o que está hoje no PL inviabiliza”.
No entendimento de Paula Guedes, Senior Program Advisor ONG Artigo 19, existe sim um consenso básico para discussão em relação ao PL 2338/2023. “O PL 21/2020, mais principiológico, teve seu lugar quando foi discutida a proposição e de lá para cá foram muitos os avanços”. Segundo ela, desde então houve um maior entendimento sobre Inteligência Artificial e, também, sobre como melhor regulá-la. Por outro lado, argumentou que o PL 2338/2023 também não é robusto e pode melhorar no aspecto da proteção de direitos, pois na sua tramitação no Senado foram retiradas algumas obrigações protetivas, regras de transparência, regras de prestação de contas e de participação social.
Para encerrar, Marina Pita, Diretora na Secretaria de Políticas Digitais da SECOM da Presidência da República, afirmou não haver na verdade a dicotomia entre regulação por órgão central ou setorial. “A proposição submete aos órgãos setoriais e os setores regulados. Ocorre que hoje existe uma assimetria regulatória, com empresas que não são reguladas por nenhum órgão”. Segundo a diretora, o que vai acontecer é que vai ser aprofundada uma assimetria regulatória que já tem custado bastante.