Inteligência Artificial (PL 2338/2023 - Câmara dos Deputados)

Relatório da Audiência Pública n.º 1 para debater Conceitos de IA e modelos de regulação

RADAR BRASÍLIA

André Fortes Chaves

6/12/202530 min ler

COMISSÃO ESPECIAL DO PL 2338/2023 – INTELIGÊNCIA ARTIFICIAL

Audiência Pública n.º 1 para debater Conceitos de IA e modelos de regulação

Foi realizada ontem (10/06/2025) na Câmara dos Deputados a primeira audiência pública prevista no plano de trabalho aprovado pela Comissão Especial criada na Casa para apreciar o Projeto de Lei (PL) n.º 2338/2023, que dispõe sobre o uso de inteligência artificial (IA) no Brasil. O escopo da audiência consistiu em discutir conceitos de IA, bem como modelos de regulação.

Foram convidados para compor a mesa na condição de expositores os seguintes especialistas:

  • Dario Carnevalli Durigan, Secretário-Executivo do Ministério da Fazenda;

  • Laura Schertel, Relatora da Comissão de Juristas instituída pelo Senado Federal;

  • Cleber Zanchettin, Representante da Sociedade Brasileira de Computação - SBC;

  • Luiz Alexandre Reali, Gerente do Observatório Brasileiro de Inteligência Artificial (OBIA);

  • Andriei Gutierrez, Presidente da Associação Brasileira das Empresas de Software - ABES;

  • Bruno Bioni, Diretor da Data Privacy Brasil; e

  • Affonso Nina, Presidente da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais - BRASSCOM.

Confira abaixo relatório com transcrição livre.

Dario Carnevalli Durigan, Secretário-Executivo do Ministério da Fazenda

É necessária uma síntese dos desafios à frente: distributivos, ecológicas e digitais. Necessário encontrar um novo caminho para que se abra um novo ciclo de desenvolvimento para o país, que tenha por premissa a responsabilidade fiscal, compromisso ecológico e um desenvolvimento tendo as pessoas no centro do debate. A regulação é muito bem vista pelo governo federal e, de uma maneira equilibrada, deve ser bem vista por todos. Do ponto de vista da economia, a regulação trás previsibilidade e atração de investimentos para o país. O tema está sendo estudado por todo o mundo e a urgência de tratar do tema e a oportunidade de regular deve ser ressaltado como primeiro ponto. O Brasil tem um bom histórico de regulação digital e debate (temos o Marco Civil da Internet de 2014 a Lei Geral de Proteção de Dados de 2018, que têm ajudado a construir um ambiente mínimo).

O texto que sai do Senado é um bom ponto de partida. No ano passado foi discutido com países do G20 questões como a transição ecológica e digital e estamos na vanguarda do debate. Foram produzidos textos e materiais que podem ser divididos com a Comissão. Devemos buscar um equilíbrio entre fomento do setor, proteção do meio-ambiente e o adensamento tecnológico. É necessário manter a atratividade do mercado brasileiro, ainda que seja com contrapartidas mínimas. Precisamos de um modelo de regulação capazes de atrair investimento.

Ao mesmo temo, é necessário abordar as externalidades negativas. A IA é uma realidade que se impõe. Do tempo da aprovação do texto no Senado Federal, muitas novidades foram anunciadas. É necessário, então, garantir flexibilidade e cuidar de riscos, como a utilização por crianças e adolescentes. A tendência é que testemunhemos cada vez mais desemprego, que é um risco que é consistente e inevitável. Outro ponto é a discriminação decorrente da utilização da IA. É necessário que o acesso ao mercado garantido no ambiente analógico também seja garantido no ambiente digital. O último ponto é sobre o tema dos direitos autorais, que serão trazidas possibilidades para o relator.

Laura Schertel, Relatora da Comissão de Juristas instituída pelo Senado Federal

Necessário reconhecer o pioneirismo da Câmara dos Deputados no tema da regulação da IA e, especialmente, a deputada Luisa Canziani (PSD/PR), relatora do Projeto de Lei 21/2020, sem o qual o Senado Federal não teria apreciado a matéria.

Há alguns dados que mostram que, desde quando o Congresso Nacional começou a apreciar o assunto, houve uma evolução vertiginosa no tema. O Chat GPT teve em cinco dias um milhão de usuários. Enquanto isso, a Netflix precisou de três anos e meio para atingir o mesmo número de usuários. O Instagram, dois meses e meio. Se pegamos os dados do Chat GPT, hoje temos quatrocentos milhões de usuários, com a estimativa de um bilhão de usuários até o final do ano. Fica claro, portanto, o desafio de regular algo que avança nesta velocidade. O próprio Papa Leão citou a IA em seu discurso, ilustrando os desafios do tema no tocante à dignidade humana, emprego e trabalho.

Muitas empresas têm adotado IA buscando essa transformação digital interna, sem, no entanto, cuidar da segurança destes sistemas. Abre-se mão da segurança sem buscar os parceiros corretos. Há, então um risco não apenas regulatório, mas também empresarial, de cybersegurança e risco da informação. Precisamos, portanto, pensar na segurança destes sistemas e também de que tipo de riscos estamos falando.

Há três perspectivas de eixos de atuações centrais quando falamos de governança para IA. O primeiro deles é a perspectiva da governança privada, da autorregularão e dos princípios éticos. Essa perspectiva muitas empresas já estão adotando independentemente da aprovação de legislação, para lidar com a IA e com a transformação digital internamente, seguindo princípios éticos internacionalmente reconhecidos. O segundo eixo, quando se fala de governança, é o que referente ao fomento desta tecnologia. Que tipo de tecnologia queremos desenvolver no Brasil? Qual o futuro tecnológico que nós esperamos para o país? Só é capaz de evoluir se houver recursos humanos, ambientais e uma visão estratégica. O terceiro é o eixo da regulação, que só pode ser feito pelo Congresso Nacional. Deve-se estabelecer direitos, categorias de risco, cadeia de responsabilidades e sandboxes regulatórios. Sistemas opacos não podem ser regulados, por isso é necessário que sejam transparentes para que sejam observáveis e, portanto, reguláveis. O PL 2338/2023 trás um modelo de regulação eminentemente brasileiro, ainda que tenha sido inspirado em muitos outros instrumentos e documentos.

Cleber Zanchettin, Representante da Sociedade Brasileira de Computação - SBC

A urgência da regulação é clara. A IA já move recomendações online, decisões críticas, já é utilizada por 72% das empresas no Brasil em algum nível, 54% das empresas no país já usam sistemas de IA e essa transição está pressionando o mercado de trabalho. Com a disponibilização de modelos gratuitos no mercado, para praticamente 5% da população no mundo a IA é uma das tecnologias disruptivas mais acessíveis. Qualquer pessoa com acesso a celular conseguem ter acesso às mesmas tecnologias de pessoas em grandes laboratórios e universidades do mundo todo. A regulação tem que equilibrar inovação, proteção de direito e se alinhar com a estratégia brasileira de inteligência artificial para definir quais são os setores prioritários, os talentos que queremos desenvolver e como vamos desenvolver esta tecnologia de uma forma responsável.

Nossa estratégia de regulação precisa ser uma estratégia dual. De um lado precisa, num primeiro momento, estimular inovação, pesquisa e desenvolvimento tecnológico, para garantir uma competitividade. Segundo, instituir um marco regulatório para salvaguardar direitos fundamentais da população. Isso vai na direção de articular com a estratégia brasileira de IA do ponto de vista de como se alinhar à Lei, à inovação, educação e ciência e metas de longo prazo. Queremos ser consumidores ou fornecedores desta tecnologia?

Precisa ter uma participação multisetorial que envolva academia, setor produtivo, governo e sociedade, não apenas para construção, mas também para revisão das prioridades. Esta é uma tecnologia que se renova muito rapidamente, então precisamos ter ciclos de atualização muito rápidos, além de flexibilidade conceitual. As definições têm que ser amplas, mas voltadas para categorias de risco, para que tenhamos um diferencial competitivo. Devemos usar a regulação como estímulo (competitivo) para os pesquisadores e profissionais da área poderem avançar no Brasil.

Precisamos assegurar o uso ético da IA sem tolher a inovação. Os pilares que deveriam ser considerados vão na direção da transparência, responsabilização e explicabilidade.

Estamos indo num bom caminha, no sentido de regular de acordo com categorias de risco, inspirado no AI Act europeu, mas devemos adaptar a realidades do contexto brasileiro. Como que será a avaliação do impacto algorítmico em termos de riscos e mitigações, a transparência e a representatividade. É necessário pensar na responsabilidade não apenas de provedores e usuários, mas também de governos. É necessária uma transparência para o usuário sobre quando ele está interagindo com um sistema de IA ou não. Temos que ter coordenação entre setores sensíveis, tais como saúde, educação, finanças, recursos humanos, entre outros.

As ferramentas de IA já são capazes de realizar tarefas que geralmente são iniciais para aqueles que estão entrando no mercado de trabalho e a tendência é que isso seja intensificado.

Falta um pouco no texto do PL 2338/23 mecanismos para nos projetar para uma liderança internacional. Há alicerces muito sólidos no texto, mas ainda faltam instrumentos aceleradores. Por exemplo, alguns pontos que deveriam ser discutidos: formação de talentos, centros multidisciplinares, atração de talentos para o Brasil, política nacional de dados públicos, interoperabilidade desses dados e restrição para que estrangeiros não se aproveitem deles mais do que estamos nos aproveitando. Do ponto de vista de educação, é necessário ter um letramento desde o ensino básico. Isto porque será um diferencial competitivo a nível de pessoa física.

Andriei Gutierrez, Presidente da Associação Brasileira das Empresas de Software – ABES

É um tema urgente, sobretudo por causa do impacto que terá na economia brasileira. É um incremento de ganho de produtividade de todas as empresas brasileiras, sejam médias, pequenas, grandes e até mesmo o Estado brasileiro. É talvez a tecnologia mais importante do século XXI. Em 2024 e 2025, o mundo despertou para o tema e empresas começaram cada vez mais a internalizar esses sistemas e visualizar o impacto das regulações em suas competitividades. Economias que antes fomentavam a regulação hoje começam a experienciar resistências internas por dificuldades de implementação. A chefe de tecnologia da União Europeia declarou que a União Europeia não vai conseguir implementar na janela de tempo prevista. Japão aprovou uma regulação mirando a competitividade.

Então, estamos olhando para um debate que flutua ao sabor do avanço da tecnologia, da geopolítica e os países estão percebendo o valor estratégico para a inteligência artificial para seu ganho de escala.

É preciso que seja adotado um modelo flexível para que o instrumento legal consiga prover mecanismos para que os órgão reguladores consigam adaptar a nível infralegal. No entanto, também é importante refletir se é necessário criar novos órgãos reguladores, visto que já temos a ANATEL, o BACEN, a ANPD, entre outros.

Há também o tema dos direitos autorais. Regulamentar ou obrigar qualquer remuneração hoje de direitos autorais pode limitar o desenvolvimento de novas tecnologias aqui no Brasil. Esse debate, talvez, seja melhor discutir num segundo momento, debatendo a própria lei de propriedade intelectual e suas necessárias atualizações.

Bruno Bioni, Diretor da Data Privacy Brasil

É preciso desmistificar um ponto: regulação não inibe inovação. A verdadeira escolha que temos que fazer é qual o tipo de inovação queremos para o futuro do nosso país. Uma inovação que vai trazer prosperidade, crescimento econômico, bem-estar, ou uma inovação desregulada, que vai trazer concentrações econômicas e violências, como já estão acontecendo. Desde a parlamentares que já são alvos de deep fake até vendas de deep nudes de adolescentes nas escolas. Se regularmos sem prevermos deveres, não vamos conseguir alavancar essas tecnologias em direção a um caminho próspero.

Segundo ponto, na perspectiva de desmistificar alguns mitos. Quanto ao posicionamento de que deveríamos adotar um modelo principiológico e a operacionalização desses princípios pela autorregulação. Ocorre que a fase da autorregulação já passou. Hoje diversos países e, inclusive, em órgãos multilaterais, primam pela existência de regulações. Uma regulação verdadeiramente principiológica vai articular direitos e deveres para que essa aspiração de princípios possa ser operacionalizada. Então, a previsão de direitos e deveres é fundamental

Terceiro ponto, também numa perspectiva de falsos mitos levantados no debate sobre a regulação: o PL 2338/23 é uma reprodução do modelo da União Europeia. Não, não é. O Brasil está trilhando seu próprio caminho. A título de exemplo, e aqui temos que reconhecer o pioneirismo dessa casa, inclusive da presidente Luisa Canziani, temos o PL 21/2020, que deu contornos do discussão no Senado. Pelos termos do PL aprovado podemos reconhecer que o Brasil já tem uma infraestrutura reguladora em operação existente. Diferente de outras jurisdições, o que se está discutindo no Brasil é um modelo mais descentralizado. Por fim, quantitativamente vemos muito menos dispositivos previstos no PL 2338/23 se comparado ao AI Act europeu. Neste sentido, o Brasil já apresenta uma perspectiva de aprender com os “erros” do modelo regulatório europeu. Não estamos adotando um modelo muito ex ante e prescritivo. O modelo brasileiro enuncia direitos, princípio e deveres, mas deixa para calibração a posteriori. Isso permite uma estrutura mais imune ao tempo.

Sugestões: 1) a Câmara pode revisar alguns direitos que foram desidratados no decorrer da discussão no Senado Federal. Um deles é trazer uma moratória forte sobre tecnologias de reconhecimento facial no campo da segurança pública. Há evidências empíricas de que essas tecnologias são racistas e sobretudo ineficientes para a própria segurança pública; 2) devemos olhar sobre uma perspectiva de trazer mais controle social para essa governança, sobretudo para o elemento humano; 3) precisamos fazer uma discussão mais forte de fomento e de reconhecimento de quais são os gargalos. As inteligências artificiais são constituídas por dados. Será que caberia neste novo texto um capítulo sobre interoperabilidade de dados? É o que se tem sido puxado na lei japonesa; 4) sincronizar as discussões sobre data centers e inteligência artificial; 5) podemos ter um aspecto ainda mais plural com maior participação pública.

Affonso Nina, Presidente da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais - BRASSCOM

Quais é a estratégia legislativa que o Brasil deve adotar? Nem tudo é IA. Quando se fala de automação industrial e todo o impacto que isso teve nas fábricas, empregos e formação necessária, vemos que é necessário se falar numa regulação que não pense apenas em inteligência artificial, porque corremos o risco de ficar se atendo a algo que pode ser muito mais amplo em termos de outras tecnologia que já existem ou podem vir a existir. É preciso, então, que o modelo seja dinâmico.

Ao mesmo tempo, ter a previsibilidade é importante para atrair investimento por meio de segurança jurídica. Mas isso exige que não delonguemos demais, bem como não adotemos uma legislação muito pesada. Precisamos de uma regulação mais dinâmica e leve.

Andriei Gutierrez mencionou o Plano Brasil digital 2030+, que é uma proposta que foi levantada pelo Conselhão à Presidência da República e vários outros estados, municípios e membros do setor privado estão abraçando, que é uma visão de estratégia de Estado para o Brasil desenvolver as suas tecnologias digitais.

É importante buscar a nível internacional o que é que se tem construído em termos de legislações digitais, que é algo que essa Comissão busca fazer. Temos que evitar que a legislação seja ultrapassada pelo desenvolvimento da tecnologia sem a devida regulação.

Quando falamos em quais sistemas devem ser regulados e como, entramos numa discussão muito técnica. Então, no pouco tempo que temos aqui, devemos focar no que deve estar por trás dessa discussão: 1) compromisso ético operacionalizado; 2) arcabouço jurídico que faça com que essa lei foque no que precisamos ter como base, mas saiba que tenha outros pontos que vão acontecer no futuro como evolução; e 3) classificação de risco e seu respectivo impacto. Necessário pensar em ciclos de atualização.

Luiz Alexandre Reali, Gerente do Observatório Brasileiro de Inteligência Artificial (OBIA)

A IA transcende as fronteiras dos países, regiões e dos continentes, o que precisa estar nos princípios norteadores da sua regulação. O OBIA se baseia encima de três eixos: 1) dados estatísticos representativos, confiáveis e comparáveis internacionalmente; 2) repositório de documentos regulatórios, legislativos, projetos de lei, relatórios técnicos e recomendações, todos relacionados a IA no Brasil e no mundo; e 3) um hub de IA, onde busca promover e facilitar a cooperação e o intercambio de conhecimento entre os principais atores de IA no Brasil, promovendo compartilhamento de experiências entre os centros de pesquisas dedicadas ao tema. O OBIA já conta com as ações estratégicas do eixo de governança da Estratégia Brasileira, instituída em 2021, e teve seu reforço constando no processo de governança no PBIA, Plano Brasileiro de IA. Assim, o observatório foi lançado em setembro do ano passado (2024). Sua principal função consiste em subsidiar gestores e formuladores de políticas públicas com essas informações e dados qualificados e independentes.

Interdisciplinariedade e multissetorialismo – promovendo esses debates amplos com diálogos com diferentes áreas do conhecimento na construção de consensos sociais e técnicos.

A inclusão e a universalização – o marco legal regulatório deve incentivar esse uso por toda a sociedade, promovendo capacitação, letramento digital, acesso equitativo às tecnologias equilibrando as oportunidades e capacitando a sociedade para o uso responsável e consciente e seguro.

Proteção aos direitos fundamentais e de grupos vulneráveis, menores e adolescentes – a regulação deve proteger a privacidade e os dados pessoais, deve evitar a exploração de vulnerabilidade humanas, cognitivas e emocionais, não discriminar e garantir a liberdade de expressão.

Avaliar o que a IA traz de novo – quais são as diferenças que a IA trás que o arcabouço legal atual não dá conta. Evitar a tentação de regrar novamente e criar aspectos que podem trazer uma complexidade jurídica e brechas por terem diferentes interpretações de acordo com o ponto de vista se tem IA ou não.

Definições precisas e atualizadas – se se vai regular, é preciso saber exatamente o que está sendo regulado com precisão e clareza. Quais são os processos, o que se espera. Buscar uma regulação de forma que permita que padrões sejam adotados de forma complementar e alternativa (ABNT, ISO, NIST), no sentido de criar plataformas de processos, de padrões, de segurança que podem ser reforçados na legislação e que sejam adotados pela indústria, cumprindo requisitos e ganhando agilidade e dinamicidade necessárias para acompanhar a evolução galopante da IA.

Harmonização internacional – se tivermos uma legialacao compatível, isso facilita a iteração e o trabalho cooperado entre países com, por exemplo, o LATAM GPT, que é uma associação entre os países da América Latina, Caribe e o Brasil para desenvolver seus próprios sistemas para trazer capacitação, aprendizado e máquinas.

Incentivo e Visibilidade para a IA nacional – políticas públicas em paralelo que trariam formas de potencializar as oportunidades e mitigar os impactos sociais que certamente virão. Promover a pesquisa nacional, coordenar as ações estratégicas dessa produção científicas, trazer projetos estratégicos com alcance nacional e até global para tentar reter talentos e atrair talentos de outros países para o nosso ecossistema.

Incentivo à adoção e literação das empresas nacionais – a IA não volta, ela veio para ficar. Sem uma adoção maciça de empresas nacionais vamos perder competitividade e relevância.

Deputado Aguinaldo Ribeiro (PP/PB), relator do PL 2338/2023

O intuito é assentar o debate de forma que nosso ponto de partida seja de fato o texto que foi aprovado no Senado Federal e que, a partir deste texto, possamos parametrizar e ir aprofundando no que tem feito em outros países com a necessidade de aprimoramento em função da própria evolução tecnológica que experienciamos. Então, o texto do Senado Federal é o que nos serve de base.

Importante ter uma definição clara de conceito de IA, que possa servir de base comparativa com modelos de regulação. A primeira pergunta é se a definição do conceito de sistemas de IA aprovada no projeto 2338/2023 é adequada. É uma pergunta chave para que possamos avançar nos demais temas. A partir daí vamos caminhar para como deve ser regulados aquilo que se definiu como sistema de IA. Parece haver um consenso de que a busca ideal de um marco regulatório, a partir do que se definiu do que é o sistema, é ter equilíbrio entre a inovação, seu estímulo e, ao mesmo tempo, a proteção dos direitos fundamentais e os dados de cada cidadão.

Uma outra questão que precisa ser avaliada e que foi buscada em modelos internacionais é o da avaliação de risco, que é uma decisão quanto ao modelo regulatório. É necessária uma regulação ética sem, no entanto, tolher a inovação. São pontos que convergem entre as falas trazidas.

Deputada Jandira Feghali (PcdoB/RJ)

Devemos entender que, de fato, é um tema que não tem retorno, como ferramenta de trabalho e de incidência na sociedade e, também, sua abrangência, que não é pequena, mas grande. Precisamos ter foco, porque sem isso não saímos do lugar. O projeto do Senado é realmente um bom parâmetro para começar. No tocante à preocupação de engessamento, a proposta do Senado não o faz. Pelo contrário, é bastante flexível. Além disso, há que ser dito que a regulação não pode regular além do que está na lei. Então, ao mesmo tempo que devemos ter princípios, temos que ter disposições concretas.

Há que ser reforçada a pergunta trazida pelo Cleber Zanchettin: nós seremos consumidores ou fornecedores de tecnologia. Temos que regular o que já está posto, mas temos que fomentar a tecnologia brasileira. Tem alguns pontos que já estão estabelecidos: 1) tem que respeitar a dignidade humana; 2) impedir a discriminação; 3) enfrentar desafios sociais, econômicos e de sustentabilidade; 4) transparência, porque tem que ser auditável e fiscalizável; e 5) tem que defender valores fundamentais. A LGPD não vai resolver problema do racismo, da misoginia, da democracia, da xenofobia. A LGPD permite que todos esses crimes sejam feitos sem qualquer resposta.

As questões que se colocam são: se não regular, quais as consequências que se colocam e se há algum estudo de impacto em relação ao desemprego com o uso da IA.

Deputada Adriana Ventura (NOVO/SP), Vice-presidente

Aprovamos na Câmara dos Deputados um projeto, o Senado Federal o rejeitou e aprovou outro com princípios diferentes.

Como o Ministério da Fazenda avalia o impacto desse projeto para o ambiente de negócios e para a competitividade? Qual o risco para o Brasil se ficarmos para trás nessa regulamentação? Esse modelo incentiva ou inibe inovações em termos de IA?

Deputado Marcelo Crivella (Republicanos/RJ)

Há planos para que tenhamos auditoria externa com relação às empresas de IA, que seria uma dupla segurança. Como garantir que as ferramentas de IA estarão ancoradas nos princípios constitucionais? Muitos algoritmos em funcionamento na internet são criados para gerar likes e compartilhamentos de forma que uma pessoa que, por exemplo, é contra as vacinas vai ser bombardeada por informações com o mesmo posicionamento, para reforçar as possibilidades de likes e compartilhamentos. Ela não deveria ter acesso ao contraditório? Isso é constitucional?

Deputado Lafayette de Andrada (Republicanos/MG)

No geral, quase a totalidade dos expositores falam por uma perspectiva das grandes empresas do setor. Precisamos ter audiências mais plurais, em que todas as partes são ouvidas.

Orlando Silva (PcdoB/SP)

Governança – uma lei pode ser conceitual e/ou principiológica. Depende do objetivo, das circunstâncias, do que se está regulando. Sobretudo quando se tem matéria infralegal que merece mais potência e recursos para seu desenvolvimento. Neste sentido, os artigos 15 e 16 do texto aprovado no Senado Federal oferecem flexibilidade para a lei. Não há enrijecimento na proposta. Pelo contrário. Prevê que, à medida em que houver desenvolvimento tecnológico, regulamentações (não regulação), que é aquilo que cabe a nível infralegal, pode ser desenvolvido.

Desse modo, mitiga-se o risco de obsolescência da lei. Há uma descentralização da supervisão, que é o núcleo do projeto da lei, com ênfase em órgãos regulatórios setoriais. Há, no entanto, um ponto cego, que é aquilo que não compete a nenhum dos órgãos regulatórios. E aí, o que fazer? Alguém deveria ter uma competência suplementar. Aí sim a competência da ANPD ou por algum outro órgão. Mas alguém tem que responder por isso.

O texto que veio do Senado merece aperfeiçoamentos. Me somo à reflexão feita pelo relator Aguinaldo Ribeiro. Talvez coubessem reuniões administrativas para fazermos ensaios sobre conceitos de IA, pois há outros conceitos, de modo que possamos sair desse pondo de partida. Podemos publicar os resultados de uma convergência.

O PL de IA reforça ou fragiliza a LGPD? Qual seria o impacto jurídico de retirar a exigência de avaliação de impacto algorítmico do PL 2338/2023?

Deputada Luizianne Lins (PT/CE)

O que é necessário avançar no PL para proteger a população tida como vulnerável? Corre o risco de parte da população ficar invisibilizada pelo racismo, LGBTfobia, haverá um sub-representação pelos algoritmos.

Existe algum país hoje que esteja liderando em inovação de inteligência artificial e que não tenha uma estrutura legal obrigatória de responsabilização e supervisão algorítmica?

Qual seria o prejuízo para o setor privado caso o PL 2338/2023 adotasse o mesmo regime de classificação de risco da IA Act da União Eutopeia?

Como conciliar com os princípios da OCDE, que exige governança proporcional e accontability obrigatória em IA?

Deputado David Soares (União/SP)

Esse é o projeto mais importante dessa Casa nesse ano e, talvez, nessa década. O que sair dessa casa vai afetar pessoas, pode destruir empregos e, também, pode gerar oportunidades. Aqui está um deputado ávido a aprender e ouvir, mas existe um temor relacionados aos limites. Vamos ser capazes de dar limites e dizer o que pode e o que não pode? Vamos à internet e vemos vídeos fakes encima de personalidades, daqui a pouco serão sobre nós. Ano que vem vai ter uma eleição. Como vai ser o controle ou o modo para delimitar e classificar. Daqui a pouco vão colocar nossa cara em vídeos, criando um verdadeiro caos.

Deputado Vitor Lippi (PSDB/SP)

Como conseguimos entregar a Reforma Tributária, é bem possível que consigamos buscar algo que seja muito bom para o país, sem tantos conflitos de interesse que tivemos em outras matérias de impacto econômico.

Quanto a empregos, a IA vai criar ou diminuir postos? Obviamente que ela vai mobilizar os empregos. Se temos uma certeza é de que tudo vai mudar cada vez mais rápido. A ciência e a tecnologia da informação são determinantes para a sobrevivência das industrias e das empresas. Se tiver uma automação na indústria, então vai substituir o trabalhador? Sim, porque senão vai fechar a indústria e vai ter mais desemprego ainda. Portanto, não tem como fugir da tecnologia e inovação porque são determinantes da competitividade do país e são elas que vão produzir empregos. Mas vamos mudar os tipos de emprego de forma que alguns vão ser dispensados. Entendo que vamos ter muito menos empregos se não tiver inteligência artificial. Vamos ficar sem indústria.

A outra questão que é muito desafiadora é a questão dos direitos autoriais. Como vamos aplicar as disposições de direitos autoriais numa plataforma que as informações são de domínio público? Ou seja, será que a IA copia alguém ou vai buscar consensos aritméticos e matemáticos encima de algoritmos? Ela fez copia fiel de nada, ela sabe fazer cálculo matemático. Por isso que ela não tem ética às vezes de forma que, às vezes, tem tanta informação negativa sobre determinado assunto que ela reproduz aquilo. Será que cabe aplicar os direitos autorais sobre sua produção? Estamos falando de um novo mundo de informação. Talvez determinar de que forma de que forma a ferramenta chegou a certo resultado seja impossível.

Precisamos preparar o Brasil para não ser um consumidor apenas, mas um protagonista da tecnologia e inovação, que significa também prosperidade, competitividade e geração de empregos.

Affonso Nina, Presidente da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais - BRASSCOM

Do ponto de vista puramente tecnológico, a definição adotada no PL 2338/2023 é bastante ampla e se aplica a diversos sistemas de tecnologia da informação que não apenas utilizem as técnicas de inteligência artificial. Tem compatibilidade com a definição da OCDE. Então, a discussão que existe é a de que talvez não conseguimos ter uma definição técnica que seja precisa do ponto de vista tecnológico sobre o que é efetivamente o sistema de IA, porque existe uma complexidade para se chegar a isso. Por outro lado, não podemos nos isolar e criar uma definição que torne o Brasil incompatível com definições que existe no mundo. Temos que buscar no mínimo um meio termo, senão um alinhamento em relação a isso. Senão teríamos uma legislação que já em sua largada já estaria diferente do mundo.

Precisamos entender risco e impacto como conceitos diferentes. O risco de cair um meteoro na minha cabeça é extremamente baixo, mas o impacto é alto. Por outro lado, você pode ter outros riscos altos de impacto baixo. O pior cenário é o de que tem um risco e impacto altos, que é o que queremos evitar. Talvez possamos aprimorar o texto em relação ao dimensionamento de riscos e impactos.

A BRASSCOM é integrada desde grandes empresas, que tem maior capacidade de estar em conformidade com a lei, quanto por startups. Não podemos esquecer dos pequenos desenvolvedores, que são os que trazem riqueza para esse ecossistema, que tem mais dificuldade quanto aos custos de conformidade.

Orlando Silva (PcdoB/SP)

Não dá para termos regras que inviabilizem o funcionamento de startups. Essa reflexão deveria inspirar o relator a trazer mecanismos de proteção de startups. Uma coisa é uma Bigtech, que é quem opera num certo nível e matriz de risco. Outra coisa é uma pequena startup.

Laura Schertel, Relatora da Comissão de Juristas instituída pelo Senado Federal

O conceito de sistema de IA, de fato, foi inspirado naquele adotado pela OCDE, que alterou sua definição ao longo do tramite do anteprojeto no Senado Federal, de forma que o conceito foi, em tempo, revisto e internalizado. Entendo que o conceito trazido no PL 2338/2023 seja mais apropriado do que aquele da Comissão de Juristas do Senado. Na Comissão a gente especificava quais eram os sistemas, então a gente dizia “utilizados em abordagens como aprendizagem de máquina e/ou lógica e representação do conhecimento”. Esse modelo foi criticado devido à possibilidade de modificação de sistemas. Ao retirar essa especificação o conceito ficou mais abrangente e, portanto, mais funcional, o que é positivo à medida que precisamos de um conceito que seja interoperável com outros no mundo todo. A adoção do modelo trazido pela OCDE também reforça o caráter funcional do paradigma em apreciação.

Sobre modelagem de riscos, não tenho dúvida de que precisamos ter um sistema baseado em riscos. Há ferramentas como o filtro de spam que possuem riscos reduzidos. Esse é o espírito do PL 2338/2023 e de qualquer regulação moderna que esteja preocupada em garantir a inovação e direitos fundamentais. Será que faz sentido elencar margens de riscos como faz o PL? Me parece que sim, porque qual outra instituição teria essa competência para dizer o que é e o que não é de alto risco? A instituição mais legitimada para dizer é justamente o Congresso Nacional.

Mas precisamos deixar a cargo das agências reguladoras, que são as protagonistas desse sistema do PL para poder especificar, podendo, inclusive, excetuar categorias de risco para aquele setor específico. Então, essa escolha de elencar uma tabela de riscos que seja flexível e que possa, inclusive, ser excepcionalizada pelas agências reguladoras parece um bom caminho para abordar essa grande tensão entre proteção de direitos fundamentais e, ao mesmo temo, garantir a inovação, observando aspectos técnicos e setoriais.

Estamos dentro dos parâmetros constitucionais. Para garantir todos os direitos fundamentais garantidos pelo artigo 5°, precisamos de uma estrutura bastante robusta, que é o que o projeto trás. Um estrutura de supervisão, ao mesmo temo descentralizada, com o protagonismo das agências e medidas de governança adequadas às categorias de risco.

O alerta é de que, se demorarmos muito, veremos a proliferação de leis estaduais e até municipais, como já estamos vendo aqui. Existe um elemento, então, de urgência para evitarmos essa fragmentação regulatória.

Andriei Gutierrez, Presidente da Associação Brasileira das Empresas de Software – ABES

Defendemos o conceito de soberania nacional competitiva. O Brasil precisa urgentemente de uma soberania nacional, mas que ela seja pragmática. Que reconheça que ainda dependemos de muita tecnologia estrangeira e que não podemos fechar portas sob pena de prejudicar o agronegócio o setor financeiro, entre outros setores. Precisamos de uma estratégia de médio e longo prazo para podermos chegar lá um dia.

Já não somos só consumidores. Já desenvolvemos muita IA, mas aplicada. O custo de se desenvolver uma tecnologia de base, LLM, era estimado entre $500 milhões a $1 bilhão de dólares. Em janeiro desse ano a DeepSeek provou que com $5 ou $6 milhões de dólares dá para fazer.

Acho que o problema não é tanto definição. O Japão e o mundo estão caminhando na direção da OCDE. O desafio é começar a incluir definições, como tem no PL 2338/2023, de desenvolvedor, de distribuidor, de aplicador, etc. É trazer obrigações acessórias correspondente para cada um desses agentes. A lei precisa ser flexível para que cada regulador setorial veja como aquele risco se aplica para o setor dele.

O risco ele começa quando a ferramenta passa a operar, senão imagina o custo que teríamos se o regulador tivesse que regular o desenvolvimento de todos os setores. Ao passo que se o regulador focar no uso, quando entrou em operação, isso é muito mais eficiente.

Precisamos pensar se, de fato, temos zonas cinzentas. Temos Códigos Penal, Civil de Defesa do Consumidor, entre outros, que devem servir para regular esses possíveis casos. Reforço aqui que a LGPD, dialogando com a deputada Jandira Feghali, a LGPD entra sim em questões de vieses, de racismo, preconceito religioso, étnica, filiação a sindicato, entre outros. Se a gente for entrar em dado pessoal, sobretudo dados sensíveis, é o escopo da LGPD. Dados que envolvam estas questões já podem ser regulados.

Além disso, é necessária muita sapiência para não deixar o debate de regulação de plataformas sociais contaminar o de inteligência artificial. Está sempre ali na fronteira, mas são dois temas distintos, que se forem tratados de maneiras separadas terá boas chances de avançar com êxito.

Cleber Zanchettin, Representante da Sociedade Brasileira de Computação - SBC

A última redação foi bastante feliz quanto à definição de IA. Mas, se juntássemos dez pesquisadores seniores de IA nesta sala, eles divergiriam em alguma medida sobre pontos da definição. Então, é improvável uma convergência muito clara. Mas fico bastante satisfeito se for convergente quanto ao que todo mundo considera como sendo um sistema de inteligência artificial no resto do mundo.

O que eu acho que a gente tem que ter como preocupação é que um sistema de inteligência artificial não é “um” sistema. Para você colocar uma IA para rodar existe todo um processo que eventualmente pode envolver mais do que uma inteligência artificial. Isso é uma das preocupações que devemos ter do ponto de vista de como a gente controla, coordena e eventualmente analisa como ele vai funcionar. Podemos ter diferentes sistemas de IA, de diferentes fabricantes, de diferentes desenvolvedores cooperando em um mesmo sistema de tomada de decisão, o que não sei se está suficientemente claro nesta definição, mas se formos totalmente exaustivos a tecnologia vai evoluir muito mais rapidamente. Corre o risco de criarmos um projeto que seja datado.

Do ponto de vista da matriz de riscos, eu acho que estamos numa direção bastante interessante. Precisamos categorizar esses riscos, mas, por outro lado, temos agências reguladoras que precisam ser capacitadas para, de alguma forma, poderem regular seus respectivos setores, tornando esse projeto em uma lei viva. Eu acho que não necessariamente é no momento do uso porque para você usar você precisa ter todo um desenvolvimento que pode envolver dados pessoais, princípios de operação, formas de desenvolvimento, quais são os parceiros, etc. Imagine que uma tecnologia que a gente use no Brasil pode ter sido treinada com dados de um outro país. Dados brasileiros podem ser utilizados para treinar IA de outros países. Uma IA que foi criada para um objetivo X pode ter sucesso em atingir um objetivo Y. A cadeia toda precisa responder e ser responsável. Veja que a gente tecnologias duais, para o bem e para o mal (energia nuclear, energia genética, todas tecnologias duais).

Não dá para se esquecer que uma startup é uma empresa pequena, mas o que a IA fez com a economia é que não existe mais barreiras tecnológicas, financeiras e de acesso. Assim, uma startup pode competir com uma empresa Forbes 500, basta, para isso, ela ter capacidade, oportunidade e visão. Então, não podemos ter uma visão míope. Temos que fomentar nossas startups, mas temos que fazer com que elas cresçam de forma responsável.

Bruno Bioni, Diretor da Data Privacy Brasil

Com relação às duas perguntas do relator, o conceito adotado, como explicado pela professora Laura, já teve alguns ajustes para seguir os parâmetros definidos pela OCDE. Os sistemas precisam conversar e ser interoperáveis, não apenas os informacionais, mas também os jurídicos nesse aspecto. O olhar do escopo de aplicação da lei precisa ser duplo. Não olhar apenas para o conceito de IA, mas também para o conceito de risco.

Neste sentido, quanto à segunda pergunta, que tem a ver com a perspectiva de avaliação de impacto algorítmico, ela só é exigível para as IAs de alto risco e a regra, pelo Projeto de Lei, é que todas são de baixo risco a não ser que você tenha uma regulamentação daquela lista ou, a posteriori, identificação de novos sistemas de alto risco. Então, o projeto que chega na Câmara dos Deputados é bastante flexível, justamente para poder se adaptar à mutação da tecnologia que pode um dia ser de alto risco e no outro de baixo risco.

Com relação ao SIA, é importante trazer que essa é uma das diferenças profundas que o Projeto de Lei brasileiro tem em relação ao AI Act. Quem vai fazer as regulamentações setoriais são os respectivos órgãos reguladores, o que veio depois de uma longa discussão. Aqui, o mérito é da deputada Luisa Canziani, quando relatou o PL 21/2020, no intuito de dar protagonismo os entes setoriais e o Senado Federal aperfeiçoou, criando o sistema de governança e regulação de IA. E, pelo texto do Projeto de Lei, não há hierarquia entre a ANPD e essas agências setoriais. Pelo contrário, é dado protagonismo e eficácia normativa plena.

Um ponto importante é que a ANPD vai ficar com uma competência suplementar ou residual, como disse o deputado Orlando Silva, o que é muito importante. Hoje você tem players que estão totalmente desregulados e isso gera uma distorção competitiva. E, hoje, onde o Brasil tem mais competitividade é justamente em setores hiper-regulados, de forma que há um foço assimétrico que gera questões concorrenciais. Por isso é tão importante retomar até uma linguagem mais forte do papel do CADE no SIA. Talvez esse seja um aperfeiçoamento importante para se ter no texto.

O modelo que se defende, portanto, é o regulatório assimétrico de risco, mas que também lista direitos e um arranjo institucional descentralizado, que foca justamente no Sistema Brasileiro de Governança e Regulação de Inteligência Artificial. Então, não, o PL 2338/2023 não vai em gessar a inovação. Pelo contrário, vai impulsionar inovação. Por exemplo, uma tecnologia brasileiro que foi criada recentemente é o PIX, gestado com o regulador cooperando. Entidades privadas e o Estado dialogando para pensar em como que o produto que vai ser lançado vai ser o mais seguro possível. Isso você faz antes de lançar no mercado, como disse aqui o Cleber Zanchettin. Não é depois fazer um recall. Por isso a necessidade de ter uma regulação para afirmar direitos. Esse é o contexto brasileiro. Estamos vivendo uma epidemia de fraudes. É a desproteção de dados que está gerando perdas econômicas. Não é a proteção de dados que está engessando a inovação. É um falso trade off, um mito de que proteger direitos inibe inovação.

Precisamos partir de um debate de que estamos seguindo um caminho genuinamente brasileiro, reconhecendo a infraestrutura regulatório que temos no país e simplesmente cumprindo o artigo 170 a Constituição, que dispões sobre a livre iniciativa e proteção da dignidade da pessoa humana. Então é um projeto deferente do ponto de vista constitucional, inclusive.

Luiz Alexandre Reali, Gerente do Observatório Brasileiro de Inteligência Artificial (OBIA)

Com relação à definição, queria levantar um outro aspecto, como a própria professora Laura levantou, que é: em 2019 foi feita a primeira versão e depois, no final de 2023 e começo de 2024, foi publicada uma atualização dessa definição. Ou seja, ela é mutável. Por isso trouxe uma perspectiva mais flexível e abrangente, apoiada encima de alguma instituição que estabeleça padrões e que se encarregaria dessas atualizações dessas definições com a periodicidade necessária.

Sobre risco, é importante encontrar os verdadeiros responsáveis na verdade. Se eu escrevo uma mensagem de ameaça a você o responsável não é o carteiro a não ser que tenha sido ele o autor da mensagem ou que escolha as mensagens que entrega. Aí ele teria uma participação.

Sobre como democratizar o letramento. O OBIA subsidia o pode público com informações. Ele não regula nem fiscaliza a IA, mas busca dados e indicadores para subsidiar esses processos. Assim, busca parceiros de excelência, inclusive acadêmicos que possam trazer informações, seja do setor público, privado ou academia. Então, não tenho uma resposta, mas posso pensar em alguns aspectos, como fazer uma educação acessível sobre o tema, trazendo linguagens simples para ter uma maior abrangência, inclusão dos temas principais do letramento digital nos currículos, apoiar instituições do terceiro setor que se ocupam desse letramento e da propagação dessas informações. Colocar transparência nesses processos. Se a IA parece um humano eu preciso saber se ele é um humano ou não. Do contrário, não saberemos o que pensar e como interagir com esse sistema. Necessário divulgação. Pensando que somos um país muito diverso, lembramos que metade da nossa população apresenta um grande analfabetismo funcional. Então os aspectos principais são o pensamento crítico e a resolução de problemas. São habilidades que têm que ser desenvolvidas e isso vem por uma educação básica, condição econômica, entre outros.

Luisa Canziani (PSD/PR), presidente da Comissão Especial destinada a apreciar o PL 2338/2023

Não havendo nada mais a tratar, declara encerrada a sessão, ficando a próxima reunião convocada para o dia 17 de junho 2025 às 13h30 em plenário a definir.

Considerações

Pelo discutido entre os convidados e considerado o escopo da audiência pública, para discutir conceitos de IA e modelos regulatórios, ainda que não haja um consenso sobre a definição de sistemas de inteligência artificial, nota-se uma baixa propensão para se rediscutir esse assunto e a abordagem de regulação por categorias de risco. Se a tramitação seguir neste sentido é esperado um menor desgaste político no seu processamento, evitando que o Senado Federal, Casa autora do PL 2338/2023, venha a ter que apreciar eventuais alterações apostas pela Câmara dos Deputados, casa revisora.

Outro ponto bastante relevante que, neste caso, suscitou divergências é o do momento da incidência da regulação, se ocorreria quando do desenvolvimento de uma ferramenta de IA ou apenas quando colocada para operar no mercado, o que deverá ser objetivamente mais bem definido ao longo da tramitação.

Por outro lado, a necessidade da regulamentação parece ser consensual entre as partes convidadas, bem como entre os membros da Comissão Especial, fundamental para trazer segurança jurídica e previsibilidade, condições importantes para alocação de recursos no setor. Defendeu-se ser um mito a dicotomia entre inovação e regulação, sendo necessário definir um modelo de regulação que, na verdade, fomente a inovação.

Por fim, um ponto de destaque é que a proposta sob análise preserva a autonomia de regulação setorial das agências reguladoras, que poderão editar regramentos aplicáveis em seus respectivos ecossistemas. Ademais, entende-se não haver hiato normativo dada a vigência de diplomas como Código Civil, Código Penal, Código de Defesa do Consumidor, Código Eleitoral, entre outros.

Conforme já dito, relevante ressaltar que se a Câmara dos Deputados, na condição de Casa revisora, emendar o mérito da proposição, nos termos do parágrafo único do art. 65 da Constituição Federal, deverá submeter as alterações para decisão final do Senado Federal, Casa autora.

Neste caso há particular aperto temporal visto que no fim do ano as atenções do legislativo são especialmente destinadas à votação do orçamento e que próximo ano (2026) é ano eleitoral.