PL 2688/2025: Novo Marco Regulatório da IA no Brasil — O Que Muda | OpenClaw

Em 18 de março de 2026, a Comissão de Comunicação (CCom) da Câmara dos Deputados aprovou o PL 2688/2025, que institui o Marco Regulatório do Desenvolvimento e Uso da Inteligência Artificial no Brasil. O projeto é a proposta mais recente — e uma das mais abrangentes — do Legislativo para disciplinar a IA no país, complementando o PL 2338/2023 que já tramitava desde o Senado.

Para quem acompanha a evolução do Marco Legal da IA e as discussões sobre responsabilidade civil de algoritmos, o PL 2688/2025 traz novidades importantes que impactam diretamente empresas, desenvolvedores e profissionais de tecnologia.

De Onde Vem o PL 2688/2025

O governo federal apresentou o PL 2688/2025 em dezembro de 2025 como uma proposta complementar ao PL 2338/2023, que teve origem no Senado e foi aprovado em dezembro de 2024. Enquanto o PL 2338/2023 tem foco mais amplo em princípios e direitos, o PL 2688/2025 traz regras operacionais detalhadas sobre governança, transparência e responsabilidade.

A tramitação paralela dos dois projetos reflete a urgência do tema: o Brasil é um dos maiores mercados de IA da América Latina, com 42% das empresas já utilizando alguma forma de inteligência artificial, mas até agora sem um marco legal específico em vigor.

Principais Pontos do PL 2688/2025

1. Classificação de Risco dos Sistemas de IA

O projeto adota uma abordagem baseada em risco, inspirada no AI Act europeu, mas adaptada ao contexto brasileiro. Sistemas de IA são classificados em:

  • Risco inaceitável — proibidos (ex.: sistemas de pontuação social, manipulação subliminar)
  • Alto risco — sujeitos a obrigações reforçadas de transparência, auditoria e supervisão humana
  • Risco limitado — obrigações de transparência básica
  • Risco mínimo — sem obrigações específicas além das gerais

Essa classificação determina o nível de compliance exigido de cada empresa que desenvolve ou opera sistemas de IA.

2. Obrigações de Transparência

Plataformas e desenvolvedores de IA passam a ter obrigações explícitas de transparência:

  • Identificação de conteúdo gerado por IA — textos, imagens, áudios e vídeos produzidos por sistemas de IA devem ser identificáveis e rastreáveis
  • Rastreabilidade — mecanismos que permitam auditar como um conteúdo foi gerado
  • Informação ao usuário — sempre que uma pessoa interagir com um sistema de IA, deve ser informada de forma clara
  • Explicabilidade — para sistemas de alto risco, o usuário tem direito de entender a lógica por trás de decisões automatizadas

3. Revisão Humana Obrigatória

Decisões automatizadas que afetem direitos fundamentais devem ter supervisão humana. Isso inclui:

  • Decisões sobre crédito e serviços financeiros
  • Processos seletivos e contratação
  • Acesso a serviços públicos
  • Diagnósticos médicos assistidos por IA
  • Decisões judiciais ou administrativas

Essa exigência se conecta diretamente com o que o CNJ já estabeleceu para o uso de IA no Judiciário e com a prática de jurimetria e IA preditiva.

4. Proteção de Dados Pessoais

O PL reforça a conexão entre regulamentação de IA e a LGPD, estabelecendo que:

  • Dados utilizados para treinar modelos de IA devem respeitar bases legais da LGPD
  • O uso de dados pessoais sensíveis em sistemas de IA de alto risco exige consentimento específico ou justificativa legal clara
  • A ANPD mantém papel central na fiscalização do uso de dados em sistemas de IA

Empresas que já investiram em compliance com a LGPD terão parte do caminho percorrido, mas precisarão adaptar processos para as exigências adicionais do marco de IA.

5. Responsabilidade Civil e Penal

O PL 2688/2025 avança na definição de responsabilidade:

  • Desenvolvedores respondem por defeitos nos sistemas de IA que causem danos
  • Operadores (empresas que utilizam a IA) respondem pela aplicação inadequada
  • Ambos podem ser responsabilizados solidariamente em caso de danos a terceiros
  • Para sistemas de IA de alto risco, adota-se o princípio da responsabilidade objetiva — não é necessário provar culpa

Esse enquadramento complementa a discussão sobre quem paga quando o algoritmo erra e tem implicações diretas para seguradoras, fintechs e empresas de saúde.

Governança e Fiscalização

O PL institui um Sistema Nacional de Governança de IA com participação de:

  • ANPD (Agência Nacional de Proteção de Dados)
  • Órgãos reguladores setoriais (Anvisa, Bacen, CVM, etc.)
  • Entidades de defesa do consumidor
  • Representantes da academia e da sociedade civil

A estrutura multisetorial reconhece que a IA permeia diferentes indústrias e não pode ser regulada por um único órgão. Para empresas, isso significa atenção a regulamentações complementares que virão de órgãos específicos do seu setor.

Próximos Passos da Tramitação

O PL 2688/2025 foi aprovado pela CCom e segue para análise de outras comissões da Câmara antes de ir ao Plenário. O cenário atual indica que:

  1. O projeto deve ser analisado em conjunto com o PL 2338/2023
  2. A expectativa é de votação consolidada no segundo semestre de 2026
  3. Há pressão do setor produtivo por regras claras que não inibam inovação
  4. Organizações da sociedade civil pedem maior proteção a direitos fundamentais

O Que Empresas Devem Fazer Agora

Mesmo antes da aprovação final, empresas que utilizam ou desenvolvem IA no Brasil devem se preparar:

  1. Mapear todos os sistemas de IA utilizados e classificá-los por nível de risco
  2. Documentar processos de treinamento, dados utilizados e lógica de decisão
  3. Implementar mecanismos de supervisão humana para decisões automatizadas críticas
  4. Revisar contratos com fornecedores de IA para incluir cláusulas de responsabilidade
  5. Estabelecer políticas internas de governança de IA
  6. Capacitar equipes sobre as implicações regulatórias do uso de IA

Ferramentas como o OpenClaw podem auxiliar na automação de processos de compliance, revisão de contratos e pesquisa jurídica relacionada à regulamentação de IA.

Impacto no Ecossistema de IA Brasileiro

O PL 2688/2025 é um sinal claro: o Brasil quer regular a IA de forma estruturada, sem proibir a inovação, mas com proteções concretas. Para o ecossistema de startups, desenvolvedores e empresas que utilizam IA, a mensagem é de que compliance regulatório será cada vez mais um diferencial competitivo — e não apenas uma obrigação.

Quem já está atento à governança de IA, ao Marco Legal e às exigências da ANPD sai na frente. Para os demais, o tempo de se preparar é agora — antes que a lei entre em vigor.


Este conteúdo é informativo e não constitui aconselhamento jurídico. Para adequação regulatória da sua empresa, consulte um advogado especializado em direito digital e regulamentação de IA.

Categorias: Jurídico