PL 2688/2025: Novo Marco Regulatório da IA no Brasil — O Que Muda | OpenClaw
Em 18 de março de 2026, a Comissão de Comunicação (CCom) da Câmara dos Deputados aprovou o PL 2688/2025, que institui o Marco Regulatório do Desenvolvimento e Uso da Inteligência Artificial no Brasil. O projeto é a proposta mais recente — e uma das mais abrangentes — do Legislativo para disciplinar a IA no país, complementando o PL 2338/2023 que já tramitava desde o Senado.
Para quem acompanha a evolução do Marco Legal da IA e as discussões sobre responsabilidade civil de algoritmos, o PL 2688/2025 traz novidades importantes que impactam diretamente empresas, desenvolvedores e profissionais de tecnologia.
De Onde Vem o PL 2688/2025
O governo federal apresentou o PL 2688/2025 em dezembro de 2025 como uma proposta complementar ao PL 2338/2023, que teve origem no Senado e foi aprovado em dezembro de 2024. Enquanto o PL 2338/2023 tem foco mais amplo em princípios e direitos, o PL 2688/2025 traz regras operacionais detalhadas sobre governança, transparência e responsabilidade.
A tramitação paralela dos dois projetos reflete a urgência do tema: o Brasil é um dos maiores mercados de IA da América Latina, com 42% das empresas já utilizando alguma forma de inteligência artificial, mas até agora sem um marco legal específico em vigor.
Principais Pontos do PL 2688/2025
1. Classificação de Risco dos Sistemas de IA
O projeto adota uma abordagem baseada em risco, inspirada no AI Act europeu, mas adaptada ao contexto brasileiro. Sistemas de IA são classificados em:
- Risco inaceitável — proibidos (ex.: sistemas de pontuação social, manipulação subliminar)
- Alto risco — sujeitos a obrigações reforçadas de transparência, auditoria e supervisão humana
- Risco limitado — obrigações de transparência básica
- Risco mínimo — sem obrigações específicas além das gerais
Essa classificação determina o nível de compliance exigido de cada empresa que desenvolve ou opera sistemas de IA.
2. Obrigações de Transparência
Plataformas e desenvolvedores de IA passam a ter obrigações explícitas de transparência:
- Identificação de conteúdo gerado por IA — textos, imagens, áudios e vídeos produzidos por sistemas de IA devem ser identificáveis e rastreáveis
- Rastreabilidade — mecanismos que permitam auditar como um conteúdo foi gerado
- Informação ao usuário — sempre que uma pessoa interagir com um sistema de IA, deve ser informada de forma clara
- Explicabilidade — para sistemas de alto risco, o usuário tem direito de entender a lógica por trás de decisões automatizadas
3. Revisão Humana Obrigatória
Decisões automatizadas que afetem direitos fundamentais devem ter supervisão humana. Isso inclui:
- Decisões sobre crédito e serviços financeiros
- Processos seletivos e contratação
- Acesso a serviços públicos
- Diagnósticos médicos assistidos por IA
- Decisões judiciais ou administrativas
Essa exigência se conecta diretamente com o que o CNJ já estabeleceu para o uso de IA no Judiciário e com a prática de jurimetria e IA preditiva.
4. Proteção de Dados Pessoais
O PL reforça a conexão entre regulamentação de IA e a LGPD, estabelecendo que:
- Dados utilizados para treinar modelos de IA devem respeitar bases legais da LGPD
- O uso de dados pessoais sensíveis em sistemas de IA de alto risco exige consentimento específico ou justificativa legal clara
- A ANPD mantém papel central na fiscalização do uso de dados em sistemas de IA
Empresas que já investiram em compliance com a LGPD terão parte do caminho percorrido, mas precisarão adaptar processos para as exigências adicionais do marco de IA.
5. Responsabilidade Civil e Penal
O PL 2688/2025 avança na definição de responsabilidade:
- Desenvolvedores respondem por defeitos nos sistemas de IA que causem danos
- Operadores (empresas que utilizam a IA) respondem pela aplicação inadequada
- Ambos podem ser responsabilizados solidariamente em caso de danos a terceiros
- Para sistemas de IA de alto risco, adota-se o princípio da responsabilidade objetiva — não é necessário provar culpa
Esse enquadramento complementa a discussão sobre quem paga quando o algoritmo erra e tem implicações diretas para seguradoras, fintechs e empresas de saúde.
Governança e Fiscalização
O PL institui um Sistema Nacional de Governança de IA com participação de:
- ANPD (Agência Nacional de Proteção de Dados)
- Órgãos reguladores setoriais (Anvisa, Bacen, CVM, etc.)
- Entidades de defesa do consumidor
- Representantes da academia e da sociedade civil
A estrutura multisetorial reconhece que a IA permeia diferentes indústrias e não pode ser regulada por um único órgão. Para empresas, isso significa atenção a regulamentações complementares que virão de órgãos específicos do seu setor.
Próximos Passos da Tramitação
O PL 2688/2025 foi aprovado pela CCom e segue para análise de outras comissões da Câmara antes de ir ao Plenário. O cenário atual indica que:
- O projeto deve ser analisado em conjunto com o PL 2338/2023
- A expectativa é de votação consolidada no segundo semestre de 2026
- Há pressão do setor produtivo por regras claras que não inibam inovação
- Organizações da sociedade civil pedem maior proteção a direitos fundamentais
O Que Empresas Devem Fazer Agora
Mesmo antes da aprovação final, empresas que utilizam ou desenvolvem IA no Brasil devem se preparar:
- Mapear todos os sistemas de IA utilizados e classificá-los por nível de risco
- Documentar processos de treinamento, dados utilizados e lógica de decisão
- Implementar mecanismos de supervisão humana para decisões automatizadas críticas
- Revisar contratos com fornecedores de IA para incluir cláusulas de responsabilidade
- Estabelecer políticas internas de governança de IA
- Capacitar equipes sobre as implicações regulatórias do uso de IA
Ferramentas como o OpenClaw podem auxiliar na automação de processos de compliance, revisão de contratos e pesquisa jurídica relacionada à regulamentação de IA.
Impacto no Ecossistema de IA Brasileiro
O PL 2688/2025 é um sinal claro: o Brasil quer regular a IA de forma estruturada, sem proibir a inovação, mas com proteções concretas. Para o ecossistema de startups, desenvolvedores e empresas que utilizam IA, a mensagem é de que compliance regulatório será cada vez mais um diferencial competitivo — e não apenas uma obrigação.
Quem já está atento à governança de IA, ao Marco Legal e às exigências da ANPD sai na frente. Para os demais, o tempo de se preparar é agora — antes que a lei entre em vigor.
Este conteúdo é informativo e não constitui aconselhamento jurídico. Para adequação regulatória da sua empresa, consulte um advogado especializado em direito digital e regulamentação de IA.