Marco Legal da IA no Brasil — PL 2338/2023 aprovado na Câmara em 2026
Regulamentação & IA

Marco Legal da IA no Brasil Avança na Câmara: Checklist Prático Para Empresas Antes da Lei Entrar em Vigor

PC
Paulo Camara
CEO & Founder · DAS Tecnologia
23 Abr 2026 · 10 min leitura

Em 18 de março de 2026, a Comissão de Comunicação da Câmara dos Deputados aprovou o PL 2338/2023 — o Marco Regulatório da Inteligência Artificial no Brasil. O projeto, já aprovado pelo Senado em dezembro de 2024, estabelece direitos, deveres, princípios, mecanismos de governança e padrões de transparência para o desenvolvimento e uso de IA. Não importa se sua empresa treina modelos ou apenas usa ChatGPT para marketing — a lei vai te afetar. Este guia explica o que muda e traz um checklist pragmático em sete passos.

Enquanto o debate acadêmico gira em torno de "ética da IA", o debate prático que importa para empresários é outro: quais obrigações concretas a lei vai criar e em quanto tempo. A boa notícia é que, ao contrário do AI Act europeu (vigente desde 2024), a versão brasileira tem abordagem pragmática e deixa espaço para inovação em sistemas de risco baixo. A má notícia é que quem usa IA para decisões sensíveis (crédito, RH, saúde, jurídico) vai ter muita lição de casa.

O Que o PL 2338/2023 Estabelece

O projeto cria um arcabouço nacional geral para desenvolvimento, implementação e uso responsável de sistemas de IA no Brasil. Os eixos principais:

Status atual (abril/2026): o PL 2338/2023 foi aprovado no Senado em 10/12/2024, distribuído na Câmara e em abril/2025 teve criação de Comissão Especial. Em 18/03/2026 a Comissão de Comunicação aprovou. Ainda precisa passar pelas Comissões de Ciência, Tecnologia e Inovação; Finanças; CCJ; antes de ir ao plenário da Câmara. Previsão realista de aprovação final: segundo semestre de 2026 ou início de 2027, com vacatio legis até 2028.

Patrocinado
Precisa de ajuda com um projeto assim?

Somos especialistas em desenvolvimento de software sob medida. Primeira conversa é gratuita.

Conversar

As Quatro Classes de Risco

A arquitetura do PL 2338 é similar (mas não idêntica) ao AI Act europeu. Classificação em quatro níveis:

ClasseExemplosTratamento Legal
Risco ExcessivoArmas autônomas letais, scoring social estatal, manipulação comportamental de vulneráveisPROIBIDO
Alto RiscoDecisões jurídicas automatizadas, análise de crédito, recrutamento/RH, saúde crítica, infraestrutura crítica, biometria em espaço públicoPermitido com obrigações rigorosas de governança, avaliação de impacto e supervisão humana
Risco ModeradoChatbots de atendimento em serviço essencial, sistemas de recomendação com efeito comportamental relevanteObrigações proporcionais — transparência, qualidade de dados, logs
Risco Baixo / GeralIA generativa para marketing, assistentes de produtividade, traduções, resumos, geração de imagem para uso empresarial geralObrigações mínimas: transparência sobre interação com IA

A maioria das empresas brasileiras opera em Risco Baixo/Geral (uso de IA para ganho de produtividade). As empresas que operam em Alto Risco já têm requisitos substanciais, comparáveis a bancos sob regulação do BC.

Obrigações Concretas Por Nível

Para todos os sistemas de IA (baseline)

Para sistemas de Alto Risco (adicionais)

Atenção para RH e crédito: se sua empresa usa IA para triagem de currículos, avaliação de candidatos, análise de crédito, pricing dinâmico para clientes ou precificação de seguros — esses casos caem em Alto Risco. A lei vai exigir AIA formal, supervisão humana e direito a contestação. Começar a adequar agora é mais barato do que correr quando virar lei.

Interface com LGPD e Marco Civil: Não É Uma Lei Isolada

Um ponto frequentemente mal interpretado: o Marco Legal da IA não substitui nem LGPD nem Marco Civil. Ele acrescenta uma camada específica para sistemas de IA. Na prática:

A ANPD (Autoridade Nacional de Proteção de Dados) ganha papel central na supervisão do Marco da IA, especialmente nas áreas de interseção com dados pessoais. Isso significa que empresas que já têm DPO e programa LGPD maduro têm vantagem relativa — o novo arcabouço se encaixa sobre o que já existe.

Checklist: 7 Passos Para Preparar Sua Empresa

Mesmo que a lei ainda não esteja em vigor, as ações abaixo são baratas, reduzem risco legal futuro e melhoram governança agora:

1. Inventariar todos os sistemas de IA em uso

Liste todos os sistemas de IA que sua empresa usa — próprios, em SaaS, incorporados em ferramentas existentes (HubSpot, Salesforce, Google Workspace, Microsoft 365 já têm IA embutida). Inclua uso por terceiros em produto entregue ao cliente.

2. Classificar por risco provável

Aplique a taxonomia das quatro classes. Seja honesto: uma IA que sugere decisão de crédito ou prioriza candidatos em RH é Alto Risco, mesmo que o "decisor" humano assine no final (a lei vai olhar a influência real).

3. Documentar dados de treino, métricas e limitações

Para sistemas próprios: datasheet do modelo, dados de treino, métricas de acurácia por subgrupo, vieses conhecidos, casos de uso válidos e inválidos. Para sistemas de terceiros: exigir essa documentação do fornecedor e armazenar internamente.

4. Definir papéis de governança interna

Nomear responsável pela governança de IA (pode ser a mesma pessoa do DPO, com escopo expandido), constituir comitê de revisão para decisões de alto impacto, documentar fluxo de aprovação de novos sistemas.

5. Implementar logs de auditoria e supervisão humana

Sistemas de IA em uso crítico precisam de logs imutáveis (quando decidiu o quê com base em quê), e supervisão humana significativa — não apenas "humano aprova no final". Indicador: quantas vezes o humano reverte a sugestão da IA? Se é sempre zero, não há supervisão real.

6. Revisar contratos com fornecedores de IA

Cláusulas contratuais que vão ficar padrão: (a) fornecedor declara compliance com o Marco da IA; (b) fornece documentação técnica e AIA quando aplicável; (c) notifica incidentes graves em X horas; (d) compartilha responsabilidade por falhas de conformidade. Revise contratos existentes — e não assine novos sem essas cláusulas.

7. Integrar avaliação de impacto algorítmico ao processo de LGPD

Empresas que já têm processo de DPIA (Data Protection Impact Assessment) sob LGPD devem integrar AIA ao mesmo fluxo. Evita processos paralelos e captura sinergias: muita da documentação já existe.

Sua empresa usa IA e precisa se preparar para o Marco Legal?

Auditamos seu uso de IA, classificamos sistemas por risco, implementamos governança técnica e documentação AIA/DPIA integradas. Saia na frente antes da lei entrar em vigor.

Falar com Especialista

Timeline Provável

PeríodoMarco
Dezembro/2024Aprovação no Senado (PL 2338/2023)
Abril/2025Criação da Comissão Especial na Câmara
18/03/2026Comissão de Comunicação aprova
Abr-Nov/2026Tramitação nas Comissões CTI, Finanças, CCJ
Q4/2026 ou Q1/2027Votação em plenário da Câmara (projeção)
2027Sanção presidencial e início da vacatio legis
2028Entrada em vigor (estimativa) + regulamentação infralegal via ANPD

Empresas esperam a lei entrar em vigor para começar a se adequar. É o erro clássico (mesmo padrão visto com LGPD em 2020). As que começam agora pagam consultoria e implementação a preços normais; as que esperam a lei virar obrigatória pagam preço emergencial e correm risco de autuação.

Quem Ganha e Quem Perde

Ganha:

Perde:

Conclusão: Regulação Não É Inimiga da IA

O Marco Legal da IA no Brasil não é "mais uma burocracia" — é um framework que força as empresas a tratarem IA com o rigor que o tema merece. Quem já opera com disciplina ganha vantagem. Quem usa IA "porque é moda" sem governança vai sentir a fatura.

Se sua empresa usa IA para automação de processos, chatbots no WhatsApp, recomendações ou decisões, comece a rodar o checklist desta semana. É o tipo de trabalho que rende — legalmente, operacionalmente, e também comercialmente (clientes sérios vão exigir evidência de conformidade em cada vez mais RFPs). A lei ainda está em tramitação, mas o mercado já está avaliando.

Perguntas Frequentes

O Marco Legal da IA no Brasil é o PL 2338/2023, aprovado pelo Senado em dezembro de 2024 e atualmente em tramitação na Câmara dos Deputados. Em 18 de março de 2026, a Comissão de Comunicação da Câmara aprovou o projeto, que estabelece direitos, deveres, princípios, mecanismos de governança e padrões de transparência para o desenvolvimento e uso de IA no país.
O PL 2338/2023 adota abordagem risk-based com quatro classes: (1) Risco Excessivo — proibido (armas autônomas, scoring social, manipulação comportamental vulnerável); (2) Alto Risco — permitido com obrigações rigorosas (decisões jurídicas, crédito, RH, saúde crítica); (3) Risco Moderado — obrigações proporcionais; (4) Risco Baixo/Geral — obrigações mínimas de transparência.
Dependendo da classificação: documentação técnica detalhada, avaliação de impacto algorítmico, supervisão humana em decisões críticas, transparência ao usuário sobre interação com IA, direito a contestar decisões automatizadas, registro de eventos (log de auditoria), medidas de segurança e privacidade by design, e comunicação a autoridade competente em caso de incidentes graves.
O projeto explicita harmonização com LGPD e Marco Civil. Na prática: LGPD continua regendo tratamento de dados pessoais, Marco Civil rege aspectos de comunicação e responsabilidade de plataformas, e o Marco da IA acrescenta camada específica sobre sistemas de IA — avaliação de impacto, transparência, direito a revisão humana e governança. ANPD tem papel central na supervisão.
Sete ações imediatas: (1) inventariar todos os sistemas de IA em uso (próprios e de terceiros); (2) classificar por risco provável segundo a categorização do projeto; (3) documentar dados de treino, métricas e limitações; (4) definir papéis de governança interna (responsável por IA, comitê de revisão); (5) implementar logs de auditoria e supervisão humana em decisões críticas; (6) revisar contratos com fornecedores de IA; (7) integrar a avaliação de impacto algorítmico ao processo de LGPD.
PC
Paulo Camara
CEO & Founder · DAS Tecnologia

Especialista em desenvolvimento de software, IA e transformação digital. Fundou a DAS em 2020 com a missão de traduzir complexidade tecnológica em resultados de negócio.