O Projeto de Lei 2338/2023, que estabelece o Marco Legal da Inteligência Artificial no Brasil, avançou significativamente no Senado em 2025 e está em fase final de tramitação. Inspirado no AI Act europeu mas adaptado à realidade brasileira, o texto classifica sistemas de IA em níveis de risco (inaceitável, alto, limitado e mínimo) e define obrigações proporcionais para cada categoria. Para empresas que já utilizam ou planejam adotar IA, entender essas regras não é opcional — é estratégico.
Os pontos mais relevantes para empresas: sistemas de IA de "alto risco" (que incluem decisões em crédito, RH, saúde e segurança pública) precisarão de avaliação de impacto algorítmico, documentação técnica detalhada e mecanismos de supervisão humana. A ANPD (Autoridade Nacional de Proteção de Dados) será responsável pela fiscalização, com multas que podem chegar a 2% do faturamento — mesma lógica da LGPD.
Um ponto crucial: o texto exige "explicabilidade" para decisões automatizadas que afetem pessoas. Isso significa que sistemas de IA tipo "caixa preta" podem se tornar um risco jurídico. Empresas que usam modelos proprietários sem capacidade de auditoria precisam repensar sua arquitetura. A Febraban alertou em nota técnica que 45% dos bancos brasileiros ainda não têm governança de IA formal — e o prazo de adequação deve ser de 18 a 24 meses após a sanção.
Para PMEs, o impacto é menor mas não inexistente. Chatbots de atendimento ao cliente, por exemplo, precisarão informar claramente que o usuário está interagindo com IA — algo que o BrocoBot já faz nativamente. Sistemas de recomendação em e-commerce precisarão de transparência sobre critérios de ranqueamento. Análises preditivas para concessão de crédito terão as regras mais rígidas.
No ecossistema Broco, nos antecipamos a essa regulamentação de três formas. Primeiro, o Broco PC I permite processamento 100% local — dados sensíveis nunca saem da rede do cliente, eliminando riscos de transferência internacional de dados e simplificando compliance LGPD/Marco Legal. Segundo, o BrocoEngine mantém logs completos de todas as decisões dos agentes, com rastreabilidade de qual modelo foi usado, quais dados foram processados e qual foi o raciocínio — essencial para a explicabilidade exigida pela lei. Terceiro, nossa arquitetura model-agnostic permite trocar modelos sem reescrever sistemas, facilitando adaptação quando novas regras entrarem em vigor.
A recomendação para empresas é começar a governança de IA agora, mesmo antes da lei ser sancionada. Mapeie todos os sistemas que usam IA, classifique-os por nível de risco, documente as decisões algorítmicas e implemente mecanismos de revisão humana para processos críticos. Empresas que se anteciparem terão vantagem competitiva — as que esperarem correrão contra o relógio.
