blank

Lei Felca já está em vigor e obriga plataformas a confirmar idade com CPF ou reconhecimento facial

Notícias

Entrou em vigor nesta terça-feira, 17 de março, a legislação conhecida como Lei Felca, nome pelo qual passou a circular publicamente o Estatuto Digital da Criança e do Adolescente, também chamado de ECA Digital. A nova norma inaugura uma etapa mais rígida na regulação do ambiente online no Brasil ao impor deveres objetivos a empresas de tecnologia, plataformas de streaming, redes sociais, aplicativos de comunicação, jogos e serviços digitais acessados por crianças e adolescentes.

Na prática, a mudança atinge diretamente a rotina de operação de plataformas de grande alcance, que passam a conviver com uma exigência mais severa de prevenção, controle e proteção. Serviços usados diariamente por milhões de pessoas, como Spotify, Discord, Netflix e inúmeros outros, entram no radar da nova legislação porque terão de provar que possuem mecanismos eficazes para restringir o acesso de menores a conteúdos inadequados, ambientes de risco e funcionalidades potencialmente prejudiciais ao público infantojuvenil.

O ponto que mais chama atenção é a exigência de sistemas capazes de verificar a idade do usuário. Esse processo pode envolver confirmação documental, cruzamento de dados cadastrais e ferramentas tecnológicas voltadas à autenticação da faixa etária, incluindo modelos de validação baseados em documentos e biometria. A intenção da lei é impedir que a autodeclaração simples de idade continue sendo a principal barreira de acesso em plataformas digitais, modelo que, por anos, foi considerado insuficiente diante da facilidade com que menores conseguiam burlar restrições.

A nova fase da legislação brasileira representa uma mudança de lógica. Antes, grande parte da responsabilidade prática recaía sobre pais, responsáveis e usuários. Agora, o centro da obrigação passa a recair com mais força sobre as empresas que oferecem produtos e serviços digitais. O entendimento por trás da norma é o de que o ambiente online não pode funcionar com regras frágeis quando o assunto envolve crianças e adolescentes, sobretudo em contextos marcados por exposição a conteúdo sexualizado, violência, desafios perigosos, assédio, aliciamento, publicidade agressiva e coleta excessiva de dados.

Com a entrada em vigor da lei, as plataformas precisam demonstrar que adotaram medidas compatíveis com o risco de seus próprios serviços. Isso inclui a revisão de cadastros, a criação de camadas adicionais de proteção, a classificação mais rigorosa de conteúdo, a limitação de recomendações automatizadas para menores, o fortalecimento de ferramentas de denúncia e a adoção de mecanismos que reduzam a exposição de crianças e adolescentes a práticas nocivas. Em outras palavras, já não basta apenas remover conteúdo ilegal depois de denúncias. A nova orientação legal cobra prevenção, desenho seguro de produto e resposta proporcional ao grau de risco.

Nos bastidores do setor, a expectativa é de uma corrida técnica e jurídica para adaptação. Empresas com grande base de usuários no Brasil devem revisar termos de uso, políticas de privacidade, fluxos de cadastro, sistemas de autenticação e protocolos internos de moderação. Também devem reforçar auditorias e processos de governança para evitar descumprimentos que possam resultar em sanções administrativas e financeiras. O cenário é de pressão operacional porque a adequação não depende apenas de uma atualização superficial de interface, mas de mudanças estruturais na forma como plataformas identificam usuários, tratam dados e moderam experiências digitais.

A discussão em torno da nova norma ganhou força após uma sucessão de episódios que ampliaram o debate público sobre os riscos enfrentados por menores na internet. O ambiente digital passou a ser visto por autoridades e especialistas como um espaço em que a infância e a adolescência podem ser expostas a dinâmicas altamente nocivas, muitas vezes invisíveis aos responsáveis. A combinação entre algoritmos de recomendação, viralização rápida, estímulo ao engajamento e baixa barreira de entrada criou um ecossistema em que conteúdos inadequados podem alcançar menores em escala, velocidade e frequência inéditas.

Nesse contexto, a Lei Felca surge com a proposta de atualizar a proteção jurídica de crianças e adolescentes diante de um ambiente tecnológico mais complexo do que aquele imaginado pelas normas tradicionais. O texto legal parte do princípio de que a proteção integral também precisa valer no mundo digital, com deveres específicos para agentes econômicos que lucram com audiência, permanência em tela e coleta de dados. O objetivo é fazer com que o desenvolvimento tecnológico não ocorra à custa da segurança, da privacidade e do bem-estar de menores de idade.

Outro eixo central da nova legislação está na proteção de dados. Como crianças e adolescentes são considerados grupo mais vulnerável, o tratamento de suas informações pessoais passa a exigir maior cautela. Isso inclui critérios mais rigorosos de transparência, limitação de uso e justificativa para coleta. A preocupação do legislador é impedir que dados sensíveis sejam utilizados de forma abusiva, comercial ou desproporcional, principalmente em sistemas que influenciam comportamento, consumo e exposição a conteúdos.

A entrada em vigor da lei também deve ampliar o papel fiscalizador do poder público. A tendência é que órgãos responsáveis pela proteção de dados e pela defesa dos direitos da criança e do adolescente passem a atuar de maneira mais coordenada na cobrança por adequação, investigação de falhas e definição de parâmetros técnicos. Isso pode provocar um novo ciclo regulatório, com futuras normas complementares, orientações setoriais e disputas judiciais sobre alcance, proporcionalidade e limites da implementação tecnológica exigida.

Especialistas em direito digital avaliam que o grande teste da norma será sua aplicação prática. O desafio está em equilibrar proteção e privacidade. De um lado, existe forte pressão social por mecanismos reais de controle etário e contenção de riscos. De outro, há preocupação com o uso de dados biométricos, reconhecimento facial e armazenamento de informações sensíveis. A efetividade da lei dependerá, em grande parte, de como esse equilíbrio será interpretado, fiscalizado e transformado em exigência concreta para empresas de diferentes tamanhos.

No mercado, a leitura é de que a legislação deve afetar de forma mais intensa plataformas com grande circulação de conteúdo gerado por usuários, transmissões ao vivo, comunidades abertas, mensagens, recomendações automatizadas e catálogos multimídia acessíveis por diferentes faixas etárias. Empresas com operação mais robusta tendem a ter maior capacidade de adaptação, embora enfrentem custos altos e necessidade de revisão tecnológica acelerada. Já plataformas menores podem encontrar mais dificuldade para implantar sistemas avançados de verificação e monitoramento, o que pode abrir um debate sobre proporcionalidade regulatória.

Para famílias e responsáveis, a nova lei chega cercada de expectativa. Há uma percepção crescente de que a arquitetura das plataformas influencia diretamente hábitos, comportamentos e vulnerabilidades de crianças e adolescentes. Nesse cenário, a legislação busca responder a uma cobrança antiga da sociedade por regras mais firmes, com foco não apenas na repressão de abusos já consumados, mas também na prevenção de riscos estruturais do ambiente digital.

A partir de agora, o Brasil entra em uma fase mais exigente no tratamento jurídico da infância conectada. A Lei Felca passa a marcar uma inflexão no debate sobre internet, tecnologia e responsabilidade empresarial, ao consolidar o entendimento de que proteger menores no ambiente digital deixou de ser promessa institucional e passou a ser obrigação legal com efeitos imediatos sobre plataformas, serviços e modelos de negócio.

Fonte:
Ministério da Justiça e Segurança Pública
Planalto, Lei nº 15.211/2025, Estatuto Digital da Criança e do Adolescente

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *