Reflexão do Colunista — Nova legislação direcionada à proteção de crianças e adolescentes representa uma esperança renovada para a segurança integral na Era Digital.
A necessidade de regular as plataformas digitais no Brasil insere-se em uma transformação mais ampla de paradigma. Inicialmente, a internet emanava um sentimento de otimismo tecnológico, mas atualmente nos deparamos com um panorama de incertezas estruturais. Apesar das amplas possibilidadesque as tecnologias digitais oferecem, elas também exacerbaram desigualdades sociais e concentraram poder em entidades privadas operando globalmente. Nesse cenário, os usuários frequentemente se tornam consumidores passivos, enquanto as vozes populares e as demandas de grupos vulneráveis são sistematicamente silenciadas.
Iniciativas como as do Instituto de Referência em Internet e Sociedade (IRIS), em colaboração com a Coalizão Direitos na Rede, têm se empenhado em moldar políticas públicas que busquem reequilibrar as relações de poder no ambiente digital. O Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025, ou ECA Digital) surge como uma conquista histórica para a sociedade brasileira, reafirmando a proteção integral dos direitos de um público que, conforme nossa Constituição, merece prioridade absoluta. Esse movimento representa um avanço significativo, ainda que preliminar: ele não encerra o debate, mas inicia uma nova fase na regulamentação brasileira.
Nossos vídeos em destaque
A regulação das plataformas é um tópico multifacetado que, sob uma estratégia retroativa, pode ser entendido como tendo começado pela proteção de crianças e adolescentes, devido à exigência de proteção integral. A prioridade dada à proteção infantojuvenil é justificada por sua relevância constitucional. Crianças e adolescentes são mais do que meros consumidores de conteúdos ou dados; são portadores de direitos cuja proteção demanda atenção tanto na recepção quanto na criação de conteúdos. O ECA Digital insere essa perspectiva ao estabelecer uma série de obrigações para as plataformas, abrangendo restrições ao acesso a conteúdos impróprios e a previsão de sanções administrativas, cuja implementação dependerá em grande parte da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Contudo, essa explicação também se apoia em fundamentos históricos e conjunturais.
A trajetória recente da regulação de plataformas no Brasil foi marcada por desapontamentos, como a não aprovação do “PL das fake news”, em grande parte resultante de uma mobilização inédita das empresas de tecnologia. Nesse contexto, o ECA Digital revela-se como um acordo mínimo alcançado sob a pressão de evitar um vazio normativo ainda mais preocupante em relação à proteção de crianças e adolescentes.
BTG Pactual sofre ataque cibernético e suspende operações Pix
Retornando ao ECA Digital, a legislação não se limita à proteção contra conteúdos inadequados, mas também abrange a produção de conteúdos e a prevenção de exploração comercial. Um exemplo notável é o veto à monetização de conteúdos de crianças “adultizadas”, alguém poderia chamar de “Artigo Felca” (art. 23), visando interromper a exploração de indivíduos vulneráveis:
- Art. 23. É proibido aos provedores de aplicações de internet a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva.
Não precisamos de soluções simplistas para realidades complexas; necessitamos de autonomia crítica e emancipação.
O Devido Processo na Moderação: Combate ao Lado Sombrio
Um dos aspectos mais inovadores da nova legislação é o art. 30, que estabelece, pela primeira vez na legislação brasileira, um conjunto de garantias procedimentais na moderação de conteúdos. Isso representa a concretização do chamado “devido processo na moderação”, que integra princípios historicamente atrelados à relação entre Estado e indivíduo ao campo privado das plataformas digitais.
Esse devido processo envolve, pelo menos, cinco elementos essenciais: (i) notificação das partes interessadas; (ii) explicação das razões da decisão de moderação, com indicação da norma violada; (iii) transparência sobre o uso de automação ou intervenção humana; (iv) possibilidade de apelação; e (v) mecanismos acessíveis, céleres e com prazos definidos para revisão das decisões. Em resumo, busca-se garantir que decisões que afetam a liberdade de expressão não sejam arbitrárias ou obscuras.
A Lei Felca pode bloquear o Linux no Brasil? — OPINIÃO
- Art. 30. No procedimento de remoção de conteúdo, os fornecedores de produtos ou serviços devem respeitar o direito de contestação da decisão, assegurando ao usuário que publicou o conteúdo:
I – a notificação sobre a remoção;
II – o motivo e a fundamentação da remoção, indicando se a identificação do conteúdo removido decorreu de análise humana ou automatizada;
III – a possibilidade de apelação do usuário contra a medida;
IV – fácil acesso ao mecanismo de apelação; e
V – definição de prazos procedimentais para apresentação e resposta ao recurso.
O artigo 30 do ECA Digital concretiza uma demanda do Supremo Tribunal Federal quanto às obrigações adicionais das empresas, combatendo a ausência de legislação que demandou ao Judiciário a responsabilidade na regulação das obrigações e responsabilidades dos provedores de aplicação de Internet, no contexto do art. 19 do Marco Civil da Internet.
Agora, a moderação não pode ser arbitrária: as plataformas devem notificar, explicar a fundamentação da remoção e oferecer mecanismos acessíveis de recurso. Esse direito ao contraditório garante a liberdade de expressão e a efetividade horizontal dos direitos fundamentais, funcionando como um parâmetro de justiça compartilhada.
A importância desse avanço é reforçada por dados empíricos: em mais de 80% dos casos em que o Poder Judiciário brasileiro reverte decisões de moderação, a questão reside na falta de fundamentação adequada. Frequentemente, as plataformas não conseguem justificar, nem mesmo em juízo, os critérios que levaram à remoção ou manutenção de determinado conteúdo. O ECA Digital, ao exigir justificativas claras e estruturadas, estabelece condições para uma melhor auditabilidade dessas decisões.
Esse modelo, embora inicialmente voltado à proteção de crianças e adolescentes, tem grande potencial de expansão. Sua lógica pode e deve ser aplicada a outros contextos sensíveis, como processos eleitorais, proteção de jornalistas e a garantia do pluralismo informacional. Portanto, trata-se de um laboratório normativo que pode guiar futuras regulações mais abrangentes sobre plataformas digitais.
Por que o Android terá espera de 24h para instalar apps fora da Play Store?
Aferição de Idade vs. Verificação de Identidade: Enfrentando Desafios
Outro aspecto fundamental é a diferença técnica entre aferição de idade e verificação de identidade. A Coalizão Direitos na Rede, composta por várias organizações da sociedade civil que atuam na pauta digital, defende que a proteção de crianças e adolescentes contra o acesso a conteúdos inadequados não deve permitir um controle massivo por meio de coleta de imagens de documentos ou retenção excessiva de dados de reconhecimento facial. A aferição etária deve ser feita com base em um princípio de minimização de dados: as plataformas precisam saber apenas se o usuário se enquadra em uma faixa etária, sem acessar ou armazenar informações adicionais sobre sua identidade. A verificação de identidade, por sua vez, deve ser mantida separada desse processo, a fim de evitar a formação de sistemas de vigilância excessiva. Trata-se de um equilíbrio delicado entre proteção e privacidade, que requer soluções tecnológicas e regulatórias sofisticadas.
Essa é a “matemática da confiança”, afastando uma abordagem de vigilância total. A defesa da proteção infanto-juvenil não deve ser uma justificativa para sacrificar a privacidade e liberdade de expressão dos adultos; demanda apenas a necessidade de abandonarmos ferramentas de controle antiquadas em favor das liberdades contemporâneas.
Além disso, o ECA Digital introduz diretrizes importantes sobre proporcionalidade, gradação de medidas e proibição do uso secundário de dados. Nesse cenário, lojas de aplicativos e sistemas operacionais devem desempenhar um papel crucial como pontos de controle, verdadeiros gargalos regulatórios que podem implementar medidas de proteção em larga escala. Essa abordagem está em consonância com o art. 227 da Constituição Federal e com o Estatuto da Criança e do Adolescente, reafirmando que a proteção infanto-juvenil é uma responsabilidade coletiva do Estado, da sociedade e do setor privado.
Esse aspecto é especialmente relevante em um contexto em que o Supremo Tribunal Federal vem desempenhando um papel crescente na regulação da internet, devido à omissão legislativa. A recente decisão que declarou a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet ilustra essa dinâmica, ao exigir maior clareza sobre as obrigações das plataformas. O ECA Digital, nesse sentido, pode ser visto como uma resposta legislativa inicial a essa demanda.
Crunchyroll está entre empresas vítimas de vazamento massivo de dados
Soberania e a “Lasanha Digital” Brasileira
Internacionalmente, observa-se uma mudança importante no foco da responsabilização das plataformas. Se, no passado, a atenção estava em grande parte voltada para o conteúdo e seus autores, atualmente o debate se desloca para os mecanismos de distribuição e amplificação, como evidenciado em recentes decisões judiciais nos EUA. O modelo de negócios das plataformas, que visa maximizar o engajamento, tem sido relacionado à promoção de conteúdos prejudiciais, especialmente para crianças e adolescentes. Portanto, a regulação precisa não só se concentrar no que é publicado, mas como e para quem esse conteúdo é disseminado.
Essa discussão se entrelaça a questões mais amplas de soberania digital. A denominada sociedade da informação não é um fenômeno neutro ou inevitável, mas sim uma construção política e econômica que reorganiza o poder, o conhecimento e a riqueza. Nesse quadro, o Brasil enfrenta o perigo de replicar dinâmicas históricas de dependência, passando de um status de exportador de commodities para fornecedor de infraestrutura e dados de baixo valor. Trata-se de uma espécie de “colonialismo digital”.
A solução para esse desafio reside na criação de uma estratégia nacional que considere as diversas camadas da infraestrutura digital (da conectividade à inteligência artificial) de forma integrada. A meta deve ser desenvolver uma “arquitetura tecnológica” que reflita os interesses brasileiros, incorporando valores constitucionais e respondendo às particularidades sociais do país.
Não podemos aceitar que o Brasil deixe de ser uma “fazenda de soja” para se tornar apenas uma “fazenda de dados”, exportando armazenamentos digitais sem valor agregado. Precisamos de uma “lasanha digital” (ou um Eurostack à brasileira): uma estrutura de camadas tecnológicas projetada por brasileiros para o Brasil, enriquecida com nossos valores constitucionais.
OpenClaw é a nova IA do momento, mas pode oferecer riscos à privacidade
Qualquer iniciativa de soberania digital que ignore as desigualdades estruturais internas será incompleta. A ausência de diversidade em locais de decisão, incluindo instâncias como o Conselho de Comunicação Social, destaca a necessidade de incluir perspectivas racializadas, periféricas e interseccionais na elaboração de políticas públicas. A chamada “sociologia das ausências” não é só um diagnóstico, mas um imperativo normativo para a construção de uma governança digital democrática.
Apresentado no ano passado e em vigor desde 17 de março de 2026, o ECA Digital é a primeira legislação pós-Marco Civil da Internet (aprovado em 2014) a abordar especificamente o ambiente digital, reafirmando a força normativa da nossa “Constituição Cidadã” e do Estatuto da Criança e do Adolescente. O Estado tem a responsabilidade constitucional e legal de agir em prol do melhor interesse da criança e do adolescente. Baseando-se na experiência de outros países, não fomos simplistas ao proibir as redes sociais; definimos que, para operar aqui, as plataformas devem optar por ser adequadas para crianças e adolescentes, garantindo essa adequação, ou ser direcionadas a adultos, assegurando que crianças e adolescentes não tenham acesso. Isso implica exigir que as Big Techs e demais empresas de tecnologia cumpram seu compromisso social em criar um ambiente seguro.
O Papel da ANPD e a Inclusão de Diversas Vozes
Para que o ECA Digital não se torne apenas uma formalidade, a implementação das diretrizes dependerá, amplamente, da atuação da reestruturada Agência Nacional de Proteção de Dados Pessoais (ANPD), que assumirá um papel central na governança da internet no Brasil. Com o aumento de suas responsabilidades, a Autoridade terá que detalhar aspectos operacionais da lei, incluindo mecanismos de aferição de idade e as obrigações de diferentes atores no ecossistema digital. A ANPD precisará de um orçamento real, para que suas ações não se tornem meramente teóricas, e será imprescindível garantir a participação social em seus processos decisórios, evitando cenários tecnocráticos herméticos.
O ECA Digital, portanto, não deve ser encarado como um final, mas como um ponto de virada. Ele sinaliza que o Brasil voltou a legislar sobre o ambiente digital após mais de uma década desde o Marco Civil da Internet, inaugurando um novo ciclo de disputas e oportunidades. A agenda futura, que incluirá a regulação da inteligência artificial, exigirá a mesma profundidade analítica, envolvimento social e compromisso com direitos fundamentais.
Malware usa domínios gov.br legítimos para infectar vítimas
Por fim, a governança da internet deve escutar as vozes de comunidades vulneráveis e invisibilizadas, assegurando que o combate ao racismo algorítmico e à misoginia seja central nas decisões. Qualquer projeto de soberania digital que não considere aspectos de raça, classe e desigualdade será incompleto. A baixa representação de pessoas negras e de grupos vulneráveis em espaços de decisão, como conselhos e instâncias deliberativas, compromete a qualidade e a legitimidade das políticas públicas. Incluir perspectivas diversas não é apenas uma questão de justiça social, mas um pré-requisito para construir soluções adequadas à complexidade da sociedade brasileira.
A sociedade da informação, enquanto modelo econômico, tecnológico e político, não é um fenômeno natural, mas sim um projeto idealizado entre meados do século XX e implementado na transição para o milênio, quando estudiosos como Manuel Castells proclamaram o advento da Era Digital. Portanto, cabe à sociedade exigir que essa infraestrutura sirva aos nossos interesses enquanto população, em toda a sua diversidade. Assim, o Parlamento, a sociedade civil e os órgãos reguladores devem unificar esforços para garantir que a inovação beneficie o desenvolvimento humano, e não amplie as opressões e exclusões. O ECA Digital é o primeiro passo rumo à reafirmação da nossa soberania nacional na sociedade da informação.
Sem Pânico Moral e Sem Soluções Tecnológicas Redutivas
A regulação de plataformas não deve ser guiada por uma lógica alarmista ou reativa de pânico moral, tampouco por uma visão excessivamente otimista das tecnologias digitais, ou por tecnossolucionismo. As redes sociais e demais serviços digitais, por si sós, não são a raiz dos problemas, mas tendem a amplificar tensões já existentes, ao mesmo tempo em que oferecem novas oportunidades de organização, expressão e mobilização social. O desafio regulatório é, portanto, mitigar riscos sem comprometer essas potencialidades.
O Brasil, após mais de uma década sem avanços legais estruturais no campo digital, começa a reatar esse debate com o ECA Digital. O passo seguinte, que já se delineia no horizonte, envolve a regulação da inteligência artificial e a consolidação de um modelo de governança capaz de produzir respostas contínuas e adaptativas a um ambiente tecnológico em constante evolução.
Falha no Ubuntu abre caminho para acesso total sem interação do usuário
Em última análise, a questão central na regulação de plataformas é como garantir que as tecnologias digitais de informação e comunicação que sustentam a sociedade da informação estejam a serviço dos direitos fundamentais e do equilíbrio de forças entre o poder público e os interesses privados. Para isso, uma premissa se impõe: não se pode delegar integralmente ao algoritmo da economia da atenção a tomada de decisões que impactam direitos, sejam de crianças e adolescentes, ou de qualquer outro cidadão.
- Texto adaptado, preservando a essência das argumentações originais, a partir das contribuições apresentadas pelo autor durante a audiência pública, sobre o tema do ECA Digital na perspectiva da sociedade civil, realizada em 06 de abril de 2026 pelo Conselho de Comunicação Social do Congresso Nacional.