Veja como contribuímos com a Consulta Pública referente à Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital e Subsídios para Regulamentação do ECA Digital
Veja como contribuímos com a Consulta Pública referente à Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital e Subsídios para Regulamentação do ECA Digital

Desenvolvida pelo Comitê Intersetorial para a Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital, instituído pela Portaria Conjunta 1/2025 do Ministério dos Direitos Humanos e Cidadania, Ministério da Justiça e Segurança Pública, Secretaria de Comunicação Social da Presidência da República, a Consulta Pública referente à Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital e Subsídios para Regulamentação do ECA Digital teve seu encerramento de tomada de subsídios no último dia 14.11.2025.

Nesse contexto, contribuímos com algumas considerações acerca de alguns pontos de maior ênfase em nossos trabalhos, dentre os quais os que seguem abaixo:

  1. Combate a todas as formas de violência e exploração em ambientes digitais
    Os arts. 3º, 4º, 5º e 6º, da Lei nº 15.211/2025, reafirmam o dever de proteção integral e a prioridade absoluta de crianças e adolescentes frente a qualquer forma de violência no ambiente digital. Em consonância, as Resoluções do CONANDA nº 245 e nº 257, de 2024, reforçam a necessidade de prevenção e denúncia de violências no ambiente digital.

Nesse contexto, no eixo 1, a consulta pública busca contribuições sobre medidas integradas que podem ser adotadas para prevenir, identificar, notificar e responsabilizar os casos de violência, abuso e exploração sexual, exploração do trabalho infantil, exploração econômica e comercial e demais violações de direitos que ocorram no ambiente digital, assegurando atuação intersetorial e atenção integral às diversas infâncias e adolescências.

RESPOSTA E VISÃO DA PAUSE & PENSE:

É necessário seguir uma abordagem voltada para direitos humanos na regulação de plataformas, exigindo que o combate à violência digital estruture-se a partir do princípio da proteção integral, reafirmado pelos arts. 3º a 6º da Lei nº 15.211/2025, e pelo dever corporativo e do Estado de garantir prioridade absoluta às crianças e adolescentes. Em diálogo com as Resoluções CONANDA nº 245 e nº 257/2024, isso implica que todos os atores envolvidos, plataformas, Estado, sociedade civil organizada, acadêmicos e outros atuem coordenadamente para prevenir e responsabilizar infratores.

Tal prevenção pode ser feita por meio do desenho seguro de plataformas (safety by design), aderindo a padrões mínimos obrigatórios de arquitetura de segurança, avaliação de riscos para cada faixa etária, bem como mecanismos de verificação contextual de idade, e não mero cálculo por ano de nascimento, que é facilmente modificado pelas próprias crianças para "burlar" sistemas e ter acesso a conteúdos inapropriados. Barreiras técnicas a funcionalidades que aumentem riscos (contato indesejado, geolocalização altamente exposta, recomendação inadequada pelos algoritmos) também precisam ser analisadas e implementadas, assim como campanhas contínuas de literacia digital em linguagem facilitada e em múltiplos formatos, acessível nas escolas públicas e inclusive para crianças e adolescentes com deficiência.

Também é necessário detectar rapidamente tais violações, moderá-las com responsabilidade e revisão humana, bem como ter respostas rápidas que não comprometam o devido processo nas plataformas no sentido de que eventuais banimentos e remoções sejam realizados sem comprometer o direito de ser informado sobre os motivos pelos quais o usuário foi punido. Sistemas de moderação transparentes, auditáveis e com protocolos específicos para suspeitas de violência sexual, trabalho infantil e similares são necessários, bem como que haja a integração de canais de denúncia simplificados, acessíveis e multimodais, indubitavelmente vinculados a órgãos de proteção (Conselhos Tutelares, MP, polícias especializadas) de rápida ação. Eventuais monitoramentos de padrões de risco, desde que compatíveis com o direito à privacidade, também são essenciais.

É igualmente indispensável que haja um mecanismo de notificação qualificado. A coordenação intersetorial é capaz de padronizar fluxos de notificação às autoridades competentes sem abdicar de prazos, sigilos, competências e garantias. É preciso integrar políticas de assistência social, saúde, educação e justiça, com acolhimento imediato e proteção contínua, como preconizado por convenções internacionais sobre o tema - ver, por exemplo, a contribuição da Pause & Pense para o Comentário #27 do Escritório do Alto Comissariado da ONU para os Direitos Humanos, em anexo. É necessário, ainda, investir em transparência, desenvolvendo painéis públicos de dados desagregados sobre violência digital, preservando a anonimização e permitindo a contribuição multissetorial.

Por último, não se pode esquecer da responsabilização efetiva e sempre centrada na vítima. São imprescindíveis mecanismos mais transparentes e objetivos de corresponsabilidade das plataformas quando ausentes medidas razoáveis de prevenção e resposta, mas sem abdicar do que entendemos ainda ser necessário em muitos casos estipulados pelo Artigo 19 do MCI: a notificação judicial. Entendemos que o referido artigo já é suficientemente útil para a maior parte dos casos de responsabilidade de intermediários, cabendo apenas algumas mudanças que também já foram abordadas em relatórios anteriores anexados, principalmente quanto à definição mais exata de alguns tipos de intermediários conforme o modelo proposto pela Internet Society (ISOC), vide relatório em anexo, que não se resume ao modelo descrito em lei, nem é completamente explicado pelo modelo proposto pelo CGI/Cetic/NIC.br.
A cooperação internacional em casos transfronteiriços, como quase todos, também é fundamental e deve ser preconizada. Fóruns multilaterais internacionais também são cada vez mais necessários. Processos verdadeiramente restaurativos e reparatórios voltados ao interesse superior da criança ou adolescente, que evitem casos de revitimização, também são urgentes.


  1. Fluxo de notificações para as autoridades nacionais e internacionais
    O art. 27, da Lei nº 15.211/2025, estabelece que em produtos ou serviços de tecnologia da informação direcionados a crianças e a adolescentes ou de acesso provável por eles e órgãos públicos devem manter fluxos de notificação coordenados e rastreáveis para garantir respostas céleres em casos de violação de direitos. Em consonância, as Resoluções do CONANDA nº 245 e nº 257, de 2024, determinam o encaminhamento obrigatório de denúncias às autoridades competentes.

Nesse contexto, no eixo 5, a consulta pública busca contribuições sobre protocolos intersetoriais que podem auxiliar na estruturação e no encaminhamento de notificações às autoridades competentes para garantir respostas rápidas e coordenadas em situações de risco ou violação de direitos, assegurando registro, guarda de provas, rastreabilidade, responsabilização e apoio especializado às vítimas.

RESPOSTA E VISÃO DA PAUSE & PENSE:

É necessária uma abordagem para o fluxo de notificações que atenda à premissa de que a comunicação rápida, precisa e rastreável entre plataformas e autoridades integra o próprio dever de cuidado previsto no art. 27 da Lei nº 15.211/2025.
A exigência de canais coordenados, capazes de preservar registros e garantir respostas céleres, dialoga diretamente com as Resoluções do CONANDA nº 245 e nº 257 de 2024, que determinam o encaminhamento obrigatório de denúncias às instâncias competentes.
Nesse cenário, a sugestão de protocolos intersetoriais que organizem de forma clara e uniforme o caminho percorrido por cada notificação, da identificação inicial ao acionamento das autoridades nacionais e internacionais, assegurando que a informação não se perca e que as evidências necessárias à investigação sejam preservadas de modo íntegro é louvável.
Ao estruturar esses fluxos, é essencial prever articulação contínua entre assistência social, órgãos de segurança, saúde, educação e serviços especializados, para que o atendimento à vítima ocorra de forma imediata e sem revitimização.
A rastreabilidade deve permitir que cada passo seja acompanhado e auditado, garantindo transparência e responsabilização. Também é fundamental contemplar o apoio qualificado às crianças e adolescentes afetados, incluindo orientação adequada à idade, atendimento psicossocial e acompanhamento jurídico.
Com esse conjunto de medidas, as notificações deixam de ser meros atos burocráticos e passam a constituir uma rede integrada de proteção capaz de reagir com rapidez, consistência e sensibilidade às situações de risco ou violação de direitos.


  1. Mecanismo de supervisão parental
    O Capítulo V, da Lei nº 15.211/2025, estabelece o dever do oferecimento de recursos de supervisão parental que respeitem a autonomia progressiva e a privacidade de crianças e adolescentes. Em consonância, as Resoluções do CONANDA nº 245 e nº 257, de 2024, preveem a necessidade de ferramentas de supervisão parental.

Nesse contexto, no eixo 6, a consulta pública busca funcionalidades, processos formativos, principais dificuldades e possíveis recursos, para responsáveis, que tornem possível o acompanhamento da vida digital de crianças e adolescentes, preservando a privacidade, a autonomia e o desenvolvimento progressivos.

RESPOSTA E VISÃO DA PAUSE & PENSE:

É urgente equilibrar a proteção com o reconhecimento da autonomia progressiva de crianças e adolescentes, tal como previsto no Capítulo V da Lei nº 15.211/2025. Ao reafirmar a necessidade de ferramentas de supervisão, as Resoluções do CONANDA nº 245 e nº 257 de 2024 indicam que o acompanhamento responsável não pode se traduzir em vigilância desmedida, mas deve oferecer condições para orientar, dialogar e apoiar a navegação segura no ambiente digital.
É preciso incentivar o desenvolvimento de funcionalidades que permitam aos responsáveis compreender dinâmicas de risco sem acessar conteúdos íntimos ou restringir indevidamente a privacidade, como painéis de atividades, alertas contextuais e opções de configuração graduais conforme a idade. Também se mostra essencial promover ações formativas para que pais e responsáveis compreendam tanto os limites quanto as potencialidades das ferramentas, fortalecendo competências digitais e comunicacionais.
Há obstáculos comuns enfrentados por famílias, como a falta de conhecimento técnico ou a dificuldade de estabelecer diálogo contínuo, e sugere-se que os recursos tornem o processo mais acessível e inclusivo. Ao estruturar esses elementos de forma integrada, a supervisão parental deixa de ser entendida como mera contenção e passa a funcionar como um apoio sensível ao desenvolvimento, capaz de proteger sem desrespeitar o espaço e o crescimento individual de crianças e adolescentes.


  1. Moderação de conteúdo
    Os arts. 29 e 30, da Lei nº 15.211/2025, impõem o dever de adoção de políticas de retirada de conteúdos que violem direitos de crianças e de adolescentes. Em consonância, a Resolução do CONANDA nº 245/2024 determina políticas de moderação de conteúdo e serviços nocivos, respeitando o direito à liberdade de expressão e de acesso à informação.

Nesse contexto, no eixo 7, a consulta pública busca ações intersetoriais, conteúdos e estratégias de moderação que podem ser adotadas para promover direitos humanos, diversidade e inclusão, prevenindo e combatendo discriminação, cyberbullying, desinformação e discurso de ódio contra crianças e adolescentes, com procedimentos de reparação céleres e indicadores de impacto.

RESPOSTA E VISÃO DA PAUSE & PENSE:

A moderação de conteúdo direcionada à proteção de crianças e adolescentes deve ser construída sobre critérios objetivos, transparentes, proporcionais e não discriminatórios, conforme previsto nos arts. 29 e 30 da Lei nº 15.211/2025.
O dever de remover conteúdos que violem direitos precisa ser acompanhado de garantias de transparência, mecanismos de recurso acessíveis e respeito à liberdade de expressão e ao acesso qualificado à informação, princípios já reforçados pela Resolução CONANDA nº 245/2024.
É preciso avançar na construção de estratégias de moderação que combinem avaliação contextual, participação social e supervisão independente, evitando decisões automatizadas que produzam injustiças ou silenciem grupos vulnerabilizados. Também é essencial instituir parâmetros que orientem o enfrentamento de violência digital, discriminação, cyberbullying, desinformação e discursos de ódio, com foco especial em práticas dirigidas contra crianças e adolescentes em razão de raça, gênero, orientação sexual, deficiência ou outras condições que aumentem sua exposição ao risco.
Ações intersetoriais podem aprofundar a cooperação entre plataformas, órgãos de proteção, especialistas e organizações da sociedade civil, fortalecendo protocolos de resposta rápida, reparação eficaz e acompanhamento das vítimas.
Além disso, recomenda-se a criação de indicadores públicos que permitam avaliar o impacto real das políticas de moderação, incluindo taxas de remoção, erros de classificação, prazos de resposta, medidas reparatórias e efeitos sobre a diversidade e a inclusão. Com essa abordagem, a moderação deixa de ser um processo opaco e punitivo para se tornar uma ferramenta de promoção de direitos, capaz de construir ambientes digitais mais seguros, plurais e acolhedores para todas as infâncias e adolescências.
A revisão por humanos com competência cultural adequada ao contexto de cada local e comunidade, e não meramente sinalização por IA/bots deve ser sempre prioridade, em consonância com princípios norteadores, como Santa Clara Principles 2.0 e outros (vide anexos), além de sempre permitir a revisão/contestação no devido processo da plataforma, com explicações fáceis e acessíveis sobre os motivos para sinalização e/ou punição, remoção e banimento, bem como possibilidade real de reverter o quadro após uma análise mais minuciosa.


  1. Relatórios de transparência e impacto
    O art. 31, da Lei nº 15.211/2025, prevê que provedores de aplicações de internet direcionadas a crianças e a adolescentes ou de acesso provável por eles que possuírem mais de 1.000.000 (um milhão) de usuários nessa faixa etária devem elaborar relatórios periódicos sobre riscos, moderação e impactos nesse público. Em consonância, as Resoluções do CONANDA nº 245 e nº 257, de 2024, determinam a realização de relatórios periódicos de transparência sobre moderação de conteúdo e denúncias.

Nesse contexto, no eixo 9, a consulta pública busca contribuições sobre parâmetros de formato, entrega e prazos que podem orientar os relatórios periódicos publicados por provedores de aplicações de internet direcionadas a crianças e a adolescentes ou de acesso provável por eles, de modo que sejam seguros, acessíveis, em linguagem inclusiva e compreensível e com dados abertos sobre moderação de conteúdo, notificações recebidas, medidas adotadas e impactos sobre crianças e adolescentes. Também busca medidas que possibilitem o acesso seguro a esses dados por entidades da sociedade civil, órgãos de controle e instituições de pesquisa.

RESPOSTA E VISÃO DA PAUSE & PENSE:

Relatórios de transparência e impacto são instrumentos essenciais para transformar obrigações legais em práticas verificáveis, permitindo que a sociedade avalie se plataformas cumprem seu dever de proteger crianças e adolescentes. O art. 31 da Lei nº 15.211/2025 estabelece a elaboração de relatórios periódicos por provedores com grande número de usuários nessa faixa etária, enquanto as Resoluções do CONANDA nº 245 e nº 257 de 2024 reforçam a necessidade de informações claras sobre moderação e denúncias.
A construção desses relatórios deve seguir padrões internacionais robustos, como os Santa Clara Principles 2.0, que defendem processos transparentes, explicações compreensíveis sobre decisões de moderação, mecanismos de contestação acessíveis e divulgação estruturada de dados.
Para que esses documentos sejam realmente úteis ao controle social, é fundamental que contenham dados desagregados por faixa etária, gênero, raça, região, tipo de violação, tempo de resposta e resultado das medidas adotadas, permitindo identificar disparidades, práticas discriminatórias e falhas estruturais que afetem grupos específicos de crianças e adolescentes. Também se mostra crucial incluir avaliações de impacto que considerem não apenas riscos imediatos, mas efeitos cumulativos das políticas algorítmicas e de moderação sobre o bem-estar, a privacidade e a autonomia progressiva desse público.
É preciso prezar pelo aprimoramento de metodologias, formatos acessíveis e mecanismos de auditoria externa, fortalecendo a confiança pública e possibilitando que organizações, pesquisadores e autoridades acompanhem, de forma contínua, a eficácia das medidas implementadas.
Relatórios estruturados com rigor, comparabilidade e abertura de dados desagregados por raça, cor, gênero, faixa etária, tipos de penalidades, moderação, conteúdo etc., desde que anonimizadas as vítimas, transformam a transparência em prática democrática e se tornam uma ferramenta decisiva para garantir ambientes digitais mais seguros, inclusivos e justos para todas as infâncias e adolescências.


  1. Jogos eletrônicos
    O Capítulo VII, da Lei nº 15.211/2025, veda as caixas de recompensa (loot boxes) em jogos eletrônicos direcionados a crianças e adolescentes ou de acesso provável por eles e remete à Lei nº 14.852, de 3 de maio de 2024, no que se refere à moderação de conteúdos, à proteção contra contatos prejudiciais e à atuação parental sobre os mecanismos de comunicação. Em consonância, as Resoluções do CONANDA nº 245 e nº 257, de 2024, preveem medidas para evitar as violações de direitos relacionadas aos riscos de conteúdo, contrato, contato e conduta de jogos de apostas/azar.

Nesse contexto, no eixo 15, a consulta pública busca contribuições sobre como aplicar e fiscalizar a vedação legal, e sobre outros aspectos da proteção de crianças e adolescentes no uso de jogos eletrônicos, sem comprometer o desenvolvimento de experiências de jogo seguras, educativas e criativas.

RESPOSTA E VISÃO DA PAUSE & PENSE:

A proteção de crianças e adolescentes no ecossistema dos jogos eletrônicos depende não apenas da proibição formal das loot boxes, já estabelecida pelo Capítulo VII da Lei nº 15.211/2025, mas sobretudo da criação de um modelo de fiscalização capaz de enfrentar a escala, a velocidade e a fragmentação desse mercado.
A mera vedação não produz efeitos concretos se não houver um órgão com competência clara, recursos técnicos e quadros especializados suficientes para monitorar, investigar e sancionar irregularidades em milhares de jogos existentes e nos inúmeros títulos que surgem diariamente nas mais diversas plataformas, muitas delas hospedadas fora do país. Esse desafio levanta questões institucionais centrais: qual ente regulador terá atribuição para fiscalizar de forma contínua?
A ANCINE, por exemplo, embora tenha atuação histórica no campo do audiovisual e já tenha dialogado com o setor de games, não possui hoje uma estrutura plenamente preparada para lidar com o volume, a complexidade tecnológica e a dinâmica transnacional desse mercado. Sem reforço substancial de pessoal, capacidade investigativa, ferramentas de rastreamento e cooperação internacional, é improvável que consiga exercer essa função de maneira efetiva.
Nesse sentido, é preciso promover o debate sobre modelos regulatórios que articulem uma autoridade responsável com mecanismos de fiscalização que incluam monitoramento ativo, auditorias periódicas, canais de denúncia especializados, interoperabilidade entre plataformas e exigências de transparência para desenvolvedores e distribuidoras. Também é fundamental que normas e procedimentos considerem os riscos ampliados associados aos jogos eletrônicos, como conteúdos inadequados, contatos abusivos, práticas predatórias de monetização e dinâmicas que induzem crianças e adolescentes a contratos ou interações que não compreendem plenamente. A fiscalização deve dialogar com a Lei nº 14.852/2024 e com as diretrizes do CONANDA, assegurando que o ecossistema de jogos promova experiências seguras, educativas e criativas, sem reproduzir lógicas de exploração econômica ou emocional.
Para que isso seja possível, recomenda-se abrir o debate sobre uma eventual autoridade reguladora híbrida ou especializada, capaz de combinar competências de proteção infantojuvenil, regulação digital, defesa do consumidor e cooperação internacional. Se a ANCINE vier a exercer esse papel, será indispensável dotá-la de unidades específicas de supervisão de jogos, equipes multidisciplinares, protocolos com plataformas globais e capacidade de produzir orientações técnicas atualizadas. Somente com uma estrutura institucional clara, recursos adequados e fiscalização contínua a proibição das loot boxes deixará de ser uma declaração simbólica para se tornar um instrumento real de proteção de direitos no ambiente digital.
Sobre o tema, recomendo ver os escritos de LY Xiao (alguns estão em anexo), que inclusive possui diversas análises comparadas entre Brasil e outros países do mundo na questão regulatória das loot boxes.
Para outras questões envolvendo jogos eletrônicos, plataformas relacionadas (Discord, Twitch, Steam etc.), moderação de conteúdo, mas também loot boxes e afins, recomendo minha dissertação de mestrado (em anexo, sobretudo as páginas 273-278) e artigos diversos (publicados no Jornal da USP, portal da ONG Pause & Pense, JOTA e outros).

Além das respostas acima, enviamos diversos anexos de publicações nossas e de outras instituições, tais como ISOC Brasil e Instituto Alana, mas também publicações acadêmicas de nossos membros e de pesquisadores com os quais dialogamos no exterior, como L. Y. Xiao (este último com ênfase na regulação de loot boxes ao redor do mundo).

Reforçamos que o debate não se encerra por aí: outra consulta promovida pelo Ministério da Justiça de São Paulo (MJSP) sobre temas correlatos envolvendo o ECA Digital e mecanismos de aferição etária também se encerrou no dia 14.11.2025 e deve tornar o debate ainda mais robusto.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *