15/04/2026

15/04/2026

Search
Close this search box.

Como Instituições e Responsáveis Devem Enfrentar os Dilemas Dessa Relação

Getty Images


Acessibilidade








Em março de 2025, a Netflix lançou a minissérie original “Adolescência”, com quatro episódios. Não demorou para que as discussões trazidas pela produção dominassem o debate público e a tornassem a mais assistida da plataforma de streaming. No último dia 6 de agosto, o influenciador “Felca” publicou em seu canal no YouTube um vídeo intitulado “Adultização”. Em apenas 14 dias, o conteúdo já ultrapassou 45 milhões de visualizações e, inclusive, acelerou o andamento de um projeto de lei — o PL 2.628/2022, que passou a ser chamado de “PL da Adultização”.

A proporção alcançada tão rapidamente por ambos responde a uma preocupação crescente entre pais e responsáveis: a segurança e a integridade de crianças e adolescentes nas redes sociais. Segundo a pesquisa TIC Kids Online Brasil 2024, 24,5 milhões de usuários de internet no Brasil tem entre 9 e 17 anos (93% da faixa etária), sendo que 76% deles utilizam redes sociais — principalmente WhatsApp (71%), YouTube (66%), Instagram (60%) e TikTok (50%).

“Mães e pais têm condições limitadas de proteger seus filhos frente às plataformas digitais. Por isso é tão importante que o tema tenha sido trazido à tona por meio de uma linguagem acessível. Esse episódio é um lembrete de que garantir os direitos de crianças e adolescentes é responsabilidade da sociedade e que, quando agimos, podemos proteger a infância”, afirma Thais Dantas, presidente da Comissão Especial de Defesa dos Direitos da Criança e do Adolescente da OAB de São Paulo.

Os riscos dos ambientes digitais para menores de idade

Não é difícil encontrar perfis de menores nas redes — até mesmo de crianças com menos de 13 anos, idade mínima para a criação de uma conta segundo a legislação dos Estados Unidos, país de origem da maioria das empresas responsáveis pelas plataformas. Em alguns casos, essas contas possuem verificação e até participam de programas de monetização de conteúdo.

No entanto, esses produtos não foram desenvolvidas nem adaptados para atender às necessidades e restrições desse público. “A internet pode ser muita coisa, pode ser, inclusive, um site educativo que não usa os dados pessoais de crianças e adolescentes a fim de explorá-los. Porém, a tendência hoje é essa”, diz Maria Mello, coordenadora de digital do Instituto Alana.

Assim, essa parcela vulnerável da sociedade é facilmente exposta à publicidade indevida, ações criminosas e conteúdos inadequados para seu desenvolvimento psicossocial.

Brenda Guedes, doutora em Comunicação, pesquisadora vinculada ao LabGRIM, da Universidade Federal do Ceará, e à Recria, destaca que o próprio modelo de negócio das redes, baseado na entrega de anúncios conforme o perfil e tempo de permanência dos usuários, favorece práticas prejudiciais aos menores.

“O modelo de negócio das plataformas é essencialmente comercial, o que contradiz parte do princípio de proteção vigente para crianças e adolescentes no Brasil. Elas têm tecnologia suficiente para saber quem são seus usuários e, enquanto não há regulação no país, optam por oferecer esse tipo de experiência e serviço.”

O artigo 5º da Lei da Primeira Infância, de 2016, por exemplo, “estabelece como área prioritária das políticas públicas para a primeira infância a proteção contra toda forma de violência e de pressão consumista, a prevenção de acidentes e a adoção de medidas que evitem a exposição precoce à comunicação mercadológica”.

Algoritmo P

O influenciador Felipe Bressanim, conhecido como Felca, responsável por viralizar o tema nas últimas semanas, menciona outra face da insegurança online: a impessoalidade e a falta de moderação dos algoritmos. No vídeo mencionado no início da reportagem, ele cria uma conta “do zero” no Instagram e, a partir dela, passa a interagir com conteúdos de crianças expostas.

Em “menos de 5 minutos”, como relata, a plataforma já começa a recomendar publicações semelhantes, com centenas de comentários de criminosos que direcionam os usuários a comunidades de pornografia infantil.

Foto do influenciador "Felca"

Em comunicado enviado à Forbes Brasil, a Meta, controladora do Instagram, afirma que conta com “regras rigorosas contra a sexualização infantil” e remove esses conteúdos “assim que identificados”.

“Utilizamos tecnologia para detectar adultos que apresentam comportamento potencialmente suspeito. No mês passado, anunciamos novas medidas para dificultar ainda mais que esses adultos encontrem contas que exibem predominantemente conteúdos com crianças via recomendações ou busca.”

A falsa bolha de segurança

No artigo “Um ensaio sobre cegueira: as políticas de denúncia de abuso sexual infantil do Instagram”, escrito pela advogada Carolina Christofoletti e publicado pelo grupo de pesquisa “Violações de Direitos Humanos e Crime Corporativo”, da Universidade de São Paulo (USP), discute-se a falsa sensação de segurança nos ambientes digitais:

“Como as autoridades se esqueceram de avisar que conteúdo criminoso também aparece em plataformas que eles usam diariamente, como Facebook, YouTube e outras. Quando os denunciantes [usuários] encontram material abusivo, tendem a pensar que estão vendo coisas onde elas não existem (a literatura chama isso de olhar pedófilo).”

“O Instagram me aconselha a usar uma versão filtrada de seu aplicativo para não ver esse tipo de conteúdo. Como usuário, isso não é o que eu desejo. Não quero usar uma versão filtrada e entrar na bolha de um mundo paralelo onde as Políticas de Confiança e Segurança existem apenas na minha cabeça. Acima da minha cabeça, o mundo paralelo de coisas sem filtros continua existindo.”

O papel das empresas, pais e instituições

Há um consenso entre as especialistas consultadas pela Forbes Brasil: unir forças é fundamental para combater os crimes contra a infância e a juventude. “As famílias precisam estar cada vez mais munidas de informações para refletir sobre a pertinência e necessidade de expor na internet informações relacionadas a crianças e adolescentes. O setor empresarial tem que se comprometer em não cometer ilegalidades. Existe uma saída e, sem dúvidas, ela é coletiva”, reforça a coordenadora do Instituto Alana.

Para Brenda Guedes, a sociedade deve repensar o uso da imagem infantil — desde “figurinhas” no WhatsApp até postagens sobre momentos íntimos. “A ideia de dataficação [transformar informações da realidade em dados digitais] da vida das crianças é muito cruel. Até o dia da primeira menstruação está no Instagram.”

“Problemas complexos não são respondidos com soluções simples”, afirma. Ainda assim, a mediação familiar é essencial. Como exemplo, Guedes destaca o diálogo e a educação digital entre pais e filhos. “Estar com o celular na mão, em casa, não é o equivalente a estar seguro.”

Foto ilustrativa de uma criança mexendo no celular

Carolina Christofoletti, especialista em segurança infantil online, pontua a importância de se criar perfis adequados à idade dos jovens. “Se a gente não registra uma conta de criança como tal, esse perfil vai operar sem os parâmetros de segurança mínimos.”

A advogada também sugere que as plataformas entreguem mais dados sobre o controle parental, com estatísticas sobre tempo de tela, contatos frequentes e outras métricas.

Existe um “manual” de boas práticas para crianças e adolescentes online?

Maria Mello e Brenda Guedes mencionam o documento “Crianças, adolescentes e telas – Guia sobre usos de dispositivos digitais”, lançado no início de 2025 pelo Governo Federal, como ponto de partida para os interessados no tema.

Em resposta a questionamentos referentes à proteção de menores de idade na plataforma, o TikTok compartilhou sua “cartilha prática, desenvolvida em parceria com a ONG SaferNet”. [Clique aqui para acessar]

Procurado pela reportagem, o YouTube não respondeu aos questionamentos sobre quais medidas de segurança existem na plataforma para proteger menores, quais são as ferramentas de controle parental disponíveis e por que os algoritmos que são capazes de derrubar conteúdos com músicas protegidas por direitos autorais não identificam crianças e adolescentes em situação de vulnerabilidade.

O que pode mudar com a aprovação do PL 2.628/2022

Nesta terça-feira, 19 de agosto de 2025, a Câmara dos Deputados aprovou, em caráter de urgência, a votação do Projeto de Lei 2.628/2022, encaminhado pelo Senado em dezembro de 2024. O PL, apelidado de “PL da Adultização” ou “ECA Digital”, legisla sobre a atuação de fornecedores de produtos ou serviços de tecnologia da informação em relação a crianças e adolescentes.

Em nota, a Comissão Especial de Defesa dos Direitos da Criança e do Adolescente da OAB de São Paulo afirmou:

“Tal economia da atenção tem produzido efeitos perturbadores para crianças e adolescentes. A ausência de normas sobre deveres de prevenção, proteção e segurança aplicáveis a esses casos produz uma situação incompatível com os direitos de crianças e adolescentes. Assim, avalia-se como positivo o texto do ECA Digital e defende-se sua aprovação.”

Confira alguns artigos de destaque do PL 2.628/2022:

Art. 3º Os produtos ou serviços de tecnologia da informação direcionados ou que possam ser utilizados por crianças e adolescentes devem garantir a proteção prioritária desses usuários, ter como parâmetro o melhor interesse da criança e do adolescente e contar com medidas adequadas e proporcionais para assegurar um nível elevado de privacidade, proteção de dados e segurança, nos termos definidos pela Lei nº 8.069, de 13 de julho de 1990 (Estatuto da Criança e do Adolescente), e pela Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).

Art. 5º Parágrafo único. Os produtos ou serviços de tecnologia da informação devem contar com mecanismos para ativamente impedir o uso por crianças e adolescentes sempre que não forem desenvolvidos para eles ou não estiverem adequados a atender às necessidades desse público.

Art. 7º Parágrafo único. Os fornecedores de produtos ou serviços de tecnologia da informação direcionados ou que possam ser utilizados por crianças e adolescentes não deverão coletar, usar, compartilhar ou reter dados pessoais de crianças e adolescentes de maneira a causar ou contribuir para violações à privacidade e a outros direitos protegidos.

Art. 8º Os fornecedores de produtos ou serviços de tecnologia da informação direcionados ou que possam ser utilizados por crianças e adolescentes deverão:
III – oferecer sistemas e processos projetados para impedir que crianças e adolescentes encontrem, por meio do produto ou serviço, conteúdo ilegal, nocivo ou danoso e em desacordo com sua classificação etária.

Art. 11. Os fornecedores de produtos ou serviços de tecnologia da informação direcionados ou que possam ser utilizados por crianças e adolescentes deverão:
III – limitar recursos para aumentar, sustentar ou estender o uso do produto ou serviço pela criança ou adolescente, como reprodução automática de mídia, recompensas pelo tempo de uso, notificações e outros recursos que possam resultar em uso compulsivo do produto ou serviço por criança ou adolescente;
V – controlar sistemas de recomendação personalizados, inclusive por meio da faculdade de desativá-los;
VII – promover educação midiática dos usuários crianças e adolescentes quanto ao uso seguro de produtos e serviços de tecnologia da informação;
VIII – controlar e desabilitar ferramentas de inteligência artificial que não sejam estritamente necessárias para o funcionamento dos sistemas e que coloquem em risco o desenvolvimento de crianças e adolescentes.

Art. 16. Para além das demais disposições desta Lei, é vedada a utilização de técnicas de perfilamento para direcionamento de publicidade a crianças e adolescentes, bem como o emprego de análise emocional, realidade aumentada, realidade estendida e realidade virtual para esse fim.

Art. 17. No âmbito de seus serviços, os provedores de redes sociais devem garantir que usuários ou contas de crianças estejam vinculados ao usuário ou à conta de um de seus responsáveis legais.

Art. 23. Os provedores de aplicações de internet que possuírem mais de 1.000.000 (um milhão) de usuários crianças e adolescentes registrados, com conexão de internet em território nacional, deverão elaborar relatórios semestrais, em língua portuguesa, contendo:
I – os canais disponíveis para recebimento de denúncias e os sistemas e processos de apuração;
II – a quantidade de denúncias recebidas;
III – a quantidade de moderação de conteúdo ou de contas, por tipo;
IV – as medidas adotadas para identificação de contas infantis e de atos ilícitos
V – os aprimoramentos técnicos para a proteção de dados pessoais e privacidade das crianças e adolescentes

Parágrafo único. O relatório deverá ser publicado no sítio eletrônico do provedor e enviado ao órgão competente do Poder Executivo.

Clique aqui para acessar a Fonte da Notícia

VEJA MAIS

Anfavea Prevê Queda de 6,2% nas Vendas de Máquinas Agrícolas em 2026

As vendas de máquinas agrícolas no Brasil deverão somar 46,7 mil unidades em 2026, queda…

Geopolítica e custos de produção dominam debates do 4º Congresso Abramilho

Foto: Pedro Silvestre/Canal Rural Mato Grosso A volatilidade do cenário global e o impacto direto…

Café Deve Ter Safra Recorde de 65 Milhões de Sacas no Brasil, Diz IBGE

A produção brasileira de café de 2026 foi estimada nesta terça-feira em recorde de 65,1…