A iniciativa deste texto nasceu de um incômodo muito concreto: o vídeo recente do influenciador Felcas sobre a adultização de crianças nas redes sociais me atravessou não só como cidadão, mas, sobretudo, como pai de três filhos. A partir daquela provocação, aproximei evidências, casos e marcos legais para sustentar uma tese simples e dura: não estamos diante de episódios aleatórios, e sim de um sistema técnico–econômico desenhado para capturar atenção, explorar vulnerabilidades do desenvolvimento infantil e transformar tempo de tela em lucro, ainda que isso custe a saúde mental e o futuro de uma geração.
As plataformas de redes sociais não “espelham” apenas o que crianças e adolescentes procuram; seus algoritmos aprendem padrões de interação e, por design, empurram conteúdos progressivamente mais intensos — sensacionalistas, sexualizados ou violentos — porque esse tipo de estímulo maximiza engajamento. A sequência é previsível: uma busca inocente por dança vira um feed saturado de performatividade corporal adulta; um clique curioso em “drama” deságua em vídeos que normalizam agressões; a inscrição em “comunidades” vira uma câmara de eco para ideologias extremas. A engenharia comportamental por trás desses sistemas — notificação intermitente, rolagem infinita, recompensas variáveis — foi calibrada para manter a criança conectada, não para protegê-la. E filtros etários ou “controles parentais” mal implementados oferecem uma sensação de segurança que o próprio mecanismo de recomendação contorna com facilidade.
A dimensão do dano já é mensurável. Compilações recentes indicam que 83% dos jovens brasileiros foram expostos a conteúdo violento ou discriminatório nas plataformas; 26% relataram sentir-se motivados a agredir após essa exposição; e, todos os dias, estatisticamente, 3,5 crianças e adolescentes se matam no país — um quadro cuja taxa cresceu em escala assustadora nas últimas duas décadas. Esses números não são anomalias estatísticas: eles se alinham a achados internacionais de que o uso intensivo de redes está associado ao dobro do risco de transtornos de saúde mental, especialmente quando ultrapassa algumas horas diárias. O que se observa no consultório, na escola e em casa — ansiedade, depressão, automutilação, distorção da autoimagem, redução de empatia e tolerância à frustração — casa com o que a ciência vem descrevendo e o cotidiano confirma.
Há, ainda, o ângulo jurídico. O nosso ordenamento não é cego a crimes digitais contra crianças e adolescentes: o Estatuto da Criança e do Adolescente tipifica o aliciamento on-line; a Lei 14.811/2024 criminaliza o cyberbullying e endurece a proteção; o Código Penal trata da corrupção de menores. Mas um fosso separa a letra da lei da realidade das plataformas. No mundo físico, um adulto que conduzisse menores a material sexualizado na porta de uma escola seria detido; no digital, cadeias algorítmicas que fazem isso em escala industrial continuam operando sob a blindagem do discurso da “neutralidade tecnológica” e de um modelo de negócios que externaliza o custo social para famílias, escolas e serviços de saúde. Quando questionadas, empresas recorrem a manuais de relações públicas: prometem autorregulação, anunciam investimentos em “safety”, deslocam a responsabilidade para os pais e, não raro, se ausentam do debate público nacional — tudo sem tocar na engrenagem que remunera o risco: o próprio algoritmo.
Os efeitos sociais de médio e longo prazo são graves. A erotização precoce rouba marcos de desenvolvimento, sabota a construção de autoestima e aumenta a vulnerabilidade a abusos. A normalização de violência treina respostas agressivas e deteriora a convivência. A hiperconectividade paradoxal promove isolamento: muitos seguidores, poucos amigos; muita performance, pouca intimidade. Ao escalar, isso corrói instituições — família, escola, comunidade — que dependem de atenção sustentada, empatia e cooperação. Também há um custo econômico: a explosão de casos de sofrimento psíquico na infância e adolescência atinge produtividade, sobrecarrega sistemas de saúde e adiciona camadas de vulnerabilidade a trajetórias de vida que poderiam ser plenas.
O que fazer, então? A resposta precisa combinar atitudes imediatas no lar, políticas educativas e regulações que alinhem incentivos. Em casa, não há substituto para regras claras: nada de acesso não supervisionado; adiamento real de redes sociais na infância e na pré-adolescência; rotina digital previsível e limitada; conversa franca e continuada sobre manipulação algorítmica; alternativas offline deliberadas — esporte, arte, leitura, convivência — que devolvam às crianças um repertório de prazer não mediado por telas. Na escola, educação midiática e algorítmica obrigatória — como funcionam feeds, por que “grátis” não é de graça, o que é design persuasivo —, protocolos para identificar sinais de sofrimento e parceria ativa com famílias.
No plano público, verificação etária eficaz e auditável; transparência algorítmica com obrigação de relatórios de risco por faixa etária; vedação de práticas de design viciante dirigidas a menores; responsabilização administrativa e, em casos comprovados de dano, civil e penal de executivos e empresas; presença jurídica efetiva no Brasil para garantir cumprimento de medidas; e financiamento de capacidade instalada em saúde mental infantojuvenil, inclusive para tratamento de dependência digital e reabilitação de habilidades socioemocionais. No mercado, há espaço — e urgência — para tecnologia com “safety by design”: recomendação que priorize bem-estar, default de privacidade alto, metas de engajamento substituídas por métricas de qualidade de experiência para menores.
Nada disso é “pânico moral”. É prudência baseada em evidência e na experiência cotidiana de quem educa. Como pai de três crianças, não escrevo a partir de abstrações: escrevo do lugar de quem vê, nos detalhes do dia a dia, como a economia da atenção disputa — e muitas vezes vence — o tempo, a curiosidade e a afetividade dos nossos filhos. O vídeo do Felcas serviu de gatilho para organizar esse diagnóstico e reforçar uma convicção: se aceitarmos as redes como são, aceitaremos, por tabela, um desenho de infância que não nos serve. Se quisermos outro resultado, precisaremos mudar regras, hábitos e incentivos — começando em casa, expandindo para a escola e pressionando o Estado e as empresas a assumirem a sua parte.
O problema é grande porque é sistêmico; a boa notícia é que ele também é redutível quando atacado em sistema. E o tempo de agir é agora, enquanto ainda podemos escolher que tipo de infância — e de futuro — estaremos dispostos a proteger.
André Araújo Barcelos é advogado.
Entre no grupo do MidiaNews no WhatsApp e receba notícias em tempo real (CLIQUE AQUI).
0 Comentário(s).
|