23.3 C
Manaus
terça-feira, 24 fevereiro, 2026
InícioBrasiluma mudança radical é necessária

uma mudança radical é necessária

Date:

[ad_1]

ouça este conteúdo

00:00 / 00:00

1x

Por Andressa Michelotti*

Na semana passada, um vídeo do influenciador Felca causou grande comoção nas redes sociais e repercutiu no Congresso. Embora sua fala não trouxesse novidades sobre violência e exploração infantil online, ela foi certeira em pontos cruciais. Ao expor esse “submundo” digital, Felca talvez tenha elucidado a sociedade sobre o nosso papel na proteção infantil.

Em um passado distante, quando eu trabalhava na indústria de tecnologia, uma das minhas funções era remover e reportar conteúdo descrito como “CSAM (“child sexual abuse material” — material de abuso sexual infantil). Esse foi o meu primeiro contato com um mundo que eu nunca imaginei existir. Vi coisas inimagináveis e que muita gente só acha que encontra na dark web, mas na verdade esse tipo de conteúdo está circulando por qualquer plataforma.

Legalmente, as plataformas devem remover e reportar conteúdo relacionado a CSAM. Para isso, utilizam tecnologias de IA que detectam imagens através de hashes, que são identificações únicas compartilhadas entre empresas de tecnologia e ONGs para facilitar a detecção futura. Porém, a automação tem limites. Imagens inéditas precisam ser classificadas manualmente, exigindo que revisores humanos revisem e removam conteúdos não identificados automaticamente pelos sistemas.

Enquanto alguns casos de CSAM são facilmente identificáveis, outros exigem análise humana detalhada. Os revisores avaliam o foco da câmera no corpo da criança, possível sexualização em poses ou movimentos, e o ambiente circundante para detectar atividades suspeitas. Para os “limpadores do pior da internet”, este trabalho é devastador, desgastante, intenso e com alto custo emocional, gerando profunda desesperança na humanidade.

Os processos e tecnologias das plataformas para detectar conteúdo problemático nunca serão suficientes. Suas políticas nem sempre funcionam como prometem. Esse tipo de conteúdo é constantemente reinventado e disseminado com velocidade viral. Paradoxalmente, às vezes as plataformas removem o desnecessário, como foi o caso da histórica foto da “menina do napalm” durante a guerra do Vietnã, removida pelo Facebook em 2016 por suposta violação contra pornografia infantil.

O maior desafio está no conteúdo limítrofe. Ou seja, aquele conteúdo “socialmente aceitável” que sexualiza crianças de forma sutil ou que a sociedade considera “fofo.” Esse material permanece online e, enquanto gerar engajamento, as plataformas continuarão monetizando à custa da exploração dos mais vulneráveis para entretenimento alheio. Esse é o modelo de negócio das plataformas.

Nada de novo

O “consumo dos corpos infantis” não é um fenômeno novo. A mídia tradicional foi a sua precursora. Para quem cresceu nos anos 80 e 90, a exposição precoce à pornografia e erotismo começava em casa, com os próprios adultos permitindo esse conteúdo.

O quadro da banheira no programa do Gugu exemplifica isso: entrava nas casas sem constrangimento, sexualizando e humilhando mulheres diante das crianças em nome do entretenimento. Na programação infantil, Xuxa e suas Paquitas — meninas erotizadas e desejadas por muitos marmanjos — também influenciavam moda e comportamento das crianças. A Xuxa em uma entrevista de 2020 apontava sobre essa normalização da erotização infantil no seu programa :

“As roupas eram bem cavadas. Pra seguir a moda, eu tinha que seguir a coisa sensual e sexual. Eu não estava querendo sensualizar, sexualizar ou estimular isso para as crianças, mas se eu não fizesse isso estaria fora do que estava acontecendo diariamente da porta pra fora. Todo mundo fazia isso na praia, na piscina, nas músicas, videoclipes, na TV, nas aberturas de novela.”

A adultização e erotização infantil se manifesta há décadas também na propaganda. Basta lembrar da propaganda “Meu primeiro sutiã”, de Washington Olivetto em 1987, que há não muito tempo ainda era celebrado sobre a sua campanha. O comercial retratava uma menina de 11 enfrentando a pressão de usar seu primeiro sutiã. A propaganda terminava com a menina desconfortável ao perceber o olhar masculino sobre ela.

Os traumas dos anos 80 e 90 persistem hoje, amplificados pelas redes sociais, influenciadores e IA generativa. Os mesmos problemas agora são exponenciados e intensamente monetizados. Antes as emissoras de televisão detinham o monopólio da exploração infantil para consumo e entretenimento. Hoje, esse mercado se fragmentou entre plataformas digitais, usuários, anunciantes e influenciadores, mas a essência permanece inalterada.

Como o Instituto Alana já alertava aos senadores da Comissão de Direitos Humanos em 2020, tanto a televisão quanto as plataformas há tempos violam direitos das crianças e adolescentes.

O velho novo mundo

Nathaniel Persily, professor de direito da Universidade de Stanford, identifica três problemas centrais das plataformas digitais: velocidade e viralização do conteúdo e anonimato dos disseminadores. Essa análise, originalmente aplicada à desinformação, também se aplica ao conteúdo infantil problemático. O conteúdo explícito gera engajamento e viraliza rapidamente, enquanto criminosos se escondem atrás de contas falsas para aliciar menores. Nesse processo, os algoritmos de recomendação amplificam o problema, transformando o próprio sistema de recomendações em uma armadilha que expõe crianças tanto ao conteúdo problemático quanto aos criminosos.

Persily escreveu isso antes do boom da IA generativa. Hoje, existem empresas de deepfake especializadas em gerar pornografia adulta e infantil. A IA e tecnologias de realidade aumentada adicionam novas complexidades e riscos às crianças. Mas não precisamos pensar em IA. Quadrilhas que vendem pornografia infantil são uma realidade. O Discord se tornou um terreno fértil para abuso infantil em grupos fechados, o que também ocorre emem aplicativos como Telegram e WhatsApp.

Jornalistas têm feito constantes alertas para os problemas com relação à proteção infantil nas plataformas. Nessa semana, o Núcleo Jornalismo listou sua coletânea de investigações sobre o assunto. Tudo isso é normalizado e disseminado com uma rápida viralidade.

Felca aponta que o grande problema está na monetização. Esse é o grande problema da indústria do entretenimento, que sempre lucrou através da exploração. Havendo audiência, haverá conteúdo.

Parte do plano expansionista das plataformas — como qualquer indústria capitalista — consiste em capturar futuros consumidores. Ou seja, crianças e adolescentes de hoje se tornarão os consumidores de amanhã. Quanto mais rápido e mais cedo essa captação, mais rápido o retorno monetário. Por isso, mantê-las online interessa a plataformas, anunciantes e influenciadores. O problema desse ciclo vai além da cadeia de entretenimento: está nos danos causados a esses jovens usuários no processo.

Mark Zuckerberg, dono do Facebook, que em 2024 teve que se desculpar aos pais de vítimas em audiência do Senado americano sobre segurança infantil no Instagram, esse ano ele se alinhou ao Partido Republicano e faz lobby no Congresso para desviar a atenção de qualquer legislação que responsabilize as plataformas pela proteção de menores. Porém, essa postura não é recente. Já em 2011, Zuckerberg defendia que menores de 13 anos deveriam ter acesso ao Facebook.

Em “A geração ansiosa”, Jonathan Haidt explica que crianças e adolescentes que passam muito tempo online, especialmente nas redes sociais, sofrem danos como privação social, privação do sono, fragmentação da atenção e vício. Nesse ciclo, não apenas se expõem e se tornam vulneráveis a usuários mal-intencionados e criminosos, como também se transformam em “seus próprios gerentes de marca”, pensando sempre com antecedência nas consequências sociais de cada foto, vídeo, comentário e emoji que escolhem. Para a proteção infantil, o controle do tempo de exposição às tecnologias é urgente.

A proteção infantil é também envolve o trabalho infantil digital através da exposição de menores, incluindo contratos publicitários que exploram crianças e adolescentes nas plataformas para divulgar produtos. Hoje, muitos desses contratos são feitos sem regras nem transparência.

Portanto, quando se trata de crianças e adolescentes, no centro desse ecossistema estão os adultos: usuários, anunciantes, influenciadores, reguladores e tomadores de decisão das plataformas.

Uma mudança radical é necessária

A solução exige ação conjunta. Aqui vemos uma cadeia de interdependência: as plataformas dependem dos anunciantes, que não se responsabilizam por suas campanhas. Os influenciadores também integram essa cadeia de monetização baseada na economia da atenção e devem responder pelo conteúdo que produzem. Sem essa responsabilidade compartilhada, os problemas persistirão. Portanto, é preciso legislar simultaneamente sobre plataformas, anunciantes e influenciadores.

Leis são necessárias para proteger crianças e adolescentes do abuso e exploração. O PL 2628/2022 sobre a proteção de crianças e adolescentes está em discussão há algum tempo. O texto já foi aprovado no Senado mas na semana passada, a urgência do projeto foi travada com o motim na Câmara em defesa de Bolsonaro.

Essa semana, parlamentares e sociedade civil pedem urgência para a aprovação da lei. Porém, o projeto pode eventualmente estar em risco com a manifestação de partidos de oposição que consideram o texto restritivo à liberdade de expressão. Neste contexto, é importante lembrar que um movimento parecido foi visto nos Estados Unidos com a proposta do Kids Online Safety Act — KOSA (Lei de Segurança Online para Crianças), no qual a liberdade de expressão entrou no cerne do debate regulatório.

No que diz respeito à proteção infantil, o papel também é nosso. Essa semana, o presidente da Câmara, Hugo Motta, disse que pautará projetos contra a adultização infantil na internet, reconhecendo que o tema “toca no coração da sociedade”. De fato, é fundamental não normalizar a exploração de menores. Se esse assunto realmente toca no coração da sociedade, precisamos de uma mudança radical de comportamento, estabelecendo coletivamente os limites entre o aceitável e o inaceitável, independentemente do meio.

Hoje discutimos televisão, redes sociais e IA, mas amanhã surgirão novas tecnologias com os mesmos problemas. Como observei trabalhando com CSAM, esse é um problema sem fim. Por isso a mudança deve estar em nós, não apenas nas tecnologias.

Precisamos reconhecer esses problemas, exigir soluções e proteger quem não se defende sozinho. Não podemos agir apenas ao chamo de influenciadores. Como Felca, devemos enfrentar o desconforto de saber do pior do ambiente online que pode afetar crianças e adolescentes, protegê-los nessas plataforma, nos sensibilizar e manifestar nossa indignação. A partir da pressão social, podemos demandar mudanças nas políticas públicas. Essa luta, porém, não pode ficar restrita aos debates entre sociedade civil, plataformas e Congresso; ela precisa fazer parte do nosso cotidiano.

 

 

*Andressa Michelotti é doutoranda do Departamento de Ciência Política da Universidade Federal de Minas Gerais, pesquisadora do Margem — Grupo de Pesquisa em Democracia e Justiça (UFMG)



[ad_2]

spot_img