A Meta anunciou no início de janeiro que mudaria sua moderação de conteúdo. As principais alterações foram o fim do programa de verificação de fatos por terceiros, que foi substituído por um sistema de “notas da comunidade”, e a flexibilização do que é considerado discurso de ódio nas plataformas da empresa.
A decisão gerou polêmicas e levantou preocupações relacionadas à facilidade de compartilhar desinformação e discursos preconceituosos. Você pode relembrar o caso aqui e aqui.
No entanto, o Conselho de Supervisão da Meta, um grupo independente criado pela própria Meta para ajudar a empresa nas decisões de moderação de conteúdo, não aprovou completamente as mudanças. A resposta da entidade veio em uma publicação divulgada nesta terça-feira (23).

A publicação do Conselho respondeu às novas políticas de moderação de conteúdo e discurso de ódio comunicadas pela Meta em janeiro. No texto, o grupo afirma que as políticas foram “anunciadas às pressas, em desacordo com o procedimento regular” e pediu que a empresa fornecesse mais informações sobre as novas regras.
A entidade também solicitou à Meta que avaliasse o impacto das políticas em grupos vulneráveis. Além disso, pediu que a empresa divulgasse essas conclusões publicamente e atualizasse o Conselho a cada seis meses.
Vale lembrar que a flexibilização das regras relacionadas a discurso de ódio pode afetar pessoas da comunidade LGBTQIA+ e imigrantes, que são alvos frequentes de publicações preconceituosas. A mudança veio poucas semanas antes da posse do presidente Donald Trump, numa tentativa de se aproximar do republicano no que diz respeito à “liberdade de expressão”.
Por enquanto, as novas regras valem apenas para os Estados Unidos – que estão sendo considerados uma espécie de laboratório de teste antes da implementação em mais países. O Conselho ainda declarou que está conduzindo discussões com a Meta para moldar a verificação de fatos fora dos EUA.

Como lembrou o TechCrunch, o Conselho de Supervisão tem capacidade limitada para orientar as políticas mais amplas da Meta. Porém, a empresa pode conceder à entidade poder para reformular regras que não estejam de acordo com o que foi pontuado.
Leia mais:
Veja decisões anteriores do Conselho:
- Em dois casos envolvendo vídeos de mulheres transgênero no Facebook e no Instagram, nos Estados Unidos, o Conselho corroborou com a decisão da Meta de manter o conteúdo, apesar de denúncias. Também recomendou à empresa que tirasse o termo “transgenerismo” da política de Conduta de Ódio;
- Já em outro caso, o Conselho anulou uma decisão da Meta de manter postagens anti-imigração publicadas no Facebook no Reino Unido, em 2024. A entidade apontou que a big tech agiu lentamente para remover conteúdo anti-muçulmano e anti-imigração, e que os conteúdos violavam as regras de incitação à violência.
Basicamente, no caso dessa vez, o Conselho está pedindo mais explicações relacionadas à moderação de conteúdo e discurso de ódio nos EUA. Na prática, nada mudou ainda.
Fonte: Olhar Digital