A Meta, gigante por trás do Facebook e do Instagram, deu início a uma experiência inovadora ao testar as “Notas da Comunidade”, um sistema que transfere a responsabilidade de contextualizar conteúdos para os próprios usuários, inspirado no modelo já consolidado pelo X.
Esse movimento marca o fim de uma era de moderação tradicional na empresa, que por anos confiou em parcerias com verificadores de fatos externos para conter a disseminação de informações imprecisas. Essas empresas de checagem são parciais e tendem a serem mantidas por grupos de interesse.
Agora, em vez de depender de especialistas terceirizados, a Meta aposta na inteligência coletiva de sua base de usuários para adicionar esclarecimentos e nuances a postagens, um experimento que começou a ser implementado nos Estados Unidos a partir de 18 de março de 2025.
A transição reflete uma mudança de filosofia na gestão de conteúdo digital, anteriormente, a moderação da Meta incluía revisões por equipes especializadas e algoritmos que reduziam a visibilidade de publicações consideradas enganosas, muitas vezes acompanhadas de alertas explícitos.
Com as “Notas da Comunidade”, o processo se torna mais participativo, usuários com contas ativas há pelo menos seis meses e em conformidade com as regras das plataformas podem se voluntariar como colaboradores.
Esses participantes escrevem notas de até 500 caracteres, que só aparecem publicamente após receberem aprovação de outros contribuidores com perspectivas diversas, um mecanismo desenhado para minimizar vieses e garantir equilíbrio.
O que diferencia essa abordagem é a ausência de penalidades automáticas, como a redução de alcance que acompanhava as checagens anteriores. Em vez disso, a Meta busca um modelo mais sutil, onde as notas funcionam como complementos informativos, visíveis em caixas discretas abaixo das postagens.
Cerca de 200.000 pessoas já se inscreveram para participar do teste inicial nos EUA, segundo informações divulgadas pela empresa em seu blog oficial, indicando um interesse significativo na proposta. Durante a fase de testes, as notas não serão exibidas imediatamente ao público, permitindo ajustes no sistema antes de uma implementação mais ampla.

Essa guinada também levanta questões sobre os desafios de confiar na comunidade para regular conteúdo em plataformas com bilhões de usuários. Estudos recentes, como um conduzido pela Universidade de Luxemburgo em 2024, sugerem que sistemas colaborativos como esse podem reduzir a propagação de desinformação em mais de 60% quando bem executados.
No entanto, críticos apontam que a escala das plataformas da Meta, muito maior que a do X, pode complicar a eficácia e expor vulnerabilidades, como tentativas coordenadas de manipulação, mas não existem formas para ser coordenadas, já que não é possível identificar os voluntários e nem manter contato entre eles, por isso as “Notas da Comunidade” funcionam muito bem no X.
A empresa promete ajustes contínuos, utilizando como base o algoritmo de código aberto do X, mas adaptando-o às particularidades de seus aplicativos.
A decisão de abandonar a moderação tradicional surge em um momento de reavaliação estratégica da Meta, que busca alinhar-se a um ethos de “menos erros, mais voz”, conforme descrito por seus executivos.
Esse teste inicial, restrito aos EUA, é um laboratório para o futuro da governança digital, testando se a sabedoria coletiva pode realmente substituir estruturas centralizadas sem comprometer a segurança ou amplificar narrativas prejudiciais.
Se bem-sucedido, o modelo pode redefinir como as redes sociais equilibram liberdade de expressão e responsabilidade, mas seu impacto real só será conhecido com o tempo.