09/01/2025
Meta abandona checagem de fatos e adota sistema de moderação por usuários, diz Zuckerberg
CEO da Meta revela que, com a mudança, a moderação de conteúdo será realizada pelos usuários, visando restaurar a liberdade de expressão, mas gerando preocupações sobre o impacto na desinformação.
Em uma postagem em suas redes sociais nesta semana, Mark Zuckerberg, CEO da Meta, dona do Facebook e Instagram, anunciou que as plataformas deixarão de contar com o sistema de checagem de fatos. O novo modelo será baseado nas “notas de comunidade”, semelhante ao sistema do X, de Elon Musk. Com isso, não haverá mais profissionais responsáveis pela verif**ação de informações falsas publicadas nas redes da empresa, que antes colocavam avisos e reduziam o alcance das postagens.
Zuckerberg afirmou que a mudança tem como objetivo restaurar a “liberdade de expressão”. Segundo ele, desde a implementação da checagem de fatos, os verif**adores têm sido “muito parciais politicamente” e “destruíram mais confiança do que construíram, especialmente nos Estados Unidos”. O CEO mencionou que começará as mudanças nos Estados Unidos, alinhando-se ao futuro governo de Donald Trump, mas não deu detalhes sobre a implementação em outros países. Zuckerberg também reconheceu que, apesar de entender apenas uma pequena parte dos posts, isso ainda afeta “milhões de pessoas”.
— Chegamos a um ponto em que são muitos erros e muita censura — disse o criador do Facebook. — Agora, temos a oportunidade de restaurar a liberdade de expressão, e estou animado para fazer isso. Vai levar tempo para acertar. Estes são sistemas complexos e nunca serão perfeitos.
Mas, afinal, o que muda para o usuário final com essa alteração? No novo formato anunciado pela Meta, a moderação de conteúdo será feita pelos próprios usuários, que poderão adicionar notas explicativas às publicações. Anteriormente, as agências de checagem de fatos ajudavam na moderação de postagens que violassem os termos de uso, como a disseminação de fake news sobre política ou saúde. Organizações especializadas em análise de acontecimentos, dados e versões atuavam na verif**ação das informações. Além disso, havia uma equipe interna dedicada a essa função.
Em comunicado ao G1, Joel Kaplan, vice-presidente de assuntos globais da Meta, confirmou as mudanças e reforçou: “Permitiremos que as pessoas se expressem mais, eliminando restrições sobre alguns assuntos que são parte das discussões na sociedade e focando a moderação de conteúdo em postagens ilegais e violações de alta gravidade”.
Para André Pase, professor e pesquisador de Comunicação Digital da Pontifícia Universidade Católica do RS (PUCRS), a medida adotada por Zuckerberg reforça que as redes sociais transitam pela brecha de que, juridicamente, são empresas de tecnologia, e não de mídia. Isso as exime de diversas responsabilidades.
— Na fala do Zuckerberg, ele diz que vai colocar mais conteúdo cívico. É uma aposta em conteúdo que engaja. Mas se engaja para o bem ou para o mal, é outra conversa. O conteúdo que engaja pode gerar brigas e discussões, mas isso, no final das contas, é engajamento. E é isso que ele precisa, o motor da empresa Meta — explica o professor, que pesquisa tecnologias na comunicação.
Raquel Recuero, professora e pesquisadora da Universidade Federal de Pelotas (UFPel) e do Programa de Pós-Graduação em Comunicação (PPGCOM) da UFRGS, considera essa mudança “incompreensível”. Ela destaca que Zuckerberg adotou as verif**ações em 2016, dando espaço para agências globais no controle da desinformação, especialmente durante processos eleitorais e no combate às fake news sobre vacinação.
— Foi uma pedrada. Ele começa dizendo que a checagem é tendenciosa, cuspindo no prato em que comeu. Acho que isso é extremamente problemático. O novo método de checagem, com os usuários, não funciona muito bem. É demorado e nem sempre traz respostas. As pessoas que participam não são pagas para isso. Isso poderá criar um ambiente propício para desinformação e discurso de ódio — analisa Raquel.
Na prática
A pesquisadora, que estuda a desinformação nas redes, aponta que, com a retirada dos verif**adores, os usuários f**arão mais confusos. Apesar das falhas do sistema, a marca d’água alertando sobre conteúdo falso “desencorajava” o compartilhamento, já que uma equipe de checadores profissionais havia debatido o conteúdo.
— Essas estratégias tinham alguma eficácia. Não eram as mais ef**azes, mas ajudavam. Agora, vamos perder o pouco de ajuda que tínhamos — detalha Raquel, destacando que o trabalho jornalístico de verif**ação é fundamental. Ela também questiona a fuga das plataformas de sua responsabilidade por promover uma infraestrutura que prejudica o debate público.
Especialistas reforçam que, com a mudança, é ainda mais importante que os usuários busquem fontes confiáveis ao se depararem com postagens suspeitas. O algoritmo continuará a entregar conteúdo que alinha com o discurso do usuário, o que pode enfraquecer seu senso crítico e aumentar a desconfiança em relação às publicações.
— A desinformação é uma epidemia moderna. As agências de checagem são necessárias, mas nem sempre conseguem alcançar quem realmente precisa — conclui Pase.
Sobre conteúdos de ódio, o pesquisador da PUCRS observa que, mesmo com os verif**adores, as redes sociais da Meta já abrigavam publicações desse tipo. A mudança de postura da empresa pode facilitar ainda mais a disseminação desses conteúdos.
— A mudança não é imediata, mas será gradual. Não é algo que vai ocorrer do dia para a noite. Mas agora sabemos a direção da empresa — conclui o pesquisador.
Em comunicado, Zuckerberg também alinhou-se ao presidente Donald Trump para “resistir a governos ao redor do mundo” que estão “perseguindo empresas americanas e pressionando por mais censura”.
Fonte | GZH
Foto | Internet