Mark Zuckerberg anunciou mudanças que substituem a moderação de conteúdo por notas de usuários nas redes sociais.
08 de Janeiro de 2025 às 19h51

Entenda como funcionará o sistema de notas da comunidade da Meta

Mark Zuckerberg anunciou mudanças que substituem a moderação de conteúdo por notas de usuários nas redes sociais.

Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, apresentou uma série de alterações na regulação dos conteúdos das redes sociais da empresa, que incluem Facebook, Instagram e Threads. As mudanças marcam o fim da moderação de conteúdo, encerrando o programa de checagem de fatos e relaxando os filtros de inteligência artificial. A nova abordagem será a implementação do sistema de Notas de comunidade, onde os próprios usuários terão a responsabilidade de denunciar conteúdos considerados nocivos.

Essa decisão de Zuckerberg foi bem recebida por apoiadores do ex-presidente dos Estados Unidos, Donald Trump, que chegou a afirmar que suas ameaças ao CEO “provavelmente” influenciaram as mudanças anunciadas. Em 2024, Trump ameaçou “mandar Zuckerberg para prisão perpétua” caso ele utilizasse as redes sociais para prejudicar sua campanha de reeleição.

O sistema de Notas de comunidade já foi adotado anteriormente na plataforma X, de Elon Musk, que se tornou um espaço conhecido por abrigar radicalismo, desinformação e outros conteúdos prejudiciais. A nova ferramenta de moderação permitirá que os usuários sejam responsáveis por sinalizar conteúdos considerados nocivos, embora o processo não seja tão simples quanto parece. A seguir, explicamos como o recurso funcionará.

Como funciona?

As Notas de comunidade representam uma forma coletiva de moderação e, segundo a Meta, uma alternativa “menos parcial” à checagem de fatos, substituindo o trabalho de agências especializadas. O funcionamento da ferramenta se dará por meio de usuários voluntários, que poderão sinalizar, através de mensagens curtas, se um conteúdo é considerado nocivo para a comunidade. Após essa sinalização, outros usuários avaliarão se a nota é útil ou não, utilizando critérios como clareza da informação e uso de fontes. Se a maioria dos usuários aprovar, o alerta aparecerá sob as postagens.

- CONTINUA DEPOIS DA PUBLICIDADE -

De acordo com a Meta, os usuários poderão se inscrever para participar do processo a partir da próxima segunda-feira, 13. Contudo, a empresa não divulgou quais serão os critérios utilizados para a avaliação das notas.

Quais são os riscos desse tipo de moderação?

Até agora, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de parcerias com mais de 80 veículos de comunicação para realizar esse trabalho de verificação. Com as novas diretrizes, essa responsabilidade será transferida para os usuários, que dependerão do bom senso da comunidade para determinar se um conteúdo é “perigoso” ou não.

É importante ressaltar que a presença de pessoas mal-intencionadas pode facilitar a disseminação de notícias falsas nas redes sociais, tornando o ambiente digital ainda mais suscetível à desinformação.

Segundo a Meta, as plataformas apenas intervirão em postagens que sejam claramente nocivas, como discursos de ódio ou terrorismo. Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar publicações que abordem temas como gênero, sexualidade e imigração, assuntos que frequentemente são acompanhados por discursos de ódio. Para o CEO, essa é a maneira de retornar às “raízes e origens” das redes sociais, argumentando que a checagem de fatos foi “longe demais” e “vem se confundindo com censura”.

Veja também:

Tópicos: