A Meta anunciou mudanças nas políticas de moderação do Facebook e Instagram, substituindo verificadores de fatos terceirizados por um sistema de “notas da comunidade”, inspirado no modelo do X (antigo Twitter). A decisão, comunicada por Mark Zuckerberg, busca reduzir censuras equivocadas, mesmo com o risco de maior circulação de conteúdos prejudiciais.
As mudanças acontecem às vésperas da posse do presidente eleito Donald Trump, em um contexto de críticas à moderação das plataformas. A Meta também ajustará seus sistemas para priorizar violações graves, como terrorismo e exploração infantil, e flexibilizará restrições sobre temas sensíveis.
Quer saber como essas alterações podem impactar sua experiência nas redes sociais? Confira o artigo!
Meta de Mark Zuckerberg abandona verificação de fatos e reformula moderação de conteúdo
A Meta alterou a sua moderação de conteúdo, substituindo verificação de fatos terceirizados por “notas da comunidade”, similares ao modelo usado pelo X (antigo Twitter). A mudança encerra um programa iniciado em 2016 para combater desinformação, discurso de ódio e conteúdos antivacinação, que incluía equipes de segurança e ferramentas automatizadas de detecção. Mark Zuckerberg afirma que a empresa “reduzirá drasticamente a censura” no Facebook, Instagram e Threads.
Segundo o dono das plataformas, os “factcheckers” da Meta têm sido muito politicamente tendenciosos e destruíram mais confiança do que criaram”, algo que influenciou diretamente na decisão.
Agora, a empresa planeja focar a revisão automatizada apenas em violações graves, como terrorismo e exploração infantil. Outras questões deverão ser reportadas pelos usuários antes de serem avaliadas. Mark Zuckerberg reconheceu que a nova abordagem pode permitir mais conteúdos nocivos, mas argumenta que reduzirá a remoção equivocada de postagens legítimas.
Além disso, restrições sobre temas como imigração e identidade de gênero serão eliminadas, enquanto as equipes de confiança e segurança da Meta serão transferidas da Califórnia para o Texas, com o objetivo de melhorar a percepção de imparcialidade.
Grupos de monitoramento externos criticaram a decisão, classificando-a como uma mudança política motivada por pressão social. O Real Facebook Oversight Board chamou as novas diretrizes de “retrocesso” para a segurança e moderação de conteúdo online.
Mudanças na Meta são inspiradas nas Notas da Comunidade do X (antigo Twitter) de Elon Musk
As Notas da Comunidade são um recurso colaborativo criado para adicionar contexto a postagens em redes sociais. Inicialmente implementado pelo X (antigo Twitter), plataforma pertencente ao bilionário Elon Musk, o mecanismo foi inspirado pela ideia de moderação descentralizada e agora também foi adotado pela Meta no Facebook e Instagram.
O sistema funciona por meio da contribuição dos próprios usuários, que identificam postagens potencialmente enganosas ou polêmicas e adicionam informações relevantes para contextualizar o conteúdo. Essas notas são avaliadas por outros usuários antes de serem publicadas, garantindo que sejam equilibradas e úteis.
Como funcionava o programa de verificação de fatos da Meta no Facebook e Instagram?
O programa de verificação de fatos da Meta, implementado em 2016, buscava identificar e conter a disseminação de notícias falsas em suas plataformas, como Facebook e Instagram. A estratégia envolvia parcerias com organizações independentes certificadas pela International Fact-Checking Network. Essas entidades revisavam conteúdos sinalizados, classificavam sua veracidade e redigiam artigos explicativos, complementados com mais contexto para os usuários.
Quando um conteúdo era classificado como falso, sua distribuição era reduzida no Feed de Notícias, diminuindo as visualizações em até 80%. Além disso, os usuários que tentavam compartilhar o conteúdo recebiam notificações sobre as verificações realizadas, e aqueles que já haviam compartilhado eram alertados. Para páginas reincidentes na disseminação de desinformação, a Meta restringia o alcance geral e suspendia a possibilidade de gerar receita e anunciar na plataforma.
A identificação de possíveis notícias falsas usava tecnologia, feedback dos usuários e aprendizado de máquina para selecionar conteúdos com maior probabilidade de serem falsos. Apesar de seus avanços, o programa enfrentava desafios, como a escassez de verificadores de fatos em certas regiões, a dificuldade em diferenciar sátira de desinformação e as acusações de viés político, que afetavam a confiança no sistema.
Ficou interessado nesse tema e não quer perder mais atualizações? Então, siga a Remessa Online no Instagram, LinkedIn, Facebook e YouTube.
Resumindo
A Meta alterou a sua moderação de conteúdo, substituindo verificação de fatos terceirizados por “notas da comunidade”, similares ao modelo usado pelo X (antigo Twitter). A mudança encerra um programa iniciado em 2016 para combater desinformação, discurso de ódio e conteúdos antivacinação, que incluía equipes de segurança e ferramentas automatizadas de detecção.
Crédito de imagem: Envato Elements