sábado, 18 de janeiro de 2025
Pesquisar

Notas de comunidade: entenda como será o sistema que a Meta vai implementar

Meta
Foto reprodução

A empresa dona do Facebook, Instagram e WhatsApp, decretou o fim da moderação de conteúdo.

Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, anunciou uma série de mudanças na regulação dos conteúdos de suas redes sociais, o Facebook, o Instagram e o Threads. Elas decretam o fim da moderação de conteúdo, com o encerramento do programa de checagem de fatos e a relaxamento nos filtros de inteligência artificial. No lugar, a empresa adotará o método de Notas de comunidade, no qual os próprios usuários serão responsáveis por denunciar conteúdos considerados nocivos.

A decisão de Zuckerberg agradou os apoiadores de Donald Trump, que inclusive afirmou que suas ameaças a Zuckerberg “provavelmente” influenciaram as mudanças do CEO. Em 2024, Trump ameaçou “mandar Zuckerberg para prisão perpétua” caso ele usasse as redes sociais para prejudicar sua reeleição.

O sistema de Notas de comunidade foi adotado inicialmente no X, de Elon Musk. A ferramenta de moderação faz com que os próprios usuários sejam responsáveis por denunciar conteúdo considerado nocivo nas redes, mas o caminho não é tão simples assim. Veja abaixo como o recurso funciona.

Como funciona?

As Notas de comunidade são uma forma coletiva de moderação e, segundo a Meta, uma maneira “menos parcial” de checagem de fatos, substituindo o trabalho de agências especializadas.

A ferramenta funciona por meio de usuários voluntários, que poderão sinalizar, por meio de mensagens curtas, se o conteúdo é considerado nocivo para a comunidade. Depois disso, outros usuários avaliam se a nota é considerada útil ou não, por meio de critérios como a clareza da informação e o uso das fontes. Se a maioria aprovar, o alerta deve aparecer embaixo das postagens

De acordo com a Meta, usuários poderão se inscrever para o processo a partir da próxima segunda-feira, 13. Entretanto, não divulgou quais serão os critérios avaliados.

Quais são os riscos desse tipo de moderação?

Até aqui, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de contratos com mais de 80 veículos de comunicação para a realização desse trabalho de verificação. Agora, essa responsabilidade será dos usuários, que dependerão do bom senso da comunidade para considerar um contéudo “perigoso” ou não.

É notável que haverá pessoas mal intencionadas e que, assim, a disseminação de notícias falsas nas redes socias será muito mais simplificada e ampliada.

Segundo a Meta, as plataformas só influenciarão em postagens claramente nocivas, como discursos sobre terrorismo, por exemplo

Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar posts que falam sobre gênero, sexualidade e imigração, temas que podem, muitas vezes, vir acompanhados de um forte discurso de ódio. Para o CEO, essa é a maneira de voltarmos para as “raízes e origens” das redes sociais. Segundo ele, a checagem de fatos foi “longe demais” e “vem se confundindo com censura”.

Estadão Conteúdo

Descubra mais sobre Manaustime

Assine para receber nossas notícias mais recentes por e-mail.

📲 Mantenha-se informado! Siga o CANAL DO MANAUSTIME NO WHATSAPP e receba as principais notícias diretamente no seu dispositivo. Clique e não perca nada!

Deixe o seu Comentário

Notas de comunidade: entenda como será o sistema que a Meta vai implementar

plugins premium WordPress