Crédito: Walda Marques

Por Marinor Brito

Assisti, atônita, na semana ada, um vídeo onde o CEO da Meta, Mark Zuckerberg, anuncia diversas alterações nas políticas das redes sociais da plataforma, em especial em suas políticas de moderação de conteúdo. Entre as mais polêmicas, está o fim da moderação por humanos, substituída por um sistema denominado “notas da comunidade”. Esta decisão tem gerado intensos debates sobre as consequências para a qualidade da informação nas plataformas e, sobretudo, para a democracia.

A Ilusão de uma Moderação Descentralizada

As “notas da comunidade” baseiam-se na ideia de que os usuários das plataformas podem colaborar para avaliar a veracidade das informações compartilhadas. No entanto, confiar a moderação exclusivamente aos usuários das redes é uma estratégia arriscada. Em vez de mitigar a desinformação, pode criar um ambiente onde a polarização e as bolhas de opinião se intensifiquem. Afinal, quem garante que as avaliações feitas pela comunidade serão imparciais ou baseadas em fatos?

A justificativa é que a política de moderação baseada em “notas da comunidade” já funciona no X, antigo Twitter. O detalhe macabro, além de mostrar as digitais da influência de Elon Musk nesta decisão, é que as notas não funcionam no X. Estima-se que apenas cerca de 10% das alterações são publicadas.

Moderação humana, ainda que imperfeita, tem o benefício de ser executada por profissionais treinados, capazes de avaliar contextos e nuances. O abandono deste modelo em prol de um sistema automatizado e descentralizado é um retrocesso que coloca em risco a confiabilidade das informações nas redes sociais.

Um Terreno Fértil para Fake News

Sem a supervisão rigorosa de moderadores humanos, é previsível que as fake news ganhem ainda mais espaço. Este fenômeno não é novo, mas tem se mostrado cada vez mais perigoso. De campanhas de desinformação eleitoral a teorias da conspiração sobre vacinas, a propagação de informações falsas não apenas desorienta a população, mas também enfraquece instituições democráticas.

Ao abdicar de sua responsabilidade direta na moderação, a Meta abre mão de um papel crucial na sociedade contemporânea: o de garantir que suas plataformas não sejam usadas para disseminar conteúdos prejudiciais. Isso levanta sérias questões éticas sobre o compromisso da empresa com a segurança e o bem-estar de seus usuários.

Pressão Externa e Interesses Políticos

As mudanças na política da Meta não podem ser analisadas isoladamente. Há sinais claros de que influências externas tiveram um papel significativo nessa decisão. Elon Musk, dono do X e ocupante de um papel de destaque no staff de Donald Trump, é um árduo defensor da “liberdade irrestrita de expressão”, o que parece ter inspirado uma espécie de “corrida ao fundo do poço” entre as grandes redes sociais.

Além disso, a pressão exercida pelo presidente eleito dos Estados Unidos também merece atenção. Políticos têm buscado moldar as políticas das plataformas em favor de seus interesses, muitas vezes sob a justificativa de combater a censura. Contudo, essas intervenções frequentemente mascaram intenções de enfraquecer a fiscalização de conteúdos problemáticos, permitindo que discursos de ódio e desinformação proliferem livremente.

Impactos para a Democracia

O enfraquecimento da moderação nas redes sociais tem impactos diretos na democracia. Em um mundo onde a opinião pública é fortemente influenciada por conteúdo digital, permitir que o fluxo de informações falsas cresça sem controle pode levar a decisões mal informadas e a uma polarização ainda maior. A democracia depende de um debate público sadio e fundamentado em fatos. Quando plataformas como as da Meta falham em moderar o conteúdo adequadamente, comprometem não apenas a qualidade desse debate, mas também a própria estabilidade democrática.

O Caso Brasileiro

No Brasil, onde as redes sociais da Meta como Facebook, Instagram e, sobretudo, o WhatsApp, têm uma presença massiva, o impacto dessas mudanças pode ser ainda mais grave. O país já vivenciou episódios de desinformação em massa, especialmente durante eleições, em que fake news circularam amplamente por essas plataformas, influenciando o debate político e confundindo a população.

Com a adoção das “notas da comunidade” como principal ferramenta de moderação, o risco de proliferação de conteúdo falso se agrava. A diversidade de opiniões e a polarização já existentes podem dificultar a adoção de soluções eficazes pela comunidade, aumentando a vulnerabilidade do país a campanhas de desinformação e prejudicando o funcionamento das instituições democráticas. Isso torna ainda mais urgente o debate sobre a regulação das redes sociais e a necessidade de responsabilização das grandes empresas de tecnologia.

Diante desse cenário, é urgente que a sociedade civil e os reguladores exijam maior responsabilidade das empresas de tecnologia. A liberdade de expressão é um direito fundamental, mas não pode ser usada como justificativa para a negligência na moderação de conteúdos que ameaçam a democracia e a coesão social.

Marinor Brito é Professora, vereadora, líder do PSOL na Câmara Municipal de Belém

Deixe um comentário