Fim da checagem de fatos pelo Facebook e Instagram gera críticas e preocupações globais

Foto: Marcello Casal jr
A Meta, empresa responsável pelo Facebook e Instagram, anunciou mudanças significativas em suas políticas de moderação de conteúdo. A principal medida é o fim do programa de checagem de fatos, que verificava a veracidade de publicações nas plataformas. A decisão foi comunicada em um vídeo por Mark Zuckerberg, presidente-executivo da empresa, e gerou forte repercussão entre governos, organizações da sociedade civil e especialistas em direitos digitais.

O que muda nas redes sociais da Meta?

  1. Fim da checagem de fatos: As publicações não serão mais verificadas para identificar erros, mentiras ou desinformação.
  2. Nova moderação por “notas da comunidade”: A Meta adotará um sistema onde os próprios usuários poderão contestar ou adicionar informações às publicações.
  3. Redução de filtros de moderação: Conteúdos considerados sensíveis, como discursos relacionados a gênero ou imigração, terão menos supervisão.

Por que a mudança preocupa?

A decisão da Meta foi amplamente criticada pelo Fórum Nacional pela Democratização da Comunicação (FNDC), que considera a medida uma ameaça à proteção de direitos no ambiente digital. Segundo a entidade, a ausência de checagem e a redução de filtros podem aumentar a circulação de notícias falsas e discursos de ódio, colocando em risco a democracia e a convivência social.

Além disso, a medida foi vista como um alinhamento político com líderes de extrema-direita, incluindo Donald Trump, que critica ações de moderação como censura.

Impactos esperados

  • Aumento de fake news: Sem a checagem, informações falsas podem se espalhar mais facilmente, dificultando o acesso a conteúdos confiáveis.
  • Liberação de discursos de ódio: Ofensas homofóbicas, xenofóbicas e misóginas, antes filtradas, já estão sendo liberadas em países como os Estados Unidos.
  • Risco à democracia: A ausência de moderação pode fortalecer grupos extremistas e desinformar a população.

Reações globais e no Brasil

A decisão gerou reações em diferentes partes do mundo:

  • Brasil: O Ministério Público Federal (MPF) solicitou explicações à Meta sobre as novas regras e seu impacto nos direitos dos usuários brasileiros.
  • Europa: Líderes e órgãos como a Comissão Europeia reforçaram a importância de combater desinformação e discursos nocivos, destacando que regulação de conteúdo não é censura.
  • ONU: O alto comissário para os direitos humanos declarou que a regulação do espaço digital é essencial para proteger direitos humanos e evitar danos no mundo real.

No Brasil, a regulação de plataformas digitais é discutida no chamado PL das Fake News, em tramitação no Congresso Nacional. O Supremo Tribunal Federal (STF) também avalia ações que podem responsabilizar as big techs por conteúdos que violem a lei.

O que é regulação e por que ela importa?

A regulação de plataformas digitais tem como objetivo criar um ambiente mais seguro e justo na internet. Isso inclui evitar que informações falsas ou conteúdos prejudiciais sejam amplamente disseminados. Diferentemente de censura, a regulação busca garantir um equilíbrio entre liberdade de expressão e responsabilidade, preservando direitos fundamentais e protegendo as democracias.

Segundo especialistas e entidades como o FNDC, medidas que enfraquecem a moderação e o combate à desinformação beneficiam poucos, enquanto prejudicam a maioria da sociedade.

A decisão da Meta reacendeu debates importantes sobre o papel das plataformas digitais na promoção de um ambiente online ético e respeitoso. Enquanto as mudanças são implementadas, organizações e governos continuam pressionando por uma regulamentação mais rigorosa para proteger os direitos dos usuários e o tecido social.