Marco Civil da Internet é alterado pelo STF: veja o que muda para as redes

Decisão parcial sobre o Marco Civil da Internet amplia dever das plataformas na remoção de discursos de ódio, racismo e incitação à violência

O Supremo Tribunal Federal (STF) formou maioria, nesta quarta-feira (26), para alterar o entendimento sobre a responsabilização das redes sociais e plataformas digitais quanto a conteúdos publicados por terceiros. Por 8 votos a 3, os ministros declararam a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (MCI).

O dispositivo previa que, para que houvesse responsabilização das plataformas, seria necessária uma ordem judicial específica. O STF, no entanto, decidiu que esse modelo oferece proteção insuficiente aos direitos fundamentais, como a honra, a dignidade e a integridade, e determinou ajustes imediatos até que o Congresso Nacional edite nova legislação.

Três níveis de responsabilização

Com a nova interpretação, a Corte definiu diferentes formas de responsabilização conforme o tipo de conteúdo:

🟥 Remoção proativa obrigatória:
Plataformas devem remover imediatamente conteúdos relacionados a racismo, pedofilia, discurso de ódio, incitação à violência e apologia ao golpe de Estado, mesmo sem notificação prévia ou decisão judicial. A omissão poderá gerar responsabilização civil direta.

🟨 Notificação extrajudicial válida:
Para outros conteúdos considerados ilícitos, como ataques pessoais ou desinformação, as plataformas devem atuar após receber uma notificação extrajudicial. Caso não haja remoção e a Justiça posteriormente reconheça a ofensa, a empresa pode ser responsabilizada.

🟦 Crimes contra a honra:
Seguem exigindo ordem judicial para retirada, mas os ministros abriram exceção para notificações extrajudiciais quando devidamente fundamentadas.

Tese fixada pelo Supremo

A tese aprovada estabelece que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção dos direitos fundamentais. Enquanto não houver nova lei, passa a valer a seguinte interpretação:

  • Plataformas podem ser responsabilizadas por não remover conteúdo após notificação extrajudicial fundamentada;
  • A responsabilização não vale para conteúdos eleitorais, regidos pela legislação própria;
  • Contas inautênticas também entram na lógica de responsabilização;
  • Em casos graves (ódio, racismo, pedofilia etc.), a remoção deve ser imediata, mesmo sem notificação.

Impacto nas redes

A decisão afeta diretamente as práticas de moderação de conteúdo de plataformas como Facebook, Instagram, TikTok, X (Twitter) e YouTube. Elas terão que adotar políticas mais rigorosas e transparentes, além de disponibilizar canais eficientes para notificações. A expectativa é que o Congresso edite nova legislação para regulamentar a questão.

Leia anterior

Câmara de Campinas aprova reajuste de 6% para servidores com críticas da oposição

Leia a seguir

México vai processar SpaceX por poluição ambiental provocada por lançamentos de foguetes