Henrique Sampaio | 03 de julho de 2025 - 09h25

O que muda na sua internet após a derrubada do artigo 19 do Marco Civil

Decisão do STF impõe novas obrigações às plataformas digitais, que agora podem ser punidas por omissão mesmo sem ordem judicial

CULTURA DIGITAL
Decisão do STF impõe novas obrigações às plataformas digitais, que agora podem ser punidas por omissão mesmo sem ordem judicial. - (Foto: Adobe Stock)

Com uma decisão tomada no fim de junho de 2025, o Supremo Tribunal Federal (STF) alterou as regras do jogo na internet brasileira. A Corte decidiu, por maioria, que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional, ampliando a responsabilidade das plataformas digitais por conteúdos ilegais publicados por usuários. Na prática, a decisão mexe tanto com o dia a dia de quem usa redes sociais quanto com a operação de empresas como Google, Meta e X.

A principal mudança é que as plataformas agora podem ser responsabilizadas civilmente mesmo sem uma ordem judicial, desde que tenham sido notificadas e não removam conteúdos considerados “manifestamente ilícitos”. Isso inclui incitação à violência, discurso de ódio, pornografia infantil, ataques ao Estado democrático, entre outros. Antes, esse tipo de responsabilidade só valia em casos muito específicos, como pornografia de vingança.

A mudança afeta não só redes sociais, mas qualquer plataforma digital que atue como “provedora de aplicações de internet” e permita a publicação de conteúdo por terceiros em ambiente público, incluindo sites com áreas de comentários, blogs, plataformas de vídeo (como YouTube), fóruns e comunidades online. Markeplaces ficam de fora, por já responderem nos termos do Código de Defesa do Consumidor (CDC).

A decisão não se aplica a mensagens privadas, como as trocadas no WhatsApp, e-mail e serviços de reuniões privadas por vídeo ou voz, como Microsoft Teams. Nestes casos, prevalece a lei original: só podem ser responsabilizados com ordem judicial e não estão obrigados a fazer moderação ou remoção proativa.

“Para as empresas, isso significa aumento de risco jurídico e de custos de moderação, exigindo atuação mais proativa e rápida, com revisão de políticas internas e de estruturas de compliance digital”, explica Claudio Barbosa, advogado especializado em Direito Digital e sócio sênior do escritório Kasznar Leonardos. “Para os usuários, a consequência é que conteúdos ilícitos podem ser removidos de forma mais ágil, mas aumenta o risco de excessos: plataformas podem preferir retirar publicações para evitar litígios.”

Nos casos mais graves, como atos terroristas, conteúdos antidemocráticos, incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero e crimes contra crianças, a decisão obriga as plataformas a agirem proativamente, sem necessidade de denúncia ou decisão judicial. Se esses conteúdos forem impulsionados por anúncios ou bots, a exigência de remoção se torna ainda mais rígida.

Não há obrigação imediata de remoção para conteúdos que envolvam crimes contra a honra (injúria, calúnia e difamação), a não ser que haja decisão judicial ou que violem as políticas internas da plataforma.

A decisão também determina que cada plataforma mantenha canais acessíveis para que usuários possam recorrer de decisões de moderação. “O equilíbrio com a liberdade de expressão exige a definição clara do que é ‘manifestamente ilícito’, a garantia de mecanismos de contestação e recurso pelos usuários, a transparência nos critérios de moderação e a supervisão judicial posterior para abusos”, aponta Barbosa. “Sem esses elementos, o medo de responsabilização pode gerar censura privada, sufocando debates legítimos e reduzindo a pluralidade de opiniões online.”

Outro ponto importante é a exigência de que plataformas tenham sede e representante legal no Brasil, com canais eletrônicos abertos ao público para questionamentos e contestações. Além disso, a moderação passa a ser acompanhada por relatórios de transparência anuais, incluindo estatísticas sobre notificações extrajudiciais e conteúdo removido por impulsionamento.

A decisão também não substitui o Projeto de Lei 2.630, conhecido como “PL das Fake News”. “Embora possa reduzir pontualmente a disseminação de fake news e crimes de ódio, facilitando a remoção de conteúdos evidentemente ilícitos, a decisão não alcança a desinformação estruturada em larga escala”, diz Barbosa. “Para as próximas eleições, a decisão ajuda, mas não resolve completamente o problema.”

Do ponto de vista regulatório, a mudança aproxima o Brasil de legislações internacionais mais rígidas, como o Digital Services Act (DSA) europeu. “Essa aproximação se dá, principalmente, pela responsabilização, pela não remoção de conteúdos manifestamente ilícitos e pelo incentivo a mecanismos ágeis de notificação e retirada de conteúdo”, afirma o advogado. Mas há diferenças: o DSA, por exemplo, estabelece processos mais formais de defesa do usuário e mecanismos de supervisão técnica que ainda não existem no Brasil.

O STF ainda não definiu qual órgão ficará responsável por fiscalizar e aplicar punições às plataformas que descumprirem as novas regras. Durante o julgamento, foram citadas entidades como o Ministério Público, o Conselho Nacional de Justiça e a Autoridade Nacional de Proteção de Dados. Por ora, qualquer cidadão ou instituição pode acionar a Justiça, caso entenda que houve omissão da empresa.

A decisão já está em vigor e deve ser seguida por todos os juízes e tribunais do país. Mas, como ressaltou Barbosa, “o Brasil ainda carece de um arcabouço regulatório detalhado para o ambiente digital. Um equilíbrio consistente entre liberdade de expressão, responsabilidade e transparência só será viável com uma legislação específica e bem estruturada, não com a simples judicialização”.