
Com uma decisão tomada no fim de junho de 2025, o Supremo Tribunal Federal (STF) alterou as regras do jogo na internet brasileira. A Corte decidiu, por maioria, que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional, ampliando a responsabilidade das plataformas digitais por conteúdos ilegais publicados por usuários. Na prática, a decisão mexe tanto com o dia a dia de quem usa redes sociais quanto com a operação de empresas como Google, Meta e X.

A principal mudança é que as plataformas agora podem ser responsabilizadas civilmente mesmo sem uma ordem judicial, desde que tenham sido notificadas e não removam conteúdos considerados “manifestamente ilícitos”. Isso inclui incitação à violência, discurso de ódio, pornografia infantil, ataques ao Estado democrático, entre outros. Antes, esse tipo de responsabilidade só valia em casos muito específicos, como pornografia de vingança.
A mudança afeta não só redes sociais, mas qualquer plataforma digital que atue como “provedora de aplicações de internet” e permita a publicação de conteúdo por terceiros em ambiente público, incluindo sites com áreas de comentários, blogs, plataformas de vídeo (como YouTube), fóruns e comunidades online. Markeplaces ficam de fora, por já responderem nos termos do Código de Defesa do Consumidor (CDC).
A decisão não se aplica a mensagens privadas, como as trocadas no WhatsApp, e-mail e serviços de reuniões privadas por vídeo ou voz, como Microsoft Teams. Nestes casos, prevalece a lei original: só podem ser responsabilizados com ordem judicial e não estão obrigados a fazer moderação ou remoção proativa.
“Para as empresas, isso significa aumento de risco jurídico e de custos de moderação, exigindo atuação mais proativa e rápida, com revisão de políticas internas e de estruturas de compliance digital”, explica Claudio Barbosa, advogado especializado em Direito Digital e sócio sênior do escritório Kasznar Leonardos. “Para os usuários, a consequência é que conteúdos ilícitos podem ser removidos de forma mais ágil, mas aumenta o risco de excessos: plataformas podem preferir retirar publicações para evitar litígios.”
Nos casos mais graves, como atos terroristas, conteúdos antidemocráticos, incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero e crimes contra crianças, a decisão obriga as plataformas a agirem proativamente, sem necessidade de denúncia ou decisão judicial. Se esses conteúdos forem impulsionados por anúncios ou bots, a exigência de remoção se torna ainda mais rígida.
Não há obrigação imediata de remoção para conteúdos que envolvam crimes contra a honra (injúria, calúnia e difamação), a não ser que haja decisão judicial ou que violem as políticas internas da plataforma.
A decisão também determina que cada plataforma mantenha canais acessíveis para que usuários possam recorrer de decisões de moderação. “O equilíbrio com a liberdade de expressão exige a definição clara do que é ‘manifestamente ilícito’, a garantia de mecanismos de contestação e recurso pelos usuários, a transparência nos critérios de moderação e a supervisão judicial posterior para abusos”, aponta Barbosa. “Sem esses elementos, o medo de responsabilização pode gerar censura privada, sufocando debates legítimos e reduzindo a pluralidade de opiniões online.”
Outro ponto importante é a exigência de que plataformas tenham sede e representante legal no Brasil, com canais eletrônicos abertos ao público para questionamentos e contestações. Além disso, a moderação passa a ser acompanhada por relatórios de transparência anuais, incluindo estatísticas sobre notificações extrajudiciais e conteúdo removido por impulsionamento.
A decisão também não substitui o Projeto de Lei 2.630, conhecido como “PL das Fake News”. “Embora possa reduzir pontualmente a disseminação de fake news e crimes de ódio, facilitando a remoção de conteúdos evidentemente ilícitos, a decisão não alcança a desinformação estruturada em larga escala”, diz Barbosa. “Para as próximas eleições, a decisão ajuda, mas não resolve completamente o problema.”
Do ponto de vista regulatório, a mudança aproxima o Brasil de legislações internacionais mais rígidas, como o Digital Services Act (DSA) europeu. “Essa aproximação se dá, principalmente, pela responsabilização, pela não remoção de conteúdos manifestamente ilícitos e pelo incentivo a mecanismos ágeis de notificação e retirada de conteúdo”, afirma o advogado. Mas há diferenças: o DSA, por exemplo, estabelece processos mais formais de defesa do usuário e mecanismos de supervisão técnica que ainda não existem no Brasil.
O STF ainda não definiu qual órgão ficará responsável por fiscalizar e aplicar punições às plataformas que descumprirem as novas regras. Durante o julgamento, foram citadas entidades como o Ministério Público, o Conselho Nacional de Justiça e a Autoridade Nacional de Proteção de Dados. Por ora, qualquer cidadão ou instituição pode acionar a Justiça, caso entenda que houve omissão da empresa.
A decisão já está em vigor e deve ser seguida por todos os juízes e tribunais do país. Mas, como ressaltou Barbosa, “o Brasil ainda carece de um arcabouço regulatório detalhado para o ambiente digital. Um equilíbrio consistente entre liberdade de expressão, responsabilidade e transparência só será viável com uma legislação específica e bem estruturada, não com a simples judicialização”.
