STF vs. Big Techs: Entenda as novas regras que obrigam plataformas a remover conteúdos criminosos – Liberdade de expressão em risco?

No dia 26 de junho de 2025, o Supremo Tribunal Federal (STF) concluiu um julgamento histórico que redefine as responsabilidades das plataformas digitais no Brasil. A decisão, tomada por 8 votos a 3, endurece as regras para empresas como Meta (Facebook, Instagram, WhatsApp), Google (YouTube) e X (antigo Twitter), exigindo que elas ajam de forma mais ativa na remoção de conteúdos criminosos. O tema gera debates acalorados entre defensores da segurança digital e críticos que veem riscos à liberdade de expressão.
O que mudou com a decisão do STF?
Responsabilização das plataformas:
As empresas agora podem ser punidas se não removerem conteúdos criminosos rapidamente, mesmo sem decisão judicial. Antes, o Marco Civil da Internet (2014) só exigia remoção após ordem judicial, exceto em casos de "pornografia de vingança".
Graus de responsabilidade:
- Conteúdos graves: Como incitação ao suicídio, terrorismo, pornografia infantil e discurso antidemocrático devem ser removidos ativamente pelas plataformas, sem necessidade de denúncia.
- Outros crimes: Conteúdos como injúria ou difamação só serão removidos se as plataformas decidirem, a menos que haja ordem judicial.
- Exceção: Mensagens privadas (ex.: WhatsApp) não são afetadas.
A medida busca proteger direitos fundamentais e a democracia, mas levanta preocupações sobre censura indevida.
O "dever de cuidado" e os crimes prioritários
O STF incorporou o princípio europeu do dever de cuidado, obrigando as plataformas a monitorar e evitar a disseminação de:
Crimes contra a democracia (ex.: golpismo).
- Discriminação racial, de gênero ou orientação sexual (Lei do Racismo).
- Violência contra mulheres e crianças.
- Terrorismo e tráfico de pessoas.
Empresas só serão punidas por falhas sistêmicas (ex.: negligência recorrente), não por casos isolados.
Fiscalização e punições
O STF não definiu um órgão específico para fiscalizar o cumprimento das regras, mas sugeriu possíveis atores:
Ministério Público.
- Autoridade Nacional de Proteção de Dados (ANPD).
- Procuradoria-Geral da República.
As empresas precisarão ter representantes legais no Brasil e canais de atendimento acessíveis.
Reações e polêmicas
- Críticos: Organizações como a Câmara Brasileira da Economia Digital alertam para "censura privada" e remoção excessiva de conteúdos legítimos.
- Apoiadores: Especialistas como Filipe Medon (FGV) comparam a decisão às regras da União Europeia, destacando avanços na proteção social.
Posicionamento das plataformas:
- Meta e Google afirmam que a mudança gera insegurança jurídica.
- Defensores de direitos humanos, como Bruna Santos (Witness), temem moderação arbitrária.
A decisão do STF reflete um equilíbrio delicado entre combate a crimes digitais e preservação da liberdade de expressão. Enquanto o Congresso não aprovar uma lei específica, as novas regras valerão temporariamente, pressionando empresas e legisladores a buscarem soluções definitivas. O desafio será evitar abusos de ambos os lados: das plataformas, que podem censurar em excesso, e dos usuários, que espalham conteúdos perigosos. O debate está longe de terminar, mas a intervenção do STF marca um passo crucial na regulamentação do ambiente digital no Brasil.