Corte ainda precisa definir os critérios e regras para possíveis punições a plataformas
Agência o Globo
Agência o Globo

Agência de notícias

Publicado em 12 de junho de 2025 às 16h22.

Tudo sobreSupremo Tribunal Federal (STF)
Saiba mais

O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), afirmou nesta quinta-feira que as redes sociais permitem ações "criminosas e abomináveis" contra crianças. A Corte retomou o julgamento em que já há maioria formada para que haja sanções a plataformas por conteúdos considerados ilegais publicados. A Corte ainda precisa definir quais são os critérios dessa responsabilização.

— O que vem acontecendo com crianças e adolescentes nas redes sociais é mais do que criminoso, é abominável. Nós estamos falando de (vídeos com) automutilação e autolesão de crianças e adolescentes. Nem para isso autorregulação funciona — disse Moraes.

O ministro citou exemplos de "desafios" e tendências que viralizam nas redes sociais e que atingem crianças e adolescentes de formas muitas vezes fatal como exemplo do que, para ele, é a falha da autorregulação.

— Nós estamos falando de automutilação e autolesão de crianças e adolescentes. Nem para isso autorregulação funciona — apontou.

Ainda segundo Moraes, há quem confunda liberdade de expressão com uma omissão que deveria ser praticada pelo Judiciário ou pelo Legislativo.

— Diriam alguns que nós devemos ignorar totalmente, nos omitir totalmente, ignorar todos esses princípios e preceitos constitucionais protetivos, contra a discriminação, contra o racismo, contra o nazismo, contra a homofobia, contra a tentativa de golpe de Estado, contra a agressão a crianças e adolescentes. Deveríamos ignorar tudo isso em nome da defesa de uma suposta entidade mitológica, que seria a liberdade absoluta de expressão — disse.

No início de seu voto, Moraes exibiu imagens do 8 de janeiro como exemplo da falência da autorregulação das redes sociais.

— Destruíam e postavam. Pediam intervenção militar e postavam no mesmo momento. E as redes sociais? Sem nenhuma autorregulação, nenhuma auto regulação. A falência da autorregulação das redes sociais é que fez exatamente com que nós tenhamos que julgar isso — observou.

O julgamento foi suspenso após o voto do ministro Gilmar Mendes, e foi retomado nesta quinta com a fala do ministro Alexandre de Moraes. Moraes iniciou seu voto com a exibição de imagens de postagens de cunho ilícito e que estão em atividade em plataformas mesmo após pedidos para remoção.

Até agora, sete ministros já votaram — seis deles para que a responsabilização, em maior ou menor grau, seja possível mesmo sem ordem judicial para retirada de conteúdo, e um deles para manter os atuais critérios como estão.

De um lado estão Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Gilmar Mendes. De outro está o ministro André Mendonça, contrário a uma ampliação dessa responsabilidade.

Veja a seguir como os sete ministros do STF votaram até agora:

Gilmar Mendes

O ministro Gilmar Mendes defendeu a inconstitucionalidade parcial do artigo 19 do Marco Civil, argumentando que a regra atual, que exige ordem judicial para a responsabilização de plataformas digitais, está ultraada diante do papel ativo que essas empresas exercem na curadoria e amplificação de conteúdos. Segundo ele, as grandes plataformas deixaram de ser apenas intermediárias neutras e aram a exercer forte influência no debate público, com impacto direto na democracia. O modelo atual, segundo o ministro, criou um “véu de irresponsabilidade”, que impede a responsabilização mesmo diante de conteúdos evidentemente criminosos.

O voto também alerta para o impacto nocivo do modelo de negócios dessas plataformas, voltado à maximização de engajamento por meio da promoção de conteúdos polarizadores e extremistas. Gilmar citou episódios como os atos golpistas de 8 de janeiro de 2023 e defendeu a adoção de um regime de responsabilização mais eficaz. Propôs quatro regimes distintos, incluindo a responsabilização imediata em casos graves como incitação à violência, discurso de ódio e pornografia infantil, além de estabelecer deveres de transparência e prestação de contas para as plataformas.

Cristiano Zanin

O ministro Cristiano Zanin defendeu a inconstitucionalidade parcial do artigo 19 do Marco Civil por considerar que a exigência de ordem judicial para remoção de conteúdo não é suficiente para proteger direitos fundamentais e a própria democracia. Ele propôs um novo modelo provisório de responsabilização, no qual a regra atual se mantém para "provedores neutros e para conteúdos não criminosos". Já no caso de plataformas ativas que promovem material evidentemente ilícito, a responsabilização poderá ocorrer se não houver remoção após notificação extrajudicial.

Zanin também propôs um regime mais rigoroso para conteúdos especialmente sensíveis, como pornografia infantil, terrorismo, tráfico de pessoas e ataques à democracia. Nesses casos, os provedores devem atuar preventivamente e demonstrar diligência para evitar falhas sistêmicas. Ele estabeleceu um dever de cuidado que obriga plataformas a manter sistemas de notificação, publicar relatórios anuais de transparência e promover educação digital, além de criar mecanismos próprios ou aderir a entidades de autorregulação regulada.

O ministro apontou que a responsabilização deve continuar sendo subjetiva, ou seja, depender da comprovação de culpa, exceto em situações com indícios claros de má-fé, como o uso de anúncios ou chatbots para disseminar ilegalidades. Para garantir segurança jurídica, Zanin propôs que sua interpretação e a valer apenas após o fim do julgamento, com exceções pontuais, como nos casos de divulgação de imagens íntimas ou violação de direitos autorais.

Flávio Dino

Para Flávio Dino, não existe liberdade sem responsabilidade, conforme a Constituição. “A responsabilidade não impede a liberdade. Responsabilidade evita a barbárie, evita tiranias”, afirmou.

Segundo o ministro, é preciso ampliar a responsabilidade das plataformas, adotando como geral a regra que prevê possibilidade de punição caso não se exclua postagem a partir de uma notificação de um usuário. A exceção ficaria para casos de alegações de ofensas e crimes contra a honra, em que a plataforma só poderia ser responsabilizada caso descumpra decisão da Justiça para excluir determinado conteúdo.

Flávio Dino ainda propôs fixar um rol taxativo de conteúdos pelos quais as plataformas devem ter um dever de monitoramento. Elas poderiam ser responsabilizadas caso haja uma “falha sistêmica” com a disseminação massiva de publicações como crimes contra crianças e adolescentes, instigação ao suicídio, terrorismo ou apologia a crimes contra o Estado Democrático de Direito. As plataformas também poderiam ser responsabilizadas, independentemente de notificação judicial ou extrajudicial, em situações de perfis anônimos, robôs, ou postagens pagas.

André Mendonça

Mendonça afirma que a regra do Marco Civil é constitucional e entende que as plataformas têm legitimidade para defender a liberdade de expressão e, nesse sentido, têm o direito de preservar as regras de moderação próprias. Caso haja determinação de remoção de conteúdo ou perfil, elas devem ter o integral a seu teor e à possibilidade de recorrer.

O ministro também considera inconstitucional a remoção de perfis, exceto quando comprovadamente falsos. Para ele, a não ser nos casos expressamente autorizados em lei, as plataformas não podem ser responsabilizadas por não remover conteúdo de terceiros, mesmo que depois o material seja considerado ofensivo pelo Judiciário.

Luís Roberto Barroso

Barroso, defendeu que as plataformas digitais devem ser responsabilizadas por conteúdos de terceiros caso deixem de tomar as providências necessárias para remover postagens com teor criminoso. Para ele, o artigo 19 do Marco Civil não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia.

Barroso considera que, se a plataforma for notificada de que algo representa crime, como a criação de perfil falso, não é necessária ordem judicial de retirada. Porém, ele considera haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Segundo ele, ainda que se alegue a existência de injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão.

Na sua proposta, em vez de monitoramento ativo, com responsabilidade, independentemente de notificação, por cada conteúdo individual, as empresas devem ter o chamado dever de cuidado, ou seja, devem trabalhar para reduzir os riscos sistêmicos criados ou potencializados por suas plataformas. Para Barroso, as plataformas devem atuar proativamente para que seu ambiente esteja livre de conteúdos gravemente nocivos, como pornografia infantil e crimes graves contra crianças e adolescentes, indução, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

Luiz Fux

Relator de um dos casos, Fux afirmou que a regra do Marco Civil que só permite a responsabilização dos provedores de aplicativos se descumprirem decisão judicial de remoção é inconstitucional, pois dá uma espécie de imunidade civil às empresas. O ministro considera que conteúdos ilícitos ou ofensivos devem ser removidos assim que as plataformas forem notificadas.

Fux propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade, caracterizadoras de crimes (injúria, calúnia e difamação) assim que foram notificadas. Nessa hipótese, o ônus de levar o caso à Justiça deve ser invertido, e o conteúdo denunciado só poderá ser republicado com autorização judicial.

Segundo ele, a indenização por demora na retirada de conteúdo ofensivo é apenas um “prêmio de consolação” para o usuário que teve sua honra atingida de forma grave. Por outro lado, pode se transformar em recompensa para o infrator, com os lucros gerados pela exposição indevida.

Dias Toffoli

Relator de um dos casos que estão sendo julgados, Toffoli considera inconstitucional o artigo 19 do Marco Civil e propõe que a responsabilização deverá se basear no artigo 21 da lei, que prevê a retirada do conteúdo mediante simples notificação. Para o ministro, é imprescindível combater a violência digital para evitar seus efeitos “devastadores” para pessoas e instituições sociais e estatais.

Toffoli considerou que os provedores têm condições tecnológicas para detectar conteúdos ilícitos. Por isso, podem ser responsabilizados sem necessidade de comprovar culpa toda vez que as postagens coloquem em risco a integridade física de pessoas vulneráveis, o estado democrático de direito ou o regime democrático, que prejudiquem a saúde pública ou que tenham potencial de interferir na integridade do processo político eleitoral e no resultado do pleito.

Na proposta de Toffoli, a regra se aplica também a conteúdos racistas, com incentivo ao suicídio, à violência sexual, ao tráfico de pessoas ou à divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que incitem a violência física. Em todas essas hipóteses, a seu ver, a gravidade das práticas torna desnecessária a notificação prévia do ofendido à plataforma.

Acompanhe tudo sobre:Alexandre de MoraesSupremo Tribunal Federal (STF)Redes sociais

Mais de Brasil

Cid nega em depoimento plano de fuga investigado pela PF e autoria de mensagens, diz defesa

Prazo para inscrição no vestibulinho das Etecs termina nesta sexta-feira, 13

Itamaraty orienta brasileiros a não viajar para Irã, Israel e outros países da região

Alexandre de Moraes rejeita recurso apresentado pela Defensoria em nome de Zambelli

Mais na Exame