top of page

STF decide responsabilizar big techs por posts de usuários.

O STF (Supremo Tribunal Federal) decidiu nesta 5a feira (26Jun.2025) ampliar a

responsabilização civil das redes sociais pelo conteúdo publicado por usuários e não

retirados do ar. Por 8 votos a 3, os ministros decidiram os casos em que é necessária

ordem judicial para excluir um conteúdo, as ocasiões em que basta uma notificação

privada e os casos em que as plataformas devem agir por conta própria para impedir que

os conteúdos cheguem ao espaço público.

ree

A tese vencedora reconheceu o artigo 19 do Marco Civil da Internet (lei 12.965 de 2014),

que é tema do julgamento em questão, como parcialmente inconstitucional. O dispositivo

era a regra geral e definia a necessidade de ordem judicial para excluir um conteúdo.

Agora, será a exceção e restrito apenas para crimes contra a honra. A regra geral passa a

ser o artigo 21, que estabelecia que uma notificação privada é suficiente para casos de

nudez não autorizada, e agora passa a valer para os conteúdos ilícitos. Entenda mais

abaixo.



Eis o placar final do julgamento:

• a favor da tese - 8 votos (Dias Toffoli, Luiz Fux, Alexandre de Moraes, Roberto Barroso,

Flávio Dino, Cristiano Zanin, Gilmar Mendes e Cármen Lúcia); e

• contra a tese - 3 votos (André Mendonça, Edson Fachin e Nunes Marques).

Em sessão plenária, o presidente Roberto Barroso afirmou que o STF não invade a

competência legislativa do Congresso ao estabelecer os critérios para a responsabilização

civil das redes sociais. Mas define os critérios para decidir sobre casos concretos que se

apresentaram à Corte.



"Para deixar claro, o STF não está legislando, mas decidindo 2 casos concretos que se

puseram perante ele e definindo critérios que vão prevalecer até que o Poder Legislativo

entenda por bem que deverá prover sobre essa matéria", declarou.


Segundo Barroso, a decisão se baseou em como se relacionam a liberdade de expressão

nessas plataformas e outros direitos fundamentais em jogo como a honra, privacidade e

intimidade das pessoas.


O magistrado afirmou que o resultado configura um "meio-termo" entre os 3 grandes

modelos praticados no mundo sobre a responsabilização civil das plataformas digitais: o

norte-americano, que prega a imunidade das redes sociais; o europeu, em que prevalece a

responsabilidade após notificação privada; e o modelo brasileiro, que exige a ordem

judicial descumprida para a responsabilização.



Barroso afirmou que a decisão da Corte faz com que o Brasil se aproxime mais do modelo

europeu de notificação privada.

"Estabelecemos casos em que basta a notificação privada quando haja crime ou ato

ilícito. Nessas hipóteses, basta a notificação privada para criar o dever de a plataforma

remover o conteúdo. Nos demais casos, continua-se a exigir ordem judicial", disse.

O ministro Luiz Fux, relator de um dos casos, declarou que a sua posição inicial era a de

igualar a responsabilidade civil das redes aos casos que se aplicam à imprensa. Afirmou

que, ao longo dos debates, chegou-se a algo próximo, levando em conta as diferenças que

as plataformas demonstram.


Já o ministro Dias Toffoli, relator do outro recurso, se emocionou antes de fazer a leitura da

tese final. Com a voz embargada, ressaltou a importância do tema e disse que se sentia

"honrado" em fazer parte da Corte.

O decano da Corte, ministro Gilmar Mendes, cumprimentou os ministros pelo resultado

alcançado, fruto de um consenso. Reconheceu a importância e os desafios do tema em

discussão para as democracias.


"Gostaria de elogiar a participação de todos os membros do Tribunal que de alguma

forma contribuíram para a construção de um resultado que foi debatido e aprofundado,

com divergências sólidas e que só honram o resultado obtido", declarou.


JULGAMENTO

A Corte encerrou o julgamento sobre a responsabilização das plataformas por conteúdos

publicados por usuários e não retirados do ar quando qualquer um pedir a remoção,

mesmo sem ordem judicial. O último voto, do ministro Nunes Marques, acompanhou a

divergência para manter a necessidade de uma decisão da Justiça como regra geral para

excluir uma publicação. Ele propôs que o artigo 19 permanecesse válido.

O STF analisava 2 recursos, um do Google, da relatoria do ministro Fux, e o outro do

Facebook, cujo relator é Toffoli. Entenda:


• tema 533 - obriga empresas com site na internet a removerem conteúdo que

considerarem ofensivo. O relator é Fux. Tem origem em recurso do Google Brasil ao

STF que contesta sentença judicial que determinou indenização a pessoa que se sentiu

atingida por conteúdo publicado no Orkut, que não está mais em operação. O Google

ainda mantém os arquivos do Orkut. Resultado: a plataforma é responsável pelos

danos.

• tema 987 - discute a constitucionalidade do artigo 19 do Marco Civil da Internet. O

relator é Toffoli. Tem origem em recurso do Facebook que contesta decisão judicial de

2a instância que determina pagamento de indenização a uma pessoa por publicação de

conteúdo que ela considera ofensivo e falso na rede social. Resultado: a plataforma não

é responsável pelo dano.


A tese vencedora ampliou as possibilidades em que as redes sociais podem ser

responsabilizadas. A regra geral, portanto, passa a ser a notificação privada para a

remoção, como estabelecido pelo artigo 21. A responsabilização, portanto, se dá a partir

da omissão quanto ao pedido de veto por qualquer pessoa.


A proposta foi fruto de um consenso alcançado em um almoço entre todos os 11 ministros

antes do início da sessão plenária, no gabinete da presidência da Corte. Durante 4 horas, o

colegiado discutiu as propostas apresentadas pelos magistrados nas 11 sessões de

julgamento que antecederam a proclamação do resultado final.


No julgamento, que teve início em dezembro de 2024, os ministros apresentaram

diferentes teses. Cada um trouxe propostas diferentes quanto aos tipos de posts que

seriam considerados ilícitos, em que ocasiões as plataformas deveriam agir por vontade

próprio, quais os deveres das plataformas ou qual órgão seria o responsável pela

fiscalização do cumprimento das medidas estabelecidas. Em 11 de junho, o voto do

ministro Gilmar Mendes formou maioria na Corte.


Mesmo com o resultado consensual, não ficou claro quais serão os critérios usados para

remover um conteúdo considerado ilícito mediante notificação privada. Sem a

necessidade de uma decisão judicial, caberá às plataformas definirem o que fica ou sai do

ar. A expectativa é que as big techs passem a remover qualquer tipo de conteúdo

considerado controverso.

A tese proclamada também deixou de atribuir a um órgão a responsabilidade de fiscalizar

o cumprimento por parte das big techs das medidas práticas definidas.


RESPONSABILIZAÇÃO DAS REDES

Por maioria, o STF decidiu que o artigo 19 do Marco Civil da Internet é parcialmente

inconstitucional. A norma foi considerada insuficiente para proteger direitos fundamentais

e a democracia. Leia a íntegra da tese (PDF - 22 kB).


Os ministros definiram que, enquanto o Congresso não aprovar uma nova legislação, as

redes sociais poderão ser responsabilizadas civilmente por conteúdos ilícitos, sobretudo

em casos de crimes ou publicações feitas por contas falsas.


Assim, será necessário uma ordem judicial para remover conteúdos que envolvem crimes

contra a honra, como calúnia, difamação e injúria. Nesses casos, as big techs só poderão

ser responsabilizadas quando não cumprirem a decisão da Justiça.


As redes sociais devem agir por conta própria para impedir a circulação abrangente de

conteúdos ilícitos graves que sejam replicados de maneira sistêmica, ou seja, repetitiva.

Nesses casos, eles podem ser responsabilizados mesmo sem ordem judicial ou notificação

privada. São considerados crimes graves:


• condutas e atos antidemocráticos;

• crimes de terrorismo ou preparatórios de terrorismo, tipificados;

• crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação

• incitação à discriminação emrazão de raça, cor, etnia, religião, procedência nacional,

sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas);

• crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive

conteúdos que propagam ódio ou aversão às mulheres;

• crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra

crianças e adolescentes; e

• tráfico de pessoas.


A Corte pondera, no entanto, que a existência de um conteúdo ilícito de forma isolada não

é, por si só, suficiente para aplicar a responsabilidade civil às plataformas. Sendo assim, é

necessária uma notificação privada para remover um post individual que configure crimes

graves e, só se as plataformas não excluírem o post, é que elas poderão ser

responsabilizadas.


O STF também estabeleceu que as redes sociais passam a ter uma presunção de

responsabilidade sobre conteúdos ilícitos impulsionados por anúncios pagos ou

distribuídos por robôs automatizados (bots). Nesses casos, a responsabilização pode se

dar independente de notificação.


A decisão não é aplicável a plataformas de e-mail (GMail, Yahoo, Outlook), de reunião

(Zoom, Google Meets e Microsoft Teams) e de mensagens privadas (WhatsApp e

Telegram), respeitando o sigilo das comunicações.


O Supremo também reafirmou que os marketplaces —como sites de venda de produtos e

serviços— continuam regulados pelo Código de Defesa do Consumidor.


A Corte determinou ainda que as plataformas devem estabelecer regras próprias de

autorregulação, com mecanismos de notificação, transparência e canais acessíveis ao

público. Empresas estrangeiras que atuam no Brasil terão de manter sede ou

representante legal no país, com poderes para responder na Justiça e em órgãos

administrativos.


Por fim, o tribunal fez um apelo para que o Congresso Nacional atualize a legislação para corrigir as falhas apontadas na decisão. Os efeitos da nova interpretação valerão apenas para situações futuras e não afetarão sentenças já transitadas em julgado.

Comentários


bottom of page