O Supremo Tribunal Federal (STF) formou maioria no julgamento que define o regime de responsabilidade civil das plataformas digitais quanto aos danos causados por conteúdos de terceiros. Ou seja, ficam passíveis a indenizar eventuais afetados por conteúdos ilícitos veiculados que firam direitos individuais ou coletivos.
Uma interpretação restritiva do artigo 19 do Marco Civil da Internet indicaria que as empresas só teriam que responder após o descumprimento de ordem judicial para retirada de determinado conteúdo.
O tema chegou à análise do STF a partir de dois Recursos Extraordinários (1037396 e 1057258) afetados à sistemática de repercussão geral, quando a relevância social, política ou econômica do que se discute transcende o mero interesse das partes e a tese fixada no julgamento passa a ser aplicada por todas as instâncias em casos análogos.
Não faltaram vozes a criticar um suposto ativismo da Corte, mas, no caso, ela apenas cumpre seu dever constitucional. Os dois recursos já tramitam há uma década — vejam, um deles é sobre uma comunidade do Orkut! —, tempo mais do que suficiente para que o Congresso deliberasse sobre um tema fulcral para a organização da sociedade contemporânea e que é debatido em todo o mundo democrático. Se ao Legislativo e ao Executivo a omissão é possível, o Judiciário, quando provocado, por mais que seja prudente a autocontenção, passa a ter o dever de decidir, principalmente em matéria constitucional.
Quebra do escudo de imunidade das big techs
Ainda será necessário uniformizar o novo entendimento, uma vez que os votos já apresentados trazem vieses distintos para a responsabilização, deveres de cuidado e a autoridade responsável por fiscalizar. Mas já é fato consumado que o atual modelo, baseado numa espécie de imunidade regulatória das big techs, não seguirá em vigor. É desejável que essa parametrização se materialize em tese vinculante, objetiva e de fácil operacionalização.
Críticos fatalistas — e alguns oportunistas — alegam que a responsabilização das plataformas levaria a uma forma de censura prévia (e privada), porque, diante do temor de penalização, as empresas tenderiam a ampliar a moderação e remoção de conteúdos. É sempre salutar que sejam observadas salvaguardas aos usuários e a transparência na moderação, mas esse argumento não se sustenta, porque jamais esteve em debate a validação ou invalidação de discursos em si. O que se busca é evitar que crimes continuem sendo cometidos nas redes, sob a omissão e até com lucros para as big techs.
Não se trata também de demonizar o art. 19 da Lei 12.965/2014, mas de reconhecer que o atual regime cumpriu papel nos primórdios das redes sociais, quando ainda se acreditava em sua neutralidade, como mero repositório de conteúdos. A visão idílica, de que pequenas startups de jovens estão sendo tolhidas, não se enquadra ao momento presente, em que essas se transformaram nas maiores, mais influentes e lucrativas empresas de tecnologia do planeta. Levando em conta a preocupação quanto aos impactos econômicos, seria importante que, na uniformização das posições, sejam observadas as diferenças entre os tipos e os portes das plataformas, bem como os riscos por elas oferecidos.
Parece fato que o modelo de não responsabilização contribuiu para o desenvolvimento e a inovação tecnológica naquele período, mas se tornou obsoleto e insuficiente para os desafios atuais, quando as plataformas ganharam dimensões e centralidade inescusáveis na organização social, política e econômica dos países.
Leia também: Meta, Trump e a nova aliança digital ameaça democracia Global
É importante ter em mente que nenhum segmento econômico deve estar imune a padrões mínimos de regulação de sua prestação de serviços. Mesmo o poderoso sistema financeiro, a título de exemplo, é regulado por lei específica, como a Lei 4.595/64, e instituições como o Banco Central e a Comissão de Valores Mobiliários (CVM), dentre outras. Além de que, a Súmula 297 do Superior Tribunal de Justiça cristalizou o entendimento de que “o Código de Defesa do Consumidor é aplicável às instituições financeiras”, levando à edição de nova Súmula, a 479, em que o STJ estabelece a responsabilidade objetiva dos bancos por fortuito interno relativo a fraudes e delitos de terceiros nas operações bancárias.
Tal compreensão é decorrência lógica da Teoria do Risco, adotada pelo Código Civil Brasileiro e pelo Código de Defesa do Consumidor, que traz a obrigação de reparar o dano, independentemente de culpa, “quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem” (art. 927, parágrafo único, CC). Parece-me evidente que o conceito é perfeitamente aplicável às plataformas digitais quanto à profusão de perfis que veiculam conteúdos ilícitos e até mesmo links fraudulentos impulsionados com o objetivo de aplicar golpes — ou seja, gerando lucro para as empresas.
Nesse sentido, o voto do ministro Flávio Dino aparentemente busca uma síntese entre as posições externadas pelos relatores, ministros Dias Toffolli e Luiz Fux, pela inconstitucionalidade do art. 19, e as nuances trazidas pelo presidente Luís Roberto Barroso, com justas preocupações quanto à liberdade de expressão.
Frear crimes digitais sem censurar a internet
O caminho que se constrói traz algumas linhas gerais que, a meu ver, seguem na direção correta, levando em conta as melhores práticas e experiências internacionais para responsabilidade das plataformas. Primeiro, integra o regime do art. 19, quando há necessidade de notificação judicial, em exceção aplicável apenas para alegações de ofensas e crimes contra a honra — abarcando a preocupação com excessos limitadores da liberdade de expressão. Expressa uma leitura sistêmica da legislação brasileira.
Como regra, define a responsabilidade civil das plataformas, passando estas a responder subsidiariamente (ou seja, se o usuário não a cumprir) por danos decorrentes de conteúdos de terceiros, nos termos do art. 21 do Marco Civil da Internet, que até o momento só é aplicável em casos de violação de intimidade (conteúdos de nudez e atos sexuais). Atenção: segue necessária a notificação do usuário à plataforma sobre o conteúdo lesivo, agora sem necessidade de acesso à Justiça, tendo a empresa a oportunidade de moderá-lo de forma diligente.
O julgamento dá relevo à responsabilidade objetiva (a do art. 927 do CC) das plataformas sobre os chamados “atos próprios”, que são as postagens de perfis anônimos, falsos e chatbots, bem como conteúdos ilícitos veiculados em anúncios pagos ou patrocinados. Esse é um passo importante para coibir, por exemplo, campanhas contra a saúde pública e mesmo golpes praticados no ambiente digital.
Outro ponto que emerge dos debates no Supremo é o conceito de “falha sistêmica”, quando não há observância aos deveres de cuidado, que seriam falhas na segurança esperada da prestação de serviços, aqui evocando o regime de responsabilidade objetiva, independentemente de culpa, do art. 14, § 1º, II, do Código de Defesa do Consumidor — assunto que já abordamos acima.
Nesse caso, a opção indica um rol taxativo de crimes a serem abarcados:
a) crimes contra crianças e adolescentes;
b) induzimento ou auxílio ao suicídio ou automutilação;
c) terrorismo (Lei 13.260/2016); e
d) crimes contra o Estado Democrático de Direito.
Importante destacar que a mera existência de conteúdos desse rol, de forma esparsa e isolada, não geraria a responsabilização. Busca-se, portanto, coibir a postagem coordenada e massiva desses conteúdos, capaz de causar os riscos sistêmicos.
Como último tópico, reconhece e valoriza boas práticas, indicando que as plataformas devem elaborar normas próprias de autorregulação, de modo que as moderações de conteúdos realizadas sejam acompanhadas de notificações, canais para que o próprio usuário possa defender sua manifestação, a partir do chamado “devido processo”, além de relatórios de transparência. Incumbe ainda à Procuradoria Geral da República — ou seja, ao Ministério Público Federal — fiscalizar o cumprimento das normas até que uma lei específica seja editada, mas a autoridade reguladora, ponto complexo, segue como elemento a ser consensualizado.
Os pontos centrais levantados pela Suprema Corte trazem muitos dos conceitos debatidos e desenvolvidos no contexto da tramitação do PL 2630, que fui relator na Câmara dos Deputados. Este, por sua vez, buscava traduzir e adaptar para o contexto brasileiro as experiências internacionais mais exitosas e reconhecidas de regulação das plataformas digitais, como o Digital Services Act da União Europeia, além das inúmeras contribuições de especialistas, da sociedade civil e das próprias empresas.
O locus próprio para o desenho da melhor legislação sobre tema tão candente e sujeito a mudanças rápidas, dados os avanços tecnológicos, seria, sem dúvida, o Congresso Nacional. Mas é notório que, provocado e obrigado a decidir, o STF tem caminhado para uma compreensão sistêmica e contemporânea das plataformas digitais, cuja responsabilização precisa ser atualizada à luz dos novos desafios da sociedade da informação.
Orlando Silva é advogado e deputado federal pelo PCdoB-SP. Foi relator, na Câmara dos Deputados, do Projeto de Lei 2630/2020, conhecido como PL das Fake News.
*Artigo publicado originalmente na Carta Capital, em 18/06/2025, com o título Por que o STF acerta ao fixar responsabilidade para as big techs.
*Este é um artigo de opinião. A visão do autor não necessariamente expressa a linha editorial da FMG.