1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW
CriminalidadeBrasil

STF julga se redes devem responder por posts de usuários

Publicado 27 de novembro de 2024Última atualização 10 de dezembro de 2024

STF analisa ações que pedem mais agilidade em remover conteúdos ilícitos na internet, como discursos de ódio e incitações contra a democracia. Empresas digitais alertam contra controle excessivo das plataformas.

Estátua da Justiça vista de dia, sem pichações
Estátua da Justiça, em frente ao STF, alvo de golpistas desde a o resultado das eleições de 2022 Foto: Pedro França/Agência Senado

No final do mês de novembro, o Supremo Tribunal Federal (STF) iniciou julgamento sobre como provedores de internet, plataformas digitais e sites devem ser responsabilizados por conteúdos ilícitos publicados por seus usuários.

Serão analisadas em plenário três ações que questionam pontos do Marco Civil da Internet – lei sancionada em 2014 que disciplina o uso da internet no Brasil.

Esses processos tratam do artigo 19 da lei, que prevê que empresas do ramo, como as de mídias sociais, são passíveis de punição somente se receberem ordem judicial determinando remoção de conteúdo ilícito e se negarem a obedecer.

A crítica é de que é preciso mais agilidade para combater o mau uso das redes sociais e frear o radicalismo no país, o que passa por responsabilizar as empresas pelo que os usuários publicam.

Na segunda-feira (09/12), seis entidades que representam empresas de internet no Brasil divulgaram uma nota na qual dizem que derrubar o artigo 19 pode ter graves consequências "para a liberdade de expressão, a inovação, pequenos empreendedores e a inclusão digital".

Em seu voto, o relator do processo, ministro Dias Toffoli, declarou o artigo 19 inconstitucional na primeira semana de dezembro.

O temor das companhias é de que a responsabilização objetiva seria imposta, o que poderia aumentar a judicialização e reduzir a segurança jurídica das empresas. Além disso, o julgamento do artigo 19 também se afasta "da ideia de moderação para obrigar as plataformas" a realizarem monitoramento, "o que seria uma grave violação a direitos fundamentais".

A nota, assinada por associações que abraçam plataformas como Google, TikTok e Meta, também alerta que "qualquer mudança" na forma como se remove o conteúdo digital no país hoje em dia e na maneira como se determina quem é responsável por isso "deve ser cautelosa, preservando direitos fundamentais". 

Nova proporção do julgamento

O processo em questão está em análise pelo STF desde 2017 e foi pautado para esta data em agosto. Mas o julgamento tomou outra proporção e acontecerá no calor das investigações sobre uma trama golpista após a eleição presidencial de 2022. Também em novembro, a Polícia Federal concluiu seu relatório sobre o plano de golpe de Estado e indiciou 37 pessoas, incluindo o ex-presidente Jair Bolsonaro.

Um dos flancos da investigação trata da formação de uma organização criminosa, que seria articulada por Bolsonaro, segmentada em seis departamentos. Um deles era o "Núcleo de Desinformação e Ataques ao Sistema Eleitoral", assim denominado pela PF por ser encarregado de disseminar desinformação e discursos de ódio nas redes sociais para desacreditar os processos eleitorais e insuflar ódio contra as instituições democráticas.

"A questão da regulação das redes sociais se tornou o epítome da ideia de reconstrução democrática no Brasil e de crise democrática", afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim.

Na Câmara, o projeto de lei das fake news foi engavetado, após quatro anos de discussões e audiências públicas sobre como regular o modelo de negócio das plataformas. O tema foi remetido para um grupo de trabalho criado em junho, e desde então não houve qualquer avanço.

Diante da paralisação do tema no Legislativo, ministros do STF têm dado a entender que o julgamento será um marco nos debates sobre mídias sociais e democracia.

Presidente do STF, Luís Roberto Barroso, concordou em juntar três ações sobre plataformas e votá-las em novembro Foto: Mateus Bonomi/AGIF/Sipa USA/picture alliance

O que está na mesa?

O Marco Civil da Internet foi uma lei concebida há dez anos para estabelecer deveres e direitos de plataformas digitais, provedores de internet e usuários. Apesar de ela ter representado avanços significativos no direito digital, parte da legislação enfrenta questionamentos quanto à responsabilidade de plataformas pelo conteúdo de usuários.

Atualmente, o marco só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo ilegal postado por usuários – garantia presente no artigo 19. No entanto, esse regime não dá conta de um cenário tecnológico muito mais complexo, palco de crises democráticas e ataques à Constituição, que exigem ações mais incisivas.

A primeira coisa a se ter em vista é que o julgamento do STF não vai resolver o problema, alerta a pesquisadora Clara Iglesias Keller.

"O poder das plataformas vai muito além de quem responde por danos quando um conteúdo infrator é retirado ou deixa de ser retirado", explica. "É sobre regulação do modelo de negócio das plataformas, que têm influência sobre o fluxo de informação, o fluxo de atenção, uso de dados. Há uma série de formas de exercer essa influência além do regime de responsabilidade, como a curadoria algorítmica, opacidade, uso de dados", complementa. 

No entanto, não cabe ao Supremo legislar sobre o modelo de governança dessas empresas, mas ao Congresso, que por ora enterrou o debate, lembra Keller.

Os ministros do STF têm agora na mesa as seguintes opções de mudança:

  • Decidir pela inconstitucionalidade do artigo 19, o que responsabilizaria as plataformas caso não removam conteúdos que violam a lei independentemente de ordem judicial. As empresas seriam instadas a agir mais proativamente, sem a necessidade de uma interferência do Judiciário, a partir de notificações comuns de usuários. Defensores do artigo 19 argumentam que as plataformas, temendo o custo de processos na Justiça, passarão a remover conteúdo preventivamente caso o dispositivo seja eliminado, cerceando a liberdade de expressão.
  • Manter o artigo 19 em termos gerais, mas indicar algumas exceções para casos graves nos quais denúncias sólidas de conteúdo possam gerar responsabilização, sem a necessidade de uma ordem judicial. 

Atualmente já existem duas exceções para responsabilização das redes a partir de notificação de usuários comuns: quando se trata de disseminação não consentida de imagens íntimas e violação de direito autoral.

Para o diretor do InternetLab, Francisco Brito Cruz, ampliar as possibilidades de exceção para outras condutas graves seria um "caminho equilibrado" para o regime de responsabilidade do Marco Civil.

Dificuldade de regulamentação reflete desequilíbrio global

A Advocacia Geral da União (AGU) acompanhará o julgamento e defendeu, em documento enviado ao STF, que "Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo".

"Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis", completou.

Para Clara Iglesias Keller, a dificuldade em avançar com o tema da responsabilização das redes no Brasil tem a ver com um desequilíbrio global de forças. Na União Europeia, por exemplo, as big techs operam sob leis que dão mais transparência, acesso a dados e outras garantias aos usuários.

O DSA (Digital Service Act), que passou a valer por completo em janeiro, inaugurou um marco legal na defesa de questões concorrenciais e de direito ao consumidor de internet nos países europeus.

De acordo com a lei, não basta apenas remover ou deixar de remover conteúdo – é preciso ter uma responsabilidade mais ativa: ser transparente, reconhecer os riscos em potencial dentro do seu sistema e ter mecanismos para mitigar esses riscos quando necessário.

"Tem uma questão fundamental de desequilíbrios globais de poder – empresas que têm poder econômico em nível global significativo que não se comportam em debates de política pública na Europa como no Brasil, o maior mercado da América Latina", diz Keller.

"Uma democracia exige um tratamento objetivo da liberdade de expressão e das comunicações que seja condizente com o que uma democracia exige: pluralismo, participação de grupos vulneráveis. Rejeitar a regulação em nome de uma liberdade de expressão nos leva para um lugar de não regulação que, paradoxalmente, acaba prejudicando a liberdade de expressão", afirma a pesquisadora.

Tudo isso se soma a um lobby muito forte das plataformas e de como a extrema direita no Congresso brasileiro acolheu e fomentou esse discurso, pontua Keller.