Fux afirma que redes sociais devem ser responsabilizadas por conteúdos criminosos
Barroso pede mais tempo para análise do caso
O Supremo Tribunal Federal (STF) retomou nesta quarta-feira (11) o julgamento de dois recursos que discutem a responsabilidade das plataformas digitais em relação aos conteúdos criminosos publicados por usuários. Durante a sessão, o ministro Luiz Fux se manifestou contra a atual interpretação do Marco Civil da Internet, defendendo que as redes sociais devem ser responsabilizadas imediatamente quando notificadas sobre postagens irregulares.
Fux, ao ler seu voto, declarou que é inconstitucional o artigo 19 do Marco Civil da Internet, que isenta as plataformas de responsabilidade por conteúdos considerados ofensivos ou criminosos, a menos que haja uma ordem judicial específica para a remoção do material. Para o ministro, a remoção de conteúdos prejudiciais deve ser imediata a partir do momento em que a plataforma for notificada. “Notificada a remoção, tem que ser imediata. A plataforma tem que fazer o que faz hoje: pedir autorização ao juízo para colocar o conteúdo novamente, agora sob novo crivo”, afirmou Fux, reforçando o entendimento de seu colega de corte, o ministro Dias Toffoli.
VEJA MAIS
Em sua manifestação, Fux foi enfático ao afirmar que, após a notificação, não há justificativa para o atraso na remoção de conteúdos prejudiciais. Para ele, as plataformas devem agir de forma proativa, removendo o conteúdo sem aguardar uma decisão judicial, e caso queiram restaurá-lo, devem buscar autorização judicial posteriormente. “Inverter o ônus da judicialização” foi como o ministro descreveu sua proposta, que visa agilizar o processo de remoção de conteúdos ofensivos.
O julgamento também contou com o voto de Toffoli, relator do caso, que propôs mudanças significativas na interpretação da legislação. Em seu voto, Toffoli defendeu que as plataformas devem ser responsabilizadas por conteúdos prejudiciais assim que forem notificadas extrajudicialmente, ou seja, pela própria vítima ou por seu advogado. Essa proposta visa estender a regra já existente no Marco Civil da Internet, que obriga as plataformas a removerem conteúdos com cenas de nudez ou imagens íntimas quando notificadas de forma extrajudicial.
Toffoli também apresentou situações em que as plataformas devem agir de maneira objetiva, mesmo sem uma notificação extrajudicial. Esses casos incluem crimes graves, como terrorismo, racismo, violência contra mulheres e crianças, e disseminação de desinformação com potencial para prejudicar o processo eleitoral. Para esses casos, o ministro sugeriu que as plataformas sejam responsabilizadas independentemente de culpa, respondendo por danos e tendo que demonstrar que não participaram do ato criminoso.
Porém, a análise do caso ainda não foi concluída. Os demais ministros da Corte precisam apresentar seus votos, o que pode levar a divergências ou a um consenso sobre a tese a ser aplicada. A decisão do STF é aguardada com grande expectativa, pois a questão afeta diretamente a maneira como as plataformas digitais devem agir diante de conteúdos criminosos.
Esses recursos envolvem a aplicação de um artigo do Marco Civil da Internet, que entrou em vigor em 2014 e estabelece regras sobre os direitos e deveres de usuários e empresas na rede. O artigo em questão define que as plataformas só devem ser responsabilizadas por danos causados por conteúdos ofensivos se não cumprirem uma ordem judicial para remoção. A decisão do STF deverá criar uma tese vinculante, que orientará processos em instâncias inferiores, e pode ter um impacto significativo sobre o funcionamento das redes sociais no Brasil.
Com dados do Conselho Nacional de Justiça apontando pelo menos 345 casos similares aguardando julgamento, a Corte tem diante de si um desafio complexo, envolvendo o equilíbrio entre a liberdade de expressão e a proteção contra danos causados por conteúdos ilícitos.
COMPARTILHE ESSA NOTÍCIA