André Mendonça vota para manter responsabilização de plataformas após decisão judicial

Mendonça disse que remoção de perfis é censura prévia, defendeu sanção as big techs como previsto no Marco Civil da Internet e sugeriu a CGU para regular redes, por considerar técnica e independente.
Continua julgamento de recurso do Facebook, de 2017, no Plenario do STF. Foto: Rosinei Coutinho.

O ministro André Mendonça, do STF (Supremo Tribunal Federal), votou nesta quinta-feira, 5, para manter a responsabilização das plataformas de redes sociais após decisão judicial. “E a decisão judicial que decidir por remoção de conteúdo tem de apresentar argumentação específica,” disse.

O ministro é o primeiro voto favorável às regras atuais definidas no Marco Civil da Internet, lei de 2014, objeto de julgamento de um Recurso Extraordinário (RE 1037396) do Facebook.  O julgamento se debruça sobre a constitucionalidade do artigo 19, que responsabiliza na justiça empresas de tecnologia de informação que não cumprirem ordem judicial para remoção de conteúdo.

Diz o artigo: Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Mendonça iniciou na quarta-feira, 4, ampla exposição sobre conflitos entre usuários e plataformas, liberdade de expressão, censura, mídias digitais, medidas adotadas por países como a Alemanha para a regulação das redes e outros temas, concluindo hoje sua análise com o voto propriamente dito.

Os ministros Dias Toffoli, relator do RE 1037396, Luiz Fux e Luiz Roberto Barroso votaram para responsabilizar ainda mais as big techs independente de ordem judicial, bastando notificação privada, o que está previsto no artigo 21 para casos de conteúdo que violam a intimidade privada, como cenas de nudez e de atos sexuais.

O trabalho das plataformas para conter conteúdos mediante tarefas de moderação foi ressaltado pelo ministro, que na sessão desta quinta-feira, 5, apresentou dados das plataformas, entre elas Youtube e Facebook. Um dos dados apontam que o Youtube removeu quase 9 milhões de vídeos no Brasil, automaticamente.

O país é o terceiro, após Rússia e Índia, em número de vídeos removidos por conteúdo ilícito ou ofensivo.

Mendonça, com texto sustentado por vários autores e estudiosos do tema, baseou seu voto na preocupação em resguardar a liberdade de expressão. “O cidadão, mais vigiado, mais ficará suscetível ao chamado efeito silenciador”, disse.

Entre outras citações, falou do Pacto Internacional dos Direitos Civis e Políticos, que em um dos artigos diz que “ninguém pode ser molestado por suas opiniões.” Citou o relator especial das Nações Unidas sobre Promoção dos Direitos da Liberdade de Expressão, Frank de La Rue, que sobre a regulação, com existência de eventual censura, disse não poder ser feita por entidade privada.

O ministro defendeu uma interpretação ajustada do artigo 19 em razão da diferenciação dos tipos de provedores. “Outro ponto é diferenciar os diferentes provedores e estabelecer a cada um regras específicas, além de excluir as aplicações de comunicações privadas da discussão.”

Remoção de perfil

André Mendonça disse que a remoção de perfis das redes sociais caracteriza censura prévia.

“Ao suspender o perfil de determinado usuário ou o acesso aos serviços de toda uma plataforma digital em razão da produção sistemática de desinformação, por exemplo, busca-se impedir a veiculação de novas manifestações ante o risco de se consubstanciarem em novas transgressões ao ordenamento jurídico. Dito de forma direta: para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação”, disse o ministro.

“Entendo que a supressão de maneira autônoma somente pode ocorrer nos casos em que se tratar de perfil robô de perfis comprovadamente falsos ou de perfis que a priori já estejam estabelecidos para a prática criminosa,” disse.

Sobre o recurso do Facebook em julgamento, ele disse que a empresa descumpriu o dever dela por não remover perfil falso quando solicitada pela pessoa prejudicada, acompanhando o relator do caso, ministro Toffoli, pelo não provimento do recurso da ação que moveu pedido de indenização por danos morais.

Regulação

Em seu voto, Mendonça fez ainda a sugestão de que a intermediação da regulação entre usuários e empresas possa ser feita pela Controladoria Geral do Estado (CGU), citando que na Alemanha a tarefa cabe ao Ministério da Justiça. Ele ressaltou, contudo, não ser fácil decidir sobre isso, que no marco legal existente não existe a figura, e que caberia aos Poderes Executivo e Legislativo decidir e promover uma atualização necessária em vários aspectos a partir de políticas públicas relacionadas à questão.

“Precisa ser um órgão independente, e se eu pudesse olhar de dentro hoje sei que a Controladoria faz um trabalho de auditoria e integridade qualificado, não é apenas uma instituição de corpo qualificado, mas é técnica e séria. Durante o período de execução dos acordos de leniência, eu estava na AGU, teve a obrigação de haver não apenas um programa de compliance, aprovado pela CGU, como também a CGU teria acesso, poderia fazer auditorias naquele programa de integridade.  É uma melhor medida, porque daria ao mesmo tempo uma possibilidade de padrões, adaptações, conforme evoluções e sempre o Judiciário funcionar como equacionador de eventuais controvérsias. Faço um apelo de uma alternativa que penso deve partir do próprio Poder Executivo e do Legislativo,” avaliou.

O julgamento será retomado no próximo dia 11, quarta-feira.