Moraes diz que 8 de janeiro demonstrou ‘total falência do sistema de autorregulação das redes sociais’

moraes 8 janeiro demonstrou total falencia sistema autorregulacao redes sociais
Via @portalg1 | O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), defendeu, durante o julgamento sobre a responsabilidade das redes sociais pelo conteúdo de usuários, que os atos antidemocráticos de 8 de janeiro de 2023 demonstram "total falência do sistema de autorregulação" das plataformas.

"É faticamente impossível defender, após o dia 8 de janeiro, que o sistema de autorregulação funciona. Falência total e absoluta, instrumentalização e, lamentavelmente, parte de conivência. Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes", declarou.

O Supremo julga, nesta quinta-feira (28), se as redes sociais podem ser processadas por danos causados por conteúdos publicados por usuários, mesmo que não tenham recebido antes uma ordem para a retirada das postagens irregulares.

Alexandre de Moraes no STF. — Foto: Ueslei Marcelino/Reuters

Antes da apresentação dos votos, os magistrados ouviram o posicionamento de especialistas na área. O último a se pronunciar foi o Advogado-Geral da União (AGU), Jorge Messias, que lembrou as invasões de apoiadores do ex-presidente Jair Bolsonaro às sedes dos Três Poderes, em Brasília.

"Na condição de Advogado-Geral da União, eu tive no 8 de janeiro que provocar [as redes sociais] pedindo a retirada de diversos conteúdos que transmitiam ao vivo as invasões deste plenário, do Congresso Nacional, e do Palácio do Planalto. Muitas, monetizadas", lembrou.

Ele seguiu: "Estamos falando de um ambiente de infodemia (grande fluxo de informações que circula na internet), que tomou conta do nosso país. Um ecossistema de desinformação que, para além de trazer prejuízos econômicos, traz prejuízos à qualidade da nossa democracia".

Ao final do pronunciamento, Moraes pediu a palavra. O ministro do STF é relator dos casos do 8 de janeiro na Corte.

"O dia 8 de janeiro [de 2023] demonstrou a total falência do sistema de autorregulação de todas as redes, de todas as big techs", criticou .

Ele então detalhou o posicionamento. "Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes. Todos se recordam aqui, a festa da Selma. Selma, mulher de um dos generais investigados. Depois, no dia, a Praça dos Três Poderes invadida, o Supremo sendo destruído, o Palácio do Planalto, as pessoas fazendo vídeo, postando nas redes sociais, chamando gente para destruir, e as redes sociais não retiraram nada. Por quê? Like em cima de like, sistema de negócio, monetização".

"Então, se não fosse pela falência em virtude da organização anterior, foi pela instrumentalização e conivência no dia 8 que se demonstra que autorregulação não funcionou. E não venham, não adiantando voto, não venham dizer que isso é contra a liberdade de expressão."

Atentado com bomba

Na sequência, Cármen Lúcia também pediu a palavra, para citar o atentado a bomba ocorrido no último dia 13 de novembro.

Na ocasião, um homem munido com bombas disparou artefatos contra o edifício do Supremo, em Brasília, e morreu em decorrência das explosões.

"Este último episódio em frente ao nosso prédio também estava nas redes a postagem da pessoa atacando o Supremo, dizendo que ia fazer alguma coisa e não se conseguiu nem ver, nem vislumbrar, nem nada. O que tivemos foi aquela noite com um ato trágico. Trágico institucionalmente, pessoalmente e de toda natureza. Então isto foi, não tem um mês...", lembrou.

🛜Marco Civil da Internet

Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede no Brasil — estabelece princípios, garantias, direitos e deveres para usuários e empresas.

Em um dos artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.

A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.

A Corte deverá elaborar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.

Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.

Por Fernanda Vivas, Ana Flávia Castro, TV Globo e g1 — Brasília
Fonte: g1

Anterior Próxima