Trata-se de dinheiro, não de liberdade de expressão

translate

arzh-CNenfrdeitjaptruesyi

Por EDELBERTO BEHS*

“Vocês têm sangue nas mãos”, tuitou um dos primeiros investidores do Twitter, Chris Sacca, reportando-se ao CEO do Facebook, Mark Zuckenberg. Incitar violência lesa-pátria não é exercer liberdade de expressão, definiu.

Exagero sensacionalista de Sacca? Não, de forma alguma. Embora alertado diversas vezes de que o Facebook estava promovendo a violência de budistas contra muçulmanos em Mianmar, incitada pelo monge racista Wirathu desde 2014, seus diretores nada fizeram para eliminar discursos de ódio e desinformação. Em 2017, um genocídio aconteceu no país.

Quem conta essa história é o jornalista Max Fischer no livro “A Máquina do Caos – Como as Redes Sociais Reprogramaram Nossa Mente e Nosso Mundo”. Ele esteve em Mianmar para cobrir os acontecimentos. “Fazia semanas que as Forças Armadas vinham travando uma guerra fora do controle nos vilarejos com telhadinhos de sapé que pontilhavam a província a extremo oeste do país. Batalhões inteiros iam de arrozal a arrozal enquanto os helicópteros rugiam do alto. Eles diziam que estavam caçando insurgentes. Na verdade, estavam atacando uma comunidade de 1,5 milhão de fazendeiros e pescadores muçulmanos que se autodenominavam rohinga”, relata.

Desinformação – como a conhecemos no Brasil, impulsionada pela extrema-direita – grassou e grassa nas páginas do Facebook. “Postagens virais, uma atrás da outra, informavam que famílias muçulmanas aparentemente inocentes na verdade eram células terroristas ou espiões estrangeiros à espreita. ‘Mianmar vai ser tomada pelos cães muçulmanos’, dizia uma”. Outra afirmava ter provas de que os rohinga cometiam canibalismo, com imagens fake tiradas da ação de marketing de um videogame!

Funcionários do governo de Mianmar alertaram que o discurso de ódio abrigado pelo Facebook podia minar a estabilidade do país. O monge Wirathu, chamado de “Bin Laden birmanês”, impulsionava conspiração e ódio.

Em 2016, relatório enviado ao Facebook advertia que a plataforma estava colocando em risco uma sociedade que ela não entendia. O Facebook sabia pelo menos desde o incidente em Mandalay, a segunda maior cidade do país, o que estava acontecendo, revelou David Madden, um australiano que coordenava a maior aceleradora de startups de tecnologia em Mianmar. Ele correu pela segunda vez à sede do Facebook para alertá-los de que estavam impulsionando no país a violência coletiva. “Aparentemente nada mudou, mesmo quando a matança teve início”, registra Fischer.

A ativista em Direitos Humanos em Mianmar, Ashley Kinseth, escreveu: “Nunca houve uma ferramenta mais potente para a disseminação do discurso de ódio e para a peçonha racial-nacionalista do que o Facebook e outras mídia sociais”, verdadeiras câmaras de eco dos discursos de ódio.

Em fins de 2017, enquanto o genocídio em Mianmar seguia forte, o ex-chefe de crescimento global do Facebook, Chamath Palihapitiya, desabafou numa palestra a alunos de MBA de Stanford: “Sinto uma culpa tremenda. Acho que sabíamos que ia acontecer algo de ruim”, pois as ferramentas que a plataforma tinha criado estava rasgando o tecido social. “Os circuitos de retroalimentação de curto prazo que criamos, movidos a dopamina, estão destruindo o funcionamento da sociedade”, criando um mundo “sem discurso civil, sem cooperação, com desinformação e desconfiança”.

Não foi diferente no Sri Lanka. “O Facebook, como descobrimos, havia guiado cada um dos passos mortais. E, a cada passo, assim como em Mianmar, a plataforma fora avisada, de forma insistente e explícita, mas se recusava a tomar uma atitude”, arrola Fischer.

O saldo em Mianmar, em 2018, registou um saldo de 725 mil deslocados rohinga pela violência e 25 mil mortes. No domingo de Páscoa de 2019, atentados a bomba em Colombo, no Sri Lanka, mataram 250 pessoas e deixaram cerca de 500 feridos em igrejas e hotéis de luxo no país. Um dos responsáveis pelos ataques foi o clérigo radical islâmico Zahran Hashim, que publicava vídeos no YouTube.

Em outubro de 2018, relata Fischer, líderes comunitários do Sri Lanka foram ao escritório regional do Facebook, e denunciaram os discursos de ódio e de desinformação que vinham sobrecarregando a plataforma e aparentemente eram promovidos pelos algoritmos. “Extremistas violentos geriam páginas que estavam entre as mais populares. Mentiras virais viravam realidade consensual entre os usuários”, anota Fischer. O Sri Lanka entrava em combustão em março de 2018.

“Foi o modelo de negócios que nos trouxe problemas”, admitiu Hany Farid, cientista da computação da Universidade da Califórnia, em Berkeley, e que dera consultoria a governos e grupos de proteção de direitos humanos a respeito do perigo emergente nas redes sociais. “Sobem quatrocentas horas de YouTube a cada minuto. Um bilhão de uploads no Facebook por dia. Trezentos milhões de tuítes por dia”, contabilizou.

Um pesquisador das mídias sociais, Jonas Kaiser, destacou que o YouTube em primeiro lugar, tal como Facebook e o Twitter, são um experimento de sociedade. Relatório interno do Facebook, vazado ao Wall Street Journal, concluiu que “dos cem Grupos Cidadãos mais ativos nos Estados Unidos, 70% são considerados não recomendáveis por questões como ódio, desinformação, intimidação e assédio”.

Em 2019, o Facebook já anunciara que não faria mais triagem de anúncios políticos para checar verdade ou exatidão. Com a eleição de Trump, agora Zuckenberg liberou geral! O CEO do Facebook reconheceu, em algum tempo, que conteúdo mais extremado ganha mais engajamento, ganha mais promoção e polariza os usuários. E o Facebook ganha mais dinheiro quanto maior for o engajamento.

A funcionária Frances Haugen, do Facebook, abriu o verbo para Fischer, ao decidir que bastava. “Ela passou a crer que seus soberanos corporativos estavam sacrificando propositalmente a segurança dos usuários, de sociedades inteiras, até a própria democracia, em prol da maximização do lucro. “O Facebook percebeu que se eles mudarem o algoritmo para ter mais segurança, as pessoas vão passar menos tempo no site, vão clicar em menos anúncios e eles vão ganhar menos dinheiro!”

Não é diferente com o YouTube.


*Edelberto Behs é Jornalista, Coordenador do Curso de Jornalismo da Unisinos durante o período de 2003 a 2020. Foi editor assistente de Geral no Diário do Sul, de Porto Alegre, assessor de imprensa da IECLB, assessor de imprensa do Consulado Geral da República Federal da Alemanha, em Porto Alegre, e editor do serviço em português da Agência Latino-Americana e Caribenha de Comunicação (ALC).

Foto de capa:  Stock

Os artigos expressam o pensamento de seus autores e não necessariamente a posição editorial da RED. Se você concorda ou tem um ponto de vista diferente, mande seu texto para redacaoportalred@gmail.com . Ele poderá ser publicado se atender aos critérios de defesa da democracia..

Gostou do texto? Tem críticas, correções ou complementações a fazer? Quer elogiar?

Deixe aqui o seu comentário.

Os comentários não representam a opinião da RED. A responsabilidade é do comentador.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

plugins premium WordPress