Como as plataformas combatem a desinformação?

Artigo Geral

Em 2018, o fundador e presidente da Meta, Mark Zuckerberg, afirmou, segundo o site UOL, que os algoritmos das plataformas não classificam as informações em verdadeiro ou falso, mas sim, seus checadores contratados para isso

Por Cesar Augusto Gomes

Foto: Arquivo/fatosefotosnews

A reação das Big Techs frente à possível aprovação do PL 2630 faz supor que elas teriam condições de se autorregular e que seus termos de uso e políticas de privacidade dariam conta de combater o ecossistema da desinformação. Mas, será que olhando para suas ações num passado recente é possível classificá-las como eficientes? Como as plataformas combatem a desinformação?

Meta

Em 2018, o fundador e presidente da Meta, Mark Zuckerberg, afirmou, segundo o site UOL, que os algoritmos das plataformas não classificam as informações em verdadeiro ou falso, mas sim, seus checadores contratados para isso.

Em comunicado em seu site, a empresa diz possuir checadores de fatos independentes – o “Third Party Fact-Checkers” – em diversos países, entre eles, EUA, França, Itália, Filipinas e México, membros da International Fact-Checking Network (IFCN), que trabalham de forma semelhante, em seus territórios, responsáveis por checar fotos, textos e vídeos de denúncias sobre violência e ódio que circulam em suas plataformas.

Uma reportagem de 2017 da BBC News Brasil traz o relato de um ex-funcionário que, juntamente com “500 colegas do mundo inteiro passavam dias avaliando denúncias sobre pedofilia, nudez, necrofilia, suicídios, assassinatos, assédios, ameaças, armas, drogas e violência animal publicadas em mais de 10 idiomas” . É interessante saber que as decisões desses moderadores “educam” os algoritmos da plataforma, que com o tempo passam a repetir as respostas automaticamente, por meio de recursos avançados de identificação de rostos ou frases ofensivas. “Quanto mais ensinávamos o algoritmo, menos nos tornávamos necessários. Nosso trabalho era tornar o nosso trabalho obsoleto”, disse o ex-funcionário na matéria.  

No Brasil, a plataforma lançou ainda em 2018 a versão brasileira de seu Programa de Verificação de Notícias em parceria com as agências de checagem Aos Fatos e Lupa, a partir da qual elas passaram a ter acesso às notícias denunciadas como não factuais pela comunidade no Facebook para analisar sua veracidade.

Segundo informações da Agência Lupa, a partir daquele momento, os feeds de notícias e páginas, cujo conteúdo fosse classificado como não factual e que repetidamente compartilhassem esse tipo de informação, teriam sua distribuição orgânica reduzida de forma significativa e todo o seu alcance diminuído.

YouTube

Em 2021 o Diretor de Produto do YouTube, Neal Mohan, informou que a plataforma removeu por trimestre cerca de 10 milhões de vídeos com conteúdo inadequado. Ainda segundo ele, “os vídeos com conteúdo prejudicial representam uma pequena fração dos bilhões de vídeos assistidos no YouTube (entre 0,16% e 0,18% das visualizações totais são de conteúdo que viola nossas regras)”. Sobre as eleições americanas, o executivo afirmou que 77% dos vídeos que acusavam fraude eleitoral foram removidos antes de atingir 100 visualizações. 

Apesar disso, estudos realizados por universidades brasileiras contrariam essas estatísticas. Um deles, do Laboratório de Pesquisa em Mídia, Discurso e Análise de Redes Sociais (Midiars), da Universidade Federal de Pelotas (UFPel) mostra que a plataforma acabou favorecendo a propagação de vídeos pró-Hidroxicloroquina, mantendo a maioria deles disponíveis na plataforma: 

Apesar das ações do YouTube para reduzir o número de vídeos que promovem medicamentos não comprovados na plataforma, 90% dos vídeos contendo conteúdo pró-HCQ de nosso conjunto de dados ainda estavam disponíveis. Os vídeos pró-HCQ removidos, indisponíveis ou privados receberam mais de quatro milhões de visualizações até março de 2021, quando coletamos os dados. (SOARES et al., 2021).

Outro estudo, publicado em 2020 pelo Grupo de Estudo da Desinformação em Redes Sociais (EDReS), da Unicamp, repercutido pela revista Science, sugere que o YouTube contribuiu para a desconfiança sobre as vacinas. A pesquisa utilizou uma amostra inicial que continha 158 vídeos, dentre os quais os pesquisadores identificaram 52 em 20 canais com desinformação sobre vacinas.

Os resultados mostram ainda que esses canais lucram, apesar da desmonetização dos conteúdos, porque vendem cursos, livros e tratamentos alternativos, solicitam doações por meio de plataformas de arrecadação e depósitos em contas bancárias. Foram identificados ainda anúncios de 39 marcas em 13 vídeos, entre elas estão marcas globais como Mobil, Kia, Fiat, Philips, Spotify, Eucerin (Beiersdorf) e Buscopan (Boehringer Ingelheim), além de anúncios dos governos da Índia e do Japão. Do que se pode concluir que é falaciosa a afirmação de que a empresa estaria combatendo a desinformação sobre vacinas. 

Twitter

Em anos anteriores, o microblog Twitter recebeu inúmeras críticas de seus usuários por não combater adequadamente a desinformação em sua plataforma. Segundo a agência Aos Fatos, em janeiro de 2022 as campanhas #TwitterApoiaFakeNews e #TwitterOmisso – que acusavam a empresa de conivência com conteúdo não factual relacionado à Pandemia da Covid-19 – receberam cerca de 90 mil menções, mobilizando influenciadores da comunidade científica e até envolvendo o Ministério Público Federal (MPF).

O movimento teve início quando a plataforma verificou uma blogueira da extrema-direita brasileira citada no inquérito do Tribunal Superior Eleitoral (TSE) que apura a difusão de desinformação sobre o sistema eleitoral brasileiro e que foi mencionada no relatório final da CPI da Covid-19.

Ao menos até sua compra pelo bilionário Elon Musk, o Twitter vinha tentando, à sua maneira, responder a essa demanda com ações pontuais. Ainda em janeiro de 2022, segundo a plataforma, o Brasil foi incluído nos testes de um botão de denúncia contra notícias não factuais, que já vinham sendo realizados desde agosto de 2021 nos EUA, Austrália e Coreia do Sul. À época, a rede social vinha sendo muito criticada pelos usuários pela forma com que vinha lidando com o conteúdo não factual sobre a Covid-19 e as vacinas. 

Nos outros países, o Twitter diz ter recebido 3,73 milhões de denúncias referentes a 1,95 milhões de tweets publicados por 64 mil contas distintas. Sua apuração mostra que menos de 10% da amostra de tweets analisada pelas equipes correspondia a violações às suas políticas. Ainda segundo a empresa, mais de 50% do conteúdo que viola suas regras foi identificado por sistemas automatizados (algoritmos) e a parcela restante, a partir do monitoramento contínuo das equipes internas ou do trabalho com parceiros externos.

TikTok

Dados de 2022 mostram que o TikTok, desenvolvido na China, tinha à época 970 milhões de usuários ativos e mais de um bilhão de downloads no mundo. Assim como os demais sites de redes sociais, para manter o usuário engajado, a programação dos seus algoritmos acabou por favorecer os produtores de desinformação, conforme denúncia feita em 2021 pela ONG Media Matters for America, para quem os algoritmos da plataforma amplificaram a desinformação sobre COVID-19 e vacinas.

A Media Matters – que se autoclassifica como “vigilante da mídia” – analisou 18 vídeos que totalizaram 57 milhões de visualizações. Dentre os quais havia um com 12,6 milhões de visualizações postado por um usuário com apenas 114 mil seguidores. Esses vídeos afirmavam, entre outras coisas, que as vacinas “estão causando um aumento nos casos da Covid19”, que são parte de um plano de “etiquetar todos os homens, mulheres e crianças do planeta” com microchips e que “crianças e idosos que não forem vacinados serão retirados de forma permanente de seu lar”.

Em outubro de 2020, o TikTok informou em seu blog que deu início ao Asia Pacific Fact-Checking Programme (Programa de Verificação de Fatos da Ásia-Pacífico) em parceria com as agências de checagem de fatos Agence France-Presse (AFP) e Lead Stories para verificar os conteúdos denunciados por usuários.

A plataforma prometeu que, a partir daquele momento, as informações confirmadas como não factuais ou enganosas seriam removidas. No mesmo ano, anunciou que ampliaria suas parcerias com as agências de checagem de fatos estadunidenses PolitiFact e Lead Stories para verificar possíveis informações falsas sobre a eleição presidencial naquele país, além de permitir que usuários denunciassem informações “incorretas”.

No Brasil, também em 2020, o TikTok afirmou ter removido cerca de 29 mil vídeos com informações não factuais sobre a Covid-19 e em 2021 anunciou uma parceria com agências de checagem de fato brasileiras para apurar a factualidade dos conteúdos compartilhados em sua plataforma. Assim como nos outros países, quando fosse detectada uma não factualidade, a postagem seria deletada e, nos casos em que não se chegasse a uma conclusão, o usuário receberia um aviso de que a informação não tinha sido verificada.

Relatório do Intervozes

O relatório Fake News: como as plataformas enfrentam a desinformação, realizado pelo coletivo de comunicação Intervozes, traz conclusões interessantes para se analisar o trabalho dessas plataformas (Facebook, Instagram, WhatsApp, YouTube e Twitter) no combate à desinformação entre 2018 e 2020.

A primeira delas é a baixa transparência em relação às medidas que tomam em relação ao problema. Outra é de que as medidas existentes não são apresentadas de maneira organizada e as informações estão dispersas em diversas seções de seus sites. O levantamento também detectou a ausência de um balanço das ações realizadas pelas plataformas, o que dificulta compreender qual o impacto efetivo das medidas por elas tomadas. 

Em resumo, pode-se dizer que o Intervozes constatou que essas Big Techs:

  • Não apresentam políticas e processos estruturados sobre o problema da desinformação e desenvolvem ações pontuais e reativas no combate ao fenômeno;  
  • Em geral, evitam a análise de conteúdo desinformativo, mas acabam por fazê-la;
  • Nenhuma das empresas relatou trabalhar com uma conceituação unificada sobre desinformação, pois, além de menções a ela, foi constatado o emprego de termos diversos, como notícias não factuais e informações enganosas;
  • Nenhuma das empresas também relatou ter uma estrutura específica para abordar a questão da desinformação, o que pode dificultar a coordenação das iniciativas no âmbito de cada organização;
  • Em relação à moderação de conteúdo desinformativo, a verificação de conteúdos, principalmente por agências externas, é prática presente em boa parte das plataformas
  • A moderação abrange também anúncios e conteúdos impulsionados;
  • redução do alcance, providência mais presente em casos de desinformação, acaba assumindo quase uma condição de exclusão e aparece como medida de alto impacto sobre os conteúdos, mas que não tem sua eficiência totalmente comprovada.

O que se pode concluir?

Há alguma distância entre o que as plataformas dizem fazer e o que realmente fazem.

Com o poder econômico e o alcance que possuem (devido à sua base de dados de usuários), veicular anúncios com o discurso que lhe interessa e atingir um grande número de pessoas é relativamente fácil, como ocorreu na semana da votação frustrada do PL 2630.

Por outro lado, as pesquisas sobre seu trabalho, algumas elencadas neste texto, mostram que elas contribuem muito fortemente para o cenário da desinformação, restando dúvidas se isso se dá de maneira intencional ou em função de seu modelo de negócios. De modo que seu desespero para desinformar sobre o referido projeto de lei se justifica. 

A grande questão da desinformação fiscalizada pelas próprias plataformas não é o fato de elas terem que arbitrar sobre o que é “verdade” ou “mentira”, mas sim, o de descumprirem suas próprias regras estabelecidas em suas políticas de utilização pelos usuários. Isso ocorre porque como empresas comerciais (que visam ao lucro) interessa-lhes conteúdos que engajam e mantém seus usuários dentro de seus domínios. Combater a desinformação implica em banir da internet esse tipo de conteúdo, assim como seus produtores, gente que traz um lucro considerável, o que pode não ser interessante para os negócios.

Acreditar, portanto, que deixar essa tarefa apenas para essas empresas é um caminho efetivo para combater a desinformação é o mesmo que esperar que o Capital leve em conta a desigualdade que seu sistema produz e que ele criará mecanismos de reparação. É papel do Estado interferir para que os interesses de toda uma sociedade se sobreponham aos comerciais de algumas empresas. É sobre isso a discussão do PL 2630.

Fonte: blogs.unicamp.br

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *