Pelo menos 30 países sofrem a manipulação do debate público por meio de perfis falsos nas redes sociais

Durante dias ele monopolizou a atenção no Reino Unido e no resto da Europa. Um texano seguidor de Trump usava uma foto de um atentado em Londres para difundir ódio racista a partir da sua conta no Twitter, a @SouthLoneStar. Recebeu o apoio de milhares de retuítes, mas também centenas de milhares de postagens que reprovavam sua islamofobia, e foi tema de numerosas notícias na grande imprensa repercutindo o que havia saído na rede devido a esse comentário. Alcançou, em dois anos, mais de 50.000 seguidores interessados em seus tuítes contra Clinton, contra os muçulmanos e a favor do Brexit.

Outra conta norte-americana, a @TEN_GOP, angariou 130.000 seguidores graças a suas diatribes pró-Trump, ultracristãs, militaristas e contrárias à grande imprensa e aos antifascistas. Suas palavras foram compartilhadas por figuras da direita midiática dos EUA e chegaram à esfera mais próxima do presidente Trump: seu filho Donald, seu assessor de Segurança Nacional, sua chefa de campanha… todos o retuitaram. Diversos jornais, como The Washington Post e Los Angeles Times, citaram seus tuítes como exemplo do pensamento conservador.

Mas @SouthLoneStar não era texano. E @TEN_GOP nunca havia estado nos EUA. Eram duas entre milhões de contas fraudulentas comandas a partir da Rússia, na mais famosa fazenda de trolls do planeta: a Internet Research Agency (IRA). Uma entidade respaldada pelo Kremlin que se dedica a desinformar e intoxicar em escala global. Seu método: pastorear as redes sociais. Seu feito: manipular o debate público.

Mas não são só os russos. Em pelo menos 30 países os governos empregam “exércitos de formadores de opinião” para difundir suas ideias, impulsionar suas agendas e rebater as críticas nas redes sociais, segundo um relatório publicado na semana passada pela instituição Freedom House. Em alguns casos, são exércitos reais, como os dois milhões de comentaristas que a China contratou para inundar notícias, redes e fóruns. Dos 65 países analisados (entre eles o Brasil), em pelo menos 20 foi identificado o uso coordenado de redes de robôs (contas automatizadas) para influenciar o discurso político. Além disso, foi possível documentar exemplos proeminentes de notícias falsas sobre eleições ou referendos em pelo menos 16 nações.

“Os Governos estão atualmente usando as redes sociais para reprimir a dissidência e promover uma agenda antidemocrática”, denunciou Sanja Kelly, diretora do projeto, na apresentação do relatório. Kelly relatou que esse tipo de manipulação é mais difícil de detectar e de combater que outros tipos de censura, como o bloqueio de sites. Diante da desativação de uma página web, sempre é possível procurar um plano B, ao passo que semear a confusão é mais eficiente.

 

Os robôs também falam espanhol: um dos primeiros a usá-los maciçamente foi o presidente mexicano Enrique Peña Nieto, antes de chegar ao poder, com os populares Peñabots. Depois foi a vez da oposição venezuelana, pioneira em seu país no uso dessas ferramentas, mas à qual já se somou com força o governo de Nicolás Maduro. E, embora o relatório não a inclua, é um problema que também afeta a Espanha, e muito. Um coletivo de pesquisadores chamado @BotsPoliticosNo realizou minuciosas análises que revelaram redes de robôs fraudulentos e perfis falsos em torno de todos os partidos políticos durante 2015 e 2016, especialmente o conservador Partido Popular, além de coletivos catalães contrários à independência. E, no sumário da Operação Púnica, uma grande investigação por corrupção na política, consta que Esperanza Aguirre, ex-presidenta da Comunidade de Madri, do PP, contratou uma rede de 45.000 perfis falsos no Twitter, conforme publicou o site Eldiario.es, e também Florentino Pérez, presidente do Real Madrid. Mas aqueles movimentos eram toscos, basicamente milhares de perfis replicando mensagens para conseguir uma aparência de popularidade, difamar o adversário e talvez emplacar algum Trending Topic (os temas mais comentados no Twitter).

“Agora tem mais força, mais repercussão, foi se sofisticando até ficar tão sutil que se torna horripilante”, afirma Mariluz Congosto, pesquisadora da Universidade Carlos III, de Madri, em referência ao grande desenvolvimento recente dessas artimanhas. “Muitos são híbridos: geralmente são robôs automatizados, mas às vezes escrevem tuítes mais trabalhados, como se uma pessoa assumisse as rédeas”, explica Congosto em referência aos chamados ciborgues, conta robôs nas quais também há publicações humanas, para dar credibilidade, dirigir campanhas e fortalecer seus interesses, e que são atualmente o material mais eficaz nas redes de intoxicação.

Houve um tempo em que o essencial era encher auditórios e comícios com ônibus e sanduíches. Hoje, quando a audiência se digitaliza, é natural que sua gestão se automatize. São baratos, fáceis de criar, colhem dados, podem servir a diversos clientes ao mesmo tempo, servem para intimidar, para deslegitimar, desmobilizar, gerar ruído, fingir popularidade, silenciar o inimigo… Estas redes trabalham com o rebanho digital em três níveis: os pastores, que são contas muito influentes que ditam o tom do diálogo; os cães pastores, que amplificam a mensagem e atacam os rivais; e finalmente milhares de contas automatizadas que, como ovelhas, movem-se balindo para onde lhes mandarem, gerando uma falsa sensação de maioria social.

Esses rebanhos não convencem ninguém, mas não é isso que pretendem. Foi o que explicou Adrian Chen, um dos jornalistas que revelaram a existência da IRA, na The New Yorker. “O verdadeiro efeito”, escreve, “não era lavar o cérebro dos leitores, e sim atingir as redes sociais com uma avalanche de conteúdo falso, semeando dúvidas e paranoia e destruindo a possibilidade de usar a internet como um espaço democrático”. Se os opositores querem visibilizar suas críticas ao Governo, este amplia a rede com outros temas que sejam tendência, de virais tontos até meias verdades sobre suas políticas.

Quem controlava a @SouthLoneStar não pretendia convencer, e sim polarizar o diálogo em torno do racismo, do ódio e da xenofobia. E conseguiu. Mais de 80 notícias da mídia britânica incluíram tuítes da pequena amostra de 2.700 usuários derrubados pelo Twitter por serem da IRA, segundo o The Guardian. Geralmente eram mencionados para criticá-los ou mostrar o rechaço de outros usuários, mas acabavam obtendo uma imerecida atenção que permitia influenciar a agenda.

“Os usuários tendem a propagar informação de baixa qualidade, como as notícias falsas, porque estão inundados por elas e têm uma capacidade de atenção limitada”, afirma Filippo Menczer, pesquisador da Universidade de Indiana (EUA). Menczer é um pioneiro na caça e captura de robôs malignos porque acredita que eles são um problema para a democracia, que se baseia em um eleitorado informado: “Os robôs sociais são eficazes em induzir as pessoas a acreditarem e compartilharem alegações falsas, manipulando a informação a que estão expostos”. Isto se obtém, explica, criando a falsa impressão de que muitas pessoas compartilham uma opinião, ou pondo em xeque os vieses cognitivos e sociais das pessoas. “Se você consegue desinformar e enganar os eleitores, está obstruindo sua capacidade de votar com base em opiniões bem informadas”, denuncia.

O modelo econômico

O modelo de negócio dos meios e plataformas que vivem da atenção favorece a difusão de veneno. O spam político vira clickbait mediático. Os jornalistas vivem pendentes do Twitter e sentem a necessidade de refletir em seus veículos os temas supostamente candentes, além de necessitar que o público clique em suas notícias. As plataformas vivem do tempo que os usuários passam nelas, graças a conteúdos que sejam espalhados e gerem envolvimento. Além disso, aparecem novos atores, títulos digitais sem jornalistas, criados exclusivamente para viralizar notícias inventadas, meias verdades e informação extremista, porque esses materiais são consumidos com avidez e geram suculentos lucros publicitários, sem a necessidade de gastar em salários. Pouquíssima gente lê a notícia antes de compartilhá-la; muitas vezes, difunde apenas a captura do título.

Em Michigan, um dos Estados decisivos nas eleições que consagraram Trump, o produto da “mídia lixo” teve mais sucesso nas redes sociais que as notícias da imprensa profissional, segundo um estudo da Universidade de Oxford sobre a campanha. “Os robôs difundem notícias falsas, espalham hashtags que tornam inúteis as conversas políticas nas redes sociais e fabricam um consenso manipulando métricas”, afirma uma das autoras desse trabalho, Lisa-Maria Neudert. E acrescenta: “Não só manipulam os usuários, mas também algoritmos das redes sociais, mostrando propaganda nas tendências e na parte superior do feed de notícias”. “Os robôs são ativados em momentos de maior interesse político: eleições, referendos, crise”, explica essa especialista em perfis robóticos de Oxford. “Mas o mais importante é que procuram influenciar na vida política cotidiana, semeando confusão, descontentamento e ceticismo”, resume.

Além disso, as redes sociais são obrigadas por seus acionistas a crescerem sempre: o chefe de segurança do Twitter advertiu em 2015 sobre a presença de numerosas contas fraudulentas criadas por russos, mas elas não foram apagadas porque isso prejudicaria o crescimento da companhia, segundo a Bloomberg. O Twitter reconhece agora que detecta 3,3 milhões de contas suspeitas a cada semana, e desde meados deste ano se comprometeu a enfrentar o problema. “Não é tão fácil detectá-los quando escrevem algumas poucas orações propagandísticas em 20% do tempo e copiam atividade humana nos outros 80%”, explica Takis Metaxas, pesquisador em Wellesley e Harvard. “Compreender a propaganda, empregar o pensamento crítico e perceber nossos próprios preconceitos são a melhor maneira de defendermos a democracia”, propõe Metaxas, que descobriu na campanha para o Senado de 2010 um dos primeiros episódios de uso maciço de robôs. Aqueles, diz, “foram facilmente detectáveis, mas desde então melhoraram muito”.

Pouco antes do Brexit, a Rússia criou 150.000 contas falsas para inundar o debate no Reino Unido com mensagens xenófobas, um dos assuntos mais espinhosos do referendo. Em média, cada bot recebeu cinco retuítes de contas reais, ou seja, cinco humanos compartilhavam o conteúdo gerado por um robô criado para poluir. Depois do referendo do Brexit, uma petição online que exigia sua repetição precisou ser cancelada porque 77.000 robôs o asfixiaram com assinaturas falsas. Nos EUA, duas contas fraudulentas russas convocaram e anunciaram no Facebook manifestações em frente a uma instituição islâmica de Houston: uma islamofóbica, e outra em defesa dos muçulmanos. Os dois grupos se chocaram na rua, e a imprensa apresentou esse confronto como um exemplo da profunda divisão dos norte-americanos.

Quando o Instituto da Internet da Universidade de Oxford analisou a fundo este fenômeno em nove países, não teve dúvidas: “Os robôs utilizados para a manipulação política também são ferramentas efetivas para fortalecer a propaganda online e as campanhas de ódio. (…) A propaganda informática é atualmente uma das ferramentas mais poderosas contra a democracia”. Muitos desses casos são dos Governos contra seus próprios cidadãos. Um dado citado por Sanja Kelly, da Freedom House: “Em 14 países, os Governos que tentam combater as notícias falsas ironicamente terminaram restringindo a liberdade da Internet”. As plataformas digitais estão cumprindo um obscuro papel na política, e os robôs (e os ciborgues) são só uma ferramenta a mais.

El Pais