A atividade informacional envolvendo a desinformação nas redes sociais tem se mostrado cada vez mais presente, especialmente no contexto de campanhas políticas internacionais. A análise dos dados sobre o fenômeno “MacronLeaks” é um exemplo claro de como a propaganda digital pode ser utilizada para manipular a opinião pública e influenciar o curso das eleições. Embora seja difícil comprovar uma coordenação explícita entre os atores pró-Trump por trás dos rumores e as plataformas pró-russas, a presença de uma colaboração indireta é inegável. A partir da coleta de dados entre 5 e 7 de maio de 2017, é possível observar a maneira como informações sensíveis foram disseminadas para criar narrativas de desconfiança, divisões ideológicas e enfraquecimento de candidatos adversários.

O banco de dados utilizado para a análise de propagação da palavra-chave “MacronLeaks” inclui cerca de 80.000 interações, originadas de aproximadamente 23.000 contas distintas. Um ponto interessante a ser observado é o alto nível de bilinguismo no material propagado: 32% das interações ocorreram em inglês, enquanto 61% foram em francês. Tal distribuição pode ser explicada pelo fato de o vazamento ter aparecido primeiro em redes americanas e pela rápida mobilização de redes pró-Trump, que estavam bem estruturadas para se organizar e difundir a informação. Mesmo que nem todas as contas responsáveis pela propagação sejam ligadas à Rússia ou a grupos pró-russos, uma análise cruzada do banco de dados revelou interações significativas entre as contas ligadas ao vazamento e aquelas associadas a atores informacionais russos.

Ao examinar o gráfico de relações entre as contas que participaram da campanha “MacronLeaks” e as contas associadas à propaganda russa, percebe-se a organização de três grandes grupos. No quadrante inferior direito, estão as contas em inglês, predominantemente ligadas às redes pró-Trump. No quadrante superior direito, encontram-se as contas em francês que se opunham à candidatura de Emmanuel Macron e que validaram os documentos hackeados. Finalmente, no quadrante superior esquerdo, há um grupo de contas hostis à extrema-direita, frequentemente simpatizantes do movimento En Marche! ou jornalistas, que contestaram a autenticidade do vazamento.

É importante ressaltar que, embora o número de contas associadas diretamente à Rússia seja pequeno — cerca de 1,5% do total —, sua hiperatividade foi fundamental para a viralização do termo “MacronLeaks”. As 350 contas identificadas como pró-russas produziram uma média de 2,4 tweets por hora, quase o dobro da média de 1,12 tweets por hora de todas as 23.036 contas monitoradas. Isso demonstra a eficácia da utilização de bots e contas automatizadas para amplificar a propagação da desinformação. Algumas dessas contas chegaram a gerar até 28 tweets por hora, uma evidência clara de que o processo estava, em muitos casos, automatizado.

As ações atribuídas à Rússia no ciberespaço são multifacetadas e muitas vezes imprevisíveis, mas ao observarmos as estratégias informacionais no contexto político conturbado da França, podemos identificar dois aspectos fundamentais. O primeiro é que as ações russas no ciberespaço muitas vezes são invisíveis, limitando-se à produção de conteúdo e construção de narrativas por meio de agências de notícias estatais. O segundo é que, para ser eficaz, a estratégia digital russa depende de uma rede complexa de atores, incluindo grupos aparentemente independentes, como ativistas digitais ou outras plataformas de desinformação. Além do Twitter, outras redes sociais como Facebook e Vkontakte também são utilizadas para disseminar conteúdo manipulativo, aproveitando qualquer vetor disponível para atingir os objetivos políticos.

A importância de observar essas dinâmicas vai além da simples identificação de contas ou campanhas específicas. O fenômeno de propaganda digital é mais profundo e envolve a manipulação emocional do público, muitas vezes explorando divisões internas de uma sociedade e criando uma falsa sensação de consenso em torno de narrativas manipuladas. Essa estratégia não depende apenas da quantidade de conteúdo gerado, mas da capacidade de gerar uma reação emocional forte, mobilizando reações políticas e sociais em um sentido desejado pelos operadores por trás dessas campanhas. Com isso, as consequências para a política internacional e a confiança pública nas instituições democráticas tornam-se ainda mais complexas.

A compreensão desse fenômeno exige uma análise mais aprofundada dos mecanismos de influência digital e das formas como eles podem ser adaptados e utilizados por diversos atores, sejam eles estatais ou não. Além disso, é fundamental compreender como as narrativas desinformativas não apenas impactam o momento da propagação, mas também como elas moldam a percepção pública e distorcem a realidade de maneira duradoura. A manipulação da informação, portanto, não é apenas uma questão de enganar as massas por um breve período, mas de alterar as estruturas de confiança e comunicação a longo prazo, afetando as relações políticas e sociais globais de forma irreversível.

A Propaganda Computacional: Impactos Políticos e Sociais na Era Digital

A propaganda sempre foi uma ferramenta poderosa utilizada para moldar percepções e influenciar comportamentos. Historicamente, associada a regimes autoritários como a Alemanha nazista e a China maoísta, a propaganda era um monopólio dos grandes estados e instituições. No entanto, com o avanço da tecnologia e a ascensão da Internet, surgiram novas formas de manipulação da opinião pública, sendo a propaganda computacional uma das mais impactantes e atuais. Ela se refere à utilização de meios computacionais para criar ou disseminar propaganda, muitas vezes de forma oculta e manipulativa. Esse fenômeno não é mais restrito aos grandes governos ou organizações, mas também é acessível a indivíduos e pequenos grupos que, por meio das plataformas digitais, conseguem alcançar um número massivo de pessoas.

O termo “propaganda computacional” descreve a prática de criar e disseminar conteúdo manipulativo utilizando tecnologias digitais. O avanço da Internet e a popularização das redes sociais alteraram profundamente a dinâmica da propaganda. O ambiente online oferece uma série de mecanismos que facilitam a criação e a disseminação de mensagens manipuladoras. Plataformas como Facebook, Twitter, e Instagram, por exemplo, são mais do que simples canais de comunicação; são espaços onde a propaganda pode ser otimizada e direcionada para públicos específicos com base em dados demográficos e comportamentais coletados de seus usuários. A personalização das campanhas e a segmentação precisa aumentam consideravelmente a eficácia dessas mensagens.

Além disso, a anonimidade da Internet dificulta a identificação dos produtores dessas mensagens. Isso cria um cenário no qual a propaganda pode ser disfarçada de informações imparciais, o que torna mais difícil rastrear suas origens e identificar a intenção por trás delas. Em regimes democráticos, isso pode ser especialmente perigoso, pois eleitores são frequentemente expostos a informações distorcidas sem saber de onde elas vêm ou quem as criou. Em contextos autoritários, a propaganda computacional pode ser utilizada para silenciar opositores e promover a agenda do governo sem que a população tenha consciência disso.

A manipulação de informações online é facilitada pelas chamadas "câmaras de eco", ambientes digitais onde os usuários são expostos principalmente a opiniões que reforçam suas próprias crenças e preconceitos. Esses espaços são alimentados por algoritmos de redes sociais que priorizam o conteúdo mais popular, o que, frequentemente, é também o mais emocional e polarizador. As redes sociais promovem a circulação de conteúdos enganosos ou manipulativos ao permitirem que os usuários compartilhem e validem esses conteúdos com suas conexões, criando a falsa impressão de que o material é amplamente aceito ou verdadeiro. O fato de que as plataformas podem manipular as métricas de visibilidade torna ainda mais fácil espalhar esses conteúdos, uma vez que a popularidade aparente de uma informação pode ser comprada, manipular a percepção pública.

As campanhas de propaganda computacional não se limitam a gerar conteúdo manipulador. Elas também utilizam bots – programas de computador que imitam o comportamento humano online. Esses bots podem gerar grandes volumes de conteúdo automatizado, como postagens, curtidas e retuítes, criando uma falsa impressão de apoio popular. Essa técnica tem sido amplamente usada para promover determinados candidatos, ideias ou marcas, especialmente em períodos eleitorais, como ficou evidente nas eleições presidenciais dos Estados Unidos em 2016. Durante esse período, foi descoberto que bots estavam gerando uma quantidade significativa de postagens relacionadas a certos candidatos, particularmente o então candidato Donald Trump, em uma proporção muito maior do que as postagens relacionadas à sua adversária Hillary Clinton. A utilização de bots ajudou a manipular o debate público, espalhando mensagens de maneira artificialmente amplificada e forjando a aparência de uma base de apoio maior do que a real.

Essa forma de manipulação digital não é um fenômeno isolado dos Estados Unidos, mas tem se espalhado pelo mundo, incluindo a Europa e a China. No entanto, os impactos e as formas de utilização da propaganda computacional variam de acordo com o contexto político de cada país. Em democracias, a questão é especialmente relevante para a integridade das eleições e a formação da opinião pública. Já em regimes autoritários, a propaganda computacional serve muitas vezes para reforçar o controle do governo sobre a sociedade e para suprimir vozes dissidentes. Por mais que o ambiente digital pareça ser um espaço de liberdade e democracia, ele pode ser manipulado para criar uma ilusão de consenso e legitimar regimes ou políticas através de engano.

A questão central da propaganda computacional não está em sua tecnologia, mas no controle que certos atores têm sobre essas ferramentas e no contexto social e político em que elas operam. A manipulação digital é, em grande parte, um reflexo das desigualdades de poder na sociedade. Não se trata apenas de um problema técnico que possa ser resolvido com soluções simples, como o aumento da regulação ou a criação de novas leis sobre privacidade de dados. O verdadeiro desafio reside em entender como as condições sociais e políticas facilitam a propagação dessas mensagens manipuladoras e como as pessoas podem ser mais bem preparadas para reconhecê-las e resistir a elas.

O controle sobre as tecnologias de disseminação de propaganda computacional e a capacidade de segmentar e direcionar mensagens de forma tão eficaz demonstram um novo tipo de poder. Esse poder não é apenas sobre informações, mas sobre as próprias percepções das pessoas, o que torna qualquer solução superficial incapaz de enfrentar o problema de forma eficaz. O que é necessário é um esforço coletivo para fortalecer as capacidades críticas dos cidadãos, educando-os para entender como as informações são manipuladas e para tornar mais transparente o uso dessas tecnologias.

Como as Operações de Informação (IO) Influenciam a Política e a Defesa Nacional?

As operações de informação (IO) se tornaram uma ferramenta essencial no arsenal de muitos países para influenciar a opinião pública, moldar a política interna e afetar as relações internacionais. A manipulação de conteúdo e a disseminação de informações falsas não podem ser avaliadas isoladamente, uma vez que, no mundo interconectado de hoje, as questões domésticas de um país frequentemente impactam outras nações, e a população interna pode ser manipulada a acreditar em falsidades relacionadas a outros países. O escândalo recente envolvendo a Cambridge Analytica evidenciou o complexo conjunto de agentes envolvidos nas IO, demonstrando a variedade de táticas adotadas para manipular a opinião pública e os psicossociais dos cidadãos. Essa rede de manipulação pode se estender desde táticas online até ações mais sutis no campo da psicologia, levando à criação de realidades alternativas.

O conceito de "negar plausibilidade" nas operações de guerra irrestrita é um dos pilares para entender o impacto dessas manipulações. No contexto das IO e operações cibernéticas, isso permite que os estados agressivos mantenham suas ações encobertas, dificultando a resposta diplomática. Países-alvo, ao se focarem apenas em identificar os culpados, podem ser cegados por ameaças que se espalham por vários domínios de guerra, desde o cibernético até o psicológico. Ao adotar uma visão mais ampla, como a que defendem países como a República Popular da China (PRC), que considera os "subdomínios" da guerra da informação, incluindo os domínios eletromagnético, cibernético e psicológico, os estados podem se preparar melhor para enfrentar essas ameaças.

Além disso, uma das dificuldades enfrentadas por países democráticos ao responder a essas ameaças é o impacto potencial sobre os seus próprios valores centrais, como os direitos humanos e a liberdade de expressão. Restringir o fluxo de informações pode afetar negativamente não só a democracia interna, mas também prejudicar as relações comerciais e os interesses internacionais desses países. No entanto, de acordo com Joseph Nye, a "abertura" é um dos maiores ativos das democracias, pois elas atraem e persuadem por meio de sua transparência. Fechar ou restringir o acesso à informação poderia minar esse poder suave crucial. Por isso, é importante que as respostas políticas a essas ameaças sejam legitimadas pela participação ativa de várias partes da sociedade — incluindo o setor público, privado e a sociedade civil.

Estratégias de mobilização da população, como as adotadas por Taiwan com sua Defesa Total e o programa de defesa social de Cingapura, têm se mostrado eficazes para fortalecer a coesão interna e combater ideologias extremistas e preconceitos que podem comprometer a unidade nacional. Estes modelos de defesa social, quando aplicados corretamente, podem não só ajudar na resposta a operações de informação, mas também fortalecer a capacidade de um país de resistir a essas ameaças. Países que conseguem alinhar tecnologias modernas de comunicação com essas estratégias de fortalecimento de narrativas sociais estarão melhor posicionados para combater essas ameaças proativamente.

Ao mobilizar os cidadãos para combater as IO, os países devem também garantir que respeitam as diretrizes de direitos humanos, assegurando tanto a segurança física quanto psicológica dos envolvidos. Nye adverte que as democracias não devem imitar ou retaliar os ataques das potências autoritárias com IO clandestinas, pois tais ações, uma vez expostas, enfraquecem o poder suave do estado democrático. Ao invés disso, o poder suave deve vir da própria sociedade civil, da mídia de entretenimento, das oportunidades educacionais e da cultura, áreas nas quais o apoio do estado pode ser benéfico, mas que devem ser mantidas sob a gestão da sociedade civil.

Este poder suave é o antídoto para as operações de informação, não apenas a defesa contra elas, mas também uma forma de dissuadir os cidadãos do agressor de se envolverem em ações de manipulação de informações. Os países autoritários, que frequentemente não incentivam a liberdade de suas sociedades civis, encontram grande dificuldade em gerar esse poder suave, pois dependem de um controle rígido sobre suas populações, o que limita seu potencial de atrair e persuadir internacionalmente.

O maior desafio nas operações de informação modernas não é apenas a criação de narrativas convincentes, mas também a capacidade de mobilizar a população de maneira eficaz para resistir a essas manipulações. O conceito de "Guerra Popular" que pode ser empregado por países democráticos, onde os cidadãos ajudam a fortalecer a solidariedade nacional, expõem as operações de informação e criam uma rede de apoio mútuo, é essencial para a construção de uma defesa interna sólida contra as ameaças externas de manipulação de informações.

Como a Alemanha Está Tentando Combater a Desinformação Online: Distorsões, Rumores, Falsidades e Difamações

A desinformação online, fenômeno amplificado pela interconectividade das redes sociais, tornou-se um dos maiores desafios para a democracia contemporânea, e sua luta para ser combatida envolve ações complexas e multifacetadas. Em países como a Alemanha, as campanhas de desinformação frequentemente se entrelaçam com estereótipos racistas e sentimentos anti-muçulmanos, prejudicando o tecido social e político. Embora a desinformação não seja necessariamente responsável por eleger ou derrubar candidatos, sua influência na polarização social e na geração de desconfiança em relação às instituições públicas, aos legisladores e à polícia é inegável.

A remoção de conteúdos ilegais e a moderação de informações errôneas são, sem dúvida, responsabilidade das plataformas digitais. Contudo, essa abordagem não resolve o problema de forma definitiva. A experiência passada demonstrou que manipuladores rapidamente migram para outras redes sociais, criam novas contas ou inovam em suas técnicas para espalhar afirmações falsas. A natureza descentralizada da desinformação, muitas vezes transmitida por meio de redes transnacionais, exige que qualquer resposta seja igualmente global.

No caso da Alemanha, um exemplo clássico de desinformação envolve os refugiados. As narrativas sobre refugiados não se limitam ao território germânico, mas reverberam em círculos nacionalistas da América e da Rússia. A propagação dessas histórias ultrapassa fronteiras nacionais e barreiras linguísticas, o que demonstra que a desinformação é uma preocupação global. Nesse contexto, organizações de verificação de fatos como Snopes, PolitiFact e Africa Check desempenham um papel crucial ao fornecer dados e metodologias que podem ser adaptados para contextos locais. As lições aprendidas e as melhores práticas dessas organizações devem ser incorporadas nas estratégias de combate à desinformação.

Entretanto, além da responsabilidade das plataformas digitais, instituições educacionais também desempenham um papel central. Embora a tarefa de verificação de fatos seja tradicionalmente associada aos jornalistas, as instituições devem reconhecer sua função de responder rapidamente e com precisão aos rumores e às notícias falsas. As escolas, os educadores e os professores enfrentam o mesmo desafio, pois o impacto da desinformação atinge todas as esferas da sociedade, não se restringindo ao cenário político, mas também afetando a educação e as interações cotidianas.

As consequências da desinformação vão além da simples manipulação de eleições ou da opinião pública. Ela ameaça a confiança nas fontes de conhecimento estabelecidas e distorce a percepção da realidade. Hoje, muitas pessoas aceitam como verdade afirmações que "parecem certas", mesmo que careçam de base factual, justamente por desafiarem a narrativa dominante. Esse fenômeno reflete o atual estado da "era pós-verdade", onde as percepções e emoções frequentemente superam os fatos em processos de decisão e escolha democrática. A velocidade e a escala com que as informações se espalham, aliadas à fragmentação das audiências em bolhas ideológicas, criam uma realidade alternativa, isolada e muitas vezes hostil ao diálogo.

As redes sociais, ao priorizarem o conteúdo viral, favorecem a difusão de informações baseadas em emoção e polarização, em detrimento de análises mais fundamentadas e racionais. A interatividade proporcionada por essas plataformas, muitas vezes alimentada por algoritmos, reforça bolhas de opinião que limitam o contato com outras perspectivas, acentuando a divergência de visões de mundo.

Além disso, é fundamental compreender que, embora a digitalização tenha sido uma força democratizadora ao proporcionar novos meios de comunicação e mobilização global, ela também trouxe desafios consideráveis. A acessibilidade à informação aumentou exponencialmente, mas também criou um ambiente mais caótico, onde a verdade e a ficção se misturam com facilidade. A velocidade das interações digitais, ao invés de facilitar a busca pela verdade, muitas vezes exacerba a propagação de erros, mentiras e teorias conspiratórias.

Portanto, é essencial que a resposta à desinformação não seja limitada à simples remoção de conteúdos. O problema está enraizado em um ecossistema digital que valoriza a atenção e a viralidade acima da veracidade e da qualidade. O combate à desinformação exige um esforço contínuo que envolva governos, plataformas digitais, jornalistas, educadores e cidadãos. É um desafio que, para ser enfrentado de maneira eficaz, precisa transcender fronteiras nacionais e ser abordado de forma colaborativa.

A verdadeira solução passa por uma combinação de educação crítica, medidas regulatórias adequadas e a promoção de uma cidadania digital mais consciente, que seja capaz de discernir o verdadeiro do falso, não apenas através de fontes externas, mas também por meio de uma reflexão mais profunda sobre os próprios valores e crenças que moldam as opiniões. É preciso construir, assim, uma sociedade mais resistente à manipulação e capaz de utilizar a informação de maneira responsável e construtiva.