Avanço da IA e postura política das big techs elevam riscos de desinformação nas eleições
Plataformas reduzem transparência e pressionam contra regulação
As plataformas de redes sociais encerraram programas que garantiam maior transparência sobre a circulação de conteúdo, alteraram suas políticas —em alinhamento a ideais defendidos pelo governo de Donald Trump. E passaram a se mobilizar para barrar regulações que estabeleçam obrigações, alertam especialistas.
Segundo os parceiros do TSE, essas mudanças afetam diretamente o monitoramento da desinformação nas redes. Procurado, o TSE não se manifestou.
A reportagem também procurou as empresas Meta, Google e X (ex-Twitter), mas nenhuma respondeu.
Zuckerberg critica regulações e decisões judiciais
Em janeiro de 2025, o CEO da Meta, Mark Zuckerberg, publicou um vídeo no qual afirmou que se aproximaria do governo dos Estados Unidos para resistir às tentativas de regulação das redes e ao que chamou de censura. Ele declarou ainda que “tribunais secretos”, em “países da América Latina”, estariam ordenando que “empresas removam conteúdos de forma silenciosa”.
Eleições de 2024 expõem conflitos com regras eleitorais
Nas eleições de 2024, a Justiça Eleitoral obrigou as redes a manter um repositório de anúncios políticos que informasse, por exemplo, valores investidos e quantidade de pessoas atingidas. Diante da exigência, Google e X proibiram o impulsionamento de conteúdo político, alegando que não conseguiriam cumprir a norma. A Folha revelou, entretanto, que o Google descumpriu sua própria decisão e manteve a veiculação dos conteúdos sem a transparência determinada.
Encerramento de ferramentas dificulta monitoramento
Para a pesquisadora Débora Salles, coordenadora-geral de pesquisa no Netlab, Laboratório de Estudos de Internet e Redes Sociais da UFRJ (Universidade Federal do Rio de Janeiro), o encerramento das ferramentas de transparência das redes dificulta o monitoramento.
Em 2024, a Meta retirou o CrowdTangle, ferramenta que permitia analisar conteúdos compartilhados na rede. A empresa substituiu o serviço pela Meta Content Library, alternativa que a pesquisadora classifica como “bem pior”, pois dificulta o acesso de pesquisadores independentes e jornalistas e restringe a extração e a exportação de dados.
Cobrança por dados limita pesquisas no X
O X também encerrou o acesso gratuito à sua API. Ferramenta que permite que terceiros se conectem à plataforma e que pesquisadores utilizavam amplamente em estudos sobre desinformação. A empresa passou a cobrar conforme o volume de dados acessados e estimou o custo mensal em US$ 215, valor superior a R$ 1.100.
“É cada vez mais difícil coletar dados sobre publicações e comentários das plataformas, ainda que sejam públicos”, afirma Heloisa Massaro, diretora do InternetLab.
Especialistas apontam fragilidade no enfrentamento
Luis Fakhouri, cofundador da Palver, afirma que, quando a diretriz da empresa “não está alinhada com algum tipo de enfrentamento à desinformação, fica muito difícil criar mecanismos externos”.
“A gente está muito desarmado”, conclui o professor Marco Ruediger, diretor da Escola de Comunicação, Mídia e Informação da FGV (Fundação Getúlio Vargas). Segundo ele, a “mudança de política das plataformas” torna o combate à desinformação na eleição de 2026 muito mais difícil do que em outros anos.
Inteligência artificial amplia riscos para 2026
Os especialistas também apontam a ascensão da inteligência artificial como um desafio adicional para as eleições de 2026. Massaro destaca a falta de transparência sobre os critérios que modelos generativos, como o ChatGPT, utilizam para citar candidatos quando eleitores fazem perguntas.
Salles acrescenta que ferramentas de IA permitem produzir mídias com aparência profissional a baixo custo. O que pode facilitar a atuação de novos atores interessados em “influenciar o debate” com conteúdo falso.
O TSE determina que toda postagem produzida com IA traga identificação, mas a coordenadora do NetLab afirma que o tribunal fiscaliza pouco o cumprimento da regra.
Marco Civil amplia responsabilização, mas com ressalvas
Apesar de o julgamento do artigo 19 do Marco Civil da Internet pelo STF (Supremo Tribunal Federal) ter ampliado as possibilidades de responsabilização das plataformas, o Supremo estabeleceu uma ressalva para conteúdos eleitorais. Que seguem sob a regulação da Justiça Eleitoral.
IA e big techs dificultam monitoramento de desinformação nas eleições, dizem parceiros do TSE
Ainda assim, Massaro ressalta que o Marco Civil pode impactar as eleições em situações que envolvem “discussões que não são explicitamente eleitorais e que não entram necessariamente no escopo da Justiça Eleitoral, mas que podem influenciar o ecossistema de debate público”.
Ruediger afirma que a dificuldade de responsabilização persiste, pois a falta de transparência dificulta “caracterizar claramente que alguma coisa está acontecendo com a aquiescência ou omissão [das redes]”.
Entidades ainda aguardam convite do TSE
Os representantes das organizações ouvidas pela Folha ainda não sabem se o TSE os convidará para atuar nas eleições deste ano. Até o momento, com exceção da Palver —que envia relatórios semanais ao tribunal sobre questionamentos ao sistema eleitoral—, as demais entidades afirmam não manter contato com o TSE.
Presidência do tribunal e regras em elaboração
Durante a eleição, o ministro Kássio Nunes Marques presidirá o TSE. Indicado por Jair Bolsonaro ao Supremo em 2020, ele ficará responsável por definir os focos da atuação da Justiça Eleitoral durante o pleito.
No dia 19 de janeiro, o tribunal publicou a primeira versão das resoluções que orientarão as eleições. A minuta atual sobre publicidade eleitoral proíbe “deepfakes” e conteúdos “fabricados ou manipulados” com o objetivo de disseminar mentiras. O TSE ainda elabora as resoluções, que os ministros votarão posteriormente.
Fonte: jbr





