Deepfakes eleitorais crescem 308% no Brasil e TSE impõe regras inéditas para 2026

Conteúdos falsos gerados por IA explodiram no Brasil e o TSE não ficou parado: a Corte proibiu deepfakes na propaganda eleitoral, tornou obrigatória a rotulagem de conteúdos sintéticos e restringiu o uso de IA no ranqueamento de candidaturas. Entenda o impacto para as eleições de outubro de 2026.

Os deepfakes eleitorais cresceram 308% no Brasil, levando o Tribunal Superior Eleitoral a adotar as regras mais rígidas já impostas ao uso de inteligência artificial no processo democrático brasileiro, segundo análise da consultoria LC SEC divulgada em abril de 2026.

O crescimento de 308% nos conteúdos falsos produzidos com inteligência artificial no Brasil e o avanço de 126% nas fraudes com deepfakes levaram o Tribunal Superior Eleitoral a adotar regras mais rígidas para as eleições gerais de 2026, que já são consideradas as mais expostas ao uso político de IA no país, como é reforçado na análise da LC SEC, especializada em cibersegurança e compliance. Além de manter a proibição de deepfakes na propaganda eleitoral, a Corte determinou a obrigatoriedade de rotulagem de conteúdos sintéticos e proibiu a circulação desse tipo de material nas 72 horas anteriores e nas 24 horas posteriores ao pleito, marcado para 4 de outubro.

Da audiência pública à proibição: como a norma foi construída

A nova regulamentação foi aprovada em 2 de março, após o recebimento de 1.423 sugestões e a realização de audiências públicas entre 3 e 5 de fevereiro, consolidando uma linha mais dura do tribunal diante do aumento do risco de manipulação digital no período eleitoral. Na prática, as medidas também restringem o uso de sistemas de IA para ranqueamento de candidaturas e ampliam a pressão sobre perfis falsos ou automatizados que possam comprometer a integridade do processo.

Na avaliação da LC SEC, o movimento do TSE reflete uma mudança estrutural no papel da tecnologia nas eleições. Segundo Luiz Claudio, CEO e fundador da empresa, o tema deixou de ser apenas eleitoral e passou a integrar a agenda de risco institucional. “A IA já não é um fator periférico. Ela atua diretamente na formação de percepção, na confiança e na reputação. Isso aproxima o debate eleitoral da realidade das empresas, que também estão expostas a esse tipo de ataque”, afirma.

Brasil concentra 39% dos deepfakes da América Latina

O cenário é reforçado por dados do Observatório Lupa, que mostram que conteúdos falsos com IA passaram de 39 casos em 2024 para 159 em 2025, passando a representar 25% das verificações da entidade. Mais do que o volume, chama atenção a mudança de perfil: quase 45% dessas peças já têm viés ideológico, ante 33% no ano anterior, e mais de três quartos utilizam imagem ou voz de pessoas conhecidas, sobretudo lideranças políticas, indicando que a manipulação sintética migrou para o centro da disputa.

No ecossistema de fraude, o Brasil também se destaca. Em 2025, o país concentrou cerca de 39% dos deepfakes detectados na América Latina, em um cenário em que esse tipo de ataque cresceu 201% na região. Para a LC SEC, isso amplia o impacto para além das campanhas. “A mesma tecnologia usada para influenciar eleitores pode ser usada para simular executivos, fraudar comunicações e atingir marcas e instituições. É um risco transversal, que conecta eleições, mercado e reputação”, diz Luiz Claudio.

Como identificar um deepfake — e o que o TSE já orienta

Outro ponto crítico é o uso de deepfakes como ferramenta de violência política, especialmente de gênero. O TSE proibiu conteúdos que alterem imagem ou voz para incluir cenas de nudez ou pornografia envolvendo candidatos. Em paralelo, a Advocacia-Geral da União notificou o Google para desindexar sites que geram “nudes” falsos com IA, destacando o impacto sobre mulheres, crianças e adolescentes.

Diante desse cenário, ganha força o caráter de serviço da pauta. Segundo a LC SEC, é possível identificar um deepfake em poucos segundos ao observar sinais como origem do perfil, ausência ou inconsistência na rotulagem de IA, desalinhamento entre voz e imagem, contexto da publicação e velocidade de disseminação, fatores que dialogam com os “5 Vs” da desinformação (volume, variedade, velocidade, viralidade e verossimilhança), já destacados em iniciativas recentes do próprio TSE.

Para o executivo, a eleição de 2026 marca um ponto de virada na relação entre tecnologia e confiança pública. “Não se trata mais de discutir se a IA pode afetar o processo eleitoral. Ela já afeta. A diferença, agora, está na capacidade de identificar, responder e mitigar esses riscos em tempo real”, conclui Luiz Claudio.

Sobre a LC SEC

A LC SEC é uma consultoria especializada em segurança da informação e compliance, com atuação no Brasil e na Europa há mais de 10 anos. A empresa já executou mais de 150 projetos em cibersegurança e adequação a normas internacionais, incluindo ISO 27001, ISO 42001, SOC2, PCI DSS, NIST, LGPD, GDPR e DORA. Em 2025, ampliou seu portfólio com soluções inovadoras de Threat Intelligence baseadas em IA e auditorias internas.

Rolar para cima