Avanço da inteligência artificial amplia risco de deepfakes e preocupa especialistas em ano eleitoral

Especialista alerta que vídeos, áudios e imagens falsos gerados por IA podem influenciar o debate público e dificultar a identificação do que é real

O avanço acelerado da inteligência artificial tem ampliado a preocupação com a disseminação de conteúdos falsos durante períodos eleitorais. Com a sofisticação das ferramentas de geração de imagens, áudios e vídeos, especialistas apontam que as chamadas deepfakes — conteúdos manipulados que imitam pessoas reais — podem se tornar um dos principais desafios para a integridade do processo democrático em 2026.

Diante desse cenário, o Tribunal Superior Eleitoral deve anunciar, ainda em março, novas regras para o uso de inteligência artificial nas eleições deste ano. A iniciativa busca estabelecer parâmetros sobre transparência, responsabilidade e limites para conteúdos produzidos com auxílio de IA durante o período eleitoral.

O debate ganhou força nos últimos meses à medida que tecnologias capazes de simular rostos, vozes e discursos evoluíram rapidamente, tornando cada vez mais difícil distinguir conteúdos reais de materiais manipulados.

Deepfakes substituem preocupação com fake news

Se nas eleições anteriores a principal preocupação estava relacionada à disseminação de notícias falsas, especialistas afirmam que o foco agora se desloca para conteúdos sintéticos altamente realistas.

“Se, na eleição presidencial anterior, a de 2022, a preocupação era com as fake news, o alerta se volta agora, em 2026, para as deepfakes”, afirma Carlos Lopes, sócio da Codeminer42, boutique brasileira de desenvolvimento de software com atuação no Brasil e no exterior.

Segundo o especialista, a capacidade da inteligência artificial de reproduzir com precisão vozes, rostos e gestos cria um ambiente de grande complexidade para eleitores, jornalistas e autoridades responsáveis pela fiscalização eleitoral.

Máximas populares como “só acredito vendo” ou “uma imagem vale mais que mil palavras” deixam de fazer sentido nesse novo contexto tecnológico.

“O desafio agora, além de tecnológico, é social. Quando a manipulação se torna praticamente imperceptível, o impacto recai diretamente sobre a confiança pública e isso exige respostas regulatórias e educativas igualmente sofisticadas”, afirma Lopes.

Redes sociais também alertam para o problema

A preocupação com a confiabilidade dos conteúdos visuais também tem sido discutida por executivos de grandes plataformas digitais.

Em declaração recente, Adam Mosseri, responsável pelo Instagram, afirmou que a evolução das tecnologias de geração de imagens e vídeos torna cada vez mais difícil confiar apenas na percepção visual para identificar conteúdos autênticos.

Para especialistas em tecnologia, esse cenário cria um ambiente propício à circulação de materiais manipulados, especialmente em períodos de grande movimentação política e alta circulação de informações.

Ferramentas de detecção ainda têm limitações

Embora existam softwares capazes de identificar conteúdos gerados por inteligência artificial, essas soluções ainda apresentam limitações técnicas e não são amplamente acessíveis ao público.

Segundo Lopes, muitos desses sistemas cometem erros relevantes: em alguns casos classificam conteúdos legítimos como artificiais e, em outros, deixam de identificar materiais gerados por IA.

Além disso, a verificação manual de cada vídeo, áudio ou imagem compartilhada nas redes sociais é praticamente impossível para o eleitor comum.

“Uma parcela significativa da população não possui conhecimento técnico, familiaridade com essas ferramentas ou tempo disponível para utilizá-las de forma adequada”, explica o especialista.

Em períodos eleitorais, quando a circulação de informações ocorre em ritmo acelerado, a dificuldade de checagem se torna ainda maior.

Justiça eleitoral busca estabelecer regras

Diante desse cenário, a atuação da Justiça Eleitoral é considerada fundamental para limitar o uso indevido da tecnologia.

As novas regras que devem ser anunciadas pelo Tribunal Superior Eleitoral buscam criar mecanismos de responsabilização e monitoramento para conteúdos produzidos com inteligência artificial.

Além da fiscalização institucional, especialistas defendem que o combate à desinformação também depende da participação dos próprios cidadãos, por meio da denúncia de conteúdos suspeitos ou claramente manipulados.

Indústria tecnológica busca soluções

Apesar das preocupações, especialistas afirmam que o próprio avanço tecnológico pode contribuir para enfrentar o problema das deepfakes.

Uma das soluções em desenvolvimento envolve a criação de sistemas de identificação digital embutidos em dispositivos de captura de imagem, como câmeras e smartphones.

Essas tecnologias poderiam incluir uma espécie de assinatura digital — ou identificador único — em cada foto ou vídeo produzido por dispositivos reais.

Segundo Lopes, esse mecanismo permitiria verificar a autenticidade do conteúdo e confirmar que ele foi capturado por um equipamento legítimo, e não gerado artificialmente.

Inteligência humana continua essencial

Além das soluções tecnológicas, especialistas destacam que o fator humano continuará sendo decisivo no combate à manipulação digital.

A formação e a capacitação contínua de profissionais de tecnologia são consideradas fundamentais para desenvolver sistemas capazes de identificar fraudes, detectar deepfakes e proteger ambientes digitais.

“Se, por um lado, a IA sofisticada é utilizada para a produção de deepfakes e outros conteúdos falsos, a mesma IA avançada e outras ferramentas possibilitam identificar a falsificação, por mais perfeita que possa parecer”, afirma Lopes.

Nesse contexto, empresas de tecnologia têm investido em capacitação profissional e desenvolvimento de metodologias voltadas ao uso responsável da inteligência artificial.

Atuação internacional

Fundada em 2011, a Codeminer42 reúne atualmente mais de 80 desenvolvedores especializados em projetos de software e inteligência artificial.

A empresa possui sede em São Paulo e também mantém operações nos Estados Unidos, com profissionais atuando em projetos de tecnologia para empresas internacionais.

A companhia destaca que parte de sua estratégia envolve capacitar profissionais para trabalhar com inteligência artificial de forma crítica, responsável e alinhada às boas práticas do mercado.

Para especialistas do setor, essa combinação entre tecnologia avançada, regulação institucional e capacitação profissional será essencial para enfrentar os desafios trazidos pela nova geração de ferramentas de inteligência artificial.

Compartilhe :
Facebook
Twitter
LinkedIn
Pinterest

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *