Vídeos feitos por IA podem enganar até mesmo internautas atentos, o que levanta debate ético sobre manipulação, desinformação e o uso indevido de imagens reais; entenda
Vídeos feitos por Inteligência Artificial (IA) estão se tornando cada vez mais comuns nas redes sociais, e em muitos casos, o público sequer percebe que o conteúdo não é real.
Gerador de vídeos com IA: veja exemplos muito realistas
Muitos dos vídeos gerados por IA são inofensivos, feitos com tom humorístico ou para representar uma situação atípica.
@mmmjoemeleThe results 👀😂♬ harley is sexy – KI1LST
A ferramenta é capaz de retratar políticos, como Donald Trump e Vladimir Putin, ou celebridades, como o jogador de futebol Cristiano Ronaldo. Em situações inusitadas e completamente fictícias.
Quais os riscos da criação de vídeos com IA?
Os vídeos feitos por IA apresentam problemas que vão muito além do entretenimento. Segundo Paulo Pagliusi, Ph.D., diretor de relacionamento e parceiro executivo da Gartner voltado a segurança da informação (CISOs), os riscos se apresentam em três dimensões: vídeos convincentes feitos em larga escala podem distorcer informações e manipular o público; deepfakes podem falsificar identidades, comunicações corporativas ou solicitações financeiras, facilitando fraudes e engenharia social; e o público pode questionar até conteúdos legítimos, criando erosão da confiança digital.
O realismo cada vez mais apurado dessas produções abre espaço para a manipulação emocional e a desinformação em larga escala. Diferentemente dos vídeos antigos feitos com CGI tradicional, recurso limitado a modelagem e renderização manuais, a IA generativa cria a cena do zero. Definindo, contudo, textura, iluminação, movimento e continuidade temporal em um único processo.
“O principal diferencial é que os vídeos gerados por IA são sintetizados integralmente por modelos de aprendizado profundo. Que produzem imagem e som de forma autônoma. Esse avanço reduz drasticamente o tempo e o custo de produção. Mas também aumenta o potencial de confusão entre o que é real e o que é sintético”, explica Pagliusi.
A facilidade de acesso a ferramentas como o Sora 2 permite que qualquer usuário crie deepfakes convincentes, o que levanta outro risco grave
o uso malicioso dos vídeos de IA para enganar pessoas ou obter vantagens indevidas.
Como identificar vídeos feitos com IA?
Distinguir um vídeo real de um conteúdo criado por Inteligência Artificial tem se tornado uma tarefa cada vez mais complexa. As novas ferramentas de geração de vídeo, como o Sora 2 da OpenAI, e Veo 3, do Google, conseguem produzir cenas com texturas de pele. Gestos e expressões faciais incrivelmente naturais. Desse modo, confundindo até mesmo espectadores atentos. Contudo, mesmo com a sofisticação desses vídeos, ainda é possível identificar sinais que denunciam sua origem artificial.
Para Paulo Pagliusi, alguns indicadores de que o vídeo é uma IA são: inconsistências físicas, com deformações em objetos, cabelos ou mãos entre quadros; reflexos e sombras incoerentes em superfícies metálicas ou iluminação variável; áudio e mímica facial dessincronizados, com som ambiente ou expressão facial que não correspondem ao contexto; e falta de informações técnicas de captura ou credenciais de conteúdo.
“À medida que os modelos evoluem, a detecção humana se torna menos eficaz — reforçando a importância de verificação técnica automatizada e rotulagem obrigatória”, afirmou o especialista. Segundo ele, é importante haver mais formas de regulamentar o uso dessa tecnologia. Para isso, é necessário prezar pela transparência na publicação de vídeos artificiais, responsabilização de criadores, plataformas e desenvolvedores por danos gerados pelos vídeos e cooperação multissetorial. O que envolve, em contextos eleitorais, a proibição de deepfakes e avisos de uso de IA. Projetos de lei como o PL 2338/2023 (Marco Legal da IA) e o PL 2630/2020 (PL das Fake News) indicam o esforço de atualização regulatória em andamento.



