No momento, você está visualizando Esses vídeos foram feitos por IA, mas você não percebeu; entenda riscos
Entenda os riscos que estão por trás dos vídeos feitos através de IA. Foto: Reprodução/IA/Gemini Flash 2.5

Esses vídeos foram feitos por IA, mas você não percebeu; entenda riscos

Vídeos feitos por Inteligência Artificial (IA) estão se tornando cada vez mais comuns nas redes sociais, e em muitos casos, o público sequer percebe que o conteúdo não é real.

O Sora 2 da OpenAI cria pessoas, ambientes e movimentos com alto nível de realismo, dificultando distinguir o que foi filmado do que foi sintetizado por computador. Essa capacidade acende um alerta de riscos associados a esse tipo de produção. Vídeos hiper-realistas podem ser usados para manipular emoções, espalhar desinformação ou até enganar pessoas em golpes e campanhas de manipulação online. Além disso, o uso de imagens de figuras falecidas, sem autorização, tem gerado um debate sobre os limites do uso da IA. A seguir, vamos mostrar como a IA produz esses vídeos, quais perigos ela traz e como identificar quando ela cria um conteúdo.

Gerador de vídeos com IA: veja exemplos muito realistas

Muitos dos vídeos gerados por IA são inofensivos, feitos com tom humorístico ou para representar uma situação atípica.

@caramelo.rogrio 20 mil e pouquinho 💵👷‍♂️🐕 #veo3 #inteligenciaartificial #ia #caramelo @Caramelo Rogério @Caramelo Rogério @Caramelo Rogério ♬ som original – Caramelo Rogério

Já outros vídeos levantaram polêmicas por utilizarem figuras famosas, como celebridades, ou pessoas que já faleceram. Filhos de personalidades como Robin Williams e Martin Luther King Jr. já denunciaram o sofrimento de ver a imagem de seus pais transformada em conteúdo de mau gosto ou ofensivo. O que evidencia o poder destrutivo dessas tecnologias sobre a memória coletiva. Apesar de a OpenAI afirmar que há restrições para conteúdos que envolvam pessoas mortas, vídeos com personalidades falecidas ainda circulam sem controle. Contudo, reacendendo o debate sobre direitos de imagem, herança digital e os limites éticos da IA generativa.

@vikai99 “Sora made it possible: Michael Jackson ordering the family combo 😭🔥”#sora #sora2 #michaeljackson #AImemes #FunnyAI ♬ sonido original – “VIK AI”


Em alguns casos, a IA foi utilizada para pregar peças em pessoas desavisadas. Uma trend que ficou popular nos Estados Unidos, onde os jovens enviam para seus pais vídeos e fotos de morador de rua que invadiu suas casas. Adolescentes utilizam filtros e IA para gerar falsas situações de perigo apenas para viralizar no TikTok. O que já levou à mobilização desnecessária da polícia e ao risco de tragédias reais. Isso mostra que o avanço da IA não apenas desafia os limites da criatividade, mas também expõe a sociedade a um novo tipo de ameaça digital. Onde o falso pode ser indistinguível do real.

@mmmjoemeleThe results 👀😂♬ harley is sexy – KI1LST

A ferramenta é capaz de retratar políticos, como Donald Trump e Vladimir Putin, ou celebridades, como o jogador de futebol Cristiano Ronaldo. Em situações inusitadas e completamente fictícias.

Quais os riscos da criação de vídeos com IA?

Os vídeos feitos por IA apresentam problemas que vão muito além do entretenimento. Segundo Paulo Pagliusi, Ph.D., diretor de relacionamento e parceiro executivo da Gartner voltado a segurança da informação (CISOs), os riscos se apresentam em três dimensões: vídeos convincentes feitos em larga escala podem distorcer informações e manipular o público; deepfakes podem falsificar identidades, comunicações corporativas ou solicitações financeiras, facilitando fraudes e engenharia social; e o público pode questionar até conteúdos legítimos, criando erosão da confiança digital.

O realismo cada vez mais apurado dessas produções abre espaço para a manipulação emocional e a desinformação em larga escala. Diferentemente dos vídeos antigos feitos com CGI tradicional, recurso limitado a modelagem e renderização manuais, a IA generativa cria a cena do zero. Definindo, contudo, textura, iluminação, movimento e continuidade temporal em um único processo.

“O principal diferencial é que os vídeos gerados por IA são sintetizados integralmente por modelos de aprendizado profundo. Que produzem imagem e som de forma autônoma. Esse avanço reduz drasticamente o tempo e o custo de produção. Mas também aumenta o potencial de confusão entre o que é real e o que é sintético”, explica Pagliusi.

 A facilidade de acesso a ferramentas como o Sora 2 permite que qualquer usuário crie deepfakes convincentes, o que levanta outro risco grave

o uso malicioso dos vídeos de IA para enganar pessoas ou obter vantagens indevidas.

Sobretudo, a mesma tecnologia que gera homenagens ou vídeos divertidos também pode disseminar fake news, manipular a opinião pública e realizar golpes financeiros. Em contextos de eleição, por exemplo, pessoas podem usar vídeos falsos para simular discursos de candidatos e influenciar eleitores. Por outro lado, no ambiente digital, golpistas podem criar vídeos falsos de influenciadores e empresas, induzindo o público a clicar em links perigosos ou transferir dinheiro.

Como identificar vídeos feitos com IA?

Distinguir um vídeo real de um conteúdo criado por Inteligência Artificial tem se tornado uma tarefa cada vez mais complexa. As novas ferramentas de geração de vídeo, como o Sora 2 da OpenAI, e Veo 3, do Google, conseguem produzir cenas com texturas de pele. Gestos e expressões faciais incrivelmente naturais. Desse modo, confundindo até mesmo espectadores atentos. Contudo, mesmo com a sofisticação desses vídeos, ainda é possível identificar sinais que denunciam sua origem artificial.

Para Paulo Pagliusi, alguns indicadores de que o vídeo é uma IA são: inconsistências físicas, com deformações em objetos, cabelos ou mãos entre quadros; reflexos e sombras incoerentes em superfícies metálicas ou iluminação variável; áudio e mímica facial dessincronizados, com som ambiente ou expressão facial que não correspondem ao contexto; e falta de informações técnicas de captura ou credenciais de conteúdo.

“À medida que os modelos evoluem, a detecção humana se torna menos eficaz — reforçando a importância de verificação técnica automatizada e rotulagem obrigatória”, afirmou o especialista. Segundo ele, é importante haver mais formas de regulamentar o uso dessa tecnologia. Para isso, é necessário prezar pela transparência na publicação de vídeos artificiais, responsabilização de criadores, plataformas e desenvolvedores por danos gerados pelos vídeos e cooperação multissetorial. O que envolve, em contextos eleitorais, a proibição de deepfakes e avisos de uso de IA. Projetos de lei como o PL 2338/2023 (Marco Legal da IA) e o PL 2630/2020 (PL das Fake News) indicam o esforço de atualização regulatória em andamento.

 Fonte: techtudo