Voltar ao Blog
Deepfakes

Golpes com Deepfake: Como Identificar Vídeos Falsos Usados em Fraudes

25 de fevereiro de 2026 5 min

Golpes com Deepfake: Como Criminosos Usam Vídeos Falsos para Roubar Milhões

Em janeiro de 2024, um funcionário do setor financeiro de uma multinacional em Hong Kong participou de uma videoconferência com o CFO da empresa e outros colegas. Durante a reunião, o CFO autorizou uma transferência de US$ 25 milhões. Tudo parecia normal — as faces eram familiares, as vozes reconhecíveis, o tom profissional de sempre. Exceto que nenhuma daquelas pessoas estava realmente na chamada. Todas eram deepfakes gerados em tempo real. A empresa perdeu o equivalente a mais de R$ 125 milhões.

Se você acha que isso só acontece com grandes empresas em outros países, pense novamente. Segundo a Deloitte, as perdas globais com fraudes envolvendo deepfakes devem atingir US$ 40 bilhões até 2027. Os golpes estão se tornando mais baratos, mais acessíveis e mais sofisticados — e o Brasil é um dos principais alvos. O pior? As vítimas não conseguem perceber que estão sendo enganadas. Ninguém consegue.

O CEO que nunca ligou

O caso de Hong Kong não é isolado. Em 2023, o FBI reportou um aumento alarmante no que chamam de "BEC com deepfake" — Business Email Compromise potencializado por vídeo e áudio sintéticos. O golpe segue um roteiro previsível e devastadoramente eficaz:

  1. Criminosos estudam a empresa-alvo, identificando executivos e funcionários com autoridade financeira.
  2. Coletam vídeos e áudios públicos dos executivos — palestras, entrevistas, redes sociais.
  3. Geram deepfakes convincentes de voz e/ou vídeo usando IA.
  4. Entram em contato com funcionários estratégicos, se passando pelo executivo, solicitando transferências urgentes.
  5. O dinheiro é transferido para contas controladas pelos criminosos e desaparece em minutos.

A urgência é sempre o gatilho emocional: "preciso disso feito antes do fim do dia", "não comente com ninguém ainda", "é uma aquisição confidencial". O funcionário, sob pressão e acreditando estar falando com seu superior, obedece.

Tipos de golpes com deepfake

Os golpes com deepfake não se limitam ao mundo corporativo. Aqui estão as modalidades mais comuns — e as mais perturbadoras:

CEO Fraud (Fraude do CEO): Como descrito acima, criminosos se passam por executivos para autorizar transferências. Segundo estimativas do setor, esse tipo de golpe já causou prejuízos acumulados de bilhões de dólares globalmente. Saiba como empresas estão se protegendo no nosso artigo sobre deepfakes corporativos.

Golpes de romance (Romance Scams): Criminosos criam personas falsas com deepfakes de vídeo para manter relacionamentos virtuais convincentes. A vítima acredita estar conversando com uma pessoa real — vê o rosto, ouve a voz — e eventualmente é convencida a enviar dinheiro. No Brasil, onde golpes de relacionamento já são comuns, o deepfake eleva a credibilidade a um nível sem precedentes.

Extorsão e chantagem: Criminosos criam vídeos falsos comprometedores da vítima e ameaçam divulgá-los. Não importa se a vítima nunca gravou nada — com poucas fotos de redes sociais, a IA gera material convincente o suficiente para causar pânico. A vítima paga por medo, mesmo sabendo que o conteúdo é falso, porque a exposição social seria devastadora.

Falsos investimentos: Vídeos deepfake de figuras conhecidas — empresários, influenciadores, celebridades — são usados para promover esquemas fraudulentos de investimento. "Veja o que essa pessoa famosa diz sobre esta oportunidade imperdível." A vítima investe e perde tudo. Conheça mais sobre esse tipo de golpe no nosso artigo sobre deepfakes de celebridades.

Golpes contra familiares: Talvez o mais perturbador de todos. Criminosos usam deepfakes de voz para ligar para idosos se passando por netos ou filhos, alegando emergências e pedindo transferências imediatas. A voz é idêntica. O desespero é real. E milhares de famílias já foram vítimas.

Dados alarmantes

Se os casos individuais já são assustadores, os números agregados são aterrorizantes:

  • As perdas globais com fraudes envolvendo deepfakes devem atingir US$ 40 bilhões até 2027 (Deloitte). Para colocar em perspectiva, isso é mais que o PIB de muitos países.
  • O número de deepfakes detectados online cresceu 900% entre 2020 e 2024, segundo relatórios do World Economic Forum.
  • Pesquisas indicam que 43% das empresas já enfrentaram ou tentaram enfrentar ataques usando mídias sintéticas.
  • No Brasil, o Banco Central registrou um aumento significativo em fraudes bancárias envolvendo manipulação de identidade por IA nos últimos dois anos.

Esses números refletem apenas os casos reportados. A maioria das vítimas nunca reporta o golpe — seja por vergonha, seja por não saber que foi enganada por um deepfake.

Tentar identificar o golpe a olho nu? Impossível.

É natural pensar: "eu perceberia que é um vídeo falso". Mas a verdade é que deepfakes de 2026 enganam 100% dos observadores humanos em testes controlados. Tentar identificar um deepfake a olho nu é como detectar uma falsificação sem lupa — possível contra trabalho amador, completamente inútil contra criminosos profissionais.

Todos os sinais clássicos — piscar irregular, sincronização labial imperfeita, iluminação estranha — já foram corrigidos pela IA. O rosto é perfeito. A voz é perfeita. Os gestos são naturais. Seus olhos e ouvidos simplesmente não são mais ferramentas de defesa contra essa ameaça.

Plataformas não te protegem de golpes

As redes sociais onde esses golpes são veiculados — Facebook, Instagram, YouTube, TikTok — possuem sistemas de moderação, mas que são inconsistentes e cronicamente lentos. Deepfakes de golpes financeiros circulam como anúncios pagos, passando por sistemas de revisão que deveriam barrá-los. Quando são finalmente removidos, milhares de vítimas já caíram.

O WhatsApp, canal preferido dos golpistas no Brasil, não tem nenhum mecanismo de detecção. Agências de fact-checking fazem trabalho essencial, mas a análise humana de um único vídeo leva horas — tempo que nenhuma vítima tem quando recebe uma ligação "urgente" do "chefe" ou do "filho".

Vortex Check: sua linha de defesa em segundos

Se os olhos humanos falham e as plataformas são lentas, como se proteger? Com inteligência artificial de detecção — rápida, precisa e acessível.

O Vortex Check analisa vídeos e áudios suspeitos frame por frame com IA avançada, detectando manipulações completamente invisíveis ao ser humano. Em segundos, você recebe uma pontuação de 0 a 100 com nível de confiança, indicando claramente se o conteúdo é autêntico ou fabricado.

  • Análise frame por frame em segundos — não em horas
  • Detecta manipulações invisíveis a humanos
  • Pontuação de 0 a 100 com nível de confiança
  • Suporta MP4, MOV, AVI, MKV e WebM
  • Nenhum conhecimento técnico necessário

Recebeu um vídeo pedindo dinheiro? Uma videochamada suspeita do chefe? Um áudio desesperado de um familiar? Antes de transferir qualquer valor, verifique com o Vortex Check. Essa verificação de segundos pode salvar milhares — ou milhões — de reais.

Como se proteger de golpes com deepfake

  1. Crie uma palavra-chave com sua família. Combine uma palavra ou frase secreta que só vocês conhecem. Deepfakes podem imitar a voz, mas não podem adivinhar um segredo que nunca foi dito publicamente.
  2. Verifique por outro canal. Recebeu uma videochamada suspeita do seu chefe? Desligue e ligue de volta pelo número que você tem salvo. Nunca tome decisões financeiras baseado em um único canal de comunicação.
  3. Submeta o conteúdo ao Vortex Check. Ao receber um vídeo ou áudio suspeito, faça upload e obtenha uma análise objetiva em segundos. Transforme suspeita em certeza antes de agir.
  4. Desconfie de urgência extrema. "Precisa ser agora", "não fale com ninguém" — essas frases são bandeiras vermelhas, com ou sem deepfake.
  5. Limite sua exposição pública. Quanto menos material de vídeo e áudio seu estiver disponível online, mais difícil é criar um deepfake convincente.
  6. Eduque sua família e equipe. Idosos e crianças são especialmente vulneráveis. Converse sobre o assunto e estabeleça protocolos de verificação.

O que fazer se for vítima

  1. Contate seu banco imediatamente. Bancos podem bloquear ou reverter transações se acionados rapidamente.
  2. Registre um boletim de ocorrência. Inclua todos os detalhes: horário, canal de contato, valores, prints.
  3. Preserve todas as evidências. Não apague mensagens, vídeos ou áudios.
  4. Denuncie na plataforma. Denuncie o perfil e o conteúdo.

Para entender melhor o universo dos deepfakes, leia nosso guia completo sobre deepfakes. E para entender como essa ameaça afeta a democracia, veja nosso artigo sobre deepfakes na política brasileira.

A melhor defesa contra golpes com deepfake é a verificação — e ela está ao alcance de um clique. O Vortex Check analisa vídeos e áudios frame por frame com IA, entregando uma pontuação de 0 a 100 em segundos. Não espere perder dinheiro para agir. Comece agora.

Experimente o Vortex Check gratuitamente

Verifique notícias, analise imagens, detecte deepfakes e identifique vozes clonadas com inteligência artificial.

Começar Grátis

Artigos Relacionados

Voltar ao Blog