Voltar ao Blog
Imagens de IA

10 Sinais de que uma Imagem Foi Gerada por IA: Como Identificar Fotos Falsas

21 de fevereiro de 2026 5 min

10 Sinais de que uma Imagem Foi Gerada por IA

Você recebeu uma foto impactante no WhatsApp ou viu uma imagem chocante no Instagram. Parece real, mas algo te incomoda. Seu instinto pode estar certo. Em 2025, a Europol estimou que 90% de todo o conteúdo online poderá ser sintético até 2026, e pesquisas da Universidade de Stanford apontam que o volume de imagens geradas por IA nas redes sociais dobrou a cada seis meses desde 2023. No Brasil, o TSE registrou mais de 500 denúncias de conteúdo visual manipulado por IA só no primeiro semestre de 2024, antes mesmo das eleições municipais.

A boa notícia é que, apesar da evolução impressionante dos geradores de imagem, ainda existem sinais visuais que podem denunciar uma criação artificial. Reunimos os 10 mais confiáveis para você memorizar e usar no dia a dia. Para um guia mais completo sobre o tema, confira nosso Guia Definitivo para Detectar Imagens de IA.

Os 10 sinais visuais

1. Dedos extras ou fundidos

Este é o sinal mais clássico e ainda funciona em muitos casos. Conte os dedos: se houver seis em uma mão, dedos grudados ou articulações que dobram para o lado errado, a imagem provavelmente é sintética. Preste atenção especial quando a pessoa está segurando objetos, pois é onde os erros mais aparecem. Mãos em primeiro plano são o maior ponto de falha dos geradores modernos: unhas com formatos impossíveis, falanges com comprimentos inconsistentes e a pele entre os dedos que parece fundida são todos sinais claros.

Um caso concreto: durante as eleições municipais brasileiras de outubro de 2024, circulou nas redes uma suposta foto de um candidato de São Paulo em situação comprometedora. A imagem foi rapidamente identificada como sintética porque a mão do candidato tinha quatro polegares. O caso foi registrado pelo Tribunal Regional Eleitoral de São Paulo e amplamente noticiado como exemplo de uso eleitoral de imagens geradas por IA.

2. Texto ilegível ou sem sentido

Olhe para qualquer texto na imagem: placas de rua, letreiros de lojas, estampas de camisetas, capas de livros. A IA tem enorme dificuldade em gerar texto coerente. Se as letras parecem um idioma que não existe ou estão embaralhadas, desconfie imediatamente. Um teste útil: se você consegue ler a palavra em voz alta sem hesitar, é suspeito. Texto em imagens de IA frequentemente parece legível à primeira vista, mas ao tentar decifrar não forma palavras reais em nenhum idioma.

Observação importante: os geradores mais recentes já conseguem produzir texto em inglês com boa precisão. Em português, os erros são mais frequentes porque o corpus de treinamento em pt-BR é menor. Isso significa que imagens criadas para circular no Brasil ainda tendem a trair essa fraqueza com maior frequência, especialmente em contextos com palavras regionais ou nomes próprios brasileiros.

3. Simetria facial perfeita demais

Nenhum rosto humano é perfeitamente simétrico. Temos sobrancelhas ligeiramente diferentes, um olho um pouco maior que o outro, a boca levemente torta. Se o rosto na imagem parece saído de um espelho, com ambos os lados quase idênticos, isso é um forte indicador de geração por IA. Uma forma prática de testar: use qualquer editor de imagem para espelhar metade do rosto. Se o resultado parecer perfeitamente natural, o rosto original provavelmente é sintético.

4. Fundo borrado ou inconsistente

Os geradores de IA concentram seus "esforços" no sujeito principal da imagem. O fundo frequentemente recebe menos atenção. Procure por: linhas retas que se curvam, objetos que se fundem uns aos outros, elementos arquitetônicos impossíveis (janelas que não se alinham, portas que dão para lugar nenhum) e transições abruptas entre áreas nítidas e borradas. Particularmente revelador: cenas de interior com prateleiras ou estantes ao fundo, onde os objetos costumam parecer fundidos, sem contornos definidos.

5. Acessórios que "derretem"

Brincos, óculos, colares, relógios e outros acessórios são pontos frágeis. Observe se os brincos são iguais em ambas as orelhas (em termos de estilo, não simetria). Óculos frequentemente apresentam hastes que desaparecem ou lentes com reflexos fisicamente impossíveis. Joias e acessórios são armadilhas para a IA. Um colar de pérolas, por exemplo, frequentemente apresenta pérolas com tamanhos inconsistentes ou que se misturam com a roupa ou a pele. Correntes metálicas perdem a geometria repetitiva que as caracteriza.

6. Cabelos que atravessam objetos

Fios de cabelo são extremamente difíceis de gerar com precisão. Procure por mechas que atravessam roupas, ombros ou objetos como se fossem fantasmas. Também observe a linha do cabelo na testa: transições bruscas entre cabelo e pele são suspeitas. Cabelos lisos longos são menos problemáticos para a IA; cabelos cacheados, crespos ou volumosos em pessoas negras costumam ter texturas inconsistentes ou "nuvens" de cabelo sem fios individuais definidos, um indicador importante que frequentemente passa despercebido.

7. Orelhas assimétricas ou deformadas

As orelhas são frequentemente negligenciadas pelos geradores. Compare as duas orelhas: se uma tem um formato completamente diferente da outra, ou se apresenta dobras anatomicamente impossíveis, a imagem merece investigação. Em fotos de perfil onde só uma orelha aparece, observe se o formato parece natural. O canal auditivo externo (o "buraco" da orelha) costuma ser simplesmente ausente ou representado como um ponto escuro sem profundidade em imagens de IA.

8. Pele sem poros ou textura uniforme demais

Ironia: os geradores mais antigos erravam por criar pele com textura estranha. Os mais recentes erram por criar pele perfeita demais. Se o rosto parece ter passado por um filtro de beleza extremo, sem poros, sem linhas de expressão, sem marcas, pode ser sintético. Pele real tem textura, mesmo em fotos profissionais. Observe o nariz de perto: poros dilatados, pequenas imperfeições e pelos são detalhes que a IA tende a omitir completamente.

9. Reflexos inconsistentes em olhos e espelhos

Este é um dos sinais mais sutis e mais reveladores. Amplie a imagem e observe os reflexos nos olhos da pessoa. Em uma foto real, ambos os olhos refletem a mesma cena. Em imagens de IA, os reflexos frequentemente são diferentes entre os olhos ou não correspondem ao ambiente da foto. O mesmo vale para espelhos e superfícies brilhantes no fundo. Superfícies de água, vidros de janela e telas de computador ao fundo de uma cena raramente refletem o que deveriam refletir em imagens sintéticas.

10. Transições estranhas entre pessoa e fundo

Observe a borda onde o sujeito encontra o fundo. Em fotos reais, essa transição é natural e consistente com a profundidade de campo. Em imagens sintéticas, você pode encontrar: halos brilhantes ao redor do corpo, bordas recortadas de forma abrupta, ou áreas onde o fundo "sangra" para dentro da pessoa (ou vice-versa). Isso é especialmente evidente em cabelos contra fundos claros e roupas com padrões complexos que se misturam com o cenário.

Como os geradores de IA estão evoluindo (e tornando a detecção mais difícil)

Aqui está o que poucos artigos sobre o tema admitem: a cada nova versão dos geradores de IA, esses sinais ficam mais raros. Dedos extras? Os modelos de 2025-2026 já acertam na maioria dos casos. Texto ilegível? As últimas versões de geradores líderes de mercado produzem texto quase perfeito em inglês e com erros crescentemente raros em português. Simetria excessiva? Os geradores aprenderam a introduzir assimetria proposital.

O ritmo de melhoria é impressionante. Uma análise publicada pela MIT Technology Review em 2024 mostrou que a taxa de erro médio dos principais geradores de imagem caiu 42% em apenas 18 meses quando medida por avaliadores humanos treinados. Em termos práticos: imagens que seriam identificadas como sintéticas em 2023 passariam hoje por fotografias reais em vários contextos.

Em fevereiro de 2024, um estudo da Universidade de Waterloo testou a capacidade humana de detectar imagens de IA com e sem treinamento específico. O resultado: mesmo pessoas treinadas acertaram apenas 61% das imagens, enquanto as não treinadas acertaram 52%, pouco melhor que o acaso. O estudo usou imagens de geradores de 2023. Com os modelos de 2026, os resultados seriam piores.

Os artefatos que resistem mais à evolução

Apesar da evolução geral, alguns tipos de artefatos persistem porque exigem compreensão física do mundo real que os modelos ainda não possuem completamente:

  • Sombras fisicamente incorretas: A direção e intensidade de sombras raramente é consistente com a fonte de luz declarada na cena. Uma pessoa iluminada pela direita frequentemente projeta sombra também pela direita, o oposto do que a física dita.
  • Reflexos em água: Superfícies de água são particularmente problemáticas. Ondulações que não correspondem ao vento da cena, reflexos que mostram objetos ausentes, e distorções impossíveis são sinais confiáveis.
  • Mãos segurando objetos: A interação física entre mãos e objetos, incluindo a pressão dos dedos causando deformação, o ângulo de preensão e a distribuição de peso, ainda é um ponto de falha relevante.
  • Dentes em detalhe próximo: Amplie uma imagem com sorriso aberto. Os geradores ainda erram na geometria dos dentes, especialmente nos molares e na gengiva ao fundo.

Ferramentas gratuitas para investigar imagens suspeitas

Além da inspeção visual, existem ferramentas acessíveis que podem ajudar na investigação:

Busca reversa de imagens

A busca reversa é o primeiro passo para qualquer imagem suspeita. Ela mostra se a imagem já apareceu em outros contextos, com datas e descrições diferentes. Use:

  • Google Images (images.google.com): clique no ícone de câmera na barra de busca e carregue a imagem. O Google mostrará páginas onde ela aparece, incluindo versões anteriores com contextos diferentes.
  • TinEye (tineye.com): especializado em rastrear onde uma imagem apareceu na web, com linha do tempo. Útil para descobrir se uma imagem "recente" é, na verdade, antiga.
  • Yandex Images (yandex.com/images): o buscador russo tem excelente reconhecimento facial e frequentemente encontra resultados que o Google não encontra, especialmente para fotos de pessoas.
  • Bing Visual Search (bing.com/visualsearch): complementa o Google com base de dados diferente. Útil para imagens de notícias e eventos públicos.

Limitação importante: a busca reversa só funciona se a imagem já existia na internet. Uma imagem gerada por IA pela primeira vez não será encontrada em nenhum buscador, independentemente de ser 100% sintética.

Visualizadores de metadados (EXIF)

Fotos tiradas por câmeras e smartphones armazenam metadados EXIF: modelo do equipamento, data e hora da captura, coordenadas GPS, configurações de câmera. Imagens geradas por IA frequentemente não têm esses dados, ou têm dados inconsistentes. Use:

  • Jeffrey's Exif Viewer (exifdata.com): carregue a imagem e veja todos os metadados disponíveis. Ausência total de dados EXIF em uma suposta fotografia é suspeita.
  • ExifTool (exiftool.org): mais técnico, mas gratuito e completo. Disponível para Windows, Mac e Linux.
  • Jimpl (jimpl.com): interface mais amigável para usuários não técnicos, com visualização em mapa para coordenadas GPS quando disponíveis.

Atenção: geradores de IA modernos já conseguem inserir metadados EXIF falsos. A ausência de metadados é suspeita, mas a presença não garante autenticidade.

Detectores de IA baseados em análise estatística

Ferramentas online gratuitas analisam padrões estatísticos na imagem que são invisíveis ao olho humano. Entre as opções disponíveis:

  • Hive Moderation (hivemoderation.com): detecção de imagens de IA com percentual de confiança. Interface simples, gratuita para volumes baixos.
  • AI or Not (aiornot.com): ferramenta dedicada exclusivamente à detecção de imagens sintéticas. Interface clara e resultado imediato.
  • Illuminarty (illuminarty.ai): além do veredicto, mostra quais regiões da imagem apresentam maior probabilidade de serem sintéticas.

Limitação universal: nenhuma ferramenta isolada é infalível. Os geradores de imagem e os detectores estão em uma corrida armamentista constante. Para imagens com consequências importantes, envolvendo reputação, notícias ou decisões críticas, use múltiplas ferramentas e compare os resultados. Leia mais sobre como a análise forense digital detecta manipulações que as ferramentas visuais não capturam.

Exercício prático: como analisar uma imagem suspeita passo a passo

Digamos que você recebeu no WhatsApp uma foto de um político brasileiro em uma situação comprometedora. Veja como aplicar a verificação sistematicamente:

  1. Primeiro olhar (30 segundos): Observe mãos, texto, fundo e acessórios. Identifique imediatamente se algum dos 10 sinais está presente. Se sim, você já tem evidência suficiente para não compartilhar.
  2. Ampliação seletiva (1 minuto): Amplie as áreas de maior risco: mãos, orelhas, bordas do corpo contra o fundo, qualquer texto visível. Use o zoom do celular ou abra a imagem em um visualizador que permita ampliar sem perda. Artefatos invisíveis em visualização normal ficam evidentes com 300 a 400% de zoom.
  3. Busca reversa (2 minutos): Salve a imagem e faça busca reversa no Google Images e no Yandex. Se aparecer em contextos diferentes ou com datas antigas, é conteúdo fora de contexto, uma forma de desinformação tão perigosa quanto a imagem sintética.
  4. Verificação de metadados (2 minutos): Acesse o Jeffrey's Exif Viewer e carregue a imagem. Ausência de dados de câmera em uma suposta foto jornalística é sinal de alerta.
  5. Verificação de fonte (3 minutos): Quem publicou originalmente? O veículo existe? O domínio do site é o correto ou uma imitação? Pesquise o veículo separadamente para confirmar.
  6. Análise automatizada (segundos): Para conclusão definitiva, envie a imagem para uma ferramenta de detecção de IA. A análise por software identifica padrões estatísticos invisíveis ao olho humano que nenhum dos passos anteriores consegue detectar.

O processo completo leva entre 8 e 10 minutos. Para imagens verdadeiramente suspeitas, vale o tempo. Para o volume de imagens que circula diariamente nas redes, a análise automatizada é o único caminho prático. Entenda mais sobre o contexto brasileiro no nosso artigo sobre imagens falsas nas redes sociais.

O contexto brasileiro: por que isso importa agora

O Brasil ocupa uma posição peculiar nesse cenário. Com mais de 170 milhões de usuários de internet e um dos maiores tempos médios de uso de redes sociais do mundo (segundo o DataReportal 2024, mais de 9 horas por dia em média), o país é particularmente vulnerável a campanhas de desinformação visual.

O Ministério Público Federal documentou casos de imagens sintéticas usadas em:

  • Campanhas de difamação contra candidatos e figuras públicas
  • Fraudes financeiras usando rostos de celebridades para promover investimentos falsos
  • Desinformação sobre políticas públicas (saúde, segurança, previdência)
  • Extorsão envolvendo imagens íntimas sintéticas geradas por IA

A legislação brasileira ainda está se adaptando. O Marco Legal da IA, aprovado em 2024, estabelece responsabilidade para criadores e distribuidores de conteúdo sintético danoso, mas a velocidade de produção supera em muito a capacidade de fiscalização. A defesa mais eficaz continua sendo individual: saber identificar antes de compartilhar. Para entender como esse problema se manifesta especificamente nas eleições, leia nosso artigo sobre deepfakes na política brasileira.

O que fazer ao suspeitar

Identificou um ou mais desses sinais? Ou, mais provável, não conseguiu identificar nenhum mas ainda desconfia? Aqui está o que fazer:

  1. Não compartilhe. A regra número um é simples: na dúvida, não repasse. Uma imagem falsa compartilhada pode causar danos reais a pessoas reais. O custo de não compartilhar algo verdadeiro é zero; o custo de compartilhar algo falso pode ser imenso.
  2. Execute o exercício prático descrito acima. Busca reversa, metadados e verificação de fonte são passos gratuitos que eliminam boa parte das imagens falsas com contexto manipulado.
  3. Use detecção automatizada para conclusão definitiva. Ferramentas de análise de IA identificam padrões estatísticos, anomalias de compressão e características de síntese que nenhum olho humano consegue perceber. O Vortex Check analisa imagens e retorna em segundos um score de autenticidade de 0 a 100. Suporta JPEG, PNG, WebP e outros formatos comuns.
  4. Verifique a fonte. Quem publicou a imagem originalmente? Veículos de imprensa confiáveis, fotógrafos com portfólio verificável ou contas anônimas sem histórico? A fonte importa tanto quanto o conteúdo.
  5. Denuncie. Plataformas como Instagram, Facebook e X têm mecanismos de denúncia para conteúdo manipulado. O TSE mantém um canal específico para desinformação eleitoral. Denunciar não é só útil, é parte da defesa coletiva.

Lembre-se: nenhum sinal isolado é prova definitiva, e a IA está ficando boa demais para dependermos apenas dos nossos olhos. A detecção por IA é a única forma de acompanhar a geração por IA em velocidade e escala.

Quer ir além dos sinais visuais e entender como o jornalismo profissional verifica imagens antes de publicar? Confira nosso artigo sobre imagens de IA no jornalismo.

Pare de adivinhar se uma imagem é real. O Vortex Check analisa o que você não consegue ver em segundos, sem precisar de nenhum conhecimento técnico. Comece agora e transforme dúvida em certeza.

Leia também

Experimente o Vortex Check gratuitamente

Verifique notícias, analise imagens, detecte deepfakes e identifique vozes clonadas com inteligência artificial.

Começar Grátis

Artigos Relacionados

Voltar ao Blog