É #FAKE vídeo de leoa que se aproxima para cheirar homem dormindo em rua Índia; conteúdo foi produzido com IA


Ferramentas de detecção apontam que conteúdo foi criado com inteligência artificial; veja o passo a passo da checagem. É #FAKE vídeo de leoa cheirando morador em situação de rua na Índia; conteúdo foi produzido com inteligência artificial
Reprodução
Circula nas redes sociais um vídeo que mostra, supostamente, uma leoa se aproximando e cheirando um homem que dorme em uma calçada na Índia. É #FAKE.
selo fake
g1
🛑 Como é o vídeo falso?
Ele simula uma gravação de uma câmera de segurança supostamente instalada em uma rua na Índia. Na cena, uma leoa surge e passa reto por uma pessoa deitada no chão – mas, pouco depois, volta, se aproxima para cheirá-la e, finalmente, vai embora.
Um post deste sábado (7) que compartilhou o registro no X teve mais de 22 milhões de visualizações. O texto diz: “Um homem na Índia teria sobrevivido a um ataque de leão enquanto dormia na rua. O leão o cheirou e depois foi embora”.
Na seção de comentários, as pessoas questionaram se o conteúdo foi produzido com inteligência artificial (IA).
⚠️ Por que é falso?
O vídeo foi produzido com IA. O Fato ou Fake submeteu frames (imagens estáticas) do material a duas ferramentas que detectam esse recurso (veja o resultado das análises abaixo).
Sightengine – 99% de chances de ser IA.
Was it AI – não exibe porcentagem, mas aponta: “Estamos bastante confiantes de que esta imagem, ou parte significativa dela, foi criada por IA”.
Para obter os frames e submê-los a essas plataformas Fato ou Fake usou o InVID para fragmentar o vídeo. Depois, submeteu uma dessas “fotos” ao Google Lens, que permite identificar a origem do conteúdo na internet. Resultado: o vídeo foi publicado pela primeira vez em 6 de junho de 2025, em um perfil do YouTube que afirma produzir “designs com auxílio de IAs”. A legenda afirma: “Leão encontra homem dormindo na rua em Gujarat [cidade indiana]”. O conteúdo alcançou mais de 40 milhões de visualizações.
Além disso, as imagens falsas mostram inscrições na placa de um comércio ao lado da pessoa que aparece deitada. No entanto, o Google Lens não conseguiu traduzir o conteúdo para nenhum idioma. Fotos e vídeos gerados com IA geralmente apresentam textos com erros ortográficos, e podem exibir símbolos em “línguas” que simplesmente não existem.
É #FAKE vídeo de leoa cheirando morador em situação de rua na Índia; conteúdo foi produzido com inteligência artificial
Reprodução
Veja também
É #FAKE que INSS faça ligação telefônica convocando para prova de vida
É #FAKE anúncio sobre inscrições para concurso do INSS
VÍDEOS: Fato ou Fake explica
VEJA outras checagens feitas pela equipe do FATO ou FAKE
Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)
Adicionar aos favoritos o Link permanente.