Phishing com videos de IA

Um novo tipo de golpe está preocupando especialistas em cibersegurança e usuários de plataformas digitais. Trata-se do phishing com vídeos de IA, um ataque sofisticado que usa tecnologia de deepfake para enganar vítimas com conteúdo extremamente convincentes. 

Um exemplo recente envolveu o YouTube, onde criminosos criaram um vídeo falso do CEO da empresa, Neal Mohan. O material era usado para roubar credenciais de criadores de conteúdo por meio de engenharia social bem planejada. 

Neste artigo, mostramos como o golpe funciona, quais os riscos, como identificar vídeos falsos gerados por IA e, claro, como se proteger dessas novas ameaças digitais. )+++

O golpe: vídeo falso do CEO do YouTube engana criadores de conteúdo 

Em março de 2025, o YouTube publicou um comunicado oficial alertando sobre uma campanha de phishing com vídeos privados. O conteúdo era um deepfake do CEO Neal Mohan, criado com inteligência artificial. 

No vídeo, o suposto executivo anunciava falsas mudanças nas políticas de monetização da plataforma. A mensagem era direcionada a criadores de conteúdo, que, por estarem preocupados com seus ganhos, eram mais propensos a clicar no link. 

Esse link levava a uma página falsa de login do YouTube. Ao inserir suas credenciais ali, a vítima entregava o controle da conta diretamente aos criminosos. Com isso, era possível sequestrar canais, alterar conteúdos, acessar dados vinculados e causar prejuízos significativos. 

A campanha de phishing se espalhou por e-mails contendo vídeos privados, algo que o YouTube reforçou que jamais utiliza como canal para anunciar mudanças de política. O caso ganhou repercussão internacional, sendo também noticiado pelo The Verge. 

O que é phishing com vídeos de IA? 

O phishing tradicional já é uma ameaça bem conhecida. A tática consiste em enganar usuários para que revelem informações sensíveis por meio de mensagens falsas, normalmente via e-mail, SMS ou páginas clonadas. 

A nova geração desses ataques é mais perigosa. Com o uso de IA, os golpistas conseguem criar vídeos hiper-realistas — os chamados deepfakes — simulando com perfeição a imagem e a voz de figuras públicas ou profissionais de empresas confiáveis. 

Isso torna o golpe mais convincente, porque reduz a suspeita da vítima. Ver um “executivo” falando diretamente com você, em tom institucional, é algo que transmite confiança imediata — e é justamente essa confiança que os criminosos exploram. 

O maior desafio é que a tecnologia para criar esses vídeos está cada vez mais acessível. Ferramentas gratuitas ou de baixo custo já produzem resultados convincentes o suficiente para enganar usuários desatentos. 

Como identificar vídeos falsos gerados por IA 

Reconhecer um deepfake exige atenção aos detalhes. Abaixo, listamos os principais sinais de alerta para identificar um vídeo manipulado por inteligência artificial: 

  • Expressões e movimentos artificiais: rosto travado, sincronia labial imprecisa e gestos descoordenados são sinais comuns em deepfakes. A naturalidade corporal ainda é um desafio para as IAs. 
  • Falhas visuais e distorções no vídeo: bordas borradas ao redor do rosto, olhos sem brilho ou transições esquisitas entre quadros são indícios visuais importantes. 
  • Áudio com entonação robótica ou estranha: vozeamento sem emoção, pausas fora de lugar e timbres levemente “metálicos” podem denunciar vozes geradas por IA. 
  • Contexto da mensagem é incomum ou alarmante: se o vídeo pede que você clique em um link imediatamente ou informe dados sensíveis, sem contexto prévio, há grande chance de golpe. 
  • Fonte e canal de origem duvidosos: vídeos recebidos de e-mails desconhecidos, domínios genéricos ou fora dos canais oficiais devem ser tratados com ceticismo. 

A combinação desses elementos pode indicar que você está diante de um conteúdo forjado. Ao perceber qualquer suspeita, interrompa a interação imediatamente e busque a validação da informação em fontes confiáveis. 

Quais os riscos desse tipo de phishing? 

O phishing com vídeos de IA tem consequências sérias. Para criadores de conteúdo e empresas, os prejuízos podem ir muito além da perda de acesso à conta. 

Um dos riscos imediatos é o sequestro de canais, que pode resultar na exclusão de conteúdo ou na publicação de vídeos maliciosos. Isso compromete anos de trabalho, afetando tanto a reputação quanto a geração de receita. 

Outro ponto crítico é o roubo de informações sensíveis. Uma vez em posse das credenciais, os criminosos podem acessar dados financeiros, informações pessoais e até mesmo contas associadas. 

A situação piora quando se trata de influenciadores, marcas ou empresas com grande visibilidade. A perda de credibilidade pode afastar seguidores, patrocinadores e causar danos reputacionais difíceis de reverter. 

Como se proteger de golpes com vídeos de IA 

Nenhuma tecnologia é infalível, mas a boa notícia é que há maneiras eficazes de reduzir os riscos. Veja abaixo as práticas recomendadas para proteger suas contas e seus dados: 

Desconfie de urgência e pressão 

 Golpistas costumam usar um tom alarmista para forçar decisões rápidas. Isso diminui a capacidade crítica da vítima. 

Nunca clique direto em links recebidos por e-mail 

Mesmo que pareça legítimo, prefira digitar o endereço da plataforma no navegador ou buscar o conteúdo diretamente nos canais oficiais. 

Ative autenticação em dois fatores (2FA) 

Esse recurso adiciona uma camada extra de segurança. Mesmo que a senha seja comprometida, o invasor não conseguirá acesso imediato. 

Mantenha sistemas atualizados 

Atualizações constantes corrigem brechas que podem ser exploradas em ataques. Isso vale para sistemas operacionais, navegadores e apps. ++

Informe-se sobre golpes e boas práticas 

 Acompanhar canais de segurança digital e os alertas das plataformas que você usa aumenta sua capacidade de resposta e prevenção. 

A segurança depende de uma combinação entre tecnologia e comportamento. Quanto mais consciente você estiver sobre os riscos, maior será sua proteção. 

O que esperar do futuro dos golpes com IA 

A tendência é clara: o uso de IA por cibercriminosos vai crescer, e a qualidade dos conteúdos falsos também. Com cada vez mais ferramentas disponíveis, golpes baseados em vídeos, áudios e mensagens hiper-realistas se tornarão parte do cotidiano. 

Empresas e usuários precisarão investir não apenas em ferramentas de defesa, mas em alfabetização digital contínua. Entender o funcionamento dos ataques, questionar fontes e adotar práticas preventivas será indispensável. 

Mais do que nunca, segurança digital passa a ser uma responsabilidade compartilhada — e estratégica. 

Diante disso, o caso do deepfake do CEO do YouTube serve como alerta definitivo. O phishing com vídeos de IA já é uma ameaça real e exige atenção de gestores e empresas. 

Estar informado, adotar boas práticas e manter uma postura crítica diante de conteúdos digitais são as melhores defesas para proteger identidades, contas e reputações em um mundo cada vez mais conectado — e manipulável. 

Quer saber como nossas soluções podem beneficiar sua empresa? Converse com nossos especialistas!

Participe da comunidade
de tecnologia da Tripla

Copyright © 2020 Tripla

Fale com um de nossos consultores