O uso da inteligência artificial vem ganhando cada vez mais espaço, no entanto, é necessário se atentar aos golpes que circulam utilizando as novas tecnologias. Um desses golpes é o deepfake, onde vídeos aparentam ser reais, mas não são. Nesses golpes são utilizadas figuras famosas em todo o Brasil e mundo, na esperança de passar credibilidade na informação transmitida.
O deepfake combina inteligência artificial e manipula o processamento de imagens, vídeos e sons de uma pessoa para que ela pareça fazer e dizer coisas que na verdade nunca fez ou falou. Nos últimos meses, figuras públicas da política como Sérgio Moro (União Brasil), o ministro Alexandre de Moraes e deputado federal Nikolas Ferreira tiveram suas imagens usadas nesses crimes cibernéticos.
Os casos de deepfake envolvendo os políticos tratavam-se de estelionatários que querem aplicar o ‘golpe do Serasa’. A imagem das figuras públicas são utilizadas na intenção de passar credibilidade. Nesse golpe, as pessoas repassam dados pessoais na esperança de repasses de créditos. Para isso, os golpistas utilizam um site fake para roubar dados.
LEIA TAMBÉM: Golpes com Deepfake: saiba como se proteger
O “site oficial” do Serasa que os golpistas recomendam, na verdade, é um link suspeito onde os usuários informam dados pessoais que podem ser utilizados em golpes. A empresa também é vítima.
O vídeo fake do deputado Nikolas já acumulou mais de 11,2 mil visualizações e 80 comentários, sendo a maioria alertando para o golpe. O perfil responsável pela postagem tem apenas quatro seguidores, mas utiliza impulsionamento pago para aumentar o alcance do conteúdo fraudulento.