ALERTA

Avatares criados por IA enganam usuários nas redes sociais com dicas de saúde ; entenda golpe

Estudo identificou mais de 20 contas que estariam aplicando golpes usando a imagem de profissionais de saúde

O Tempo
Publicado em 15/04/2025 às 14:35
Compartilhar

As redes sociais são cheias de promessas, expectativas e soluções para uma vida saudável e pelo emagrecimento rápido. A grande questão é que nem tudo o que a gente vê é, de fato, uma verdade que vai fazer a diferença na sua rotina. Um novo estudo da ESET, empresa de segurança cibernética, aponta que a Inteligência Artificial (IA) tem contribuído de forma efetiva para ajudar na propagação de notícias falsas no ramo da saúde. A tecnologia, nestes casos, é usada para atrair internautas com promessas milagrosas, e de uma maneira até convincente, que abre espaço para golpes e campanhas de desinformação.

A investigação identificou mais de 20 contas envolvidas nesses golpes. A Inteligência Artificial é responsável por criar avatares, inclusive usando a imagem de médicos, para propagar informações duvidosas e promover produtos sem comprovação científica, citando medicamentos populares como o Ozempic, amplamente utilizado para emagrecimento.

“Eles utilizam uma estratégia de marketing desleal ao tentar gerar uma validação falsa de supostos especialistas, para que o público acredite que a mensagem vem de alguém com conhecimento sobre o tema. A criação de imagens, vídeos ou áudios falsificados para cometer fraudes, roubar dados ou manipular a opinião pública se tornou comum no cibercrime”, comenta Daniel Barbosa, pesquisador de segurança da ESET no Brasil.

Os vídeos feitos por IA geralmente seguem um padrão e podem ser identificados se você seguir as dicas abaixo:

  • Nos conteúdos, é comum que um avatar apareça em um canto da tela, se apresentando como um profissional com décadas de experiência e compartilhando supostas dicas de saúde e estética — na maioria das vezes voltadas à alimentação ou emagrecimento.
  • Também é possível perceber indícios na 'pessoa' que aparece narrando o vídeo, como o descompasso entre os movimentos da boca e o áudio, expressões faciais rígidas ou pouco naturais, além de artefatos visuais e distorções, como bordas borradas ou mudanças bruscas de iluminação.
  • A voz pode soar robótica, artificial ou com entonação excessivamente uniforme, o que denuncia o uso de tecnologia sintética.
  • Outros pontos de alerta são contas recém-criadas, com poucos seguidores ou sem histórico relevante.
  • O uso de linguagem exagerada, com frases como “cura milagrosa”, “os médicos não querem que você saiba disso” ou “100% garantido”.
  • Também é comum que esses conteúdos apresentem afirmações sem respaldo científico ou baseadas em fontes de baixa reputação, além de apelos à urgência e pressão para a compra imediata, como “por tempo limitado” ou “restam poucas unidades”.

Os vídeos podem usar a imagem de profissionais de saúde que realmente existem para criar, por meio da IA, os avatares. A prática faz parte de um programa em que influenciadores podem autorizar o uso da própria imagem para ganhar dinheiro com isso.

“Esse tipo de conteúdo viola os Termos de Uso das redes sociais. A ESET ressalta que os usuários também precisam estar atentos ao se envolver com plataformas de geração de conteúdo por IA. Criadores de conteúdo que consideram participar de programas remunerados devem entender como sua imagem será utilizada e por quem”, afirma o estudo.

Veja alguns exemplos de vídeos falsos identificados pelo estudo a ESET:

Fonte: O Tempo

Assuntos Relacionados
Compartilhar

Nossos Apps

Redes Sociais

Razão Social

Rio Grande Artes Gráficas Ltda

CNPJ: 17.771.076/0001-83

JM Online© Copyright 2025Todos os direitos reservados.
Distribuído por
Publicado no
Desenvolvido por