CRIMES DO FUTURO OU DO PRESENTE?

Golpes com inteligência artificial podem roubar seu rosto, sua voz e sua senha; saiba se proteger

Criminosos conseguem se passar por familiares, ídolos e colegas de trabalho das vítimas em roubos com um nível crescente de sofisticação

O Tempo/Gabriel Rodrigues
Publicado em 23/09/2024 às 11:33
Compartilhar

Estelionatários se valem de imagem de pessoas famosas em redes sociais para criar golpes, usando a IA (Foto/Rodney Costa/O Tempo)

Ela adivinha a senha das suas redes sociais em um minuto, rouba seu rosto e sua voz para pedir um Pix à sua família, cria sites e emails falsos para fazê-lo comprar produtos que nunca chegarão e pode até fazê-lo aparecer em vídeos pornográficos que você jamais gravou. É a inteligência artificial (IA), tecnologia que caiu nas mãos de criminosos e se tornou uma forma de eles economizarem nos golpes e alcançar um número nunca antes visto de vítimas.

Dados confirmam o perigo. Três segundos de mensagem sonora é o que basta para criminosos clonarem uma voz, em golpes nos quais 77% das vítimas perdem dinheiro, segundo a empresa de cibersegurança McAfee. Pouco mais da metade das senhas mais comuns utilizadas na internet são adivinhadas pela IA em menos de um minuto, mostra um levantamento da companhia Security Hero. Também de acordo com ela, só no último ano, foram despejados na internet 95.820 vídeos com uso de deepfakes — vídeos que usam o rosto de alguém para dizer algo que a pessoa nunca falou.

São táticas sofisticadas para roubar. O diretor da equipe global de pesquisa e análise da empresa de segurança Kaspersky para a América Latina,  Fabio Assolini, exemplifica com um caso. “Presenciei uma fraude em que a pessoa perdeu R$ 20 mil. Um empresário recebeu um áudio de um número desconhecido, e a pessoa se apresentava com alguém que ele conhecia, mas com um número novo. Quando o empresário ouviu, reconheceu a voz do amigo, que pedia para ele enviar produtos a um endereço. Ele enviou e achou estranho que o pagamento não veio”. Ao entrar em contato com o cliente no número que ele conhecia, o empresário confirmou: foi vítima de um golpe com uso de uma IA que imitava uma voz.

O especialista em segurança destaca mais novidades do arsenal criminoso. “A partir de uma foto 3x4, pode-se usar ferramentas de IA que conseguem gerar movimentos de uma cabeça, em que ela vira para um lado para o outro, pisca e sorri. Esse vídeo burla os mecanismos de autenticação biométrica utilizados por bancos e é usado na hora de pedir um empréstimo no seu nome. Os criminosos já tinham os seus dados, que vazaram em algum lugar, mas não tinham sua cara”.

A IA também é utilizada para aprimorar o trabalho dos criminosos. Com ferramentas parecidas com o ChatGPT, eles revisam o texto das mensagens de phishing — aquelas que chegam por email ou SMS para convencer as vítimas a compartilhar dados sensíveis. “Encontramos grupos oferecendo acesso a serviços privados só para gerar textos convincentes para ataques de phishing. Eles geram textos sem erros gramaticais e em outros idiomas. Uma das técnicas que utilizávamos para saber se a mensagem era verdadeira era ver se o email tinha erros de ortografia”, prossegue Assolini. Serviços similares também têm sido utilizados, diz ele, para revisar o código de vírus e torná-los mais fatais para os computadores.

Qualquer pessoa é suscetível a cair em um golpe, pois há diferentes crimes para diferentes perfis de vítima. Ficou famoso, por exemplo, o caso de um executivo de uma multinacional em Hong Kong que transferiu US$ 25 milhões para criminosos que se passaram por colegas conhecidos em uma videochamada de trabalho com uso de vídeos falsos criados com IA. Primeiro, ele relata ter ficado desconfiado, mas quando entrou na sala online e viu tantos rostos conhecidos, relaxou.

Esses golpes usam a engenharia social — técnica que usa informações suas para convencê-lo a ceder mais dados voluntariamente. “Os alvos são empresários do setor financeiro. Os criminosos falam que é uma negociação urgente e se passam por diretores, fazem videochamadas”, descreve Assolini, da Kaspersky. Embora concentrados no alto escalão corporativo, esses mesmos golpes poderiam, sim, ser utilizados para enganar uma família, com uma pessoa utilizando o rosto de um filho para pedir dinheiro aos pais, reconhece ele.

As versões gratuitas dos softwares de vídeo costumam ter imperfeições claras: mais dentes ou dedos do que o habitual, por exemplo. Já as versões pagas eliminam esses erros. Chegar a resultados quase perfeitos de imitação de alguém demanda recursos, programas e conhecimentos superiores, por isso é mais comum encontrá-los quando se trata de grandes somas de dinheiro. No dia a dia do crime, contudo, esse nível de sofisticação não é necessário, e as imitações podem ser realizadas de forma mais barata.

“Os criminosos não precisam de resultados profissionais para conseguir aplicar um golpe. Muita gente ainda não teve contato com a tecnologia e acaba nem percebendo se tratar de uma armadilha, mesmo com o vídeo ou áudio contendo falhas”, alerta o jornalista e CEO da empresa de mídia Sintetica.ai, Brunno Sarttori, especializado na criação de deepfakes artísticas e humorísticas.

Para a IA, você é a matéria-prima do golpe

Além de cair em um golpe, é possível ser a matéria-prima dele. Há algumas semanas, o influenciador Dario Centurione, do perfil Almanaque SOS, avisou ao 1,6 milhão de seguidores que um vídeo que usava seu rosto e sua voz para vender caixas de bombom da Cacau Show era falso. Não foi a primeira vez que usaram sua imagem para um crime: uma deepfake sua também foi utilizada para pedir um empréstimo de R$ 600 ao seu pai, que caiu no golpe.

Na última semana, algo parecido ocorreu com a influenciadora e empresária do ramo da beleza Bruna Tavares. Com 3,5 milhões de seguidores no Instagram, ela se deparou com uma conta falsa que usava sua voz para anunciar maquiagem. “Eu tremi, o coração acelerou. Eu já tinha esse medo. A gente acompanha a inteligência artificial, é um recurso que eu uso muito, é muito legal. Mas eu tinha muito medo de isso acontecer, pensava ‘imagina se alguém usa minha voz ou a minha imagem para aplicar algum tipo de golpe’. Foi assustador. Você identifica sua voz, mas falando de um jeito diferente. É como se você tivesse sido usurpada, é uma sensação de roubo. É muito esquisito”, conta à reportagem.

Do outro lado da tela, ouvindo e vendo as imagens falsas de influenciadores e atores conhecidos, estão multidões de usuários das redes sociais suscetíveis aos mais diferentes golpes. Mesmo conhecendo as técnicas utilizadas por golpistas e até escrevendo sobre elas, uma jornalista que prefere não se identificar relata como caiu em uma fraude.

“Eu caí em um golpe pelo story do Instagram. Por mais que tenha desconfiado da 'oferta', acabei caindo porque achei tudo muito 'perfeito' para ser um golpe. Não pensei na inteligência artificial na hora. Apareceu um vídeo de uma blogueira de maquiagem famosa pedindo para que eu respondesse a uma pesquisa de satisfação para ganhar um brinde. Fui até o final, preenchi todos os meus dados e paguei uma taxa de R$ 20, que seria o frete. Assim que finalizei, caí na real de que era um golpe. Depois, apareceu o mesmo vídeo, mas dessa vez usando outra blogueira de maquiagem. O valor que perdi foi baixo, mas os dados pessoais que informei me deixaram mais preocupada”.

As blogueiras utilizadas no golpe são pessoas públicas, com milhões de seguidores nas redes sociais e horas de vídeos disponibilizados na internet, por isso os criminosos têm acesso a mais material para alimentar as ferramentas de IA. Mas mesmo quem não é um influencer produz muito conteúdo, um prato cheio para os golpistas. Uma pesquisa do antivírus McAfee mostra que 53% dos adultos compartilham a voz pelo menos uma vez por semana na internet.

Em alguns casos, a fraude parece tão bem-feita que as vítimas não conseguem entender se houve ou não uso de IA. Quando o WhatsApp da loja de serviços para animais domésticos Pet Chopp foi clonado, clientes e amigos do dono, Gilmar Junior, 35, começaram a receber ligações dos criminosos sobre um suposto sorteio de banho e tosa. “Muitos clientes caíram. Até amigos, porque falaram que a voz era a minha e tinha um cachorro latindo no fundo. A voz era idêntica e se passava por mim, falava que era eu. E, com os cachorros latindo, todo mundo falou ‘é o Júnior, com certeza’”.

Até onde chega o Vale da Estranheza?

As simulações de humanos criadas por inteligência artificial podem ser muito boas, mas não são perfeitas. A sensação incômoda de olhar uma imagem criada por IA sem saber exatamente o que há de diferente entre ela e uma foto ou um vídeo real é chamada, no meio da tecnologia, de Vale da Estranheza. Em alguns casos, esse vale metafórico é tão extenso que fica fácil diferenciar uma IA de um ser humano. Técnicas avançadas, entretanto, dificultam isso cada dia mais.

A perspectiva de quem trabalha com tecnologia é que, muito em breve, será quase impossível um leigo diferenciar conteúdos que mostram uma pessoa real daqueles feitos por uma inteligência artificial. O futuro — e o presente — para quem não ficar atento é sombrio, prevê o jornalista e CEO da empresa de mídia Sintetica.ai, Brunno Sarttori, especializado na criação de deepfakes.

“As IAs estão se aperfeiçoando desde o primeiro dia que foram criadas. Dicas que funcionavam há seis meses já não são tão eficazes. Em áudios, é bastante difícil para um leigo identificar uma falsificação. Em vídeos, pode haver defeitos como a dessincronização entre a boca e o que é falado, ou diferença de nitidez entre o rosto e o resto do vídeo. A tendência é que, em poucos anos, essa estranheza já não seja sentida em conteúdos sintéticos criados com as novas tecnologias”, diz.

Quando real e fraude se misturam, como se proteger dos golpes feitos com IA?

Se não é mais possível reconhecer tecnicamente o que é real ou não, a recomendação do especialista em deepfakes Brunno Sarttori é recorrer à confiança. “A melhor dica é desconfiar de pedidos de dinheiro e criar uma palavra secreta entre você e seus contatos. Quando pedirem dinheiro ou algo suspeito, solicite a palavra secreta”, aconselha.

Mesmo protegidos por camadas de tecnologia, os criminosos podem ser descobertos e responsabilizados, reforça a presidente da Comissão de Direito Digital da Ordem dos Advogados do Brasil (OAB-MG), Chayana Rezende, que insiste que as vítimas devem denunciar os golpes.

“Em situações em que a identidade do criminoso não é conhecida, a vítima ainda pode tomar certas medidas legais. Primeiramente, é possível processar as plataformas digitais em que o conteúdo falso foi disseminado, especialmente se elas não agiram com a devida diligência e presteza após serem notificadas sobre o conteúdo prejudicial. O Marco Civil da Internet no Brasil garante o direito de a vítima exigir a remoção de conteúdo prejudicial. Caso as plataformas falhem nesse dever, podem ser responsabilizadas”, diz.

A empresária Bruna Tavares, cuja voz foi clonada, conta que conseguiu que a Meta, dona do Instagram, retirasse do ar com celeridade o perfil que compartilhou o golpe. “Até onde sabemos, derrubamos. Só que, nesse tipo de golpe, criam outras contas. Então acreditamos que podem surgir mais e estamos de olho”, diz.

Já o especialista em deepfakes Brunno Sarttori desenha um cenário mais desolador. “As chamadas Big Techs [grandes empresas de tecnologia] têm capacidade para detectar qualquer conteúdo falso em tempo real, mas não o fazem. Custa dinheiro processar esses dados e não há qualquer tipo de pressão para que elas façam isso. Não há leis que as responsabilizem, e não há uma sociedade exigindo proteção enquanto usam esses serviços. Além disso, essas empresas lucram rios de dinheiro diariamente com esses golpes. Elas recebem para criar anúncios com eles e ganham ainda mais quando entregam esses golpes para as pessoas que sabem que vão cair neles. São coautoras desses crimes, mas não respondem por eles. Vão fechar essa torneira e criar gastos por quê?”, questiona.

Esse “roubo” da identidade é velho conhecido na cultura pop, presente nas metamorfoses da personagem Mística, de “X-Men”, e nos “homens sem rosto” da série “Game of Thrones”. Agora, ele saiu da ficção e, para o especialista em segurança cibernética Fabio Assolini, não tem retorno. “É um caminho sem volta, uma tecnologia que veio para ficar. Neste primeiro momento, a autenticidade de qualquer áudio ou vídeo tem que ser questionada, porque eles podem ser manipulados. Tínhamos áudio e vídeo como provas cabais, inclusive em processos judiciais. Mas chegamos a um ponto em que eles não são provas cabais de nada. O que precisamos é educar as pessoas”, arremata.

Fonte: O Tempo

Assuntos Relacionados
Compartilhar

Nossos Apps

Redes Sociais

Razão Social

Rio Grande Artes Gráficas Ltda

CNPJ: 17.771.076/0001-83

JM Online© Copyright 2024Todos os direitos reservados.
Distribuído por
Publicado no
Desenvolvido por