Golpistas roubam mais de R$ 125 milhões de empresa em reunião falsa gerada por IA

Compartilhe

Conforme a investigação do caso, os autores da fraude teriam tido acesso a vídeos reais de videoconferências anteriores da empresa.

Um funcionário do departamento financeiro de uma multinacional em Hong Kong transferiu mais de US$ 25 milhões para golpistas após ser enganado por uma deepfake do seu chefe durante uma videoconferência falsa. A fraude, ocorrida em janeiro, foi revelada pelas autoridades locais.

Segundo a polícia de Hong Kong, o colaborador foi convidado a participar da reunião online na qual estariam, supostamente, o líder do setor financeiro (CFO) da companhia, e outros colegas de trabalho. No entanto, o homem era a única pessoa real no chat, os demais participantes foram gerados por inteligência artificial.

Na conversa, o suposto CFO solicitou ao trabalhador que fizesse 15 transferências para cinco contas bancárias em um total equivalente a mais de R$ 125 milhões pela cotação do dia. Inicialmente desconfiado, ele se convenceu de que conversava com o chefe após outras “pessoas” entrarem na reunião virtual.

O funcionário só descobriu que havia sido alvo de golpistas após entrar em contato com a sede da corporação. Nomes e outras informações da empresa e da vítima envolvida no primeiro golpe de videoconferência deepfake em Hong Kong não foram revelados.

Conforme a investigação do caso, os autores da fraude teriam tido acesso a vídeos reais de videoconferências anteriores da empresa. Em seguida, aproveitaram ferramentas de IA para adicionar vozes falsas às pessoas que aparecem nas imagens, na tentativa de enganar a vítima.

As autoridades alertaram que esse tipo de golpe tem crescido em Hong Kong, onde seis acusados de usarem a tecnologia em atividades criminosas acabaram presos nas últimas semanas. Além disso, foram registradas pelo menos 20 tentativas de uso de deepfakes para enganar softwares de reconhecimento facial na região.

Verificar informações junto aos canais oficiais de comunicação da empresa é uma das medidas para evitar cair no golpe da videoconferência de deepfake, como destacou a polícia local. Além disso, também é válido e fazer perguntas para confirmar se as pessoas que estão participando de reuniões online suspeitas são reais.

Recentemente, a cantora Taylor Swift foi alvo de cibercriminosos que usaram a tecnologia para criar imagens pornográficas geradas por IA com a aparência da estrela pop. Depois disso, senadores americanos apresentaram um projeto de lei para facilitar que as vítimas de campanhas como esta processem os autores.

Você pode gostar...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Skip to content