Essa história de roubo de banco é tão incomum e tecnológica que marca praticamente uma divisa entre o mundo do passado e o mundo do futuro.
Basicamente, o gerente de banco nos Emirados Árabes Unidos foi enganado pelo estelionatário a autorizar uma transferência de US$ 35 milhões de um cliente importante depois de receber uma confirmação vocal do titular da conta.
Só que não era quem o gerente pensava que era…
A história ocorreu há algum tempo e o nome do gerente do banco nos Emirados Árabes Unidos recebeu uma ligação de um cliente de longa data – o diretor de uma empresa com quem já havia conversado diversas vezes.
O homem estava animado porque sua empresa estava prestes a fazer uma aquisição importante, então ele precisava que o banco autorizasse uma transferência de US$ 35 milhões o mais rápido possível. O cliente acrescentou que um advogado chamado Martin Zelner havia sido contratado para lidar com a aquisição, e o gerente verificou e viu os e-mails do advogado em sua caixa de entrada. Ele havia falado com o cliente antes, ele reconheceu sua voz e tudo o que ele disse foi confirmado.
Parecia só mais uma atividade de rotina, e assim ele cometeu o erro mais caro de sua carreira…
O gerente do banco autorizou as transferências bancárias, confiante de que tudo era legítimo, mas, na realidade, ele havia acabado de ser vítima de uma fraude incrivelmente bem elaborada e construída com base em alta tecnologia. A pessoa com quem ele havia falado ao telefone havia usado a tecnologia “deepvoice” com inteligência artificial para clonar a voz do cliente do banco e impossibilitar que alguém a diferenciasse da original.
O mega-assalto foi revelado em documentos judiciais nos quais os Emirados Árabes Unidos buscavam a ajuda de investigadores americanos para rastrear parte dos US$ 35 milhões (US$ 400.000) que aparentemente foram para contas nos EUA mantidas pelo Centennial Bank.
Poucas informações foram reveladas neste caso, além do fato de que as autoridades dos Emirados Árabes Unidos acreditam que o esquema elaborado envolveu pelo menos 17 pessoas e que o dinheiro foi enviado para contas em todo o mundo, para dificultar o rastreamento e a recuperação. A história foi coberta pela revista Forbes , mas os envolvidos no caso por motivação das investigações estarem em curso, não quiseram se manifestar ou dar muitos detalhes.
“Manipulação de áudio, que é mais fácil de orquestrar do que fazer deep fake videos , só vai aumentar de volume e sem a educação e conscientização desse novo tipo de vetor de ataque, juntamente com melhores métodos de autenticação, mais empresas provavelmente serão vítimas de conversas muito convincentes”
Num futuro bem próximo (praticamente hoje) um criminoso pode extrair amostras de sua voz a partir de um simples video do youtube e usar essa voz para ligar para seu gerente ou pessoas com o qual você se relaciona e tentar tirar dinheiro delas. Uma maneira eficaz de evitar isso envolve combinar uma palavra secreta com seus pais ou parentes próximos, para que somente dando essa senha, a pessoa se certifique que está falando mesmo com você.