La historia de cómo una voz hecha con deepfake puede robar mucho dinero: así se logra imitar la voz de otra persona

Soundtrap Pdo Fdwxq5i Unsplash
1 comentario Facebook Twitter Flipboard E-mail

Clive Kabatznik es un inversor de Florida que hace unos días protagonizó un gran timo con una tecnología muy avanzada. Todo comenzó cuando él llamó a su representante de Bank of America para pedir hacer una gran transferencia de dinero.

Poco después, el trabajador de ese banco recibió otra llamada de alguien diciendo que era Kabatznik y hasta con la misma voz, y que pedía que la transferencia de la que habían hablado antes fuera enviada a otro destino.

Luego se supo que un programa informático había generado su voz para hacerse pasar por el inversor. Concretamente, se había usado una tecnología para generar deepfakes de voz. Y este no es un caso aislado, según los expertos.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

Así se detectó el fraude

En este caso, lograron detectar que era un fraude. Según la descripción de la banquera, parecía que el estafador intentaba convencerla de transferir el dinero a un nuevo destino, pero la voz era repetitiva, incluso seguía hablando cuando ella lo hacía y utilizaba frases confusas. 

El Banco no quiso hablar con los medios pero fue el inversor víctima de la estafa quien ha relatado lo que sucedió, según lo que le contó el personal de Bank of America. Kabatznik ha explicado que, tras recibir otras dos llamadas similares seguidas, la banquera informó al equipo de seguridad de Bank of America. 

Luego incluso dejaron de responder a sus llamadas y sus correos (también a los que eran del verdadero inversor). Kabatznik acabó yendo en persona a las oficinas del banco 10 días más tarde para comprender qué estaba pasando y por qué nadie le respondía. 

Cómo se pueden preparar estos ataques

Según recoge The New York Times, Pindrop es una empresa que supervisa el tráfico de audio para diversos grandes bancos en Estados Unidos y ha visto que este año se han ido sofisticando los intentos de fraudes con voz. Hablan de que es aun un problema muy nuevo y que por ello no hay un buen recuento hecho de cuántas de estas estafas se producen.

Los estafadores cibernéticos tienen varias herramientas a su disposición para lograr llevar a cabo estafas de tal calibre. En los mercados clandestinos o en la dark web se pueden comprar datos de personas como cuentas bancarias e información personal.

Si hablamos de gente con mucho dinero (por ejemplo, grandes inversores o directivos) puede ser que hayan participado en encuentros públicos o que tengan en sus redes sociales algún vídeo donde salen hablando, simplemente. Los delincuentes pueden buscar intervenciones de ellos online para conocer cómo es su voz y recopilar esas muestras de audio.

Por ejemplo, en el caso del protagonista de esta historia, hay contenidos en inernet donde aparece y de ahí se puede sacar su voz: videos de él hablando en una conferencia o participando en una recaudación de fondos.

Un fenómeno nuevo pero en auge

De acuerdo con Pindrop, que ha revisado las grabaciones de más de 5.000 millones de llamadas recibidas en los centros de atención telefónica de las empresas financieras a las que presta servicios, hay una enorme cantidad de llamadas que llegan de estafadores (normalmente entre 1.000 y 10.000 al año).

Lo que cambia ahora es que mientras que las voces falsas creadas por programas informáticos solo representaban unas pocas de estas llamadas, la empresa ha visto un gran impulso este año. Es muy común que alguien llame diciendo que su tarjeta de crédito ha sido rechazada para conseguir que les den dinero por otras vías o datos propios de la tarjeta. 

Aunque por ahora, en su mayoría, estas estafas de voz suelen ser rudimentarias porque muestran una voz muy robótica, de acuerdo con informaciones de la mencionada empresa, los deepfakes van a mejorar sus técnicas y harán este proceso mucho más realista para lograr el objetivo de llegar a robar dinero.

En Genbeta | Parece Elon Musk recomendando criptomonedas, pero en realidad es un 'deepfake' hecho para estafar a la gente

Imagen | Foto de Soundtrap en Unsplash 


Comentarios cerrados
Inicio