Te veo, te oigo… y me timan, porque no eres tú. Los ciberestafadores ya clonan rostros y voces en videollamadas

Fakellamada
Sin comentarios Facebook Twitter Flipboard E-mail

Los ciberestafadores no dejan de innovar. ¿Hacerse pasar por un familiar cercano en una conversación de mensajería basada en texto? Lo tenemos, gracias a la ingeniería social. ¿Hacerse pasar por un familiar cercano en una conversación de telefónica basada en voz? Lo tenemos, gracias a la inteligencia artificial.

Pero, ¿una conversación por videollamda en la que podemos tanto oír como ver en directo a un amigo pedirnos dinero… y que, aun así, no sea él? Eso es menos habitual. Pero, de nuevo, los avances en el campo de la inteligencia artificial hacen que esta clase de fraudes sean factibles… y quién sabe si en un tiempo no dejarán de ser noticia.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

El amigo de Guo

Por ahora, la experiencia de 'Guo', apellido de un empresario chino del que no se ha revelado el nombre, sí es noticia. Se trata del propietario de una empresa tecnológica con sede en la ciudad de Fuzhou, al que robaron 4,3 millones de yuanes (casi 570.000 €) gracias a una videoconferencia… en la que el estafador usó la voz y la cara de un amigo cercano suyo.

Este 'amigo fake' le contactó por WeChat el pasado 20 de abril pidiéndole que realizara una transferencia de dinero desde la cuenta bancaria de su compañía, con el objetivo de pagar un depósito de garantía para una licitación, prometiendo devolverlo de inmediato. Guo respondió a la solicitud de su 'amigo' y le transfirió el dinero.

El estafador llegó a enviarle una captura de pantalla (fake, por supuesto) de un registro de transacciones que mostraba que el dinero había sido devuelto, extremo que no llegó a verificar: "Bajé la guardia, [al fin y al cabo] estaba convencido de haber reconocido el rostro y la voz en la videollamada". La cosa se complicó, claro, cuando el verdadero amigo de Guo afirmó más tarde desconocer de qué le estaba hablando.

Tras denunciar lo ocurrido, la policía local de Baotou (ciudad donde se encontraba la entidad bancaria del estafador) confirmó a los medios locales que habían logrado recuperar 3,36 millones de yuanes de los 4,5 que se robaron.

Yo te doy el material para que estafes a la gente de mi entorno

El impacto mediático de esta noticia en China —que generó un acalorado debate en Weibo (el 'Twitter chino') sobre la amenaza de los deepfakes— permitió que saliera a la luz un caso similar, esta vez protagonizado por un 'jefe fake' que ordenó a un empleado que transfiriese 48.000 yuanes a su cuenta, actuando también mediante videollamada.

Todo el material que necesitan los ciberestafadores se resume en software de IA disponible en el mercado, y en clips de vídeo y audio a partir del cual generar los deepfakes… material que nosotros mismos proporcionamos con nuestras publicaciones en plataformas sociales.

Imagen | Generada por Marcos Merino mediante IA

En Genbeta | Intentaron timarle por WhatsApp, pero los estafadores no esperaban la forma en que les respondió

Comentarios cerrados
Inicio