Clonaron su voz con IA y usaron un vídeo suyo de YouTube: así fue como el CEO de esta famosa empresa fue víctima de un deepfake

Los responsables del fraude utilizaron la inteligencia artificial para clonar su voz y un vídeo de YouTube en el que aparecía

Bloomberg
1 comentario Facebook Twitter Flipboard E-mail

A lo largo de los últimos años, la inteligencia artificial generativa ha demostrado ser un campo con un gran potencial en multitud de áreas. Si bien ya hemos visto un pequeño ápice de todo lo que puede ser capaz una herramienta como ChatGPT, Midjourney, plataformas como ElevenLabs, e incluso la potente herramienta de OpenAI para generar vídeos realistas, este tipo de tecnologías también han estado envueltas en polémicas debido a lo fácil que puede llegar a ser engañar a una persona o a un organismo institucional hoy día.

Uno de los últimos ejemplos involucra a la firma de publicidad más grande del mundo. Y es que Mark Read, CEO de WPP, ha sido víctima de una nueva estafa de deepfake en la que han clonado su voz mediante inteligencia artificial. Tal y como mencionan en The Guardian, Read ha detallado el intento de fraude en un e-mail a la empresa, advirtiendo a otros miembros sobre el peligro de la existencia de otras llamadas de cargos importantes que también puedan haber sido un fraude.

Una creciente ola de fraude mediante el uso de la IA

Los responsables de este fraude crearon una cuenta de WhatsApp con una imagen pública de Read y la utilizaron para iniciar una reunión en Microsoft Teams que resultó ser una llamada junto a otros altos cargos de la empresa. Durante la llamada, los impostores lanzaron un audio con la voz clonada del CEO de la empresa junto a un vídeo de YouTube en el que aparecía él.

La estafa, que no tuvo éxito, consistió además en pedir a un responsable de la agencia que se creara una nueva empresa con el intento de solicitar dinero y datos personales. “Afortunadamente, los atacantes no tuvieron éxito”, escribió Read en el correo electrónico. “Todos debemos estar atentos a las técnicas que van más allá de los correos electrónicos para aprovecharse de las reuniones virtuales, la IA y los deepfakes”, continuaba Read.

Un portavoz de WPP confirmó este intento de estafa a través de un comunicado oficial: “Gracias a la vigilancia de nuestra gente, incluido el ejecutivo afectado, se evitó el incidente”. WPP no informó acerca de cuándo se produjo el ataque ni qué ejecutivos, además de Read, estuvieron implicados.

Durante los últimos años hemos presenciado multitud de ejemplos de cómo ciberdelincuentes utilizan diversas herramientas basadas en inteligencia artificial generativa para crear deepfakes o utilizarlas para usos no deseados, como el fraude online. Herramientas para clonar rostros y voz están al alcance de cualquiera, y si bien pueden ser plataformas útiles para determinados propósitos, también pueden resultar ser un grave problema, permitiendo que cualquiera pueda suplantar la identidad de cualquiera.

El intento de fraude en WPP parece haber sido por medio de una herramienta para clonar la voz de su CEO, Mark Read, entre otros métodos. Según admite Read en el e-mail, han detectado técnicas cada vez más sofisticadas en ciberataques dirigidos a otras compañías similares, intentando suplantar la identidad de ejecutivos con un alto cargo también.

Para cerciorarse de que se minimicen este tipo de ataques, Read escribió una serie de puntos clave en el correo, entre ellos marcó como ‘red flags’ la petición de contraseñas, transferencias de dinero y otras transacciones de las que nadie tenga conocimiento. “Solamente porque la cuenta tenga mi foto no significa que sea yo”, afirmaba Read en el correo.

Tal y como decíamos, WPP es la compañía de publicidad más grande del mundo, con un capital bursátil superior a 11.300 millones de dólares. Según afirman en su sitio web, últimamente han estado lidiando con todo tipo de fraudes, los cuales hacían uso de su imagen y nombre para crear páginas web clonadas.

Imagen de portada | Jason Alden (Bloomberg)

En Genbeta | El CEO de OpenAI desvela el uso más común que le damos a ChatGPT. Y pide filosofar menos en Twitter y más trabajo real en seguridad

Comentarios cerrados
Inicio