Nuevo ejemplo de las ciberestafas que suplantan a famosos: esta vez, un deepfake de vídeo de la presentadora Sandra Golpe

A los estafadores ya no les basta con falsear el contenido de entrevistas escritas, y están recurriendo a la IA

Sandra Golpe
1 comentario Facebook Twitter Flipboard E-mail

Hace poco más de una semana, abordábamos en Genbeta el problema que representaba la creciente oleada de ciberestafas basadas en falsas declaraciones de famosos españoles, a los que se les utilizaba para promocionar desde productos milagro a tramas fraudulentas de inversión.

Hoy os traemos otro ejemplo de ello, aunque con algunas diferencias: si las estafas de las que hablábamos hace unos días se basaban meramente en el uso de imágenes trucadas y textos de entrevistas inventadas, la que os traemos en esta ocasión recurre a las últimas tecnologías: vídeos deepfakes que, mediante inteligencia artificial, muestran a famosos en movimiento y hablando para recomendar productos milagrosos.

Sandra Golpe, la conocida presentadora del telediario del canal Antena 3, ha sido el rostro (y la voz) suplantado para ejecutar este fraude en particular. Los estafadores, utilizando imágenes reales del informativo, han entrenado inteligencia artificial con audios de la presentadora, creando así un video falso en el que Golpe parece estar recomendando un determinado producto.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

Modus operandi

El engaño comienza cuando el usuario se topa con un vídeo online en el que, aparentemente, Golpe desvela un descubrimiento revolucionario —en este caso, una crema con propiedades curativas cuasi-milagrosas—. El vídeo incluye testimonios de supuestos médicos y expertos.

Al final, se incita a los espectadores a acceder a una determinada dirección para comprar el (inexistente) producto, clásica estrategia de 'phishing' para quedarse con el dinero de la víctima, robar sus datos bancarios y personales… y dejarla con un palmo de narices.

Rafa López, experto en inteligencia artificial citado por la web de Antena 3, advierte que este tipo de fraudes basados en inteligencia artificial está en aumento. La facilidad con que se pueden clonar voces y usarlas para crear vídeos falsos mediante aplicaciones —muchas de ellas gratuitas— que te permiten 'guionizar' lo que la voz dirá, ha hecho que este tipo de estafas sea más común y sofisticado.

Consejos a seguir

Por supuesto, es tan fácil suplantar a Sandra Golpe como a cualquier otro famoso que haya aparecido unas cuantas veces en cine y/o TV, por lo que debemos desconfiar de cualquier vídeo que veamos recomendando productos o inversiones.

De hecho, los expertos aconsejan mantener un escepticismo saludable hacia cualquier contenido que encontremos online y del que haya el más leve motivo de duda sobre su origen: recomiendan prestar atención a detalles como…

  • Discrepancias en el tono de voz.
  • Desincronización entre voz e imagen.
  • Errores en los rótulos o montajes que acompañan a la persona 'deepfakeada'.

Imagen | Montaje con la imagen real de Sandra Golpe (Antena 3) y un fondo generado mediante IA

En Genbeta | Las mejores inteligencias artificiales para convertir de texto a voz de forma realista. Narran textos (casi) como tú

Inicio