Este vídeo deepfake en español es tan bueno que mucha gente caerá en su estafa: logra que el Telediario de La1 nos la cuele

Con voces que emulan a las reales y una aceptable sincronización labios/sonido, representa un buen ejemplo de cómo las nuevas herramientas de IA están siendo aprovechadas por los timadores

Hace poco, te hablábamos del auge de los timos publicitados en redes sociales y supuestamente protagonizados por 'celebrities' españolas, desde Resines hasta la Familia Real, que se basan en supuestas capturas de declaraciones televisivas, a veces acompañadas de (falsas) entrevistas publicadas en medios, para promocionar campañas de phishing, estafas piramidales o

Ahora, en un nuevo y alarmante caso de desinformación y fraude online, hemos localizado, circulando por Facebook, un vídeo que presenta a destacadas figuras públicas —como la hija de Amancio Ortega o el gobernador del Banco de España— promocionando las excelencias de un presunto proyecto financiero revolucionario, liderado el presidente de Inditex que ofreceenormes  ganancias a todos sus usuarios.

Ana Blanco lo dice y Marta Ortega lo confirma, ¿cómo va a ser mentira?

El vídeo en cuestión ha estado circulando en las redes sociales, atrayendo la atención de miles de usuarios que buscan 'oportunidades financieras', se presenta como un fragmento de una emisión del telediario de La 1, y recoge supuestas declaraciones de la hija de Amancio Ortega o del gobernador del Banco de España vendiendo las excelencias del proyecto.

En el vídeo, Ana Blanco, presentadora de noticias de TVE, afirma que "Hasta finales de diciembre todos los españoles podrán aumentar sus 260 euros a 26.000 euros garantizados". A continuación, se aclara que los usuarios sólo tienen que comprobar el saldo "por la mañana y por la noche, eso es todo" porque las "tecnologías de redes neuronales" se encargan de todo.

Todo ello, con lo que parecen ser las voces reales de los protagonistas del vídeo. Sin embargo, esa noticia nunca se ha emitido en TVE, ni esas declaraciones se han realizado nunca: estamos ante un caso de deepfake generado mediante IA.

Por la boca muere el pez

  • Incoherencias. El vídeo menciona hasta en dos ocasiones que "los españoles podrán aumentar sus 260 euros a 26.000 euros garantizados". ¿"Sus 260 euros"? ¿Qué 260 euros garantizados ingresamos "todos los españoles" ahora mismo (y por qué no los estoy cobrando)? ¿Y por qué habla de "todos los españoles" si poco después se habla de que "hemos decidido abrir el acceso al proyecto a los primeros 10.000 españoles"? Y eso por no mencionar al jubilado que afirma que "sólo esta semana ha ganado 4.000 euros"… porque, a ese ritmo, difícil veo llegar a los 26.000 en un mes.
  • Lenguaje efectista de publicidad cutre. Ana Blanco diciendo "Te quedarás en shock" en mitad de un informativo (con el mismo tono uniforme con el que podría estar hablando de cualquier reunión semestral de ministros de agricultura en Estrasburgo). Una reportera de TVE aseverando que "este evento seguramente entrará en la historia de toda España", etcétera. Por el amor de Dios, qué prosa… ¿quiénes sois los que estáis detrás de esta estafa, que me ofrezco de guionista?
  • No es lo que dice, es lo que calla. Aún después de ver el vídeo entero, no sabemos cómo se llama el revolucionario proyecto (lo primero que te dirían en un informativo), cuál es su página web, ni nada. Sólo tenemos, al final del clip (pero fuera de la supuesta grabación del Telediario fake) un mensaje de "Sigue el enlace y comienza a ganar hoy". La publicación de Facebook de la que hemos extraído el vídeo (a todas luces copiado de otra parte) no incluye ningún enlace, lo que nos hace pensar que el vídeo fue elaborado pensando en poder ser reciclado para diferentes estafas con distintos nombres.

¿Qué podemos hacer?

El auge de los deepfakes y la atención mediática en torno a ellos comenzó mucho antes de la actual edad dorada de las plataformas de IA, aunque es cierto que con el tiempo los resultados han ido mejorando (ojo a esa sincronización boca/sonido) al tiempo que se reducían el dinero y/o los conocimientos necesarios para realizar estos vídeos falsos.

De hecho, hace ya tres años que Synthesia, por ejemplo, nos ofrecía 'guionizar' vídeos de actores (éstos, anónimos) con IA.

¿Qué podemos hacer, entonces, los usuarios que nos vemos expuestos a esta clase de desinformación? Bueno, pues…

  • Ser (muy) escéptico ante cualquier noticia revolucionaria que, pese a haber sido supuestamente difundida en los grandes medios de comunicación de nuestro país, la primera vez que oímos hablar de ella sea en la publicación en redes sociales de algún perfil de usuario desconocido. A ver, como mínimo, verifícalo buscando en Google, que no te pillará tan a desmano si estás leyendo Facebook / Twitter / TikTok.
  • Ser (muy) escéptico ante promesas de ganancias extraordinarias sin riesgo (nadie da duros a cuatro pesetas ni galeones a quince knuts, que cada generación elija el dicho que prefiera): busca asesoramiento profesional antes de tomar decisiones financieras importantes.

En Genbeta | Ya podemos generar vídeos con IA en minutos y preocupa: así es la nueva estafa que usa un deepfake muy realista de MrBeast

Ver todos los comentarios en https://www.genbeta.com

VER 6 Comentarios

Portada de Genbeta