Los expertos advierten: la IA logrará que estafarnos en WhatsApp resulte mucho más fácil

Cuando puedes generar miles de mensajes diferentes en segundos, cada uno de ellos personalizado según la víctima, la tarea de detectar las estafas se complica un poco

Robotascam
2 comentarios Facebook Twitter Flipboard E-mail

Quizá hayas leído recientemente en algunos medios que WhatsApp va a acabar con las estafas recurriendo a una nueva función (que debería llegar en breve), gracias a la cual la app nos avisará cuando nuestro interlocutor muestre unos determinados patrones de comportamiento en sus mensajes que hagan pensar en spam o estafas.

Si ese rumor se confirma, sin duda será muy útil para atajar muchos de los intentos de estafa que venimos sufriendo tradicionalmente en la última década, pero no parece que vaya a cambiar mucho a la hora de la verdad. Porque ahora hay otra tecnología en juego, y la IA es buena saltándose patrones.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

Los estafadores van por delante, como de costumbre

Recientemente, Maarten Sukel, autor de un libro sobre IA y responsable de esta área en la startup neerlandesa Picnic, hablaba sobre los posibles malos usos de esta tecnología: "Lo que realmente se convertirá en un problema dentro de un año es el fraude de WhatsApp".

"Este es ahora un mensaje de texto muy simple en el que un amigo o familiar envía un mensaje de texto: Estoy en problemas, ¿pueden transferirme dinero? Pero con la IA es increíblemente fácil imitar la voz, las emociones y todo lo demás de alguien".

Lo cierto es que los estafadores llevan más de un año recurriendo a la inteligencia artificial (IA) para mejorar el rendimiento de las estafas conversacionales (la del 'timo romántico', la del 'hijo en apuros', la de 'la maleta'...).

En lugar de limitarse a usar masivamente el mismo ataque con el mismo texto y/o la misma imagen, la IA permite a los estafadores crear rápidamente miles de ataques con leves diferencias (y, además, personalizados), lo que dificulta que las víctimas (o las plataformas) detecten la estafa.

La dimensión del problema

En abril del año pasado, Stuart Jones, director de la División Cloudmark de la empresa de ciberseguridad Proofpoint, explicaba la estrategia de los estafadores:

"Lo cierto es que es un juego de grandes números, los atacantes quieren enviar estos primeros mensajes a la mayor cantidad de personas posible con la esperanza de obtener una respuesta".
"Una vez que la obtienen, usan la IA para mantener ese realismo con el objetivo que respondió, pueden cambiar de ropa o de fondo en el transcurso de una campaña definida, y ahora tienen la capacidad de ejecutar miles de ataques de apariencia diferente".

Jones explica que la gran mayoría de estos ataques conversacionales están dirigidos contra teléfonos inteligentes, especialmente a través de aplicaciones de mensajería como WhatsApp. Afirmaba que Proofpoint había sido testigo de cómo se multiplicaban por 12 esta clase de ataques durante el año anterior, llegando a detectar aproximadamente medio millón  en un período de 1-2 meses. Y estamos hablando de 2022.

Ahora, los modelos de lenguaje (como GPT-4 o Gemini Pro) son mucho más rápidos, eficaces y multimodales, y los profesionales de la estafa disponen incluso de chatbots especializados en su particular 'campo profesional', como WormGTP o FraudGPT. ¿Qué significa eso para su día a día?

Fácil, que están auxiliados en cada conversación con IAs entrenadas para hablar toda clase de idiomas, para ajustar cierto tipo de información por países (y evitar así meter la pata), o para comprender códigos tributarios complejos de cada país y vehículos de inversión. Todo esto ya facilita defraudar incluso a víctimas con un perfil mucho menos crédulo de lo normal.

Según Krishna Vishnubhotla, vicepresidente de estrategia de producto de Zimperium, una empresa estadounidense de móviles seguros, "las herramientas de inteligencia artificial reducirán prácticamente a cero los costos operativos de ejecutar estas estafas".

"No se trata sólo de responder como una persona y generar fotografías. Las herramientas permiten que las conversaciones tengan personalidad propia, adaptadas al entorno demográfico y socioeconómico de la víctima".
"Cuando estas tecnologías se utilizan indebidamente, se produce un fraude personalizado a escala. Y estos sólo evolucionarán para mejorar a medida que mejoren los modelos".

Imagen | Marcos Merino mediante IA

En Genbeta | Tu cuenta de WhatsApp corre peligro: la Guardia Civil avisa de una sencilla estafa te la puede robar

Inicio