ChatGPT es una de las IAs a la que los grupos de hackers recurren para optimizar sus ciberataques, según OpenAI y Microsoft

  • Ambas empresas, implicadas en el desarrollo de la herramienta líder de IA, reconocen que está siendo usada por grupos de ciberdelincuentes

  • Aunque también avisan que están tomando medidas para evitarlo

Ia Hackers
Sin comentarios Facebook Twitter Flipboard E-mail

En el último año, los expertos han sido testigos de un incremento en la velocidad, escala y sofisticación de los ciberataques, casualmente un fenómeno que ha ido de la mano con el rápido desarrollo y adopción de la Inteligencia Artificial. O no tan casualmente, porque Microsoft y OpenAI han revelado hoy una investigación conjunta que revela que los hackers ya están utilizando modelos de IA (como el propio ChatGPT) para optimizar sus estrategias de ciberataque.

Así, han detectado intentos por parte de grupos respaldados por Rusia, Corea del Norte, Irán y China que utilizan herramientas como ChatGPT para investigar objetivos, mejorar scripts y ayudar a desarrollar estrategias de estafa e ingeniería social.

"Los grupos de cibercriminales y actores de amenazas respaldados por estados-nación están explorando y probando diferentes tecnologías de IA a medida que se lanzan, en un intento por comprender [...] los controles de seguridad que pueden necesitar eludir".
Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

El 'ciber-eje del mal'

El grupo Strontium, vinculado a la inteligencia militar rusa (ha estado muy activo durante la guerra Rusia-Ucrania), ha sido detectado utilizando modelos de lenguaje para intentar "comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos, [así como para realizar] tareas básicas de scripting, incluida la manipulación de archivos o la selección de datos".

No es muy diferente del uso que le han dado los hackers norcoreanos de Thallium, aunque estos también han estado usando IAs para investigar vulnerabilidades públicas y para redactar contenidos para campañas de phishing.

Mientras, los iraníes del grupo Curium también ha estado utilizando LLMs para generar código capaz de evitar la detección por parte de aplicaciones antimalware.

Por último, Charcoal Typhoon (un grupo de hackers vinculados con el régimen chino) han recurrido a este tipo de IAs también para investigar plataformas y vulnerabilidades, así como para mejorar las traducciones en sus operaciones de ingeniería social.

Luchando contra los ciberataques inteligentes

Microsoft y OpenAI aún no han detectado "ataques significativos" basados en el uso de LLMs, pero ambas compañías han estado cerrando todas las cuentas y activos asociados con estos grupos de piratería:

"[Creemos que es importante] exponer sus movimientos en estas etapas iniciales y [...] y compartir información con la comunidad de Defensa sobre cómo los estamos contrarrestando".

Así mismo, Microsoft advierte sobre posibles futuras aplicaciones maliciosas de la IA, como su uso en la suplantación de voces:

"El fraude impulsado por la IA es otra preocupación crítica. La síntesis de voz es un ejemplo de esto, donde una muestra de voz de tres segundos puede entrenar a un modelo para sonar como cualquier persona. Incluso algo tan inocuo como tu saludo de correo de voz puede ser usado para obtener una muestra suficiente".

Microsoft apuesta por combatir fuego con fuego y utilizar la IA para responder a los ataques impulsados por IA. Para ello, está desarrollando un 'Security Copilot', un nuevo asistente de IA diseñado para profesionales de ciberseguridad capaz identificar ataques y de comprender mejor la enorme cantidad de datos que día a día se generan a través de herramientas de ciberseguridad.

Vía | OpenAI & Microsoft

Imagen | Marcos Merino mediante IA

En Genbeta | Hay una profesión tech con mucho futuro: los hackers rojos, imprescindibles para la IA, y que cada vez más empresas integran

Inicio