El uso de IA por Kimsuky para falsificar identidades militares

Uso de IA en Corea del Norte para falsificar identidades militares y lanzar ataques

Tiempo estimado de lectura: 5 minutos Dificultad técnica: Media

Conclusiones clave

  • El grupo Kimsuky utiliza IA para crear credenciales militares fraudulentas.
  • Las técnicas de deepfake y phishing han aumentado la efectividad de sus ataques.
  • La IA facilita la infiltración en empresas extranjeras al generar perfiles falsos.
  • Los ciberatacantes evaden controles de seguridad a través de prompt engineering.
  • Se vislumbra una nueva era en la ciberseguridad debido al uso de IA en ataques.

Índice

Contenido principal

Un informe recién publicado por la empresa Genians, con sede en Corea del Sur, pone de manifiesto cómo el grupo Kimsuky, asociado al régimen de Pyongyang, ha comenzado a utilizar herramientas de inteligencia artificial para crear credenciales militares fraudulentas y llevar a cabo sofisticadas campañas de phishing. En el año 2025, la inteligencia artificial (IA) ha trascendido su rol habitual como mero facilitador de productividad o innovación, convirtiéndose en un arma eficaz en manos de actores maliciosos.

La inteligencia artificial como método de infiltración

Kimsuky, conocido por sus actividades de ciberespionaje y estrechamente relacionado con el régimen norcoreano, ha sido señalado como responsable de una nueva fase de ataques en los que la IA juega un rol fundamental. Según la firma de ciberseguridad Genians, estos atacantes han empleado plataformas como ChatGPT para generar identidades militares falsas que simulan ser de Corea del Sur. Estos documentos creados mediante técnicas de deepfake han sido utilizados en campañas de phishing que clamaban provenir de fuentes oficiales, lo que incrementó la credibilidad de los correos electrónicos maliciosos que distribuyeron malware.

La aplicación de la inteligencia artificial por parte de Kimsuky va más allá de la mera elaboración de documentos fraudulentos. Investigaciones adicionales revelan que el grupo también ha recurrido a otros modelos, como Claude de Anthropic, para crear currículos falsos, establecer perfiles digitales persuasivos e incluso superar pruebas de codificación en procesos de selección de personal. El objetivo primordial de estas acciones es infiltrar empresas extranjeras y acceder a información confidencial.

Los especialistas en ciberseguridad advierten que estas prácticas exponen la habilidad de los ciberatacantes para evadir los controles de seguridad implementados en herramientas de IA, utilizando técnicas de prompt engineering que enmascaran las solicitudes como inofensivas o educativas.

Implicaciones a nivel global

Este caso ilustra una tendencia alarmante: el papel creciente de la IA como potenciador de amenazas cibernéticas, capaz de automatizar procesos, optimizar ataques y escalar campañas de manera exponencial. Para muchos expertos, esta evolución representa el comienzo de una nueva era en el ámbito de la ciberseguridad, donde la delimitación entre ataques realizados por humanos y aquellos automatizados se vuelve cada vez más borrosa.

Referencias

Avatar

Por Mid