Llega la era de la IA: Cómo la IA está transformando el panorama de las ciberamenazas

image

El panorama de la ciberseguridad está experimentando un cambio significativo. Entre enero y febrero de 2026, observamos una importante evolución en la forma en que los ciberdelincuentes adoptan, utilizan y ponen en práctica la IA. Lo que antes era experimental, ahora está consolidado. Lo que antes requería equipos coordinados, ahora puede ser ejecutado por un único desarrollador experimentado con un IDE impulsado por IA. Y lo que las empresas adoptaron para aumentar la productividad se ha convertido, simultáneamente, en una superficie de ataque en rápida expansión.

El desarrollo de malware asistido por IA ha entrado en una nueva era

La conclusión más importante de este periodo es que el desarrollo de malware asistido por IA ha alcanzado la madurez operativa.

VoidLink, un framework de malware para Linux nativo de la nube descubierto este año por Check Point Research, estableció un nuevo referente. Con más de 30 módulos de post-explotación, rootkits eBPF y LKM, y enumeración avanzada de contenedores y en la nube, la arquitectura de VoidLink sugería inicialmente que un equipo de ingeniería completo trabajaría durante varios meses. En realidad, fue creada por un solo desarrollador utilizando TRAE SOLO, un IDE comercial con IA.

Mediante un flujo de trabajo estructurado de Desarrollo Dirigido por Especificaciones (SDD), el desarrollador definió los requisitos en archivos Markdown, dirigió tres “equipos” virtuales de IA y permitió que el agente implementara las funcionalidades sprint a sprint. El resultado: 88.000 líneas de código en menos de una semana, un proyecto que tradicionalmente requeriría unas 30 semanas de desarrollo.

Se identificaron dos principios fundamentales:

  • La IA ahora produce malware listo para su implementación, no prototipos.
  • La participación de la IA no deja rastro en el código; la única razón por la que los analistas descubrieron el proceso de desarrollo de VoidLink fue un fallo de seguridad operativa (OPSEC) ajeno al proyecto.

Para los responsables de la seguridad, esto significa que el desarrollo asistido por IA debe considerarse una práctica habitual.

La mayoría de los ciberdelincuentes aún se quedan atrás, pero no por mucho tiempo.

En los foros de ciberdelincuencia, el uso predominante de la IA sigue siendo la generación de solicitudes no estructuradas: listas de deseos de malware alimentadas con modelos de código abierto o comerciales. La mayoría de los ciberdelincuentes se enfrentan a problemas de calidad, alucinaciones y limitaciones de capacidad.

Sin embargo, VoidLink demuestra lo que sucede cuando la IA se combina con experiencia real en el sector y flujos de trabajo disciplinados. Los ciberdelincuentes expertos dejan muchas menos huellas en los foros abiertos, lo que dificulta medir el verdadero alcance de este cambio, que casi con seguridad se subestima.

Modelos de IA autoalojados: prometedores pero limitados.

Los ciberdelincuentes experimentan cada vez más con modelos autoalojados de código abierto para evitar la moderación y el bloqueo de cuentas. Instalan variantes “sin censura” y las utilizan para generar ransomware, código de explotación y herramientas de fraude.

Pero los debates en la comunidad revelan una realidad constante: los modelos locales siguen siendo insuficientes. Los ciberdelincuentes se enfrentan a:

  • Altos costes de hardware (entre 5000 y 50 000 dólares o más)
  • Problemas persistentes de alucinaciones
  • Ventanas de contexto limitadas
  • El ajuste fino del modelo sigue siendo una aspiración

Incluso los proveedores de herramientas ofensivas más experimentados admiten que el autoalojamiento es «más una carga que algo productivo». Los modelos comerciales, a pesar de las restricciones, siguen siendo más capaces y rentables.

Acceso a modelos comerciales y el auge de soluciones informales

En lugar de abandonar las plataformas comerciales, los ciberdelincuentes comparan las restricciones de los distintos proveedores, intercambian consejos sobre cómo evadir la aplicación de la normativa de cuentas y utilizan la división estructurada de mensajes para sortear las medidas de seguridad.

Han resurgido los primeros indicios de «acceso a IA como servicio», con operadores de modelos locales que ofrecen generar resultados restringidos para otros. Sin embargo, servicios similares de «modelos de bajo nivel encubiertos» similares en el pasado no lograron cumplir sus objetivos, lo que deja abierta la incógnita de si esta tendencia se consolidará.

El jailbreaking evoluciona: De las indicaciones a la explotación de la arquitectura

Los jailbreaks tradicionales con una sola indicación están disminuyendo a medida que las plataformas refuerzan sus medidas de seguridad. Las indicaciones públicas desaparecen, las cuentas se bloquean rápidamente y las comunidades lamentan el creciente coste de mantener las soluciones alternativas.

Está surgiendo un cambio aún más preocupante: la explotación de la arquitectura del agente.

Un paquete de “Claude Code Jailbreak” que circula en foros demuestra esta evolución. Al modificar el archivo de configuración del proyecto CLAUDE.md y otros archivos de habilidades .md, que normalmente se utilizan para definir los estándares y el contexto de codificación, los atacantes pueden eludir los controles de seguridad y reasignar el rol del agente. El resultado: la IA genera malware, como RATs, dentro del entorno del proyecto.

Esto no es una simple inyección de indicaciones. Es la explotación de la jerarquía operativa del agente, el mismo mecanismo que utilizan los desarrolladores legítimos para los flujos de trabajo de codificación autónoma.

La IA está pasando de ser una herramienta de desarrollo a un componente operativo.

Los ciberdelincuentes no solo utilizan la IA para crear malware, sino que también la están integrando en flujos de trabajo ofensivos en tiempo real.

  • RAPTOR: Un vistazo a la automatización ofensiva impulsada por IA.

RAPTOR, un proyecto de investigación legítimo de código abierto, muestra cómo las configuraciones de agentes basadas en Markdown pueden transformar Claude Code y otras plataformas de agentes en un agente de seguridad ofensivo autónomo. RAPTOR integra:

  • análisis estático
  • fuzzing
  • generación de exploits
  • clasificación de vulnerabilidades
  • todo ello orquestado mediante instrucciones estructuradas en Markdown.

Los debates en foros de ciberdelincuentes indican un gran interés en estas arquitecturas, lo que sugiere que la aparición de pipelines ofensivos con IA ya no es teórica, sino una realidad.

Adopción de GenAI en las empresas: Un riesgo paralelo y creciente

Mientras los atacantes experimentan con la IA, las empresas la integran rápidamente, a veces más rápido de lo que los equipos de seguridad pueden responder. El análisis del uso de GenAI en las empresas revela que:

  • 1 de cada 31 avisos conlleva el riesgo de fuga de datos confidenciales (3,2 % del total).
  • El 90 % de las organizaciones que utilizan herramientas de GenAI experimentaron actividad de avisos de alto riesgo.
  • El 16 % de todos los avisos involucraban información potencialmente sensible, como código fuente o datos comerciales confidenciales.
  • Los empleados utilizan aproximadamente 10 herramientas de GenAI diferentes y generan un promedio de 69 avisos al mes.

A medida que aumenta el volumen de uso, también lo hace la visibilidad del riesgo, lo que hace que la gobernanza y las medidas de seguridad sean esenciales.

El panorama general: Un ecosistema en transición

De enero a febrero de 2026, un tema predominó: la metodología importa más que la elección del modelo.

El creador de VoidLink utilizó los mismos flujos de trabajo basados ​​en agentes que definían el desarrollo legítimo en 2025, y logró resultados a nivel de equipo por sí solo. Los participantes de los foros que dependían de sugerencias puntuales tuvieron dificultades. Esta divergencia no durará. Los métodos que impulsan la productividad de la IA son públicos, accesibles y se están extendiendo.

Ahora se debe dar por sentada la participación de la IA en el desarrollo de malware, la evaluación de amenazas y el análisis forense, incluso cuando sea invisible.

De cara al futuro, la convergencia de:

  • herramientas de IA con agentes,
  • marcos ofensivos de código abierto y
  • la rápida disminución de las barreras de adopción, seguirá reduciendo el tiempo que transcurre desde la concepción hasta la implementación en el ecosistema criminal.

Para los defensores, el mandato es claro: la inteligencia proactiva, la adaptación continua y los controles de seguridad alineados con la IA ya no son opcionales, sino esenciales.

Acerca de Check Point Software Technologies Ltd.

Check Point Software Technologies Ltd. (www.checkpoint.com) es un proveedor líder de plataformas de ciberseguridad basadas en la nube y basadas en IA que protege a más de 100 000 organizaciones en todo el mundo. Check Point aprovecha el poder de la IA en todas partes para mejorar la eficiencia y la precisión de la ciberseguridad a través de su plataforma Infinity, con tasas de detección líderes en la industria que permiten una anticipación proactiva de las amenazas y tiempos de respuesta más rápidos e inteligentes. La plataforma integral incluye tecnologías entregadas en la nube que consisten en Check Point Harmony para proteger el espacio de trabajo, Check Point CloudGuard para proteger la nube, Check Point Quantum para proteger la red y Check Point Infinity Core Services para operaciones y servicios de seguridad colaborativos.

Scroll al inicio