Cybersecurity AI (CAI) framework para automatizar pruebas de seguridad

  • 14/11/2025
  • 69
Cybersecurity AI (CAI) framework para automatizar pruebas de seguridad

El panorama de la ciberseguridad está experimentando una transformación radical a medida que la IA se integra cada vez más en las operaciones de seguridad. Se prevee que para 2028, las herramientas de prueba de seguridad basadas en IA superarán en número a los pentesters humanos. Cybersecurity AI (CAI) es un marco de trabajo ligero y de código abierto que permite a los profesionales de seguridad crear e implementar automatización ofensiva y defensiva basada en IA. CAI es el marco de trabajo estándar para la seguridad mediante IA, utilizado ya por miles de usuarios individuales y cientos de organizaciones.

El marco de trabajo busca complementar la experiencia humana con capacidades de IA, ayudando a los investigadores a trabajar de manera más eficiente y exhaustiva en su misión de hacer que los sistemas digitales sean más seguros.

CAI se basa en los siguientes principios fundamentales:

  • Marco de IA orientado a la ciberseguridad: CAI está diseñado específicamente para casos de uso de ciberseguridad, con el objetivo de automatizar parcial y totalmente las tareas de seguridad ofensivas y defensivas.
  • Código abierto y gratuito para investigación: CAI es de código abierto y gratuito para fines de investigación. Nuestro objetivo es democratizar el acceso a la IA y la ciberseguridad. Para uso profesional o comercial, incluyendo implementaciones locales, soporte técnico especializado y extensiones personalizadas, contáctenos para obtener una licencia.
  • Ligero: CAI está diseñado para ser rápido y fácil de usar.
  • Diseño modular y centrado en agentes: CAI opera con agentes y patrones agentivos, lo que permite flexibilidad y escalabilidad. Puede agregar fácilmente los agentes y patrones más adecuados para su caso de ciberseguridad.
  • Integración de herramientas: CAI integra herramientas ya incorporadas y permite al usuario integrar fácilmente sus propias herramientas con su propia lógica.
  • Registro y rastreo integrados: utiliza Phoenix, la herramienta de registro y rastreo de código abierto para LLM. Esto proporciona al usuario una trazabilidad detallada de los agentes y su ejecución.
  • Compatibilidad con múltiples modelos: LiteLLM admite y potencia más de 300 modelos. Los proveedores más populares son:
    • Anthropic: Claude 3.7, Claude 3.5, Claude 3, Claude 3 Opus
    • OpenAI: O1, O1 Mini, O3 Mini, GPT-4o, GPT-4.5 Preview
    • DeepSeek: DeepSeek V3, DeepSeek R1
    • Ollama: Qwen2.5 72B, Qwen2.5 14B, etc.

La IA para la ciberseguridad es un campo crítico; sin embargo, muchos grupos, erróneamente, la abordan mediante métodos de código cerrado con fines puramente económicos, aprovechando técnicas similares y basándose en modelos existentes de código cerrado (a menudo propiedad de terceros). Este enfoque no solo desperdicia valiosos recursos de ingeniería, sino que también representa un derroche económico y genera esfuerzos redundantes, ya que suelen terminar reinventando la rueda.