Anthropic hizo caer los precios de CrowdStrike y Cloudflare al lanzar la herramienta de IA Claude Code Security para buscar errores.
El mercado cibernético responde al lanzamiento de Claude Code Security de Anthropic
*En respuesta al anuncio del nuevo instrumento de ciberseguridad de la compañía Anthropic, las acciones de empresas como CrowdStrike y Cloudflare cayeron aproximadamente un 8 %. Los inversores ven a Claude Code Security como un competidor serio frente a las soluciones tradicionales de detección de vulnerabilidades.*
Lo que diferencia a Claude Code Security de los escáneres clásicos
- Sin reglas estáticas: la red neuronal no se basa en bases predefinidas.
- Se sumerge en la lógica de la aplicación, rastrea flujos de datos y relaciones entre componentes, reproduciendo el trabajo de un especialista en seguridad.
- Este enfoque permite identificar problemas que podrían pasar desapercibidos con los analizadores estáticos habituales.
Cómo comenzar a usar la herramienta
1. Conexión al repositorio: es necesario vincular Claude Code Security con el proyecto en GitHub.
2. Lanzamiento del escaneo: el sistema escaneará automáticamente el código y detectará una amplia gama de amenazas, por ejemplo:
- falta de filtrado de entrada de usuario (inyecciones SQL);
- errores lógicos complejos que permiten evadir la autenticación.
Informe sobre vulnerabilidades encontradas
- Las vulnerabilidades se ordenan por prioridad.
- Para cada problema se genera una explicación detallada en lenguaje natural, lo que acelera el trabajo de los analistas.
- Bajo la descripción del error está disponible la función de creación de parche, que permite obtener un fragmento de código correctivo generado por IA.
Comparación con soluciones similares
- Claude Code Security fue lanzado aproximadamente cuatro meses después del lanzamiento de la herramienta Aardvark de OpenAI.
- Ambos productos tienen capacidades similares: prueban vulnerabilidades en entornos aislados y evalúan la dificultad de su explotación.
Perspectivas de desarrollo
Los expertos creen que Anthropic y OpenAI podrían integrar sus sistemas directamente en los pipelines de desarrollo (CI/CD). Esto permitiría bloquear automáticamente la implementación de código con "grietas" de seguridad y acelerar el lanzamiento del producto sin comprometer la protección.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar