Anthropic hizo caer los precios de CrowdStrike y Cloudflare al lanzar la herramienta de IA Claude Code Security para buscar errores.

Anthropic hizo caer los precios de CrowdStrike y Cloudflare al lanzar la herramienta de IA Claude Code Security para buscar errores.

10 hardware

El mercado cibernético responde al lanzamiento de Claude Code Security de Anthropic

*En respuesta al anuncio del nuevo instrumento de ciberseguridad de la compañía Anthropic, las acciones de empresas como CrowdStrike y Cloudflare cayeron aproximadamente un 8 %. Los inversores ven a Claude Code Security como un competidor serio frente a las soluciones tradicionales de detección de vulnerabilidades.*

Lo que diferencia a Claude Code Security de los escáneres clásicos
- Sin reglas estáticas: la red neuronal no se basa en bases predefinidas.

- Se sumerge en la lógica de la aplicación, rastrea flujos de datos y relaciones entre componentes, reproduciendo el trabajo de un especialista en seguridad.

- Este enfoque permite identificar problemas que podrían pasar desapercibidos con los analizadores estáticos habituales.

Cómo comenzar a usar la herramienta
1. Conexión al repositorio: es necesario vincular Claude Code Security con el proyecto en GitHub.

2. Lanzamiento del escaneo: el sistema escaneará automáticamente el código y detectará una amplia gama de amenazas, por ejemplo:

- falta de filtrado de entrada de usuario (inyecciones SQL);

- errores lógicos complejos que permiten evadir la autenticación.

Informe sobre vulnerabilidades encontradas
- Las vulnerabilidades se ordenan por prioridad.

- Para cada problema se genera una explicación detallada en lenguaje natural, lo que acelera el trabajo de los analistas.

- Bajo la descripción del error está disponible la función de creación de parche, que permite obtener un fragmento de código correctivo generado por IA.

Comparación con soluciones similares
- Claude Code Security fue lanzado aproximadamente cuatro meses después del lanzamiento de la herramienta Aardvark de OpenAI.

- Ambos productos tienen capacidades similares: prueban vulnerabilidades en entornos aislados y evalúan la dificultad de su explotación.

Perspectivas de desarrollo
Los expertos creen que Anthropic y OpenAI podrían integrar sus sistemas directamente en los pipelines de desarrollo (CI/CD). Esto permitiría bloquear automáticamente la implementación de código con "grietas" de seguridad y acelerar el lanzamiento del producto sin comprometer la protección.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar