Anthropic presentará una demanda para ser removido de la “lista negra”.
Anthropic tiene la intención de impugnar la decisión del Departamento de Defensa de EE.UU. de incluirla en la lista negra de proveedores
En una reciente decisión del Departamento de Defensa (DoD) de EE.UU., Anthropic fue incluida en el listado de empresas que representan una amenaza para la seguridad nacional, después de que la compañía se negó a otorgar al gobierno un derecho ilimitado de uso de su modelo Claude. En respuesta, Anthropic anunció su intención de apelar la resolución ante los tribunales y expresó profunda preocupación por la escalada del conflicto.
Qué ocurrió
- El DoD declaró que Anthropic sería considerada una “riesgo para la cadena de suministro” (Supply Chain Risk). Este estatus suele aplicarse a empresas que pueden amenazar la seguridad nacional, incluidas las firmas chinas.
- El presidente Donald Trump y el secretario de Defensa Pete Hegseth amenazaron con privar a Anthropic no solo del contrato de 200 millones de dólares con el Pentágono, sino también del acceso a muchos otros clientes.
- La principal razón del prohibición fue que Anthropic se negó a permitir al DoD usar el modelo Claude sin restricciones, especialmente en sistemas de vigilancia masiva sobre ciudadanos y plataformas armadas totalmente autónomas.
Respuesta de Anthropic
1. Impugnación de la decisión
La compañía declaró: «Apelaremos cualquier definición de riesgo para la cadena de suministro ante los tribunales». Como argumento citó el artículo 10 USC 3252, que limita la aplicación de esta definición solo a contratos con el Pentágono. Esto significa que el uso de Claude por otros contratistas militares que atienden a terceros clientes no cae bajo esa definición.
2. Protección de clientes
Anthropic enfatizó que la decisión del DoD no afecta los contratos individuales y comerciales existentes: «Si eres cliente o tienes un acuerdo con nosotros, tu acceso a Claude vía API, claude.ai u otros productos permanecerá igual».
3. Impacto en contratistas del Pentágono
En caso de que se adopte oficialmente el estatus de riesgo para la cadena de suministro, Anthropic aclaró que esto solo afectará el uso del modelo dentro de los contratos del DoD de EE.UU. El empleo de IA con otros fines permanecerá sin cambios.
Conclusiones
- Anthropic está preparada para emprender una batalla judicial contra su inclusión en la lista negra y defender los derechos de sus clientes.
- La decisión del DoD, según la compañía, se limita únicamente a los contratos con el Pentágono y no se extiende a otros clientes o contratistas.
- Próximamente se esperan acciones legales por ambas partes, así como posibles cambios en el acceso al modelo Claude para organizaciones militares.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar