El Pentágono amenaza con una respuesta severa a Anthropic por prohibir el uso de Claude en sistemas de vigilancia y armamento autónomo
El ministro de Defensa de EE.UU., Pete Hegseth, está considerando la posibilidad de cortar todas las relaciones comerciales con Anthropic, una de las principales desarrolladoras de IA, y declararla “una amenaza para la cadena de suministro”. Esto implicaría que cualquier contratista del Departamento de Defensa tendría que terminar sus vínculos con Anthropic. La información proviene de Axios, basándose en un fuente dentro del Pentágono.
¿Qué se está discutiendo?
- Hegseth afirma que “romper estos lazos será extremadamente doloroso”, pero el Departamento planea obligar a Anthropic a pagar por las medidas forzadas.
- El principio de seguridad: Shawn Parnell, portavoz oficial del Pentágono, subrayó: “Exigimos que nuestros socios ayuden a los ejércitos a ganar en cualquier batalla”.
- Relaciones actuales con Anthropic: Claude es el único modelo de IA utilizado en sistemas militares secretos de EE.UU. También lidera el mercado comercial y se empleó recientemente en una operación en Venezuela.
- Requisitos del sistema: El Departamento quiere asegurar que la IA no se use para vigilancia masiva de estadounidenses ni para crear armamento autónomo. Anthropic considera esas condiciones “excesivamente restrictivas” y señala zonas grises que las hacen imposibles de cumplir.
- Negociaciones con otros gigantes: El Pentágono también dialoga con OpenAI, Google y xAI, exigiendo el derecho a usar sus modelos “para todos los fines legítimos”.
¿Por qué es importante?
1. Escala del contrato
- El contrato con el Departamento se estima en $200 mil millones, mientras que la facturación anual de Anthropic ronda los $14 mil millones.
2. Potencial tecnológico
- Claude ha demostrado su fiabilidad y se usa en redes secretas estadounidenses; 8 de cada 10 grandes empresas americanas son sus clientes.
3. Política de seguridad
- El Pentágono cree que la IA puede potenciar significativamente la recolección de datos (mensajes en redes sociales, permisos para portar armas ocultas) y potencialmente amenazar a civiles.
4. Impacto sectorial
- La postura firme sobre Anthropic marca el tono para futuras negociaciones con OpenAI, Google y xAI. Hasta ahora, esas compañías han aceptado eliminar restricciones para sistemas militares no secretos, pero sus modelos aún no se emplean en operaciones totalmente secretas.
Reacciones de las partes
- Anthropic
- Confirma su compromiso con la IA en seguridad nacional y señala que Claude fue el primer chatbot en redes secretas.
- Está dispuesto a llevar a cabo “negociaciones productivas y de buena fe” con el Departamento.
- Pentágono
- Según fuentes, ha estado descontento con Anthropic durante algún tiempo y ve la posibilidad de iniciar un conflicto.
- Espera confirmación de que no existen vínculos con Anthropic para continuar la colaboración.
Qué sigue
* La decisión sobre el estatus de Anthropic en la cadena de suministro aún no se ha tomado.
* El Pentágono planea establecer la regla “uso para todos los fines legítimos” para modelos de OpenAI, Google y xAI, pero la decisión final todavía está pendiente.
En resumen, el ministerio contempla pasos serios contra una de las principales empresas de IA, mientras intenta establecer nuevos estándares de seguridad y control sobre sus socios tecnológicos.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar