El Pentágono excluyó a Anthropic de la lista de sistemas permitidos y, tras medio año, planea pasar a alternativas como Claude.
Resumen breve de la noticia
* Hasta la fecha, Anthropic es la única compañía cuya IA *Claude* ha recibido aprobación del Departamento de Defensa de EE.UU. (DoD) para operar con sistemas gubernamentales clasificados.
* Sin embargo, Anthropic se negó a otorgar al Pentágono el derecho a usar sus tecnologías sin restricciones. En respuesta, el DoD colocó a la empresa en una “lista negra” y dejó de utilizar sus servicios.
1. Causas del conflicto
Anthropic no permitirá que Claude sea usado para espiar a ciudadanos estadounidenses ni para sistemas armados totalmente autónomos sin intervención humana. El Pentágono, tras invertir 200 millones de dólares en el contrato, cree que puede disponer libremente del software y emplearlo en todos los fines legales. Los intentos del DoD por “convencer” a Anthropic no tuvieron éxito; al final de la tarde del viernes la compañía fue incluida en la lista de proveedores considerados riesgos para la seguridad nacional—normalmente son firmas con estrechos vínculos con adversarios geopolíticos de EE.UU.
2. Reacción y pasos siguientes
* Anthropic está dispuesta a impugnar la decisión en los tribunales, pero aún no ha presentado una demanda.
* El Pentágono exige que los contratistas abandonen Claude dentro de seis meses y pasen a soluciones de otros desarrolladores.
* El presidente de EE.UU., Donald Trump (a través de Truth Social), exigió que se detenga inmediatamente el uso de cualquier producto de Anthropic en todas las agencias gubernamentales.
3. Posibles alternativas
* OpenAI—el Pentágono contempla migrar a los modelos de esta compañía, aunque también tienen restricciones similares para inteligencia y guerra.
* Palantir también tendrá que buscar una alternativa.
* Recientemente la startup xAI de Elon Musk firmó un contrato con el DoD para usar Grok en sistemas clasificados; esto podría ser solo un sustituto parcial de Claude, ya que aún no existe un modelo completamente equivalente.
4. Reacción pública
* Google y OpenAI apoyaron a Anthropic, organizando peticiones abiertas.
* Otros grupos públicos también respaldan a la compañía.
Así, el conflicto entre Anthropic y el Departamento de Defensa de EE.UU. se convirtió en un rechazo total al uso de sus tecnologías de IA, obligando al gobierno a buscar alternativas y generando una discusión pública activa.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar