Sam Altman prometió corregir el contrato "deslizante" con el Ministerio de Defensa para garantizar la protección de los ciudadanos contra la vigilancia.
El Pentágono de Pensilvania renuncia a Anthropic y pasa a OpenAI
Tras que el Departamento de Defensa de EE. UU. (DoD) abandonó el uso de modelos de inteligencia artificial de la compañía Anthropic, rápidamente firmó un contrato con su competidor – OpenAI. En respuesta, Sam Altman, jefe de OpenAI, admitió que el acuerdo parecía “no muy bonito” en medio de una situación política tensa.
Cronología breve
Fecha | Lo que ocurrió | Acuerdo | Altman apoyó abiertamente la posición de su ex colega Dario Amodei, líder de Anthropic. | Tras renunciar a Anthropic | El Pentágono buscó una alternativa y, apresuradamente, firmó con OpenAI. | Recientemente (viernes) | Altman declaró la necesidad de revisar los términos del acuerdo, añadiendo cláusulas que prohíben el uso de IA para vigilar a ciudadanos estadounidenses. | Lunes | Se publicó una nueva versión del contrato, que incluye restricciones sobre el uso de IA en equipos militares y garantías contra su utilización por agencias de inteligencia (por ejemplo, la NSA).
¿Qué cambió en el acuerdo?
1. Límites claros
- Se excluye el uso intencional de IA para espiar a ciudadanos estadounidenses.
- Se aclara que los datos sobre ciudadanos no deben provenir de terceros sin consentimiento.
2. Barreras técnicas
- Los modelos solo pueden usarse en infraestructura cloud; no están disponibles en equipos finales militares (no para selección y destrucción automática de objetivos).
3. Garantías de seguridad
- El Pentágono recibió confirmación de que las herramientas IA de OpenAI no serán empleadas por agencias de inteligencia.
Reacción del público y empleados
- Los fines de semana, frente a la sede en San Francisco, apareció el letrero “¡No a la vigilancia masiva!”.
- Algunos empleados ya expresaron descontento con la formulación inicial del contrato.
- La queja pública llevó a que parte de los usuarios de ChatGPT cambiara a soluciones de Anthropic, que desde 2021 enfatiza la aplicación segura de IA.
Conclusión
Actualmente OpenAI confirma su disposición a colaborar con el Pentágono, implementando restricciones técnicas y legales que garantizarán un uso seguro de la inteligencia artificial en el ámbito militar. Aunque el acuerdo se firmó apresuradamente, los cambios posteriores demuestran la intención de la compañía de ser transparente y cumplir con las expectativas públicas.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar