ChatGPT recibió una “denegación” porque OpenAI colabora con el Pentágono.
Pregunta sobre la colaboración con el Ministerio de Defensa
Preocupados por las posibles consecuencias de la asociación entre OpenAI y el Departamento de Defensa de EE. UU. (MoD), una parte de la sociedad estadounidense creó el movimiento “cancelar ChatGPT”. El objetivo de la iniciativa es apoyar a Anthropic, una empresa que fue incluida en la lista negra del Pentágono después de negarse a permitir el uso de sus modelos de IA para ciertas tareas.
¿Por qué Anthropic quedó en la lista?
En el conflicto con el MoD había dos “líneas rojas” que el desarrollador de IA no quiso cruzar:
1. No se pueden dar a los modelos el derecho autónomo de decidir sobre el uso de armas.
2. Los modelos no pueden usarse para espiar a ciudadanos estadounidenses.
Cuando Anthropic se negó, el contrato con el MoD fue rescindido y la empresa fue incluida en la lista negra, lo que prohíbe a todos los contratistas militares trabajar con ella.
Transición a OpenAI
Tras la exclusión de Anthropic de los programas defensivos, el MoD incluyó a OpenAI. El jefe de la compañía, Sam Altman, afirmó que sus modelos no se usarían para vigilancia masiva. Sin embargo, funcionarios del gobierno lo refutaron: enfatizaron que la IA solo se emplearía dentro de “escenarios legales”, y la Ley Patriótica de 2001 permite recopilar metadatos en redes de comunicación, incluso si algunas disposiciones fueron restringidas.
Reacción del público y otras empresas de IA
El evento provocó una fuerte reacción negativa en las comunidades online. Las personas que anunciaron el abandono de ChatGPT comenzaron a recibir respuestas positivas. Es importante señalar que la renuncia a las “líneas rojas” no es obligatoria para todos los grandes fabricantes de IA:
- Google había introducido una prohibición similar en sus reglas internas, pero ya la canceló.
- Microsoft permite el uso de IA en armas siempre que el disparo sea efectuado por un humano.
- Amazon se limita al principio general de “uso responsable” sin detalles concretos.
Posición de OpenAI y marcos legales
Sam Altman reiteró la promesa de respetar las “líneas rojas” sobre armamento autónomo y vigilancia masiva, pero no detalló los mecanismos de implementación. Se refirió a la legislación existente en EE. UU., que permite recopilar datos de personas sin ciudadanía estadounidense por motivos de seguridad.
Para el público general, OpenAI ofreció al Pentágono una interpretación flexible de lo que se considera legal, mientras que Anthropic mantuvo un control estricto sobre la aplicación de sus tecnologías. Como resultado, el producto Claude AI de Anthropic se convirtió en líder entre las aplicaciones oficiales para Android e iOS, y también obtuvo lanzamiento en Windows 11.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar