Google y OpenAI exigen reforzar las restricciones sobre el uso de la inteligencia artificial en el ámbito militar

Google y OpenAI exigen reforzar las restricciones sobre el uso de la inteligencia artificial en el ámbito militar

14 software

Gigantes tecnológicos se unen para protegerse del presión militar

Los empleados de Google y OpenAI publicaron una carta abierta titulada “No nos dividiremos”. La carta cuenta con casi 900 firmas, principalmente alrededor de cien empleados de OpenAI y unos ochocientos representantes de Google. El objetivo de la carta es abogar por restricciones más estrictas al uso de IA por parte de los militares.

¿Por qué surgió tensión?
* El Departamento de Defensa de EE.UU. (DoD) incluyó las tecnologías de Anthropic en una lista negra, después de que Anthropic se negó a permitir su uso para vigilancia masiva y armamento totalmente autónomo.
* La carta critica la táctica del DoD: “están tratando de dividir cada compañía…”. Los autores buscan crear entendimiento mutuo y solidaridad entre las empresas tecnológicas ante la presión gubernamental.

Reacción amplia de la industria
* En los últimos meses, la industria exige mayor transparencia en sus relaciones con el gobierno, especialmente cuando se trata de contratos de servicios en la nube e IA.
* Google está bajo crítica por supuestas negociaciones con el Pentágono para implementar el modelo Gemini en un sistema militar secreto.

Abogados del derecho
* El viernes, el grupo No Tech For Apartheid publicó una declaración: “Amazon, Google, Microsoft deben rechazar las demandas del Pentágono”.
* Sostienen que estas empresas podrían participar en vigilancia masiva y otras prácticas indebidas.
* El grupo señala un posible acuerdo con el Pentágono, comparándolo con el acuerdo de Grok de xAI, que permite al Ministerio desplegar IA “en entornos secretos sin restricciones”.

Carta abierta a favor de Anthropic
* Cientos de empleados de diversas compañías (OpenAI, Salesforce, Databricks, IBM, Cursor y otros) firmaron una carta abierta al DoD.
* La carta pide revocar el estatus de “riesgo para la cadena de suministro” de Anthropic.
* También propone que el Congreso examine la necesidad de aplicar poderes extraordinarios contra las empresas tecnológicas estadounidenses.

Dentro de Google
* La semana pasada, más de 100 empleados trabajando en IA se dirigieron a la dirección con preocupaciones sobre la colaboración de la empresa con el DoD.
* Exigen establecer “líneas rojas” similares a las que aplicó Anthropic.
* Jeff Dean (Chief Scientist de Google) afirma que la vigilancia masiva viola la Cuarta Enmienda y amenaza la libertad de expresión.
* Señala la tendencia de los sistemas de vigilancia a abusar en contextos políticos y discriminatorios.

Historia de conflictos
* En 2018, Google enfrentó una revuelta de miles de empleados por el proyecto Maven – un programa del Pentágono que utiliza IA para analizar videos de drones.
* Después de eso, la compañía estableció “Principios de IA” que regulan el uso de tales tecnologías.
* En 2024, Google despidió a más de 50 empleados tras protestas sobre el proyecto Nimbus, un contrato conjunto con Amazon por $1 millón.

Conclusión
Los gigantes tecnológicos continúan luchando por la transparencia y el uso ético de la IA. Las cartas abiertas, las protestas colectivas y las demandas de “líneas rojas” reflejan una creciente inquietud entre los especialistas: quieren garantizar que las aplicaciones militares de la inteligencia artificial estén limitadas dentro del marco legal y de los derechos humanos.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar