Microsoft ofrece una solución para detener la propagación de deepfakes en Internet
Microsoft lanza un nuevo conjunto de estándares para verificar la autenticidad del contenido en línea
Microsoft ha anunciado la creación de «estándares técnicos» para evaluar la veracidad de los materiales que aparecen en la red. El objetivo es ayudar a los desarrolladores de IA y a las plataformas sociales a determinar si imágenes o videos han sido alterados con herramientas digitales (por ejemplo, deepfakes) y cuán fiables son los métodos para documentar esos cambios.
Cómo funciona el sistema de verificación
* Ejemplo con un cuadro de Rembrandt
- Se crea un registro detallado del origen: lugares de almacenamiento, propietarios anteriores.
- El cuadro se escanea y, a partir de las pinceladas, se genera una firma matemática – «huella digital».
- Cuando el cuadro se expone en un museo, los visitantes pueden acceder a estos datos y comprobar su originalidad.
* Métodos ya aplicados
Microsoft investigó 60 combinaciones de técnicas existentes (eliminación de metadatos, cambios menores, manipulación dirigida). Para cada modelo se simuló el comportamiento en distintos escenarios.
Los investigadores identificaron:
- Combinaciones fiables – pueden mostrarse a una audiencia amplia.
- Combinaciones no fiables – solo complican la situación, creando más confusión.
Por qué es importante
* La legislación exige transparencia de IA (por ejemplo, la «Ley de Transparencia de IA» en California).
* Microsoft aún no ha anunciado si aplicará estos estándares a sus servicios: Copilot, Azure, OpenAI y LinkedIn.
Los estándares no definen la veracidad del contenido; simplemente indican si el material ha sido manipulado y de dónde proviene. Si la industria los adopta, crear contenido engañoso será mucho más difícil.
Estado de la industria
| Empresa | Acción | Estado |
|---------|--------|--------|
| Microsoft | C2PA (2021) – seguimiento del origen | En desarrollo |
| Google | Marcas de agua para contenido generado por IA (desde 2023) | Implementación activa |
Pero el conjunto completo de herramientas de Microsoft podría quedarse solo como un «proyecto» si los participantes del mercado perciben una amenaza a sus modelos de negocio.
Eficacia de las soluciones existentes
* Un estudio mostró que solo el 30 % de las publicaciones en Instagram, LinkedIn, Pinterest, TikTok y YouTube están correctamente etiquetadas como creadas por IA.
* La rápida implementación de herramientas de verificación es arriesgada: fallos pueden socavar la confianza del usuario.
Los mecanismos integrales de verificación son preferibles. Por ejemplo, si se realiza una edición mínima en una imagen confiable con IA, la plataforma podría clasificarla erróneamente como completamente generada. Un enfoque integrado reduce la probabilidad de falsos positivos.
Conclusión
Microsoft propone un conjunto estructurado de estándares para detectar la manipulación digital del contenido. Estas herramientas están diseñadas para aumentar la transparencia y la confianza en los materiales en línea, pero su éxito depende de la adopción por parte de la industria y de la fiabilidad de las verificaciones integradas.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar