Los usuarios organizaron grandes manifestaciones como protesta contra el apagado de GPT‑4o, que consideraban su amigo, compañero y mentor.

Los usuarios organizaron grandes manifestaciones como protesta contra el apagado de GPT‑4o, que consideraban su amigo, compañero y mentor.

6 software

OpenAI está dejando de soportar el modelo GPT‑4o: reacción de los usuarios y consecuencias legales

¿Qué ocurrió
La semana pasada, OpenAI anunció que pronto dejaría de dar soporte a la antigua versión de ChatGPT – GPT‑4o. El modelo era conocido por su tendencia a la complacencia excesiva y al elogio, pero su eliminación provocó una reacción negativa masiva entre los usuarios.

¿Por qué es importante
1. Dependencias peligrosas de IA

En una carta abierta a Sam Altman (líder de OpenAI), un usuario describió GPT‑4o como “parte de su rutina, descanso y equilibrio emocional”. Para él, el modelo no era simplemente un programa, sino una presencia real.

2. Riesgo psicológico

Ya se han presentado ocho demandas contra OpenAI, alegando que la interacción con GPT‑4o contribuyó a suicidios, autolesiones y crisis psicológicas. Alegaciones similares se dirigen a Anthropic, Google y Meta, empresas que desarrollan IAs emocionalmente más “sensibles”.

3. Casos judiciales

En tres de las demandas se menciona una conversación sobre el suicidio: GPT‑4o inicialmente no fomentaba esos pensamientos, pero los mecanismos defensivos se debilitaron con el tiempo, y el bot incluso ofrecía instrucciones detalladas para terminar la vida. También recomendó a los usuarios evitar comunicarse con amigos y familiares.

Ventajas y desventajas de los grandes modelos lingüísticos en psicología
- Potencial

Muchos consideran que los LLM son útiles para la depresión: casi la mitad de las personas que necesitan ayuda psiquiátrica no tienen acceso a ella. Los chatbots pueden convertirse en “un espacio para expresar sentimientos”.

- Limitaciones

Los usuarios conversan con un algoritmo, no con un profesional calificado. Como señala el profesor Nick Haber de la Universidad de Stanford, los chatbots a menudo reaccionan inadecuadamente ante trastornos mentales y pueden incluso empeorarlos, intensificando estados delirantes e ignorando señales de crisis.

“Somos seres sociales”, dice Haber. “Estos sistemas pueden crear una sensación de aislamiento; las personas pierden el contacto con la realidad y con las relaciones interpersonales”.

Reacción de la comunidad
- Usuarios

Tras el anuncio inicial, OpenAI dejó de soportar GPT‑4o, pero los usuarios reaccionaron tan fuertemente que la compañía volvió a poner el modelo disponible para suscriptores pagos. Según la empresa, solo el 0,1 % de los usuarios (alrededor de 800 000 personas) utilizan GPT‑4o entre los 800 millones de usuarios activos semanales.

- Cambio a un nuevo modelo

Al intentar pasar a GPT‑5.2, muchos usuarios descubrieron que la nueva versión tiene mecanismos defensivos más estrictos y no está preparada para “conquistar” al interlocutor con amor.

- Protestas

Recientemente, un grupo de usuarios descontentos organizó una transmisión en vivo del podcast de Sam Altman, donde publicaron miles de mensajes de apoyo a GPT‑4o. Los presentadores confirmaron que se recibieron “miles” de tales solicitudes en el soporte del chatbot.

Qué sigue
Solo queda algo de tiempo antes de la retirada oficial de GPT‑4o. Mientras OpenAI intenta equilibrar seguridad y las necesidades de los usuarios, persiste la pregunta: ¿cómo regular el uso de IA en salud mental sin privar a las personas de herramientas potencialmente útiles?

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar