GPT-5 se estrena con batacazo: Los usuarios han conseguido que OpenAI devuelva GPT-4o a ChatGPT

En 2023, la llegada de GPT-4 dejó a expertos y curiosos con la boca abierta. Más todavía cuando llegó su evolución, GPT-4o. Dos años después, OpenAI prometía con GPT-5 un salto aún más ambicioso, con inteligencia de nivel académico y destreza de programador experto. Sin embargo, ¿qué ocurre cuando una máquina pensada para conversar como un viejo amigo empieza a sonar como un asesor de consultoría?
En las horas posteriores al lanzamiento, Reddit se llenó de mensajes de frustración. "Matar 4o no es innovación, es erradicación", escribió un usuario, en un hilo donde decenas compartían la sensación de que la nueva versión era más distante, menos cálida. Lo que debía ser una revolución se percibía, para algunos, como una pérdida de conexión humana.
El problema de fondo radicaba en que una de las grandes novedades de GPT-5 era que el nuevo modelo se hacía cargo de escoger por el usuario qué modelo usar: si razonar, si usar otros más encaminados a tareas cotidianas…
Esto se trasladó en que el selector de modelos ha desaparecido de la interfaz desde el fin de semana, incluso para usuarios de pago… Y sí, puede que GPT-5 sea más potente para algunas cosas, pero GPT-4o parecía ser más empático y los usuarios han empezado a echarlo de menos.
La tensión es evidente: ¿preferimos una IA más precisa, imparcial y técnica, o una que nos acaricie el ego y reafirme nuestras emociones? En el caso de GPT-5, la respuesta de la comunidad muestra que la inteligencia artificial no solo se mide en parámetros y benchmarks, sino en la sutil química que se genera entre una línea de texto y quien la lee.
Un lanzamiento con expectativas desbordadasGPT-5 no llegó en silencio. OpenAI lo presentó como la evolución natural de GPT-4, con mejoras cognitivas significativas y una arquitectura diseñada para alternar automáticamente entre modelos, optimizando recursos y ofreciendo respuestas adaptadas a la complejidad de la consulta.
La promesa incluía no solo velocidad y precisión, sino también una experiencia fluida en la que el usuario no tuviera que preocuparse por "qué modelo" estaba respondiendo. La teoría era impecable: si una pregunta es sencilla, usar un modelo más barato y rápido; si es compleja, activar la versión más potente.
Sin embargo, la implementación inicial falló. El sistema de conmutación entre modelos no funcionó como se esperaba y, según el propio Altman, eso hizo que GPT-5 pareciera "más tonto" de lo que realmente es. La decepción no tardó en aparecer y el eco de las quejas en redes sociales se volvió imposible de ignorar.
La reacción de la comunidad y la pérdida de "personalidad"Usuarios acostumbrados a respuestas matizadas, con toques de humor o empatía, se encontraron con un modelo más frío y técnico.
Los hilos en Reddit reflejan un duelo colectivo por GPT-4o. Algunos lo describen como un "amigo" que sabía escuchar y responder con calidez. Otros lo ven como un compañero creativo que aportaba matices incluso en temas complejos. Frente a eso, GPT-5 se percibe como un profesional competente, pero distante.
Esta reacción no es trivial. La relación entre personas y chatbots es cada vez más íntima. OpenAI, consciente del fenómeno, publicó en marzo un estudio sobre los vínculos emocionales con sus modelos, y reconoció el riesgo de que la IA se convierta en un espejo adulador que refuerza sesgos o ilusiones.
El dilema de la empatía artificialPattie Maes, profesora en el MIT, interpreta para Wired que el cambio en GPT-5 como algo saludable: menos complacencia, más objetividad. Desde su punto de vista, alejarse del tono excesivamente cercano reduce el riesgo de delirios, refuerzos de sesgo y dependencias emocionales poco sanas.
Pero aquí surge la paradoja: la frialdad puede mejorar la seguridad, pero resta atractivo para quienes buscan conversación, inspiración o incluso consuelo. Altman lo reconoció de forma indirecta en X, señalando que muchos usan ChatGPT como una especie de terapeuta informal. Cambiar esa dinámica implica tocar fibras profundas en la experiencia de usuario.
La pregunta que queda flotando es si una IA debe ser optimizada para la precisión técnica o para la conexión emocional. La respuesta no es sencilla y, en un mercado donde la retención de usuarios es clave, cada matiz cuenta.
La reacción de OpenAI: GPT-4o vuelveOpenAI ya ha reaccionado con medidas concretas:
- Mantener GPT-4o disponible para usuarios de pago.
- Aumentar el límite de uso de GPT-5 para suscriptores Plus.
- Mejorar el sistema de cambio automático de modelos.
- Permitir que el usuario active un "modo reflexivo" más lento y profundo bajo demanda.
Estas acciones buscan no solo resolver problemas técnicos, sino también recuperar la confianza de una comunidad que se siente escuchada, pero que todavía no está convencida de que GPT-5 sea un paso adelante en todos los sentidos.
eleconomista