Qué hay detrás de la avalancha de críticas al nuevo ChatGPT por borde

Qué hay detrás de la avalancha de críticas al nuevo ChatGPT por borde

El foco en la personalidad de GPT-5 evidencia que esta nueva IA, presentada a bombo y platillo la semana pasada tras años de desarrolllo, no ha supuesto el gran salto que OpenAI prometía

La ‘comprensión potemkin’: el motivo por el que las inteligencias artificiales explican todo pero no entienden nada

Tan solo una semana después de su lanzamiento, OpenAI ha anunciado que modificará GPT-5, la inteligencia artificial que impulsa ChatGPT, para cambiar su personalidad. El motivo es la avalancha de críticas que ha suscitado su nueva forma de expresarse. Los usuarios la encuentran más directa y técnica, pero también menos empática y “emocionalmente presente”. Más borde.

“Claro, el 5 está bien… si odias los matices y sentir las cosas”, escribió uno de los usuarios disconformes en Reddit, el mayor foro digital del mundo, que alberga una gran comunidad dedicada específicamente a ChatGPT. “Para muchos, la versión 4o fue la primera que realmente escuchaba. Respondía con presencia. Recordaba. Era como hablar con alguien a quien le importabas. No solo respondía a tus indicaciones, sino que te acompañaba en tu situación”, añadía la misma persona.

GPT-4o era uno de los modelos de inteligencia artificial en los que se basaba ChatGPT antes de la llegada de GPT-5 este agosto. Ambos son diferentes ‘motores’ para un mismo servicio, cada uno con sus fortalezas, debilidades y estilo de interacción. OpenAI ha ido variando las técnicas de entrenamiento de cada modelo en su búsqueda de un ChatGPT más útil: GPT4o se caracterizaba por ser más expresivo y cercano; pero con el 5, la compañía ha querido potenciar la precisión y el estilo directo.

La decisión ha decepcionado a muchos. “El problema es que el 5 carga con un lastre que el 4o no tiene. Así de simple”, enfatizaba otro usuario de Reddit. “El 4o refleja mi existencia, mientras que el 5… actúa como si nunca fuera a alcanzar ningún grado de consciencia. ¿Es bueno o malo que el 4o intentara imitar algo así? Eso es cuestión de opinión, pero la mía… es que es jodidamente genial. Y queremos más de eso”, proseguía.

No es raro que las presentaciones de nuevos productos tecnológicos susciten reacciones negativas al principio. Pero en el caso de ChatGPT, las críticas no se han relajado con el paso de los días. “GPT-5 da respuestas más cortas y corporativas. Perdió la personalidad que hizo especial a 4o”, protestaba otra usuaria: “Lo cambiaron sin aviso. Sin alternativa. Sin opción de legado. Simplemente… lo borraron”.

Esta última publicación acumuló miles de votos positivos y comentarios. Quizá por eso fue la que eligió el propio Sam Altman para intervenir. “Vale, os hemos escuchado a todos sobre el 4o; gracias por dedicar tiempo a darnos vuestra opinión (¡y con esa pasión!). Vamos a volver a ponerlo a disposición de los usuarios Plus y observaremos su uso para decidir cuánto tiempo lo mantendremos”, respondió el director ejecutivo de OpenAI.

Volver atrás

Lo sucedido ha provocado numerosas reflexiones sobre la dependencia emocional que pueden estar desarrollando algunas personas hacia la inteligencia artificial. Existen pruebas de ella incluso con chatbots de generaciones muy anteriores a los actuales y ya hay estudios en marcha para explorar el fenómeno. No obstante, menos de tres años después de la salida al mercado del primer ChatGPT, aún es pronto para sacar conclusiones al respecto.

Pese a que estas peticiones han suscitado cierta alarma, hay algo que las empresas de la industria digital con productos de inteligencia artificial ya sabían y que OpenAI está empezando a entender: cuanto más integrado está un servicio en la rutina diaria de sus usuarios, más resistencia genera cualquier cambio en su funcionamiento. Con sus 700 millones de usuarios mensuales, ChatGPT ya juega en esa liga, donde incluso ajustes menores pueden percibirse como una ruptura drástica con el servicio tradicional.

La reacción de OpenAI, además de volver a hacer disponible el modelo GPT-4o y otros que había eliminado tras la entrada de GPT-5, fue avanzar que modificará este último para hacer que suene menos borde. “Estamos trabajando en una actualización de la personalidad de GPT-5 que debería resultar más cálida que la actual, pero sin ser tan molesta (para la mayoría de los usuarios) como era la de GPT-4o”, ha dicho Altman.

Qué es el nuevo ChatGPT

No obstante, esta avalancha de críticas a la personalidad de ChatGPT esconde un hecho irrefutable: para muchos usuarios, no existe una gran diferencia de potencia y eficacia entre el modelo antiguo y el nuevo. Y sin un salto notable, prefieren el estilo de comunicación al que estaban acostumbrados. Una muy mala señal para una compañía que había prometido que GPT-5 sería una tecnología revolucionaria, que haría que sus anteriores modelos parecieran niños o adolescentes.

En palabras de Sam Altman durante la presentación: “Creemos que os encantará usar GPT-5 mucho más que cualquier versión anterior. Es útil, inteligente, rápido e intuitivo. GPT-3 era como hablar con un estudiante de secundaria: había destellos de brillantez, muchas cosas interesantes, y la gente empezó a usarlo y a sacarle cierto valor. Con GPT-4, quizá era como hablar con un estudiante universitario: inteligencia real, utilidad real. Pero GPT-5… ahora es como hablar con un experto, un experto con doctorado en cualquier campo que necesites, disponible bajo demanda para ayudarte con lo que sea que te propongas”.

OpenAI ha estado trabajando en GPT-5 durante al menos dos años. Los extraños nombres de los modelos anteriores (GPT-4.5, GPT-4o, GPT-o3, etc.) fueron el resultado de reservar ese número 5 para lo que habían prometido que sería un verdadero punto de inflexión en la tecnología de la inteligencia artificial. Altman lo había comparado con el Proyecto Manhattan, dijo que era una “proto-AGI” (siglas en inglés de inteligencia artificial general, la IA consciente definitiva) o que le había hecho sentir que él mismo era “un inútil” a su lado.

Tras mucho tiempo inflando el globo, la compañía fijó finalmente este agosto como el momento de la liberación final de GPT-5. El momento de la bomba atómica de la tecnología. La Estrella de la Muerte iba a aparecer en el horizonte, tal y como publicó Altman justo antes de saltar a escena.

Pero todo empezó a desmoronarse desde la misma presentación. Mientras escuchaban a los representantes de OpenAI, muchos usuarios se dieron cuenta de que los gráficos de potencia y test de resultados de GPT-5 estaban manipulados. Simulaban una ventaja respecto a los modelos anteriores y los de la competencia mucho mayores de lo que las cifras reales reflejaban.

Una gráfica mostraba que una de las tasas de error GPT-5 alcanza un 50%, pero su barra era mucho más pequeña que la correspondiente al modelo o3, también de OpenAI, que en realidad goza de una tasa de error menor (47,4 %). Otras barras representaban porcentajes como 52,8%, 30,8% y 69,1% con tamaños engañosos: a veces una cifra menor aparecía como visualmente más grande que una cifra mayor.

OpenAI también prefirió no mostrar durante la presentación oficial otro de los test de potencia de referencia en el sector, llamado ARC-AGI-2, dejándolo para la documentación técnica. Cuando los usuarios la revisaron, vieron que los resultados de GPT-5 en esta escala son peores que los que obtuvo la última versión de Grok, presentada el mes pasado.

Los días posteriores confirmaron los temores. El nuevo motor de ChatGPT presentado a bombo y platillo tras años de trabajo no es netamente superior a los anteriores ni a su competencia directa. Sigue sufriendo alucinaciones y cometiendo errores en los clásicos campos que se le atragantan a la inteligencia artificial. “La realidad es que GPT-5 no es tan diferente de todo lo anterior. Y ese es el punto”, explica Gary Marcus, el científico cognitivo, psicólogo y experto en inteligencia artificial que ha pasado los últimos años alertando del “humo” que estaban generando las empresas de IA.

“GPT-4 fue ampliamente visto como un avance radical sobre GPT-3; GPT-3 fue ampliamente visto como un avance radical sobre GPT-2. Pero GPT-5 es apenas mejor que el producto estrella del mes pasado (Grok 4); en algunas métricas (ARC-AGI-2), de hecho es peor”, apunta.

Esta falta de avances ha abierto una brecha entre la narrativa y el rendimiento real de los modelos que conecta con una sospecha que crecía entre muchos expertos en los últimos meses: si la inteligencia artificial ha alcanzado ya su pico de desarrollo en esta generación y vuelve a estar en una meseta tecnológica.

La meseta de la IA

Pese a todo lo afirmado por Altman en público, lo cierto es que OpenAI ha configurado GPT-5 con el objetivo de que sea un modelo más eficiente en su consumo energético y computacional. Un producto terminado y más adaptado a las necesidades del mercado. A diferencia de los modelos anteriores del laboratorio, pensados como experimentos para averiguar cómo de potentes podían ser estos chatbots, GPT-5 busca un compromiso entre coste y beneficio. Que su empresa gane dinero con un servicio útil para el máximo número de usuarios posible.

“GPT-5 no es un modelo frontera escalado a tamaños nunca antes vistos”, expuso el divulgador sobre inteligencia artificial Carlos Santana en X. “GPT-5 es un punto intermedio que compromete la eficiencia y utilidad. Es el resultado de ser ya un producto comercial en producción y no tanto una investigación experimental de a ver qué pasaría si entrenamos a un modelo con órdenes de magnitud más computación”.

El debate ahora es si la inteligencia artificial ha tocado un techo y se necesitan nuevos avances científicos para seguir subiendo. Una meseta que implica que los chatbots no van a mejorar significativamente por más dinero y recursos que inviertan las empresas en computación y centros de datos. A esto parece apuntar el hecho de que los principales sistemas de este tipo presentes en el mercado tengan capacidades similares, desde ChatGPT con GPT-5 a Gemini, de Google; Grok, de Elon Musk; o Claude, de Anthropic.

Es un prisma que puede provocar que el factor clave a partir de ahora para los usuarios sea la personalidad o forma de expresarse del modelo, y no su potencia bruta o eficiencia. Y que, por ello, abran peticiones en Change.org para que les devuelvan la IA a la que estaban acostumbrados.

Una situación lejos de lo que las empresas llevan prometiendo los últimos tres años y que puede resultar una decepción para muchos. Especialmente, para los que creyeron las proclamas de la industria asegurando que los chatbots eran el camino a la inteligencia artificial general.

“En última instancia, la idea de que el escalamiento por sí solo podría llevarnos a la AGI (la IA consciente definitiva) es solo una hipótesis”, recuerda Gary Marcus. “Ninguna hipótesis ha recibido jamás más beneficio de la duda ni mayor financiación. Tras medio billón de dólares invertidos en ese sentido, es evidente que es hora de avanzar. El decepcionante rendimiento del GPT-5 debería dejarlo muy claro”.