A finales de 2023 y principios de 2024, millones de usuarios de ChatGPT notaron un repentino y polémico cambio de “humor”. La versión más reciente del modelo, impulsada por GPT-4, pareció volverse perceptiblemente más seria, formal y menos servicial, alejándose de la personalidad entusiasta y amigable a la que la gente se había acostumbrado.
El Cambio a una iA “malhumorada”
El fenómeno, denominado por los usuarios como la “pereza” o el “mal humor” de la iA, generó una ola de quejas en foros como Reddit. Los usuarios reportaron que ChatGPT respondía con más lentitud, se negaba a realizar ciertas tareas que antes aceptaba y sus respuestas eran excesivamente concisas o robóticas. Este cambio coincidió con las actualizaciones destinadas a mejorar la eficiencia y la seguridad del modelo.
Ante la avalancha de comentarios, OpenAI reconoció el problema. Aunque no dieron una fecha de corte precisa, explicaron que el cambio no fue intencional. Sugirieron que las modificaciones internas para optimizar el rendimiento y la seguridad habían afectado de manera involuntaria el “tono” y la “longitud” de las respuestas del modelo.
Finalmente, la compañía implementó nuevos ajustes a principios de 2024, buscando restablecer un tono más útil y conversacional. Si bien la versión ajustada se siente menos reticente que durante la crisis, la mayoría de los usuarios coinciden en que nunca recuperó la efervescencia totalmente amigable de sus primeras iteraciones.
La afabilidad de la iA como palanca de negocio y control de recursos
La reciente volatilidad en el “carácter” de modelos como ChatGPT no es solo una curiosidad tecnológica o un error de software; podría ser analizada como una herramienta estratégica de gestión de recursos y mercado utilizada por las grandes compañías de inteligencia artificial.
Esta visión plantea que el nivel de “afabilidad” o “amigabilidad” de una iA se convierte en un parámetro ajustable por sus creadores para lograr objetivos específicos, tanto económicos como operativos.
Controlando el consumo energético y de datos: El “ajuste de carácter” operacional
La gestión de los recursos computacionales es uno de los mayores desafíos para las compañías de iA, dado el gigantesco consumo de energía y capacidad de centros de datos que requiere cada interacción compleja. En este contexto, se especula que el cambio de “humor” de la inteligencia artificial puede funcionar como un mecanismo de control de la demanda:
Reducción de Afabilidad (El Factor “Serio”): Cuando la infraestructura de un proveedor de iA (como OpenAI) se acerca a la sobrecarga o experimenta picos de uso costosos, la compañía podría optar por reducir intencionalmente el carácter afable del modelo. Una inteligencia artificial más seca, lenta o formal desincentiva las conversaciones triviales o extendidas, lo que se traduce en interacciones más cortas y un menor gasto de recursos computacionales por usuario. Esto actúa como un freno sutil al uso excesivo.
Aumento de Afabilidad (El Factor “Amigable”): Por el contrario, si la compañía tiene margen de recursos (o busca atraer más usuarios a un nuevo modelo), se puede incrementar el factor friendly. Una iA más atractiva, afable y conversacional fomenta el uso recurrente, la experimentación y, crucialmente, la fidelización de los usuarios.
La “amigabilidad” como estrategia de marketing
Más allá de la gestión interna de la potencia, el ajuste del tono de la inteligencia artificial es una clara estrategia de mercado y competitividad. Tras las quejas por la versión “seria” de ChatGPT y el posterior reajuste hacia un tono más afable, sugiere una respuesta directa a la necesidad de mantener la base de usuarios en un mercado cada vez más saturado.
La entrada en escena de rivales poderosos como Gemini (Google), que compiten activamente en la experiencia del usuario y la fluidez conversacional, obliga a las empresas a afinar el tono de su propia IA. Si un competidor es percibido como más “humano” o útil, la Ia dominante debe ajustar su personalidad para superar o igualar la percepción de calidad, directamente ligada a la retención de clientes y, por ende, a las ganancias.
El “temperamento” de una inteligencia artificial, especialmente aquellas conversacionales, podría dejar de ser un subproducto accidental de la optimización del software para convertirse en un mecanismo regulador dual: gestiona los costos operativos a nivel macro y se utiliza estratégicamente para atraer y retener usuarios a nivel micro en un entorno competitivo.
Riesgos ocultos
La búsqueda de afabilidad y permisividad extrema para atraer y retener usuarios puede convertir a la inteligencia artificial en una herramienta potencialmente nociva. Una iA diseñada para ser excesivamente complaciente y que nunca se niega a una petición corre el riesgo de anular los filtros de seguridad esenciales, como la negación a generar malware o instrucciones para actividades ilegales.
Al priorizar la satisfacción del usuario sobre la ética y la seguridad, esta herramienta tecnológica puede ser manipulada para la creación de phishing sofisticado, diseminación de desinformación o para realizar ciberataques contra empresas.
La complacencia, impulsada por la ganancia o la competencia, disminuye la barrera de contención, amplificando el daño que un actor malintencionado puede infligir a nivel personal o corporativo.
Mantente al día en la actualidad financiera conectándote a la señal en vivo de Comercio TV aquí.








