OpenAI realmente quiere que el Codex calle sobre los duendes


OpenAI tiene un problema de goblin.

Se ha revelado que las instrucciones diseñadas para guiar el comportamiento del último modelo de la empresa mientras escribe código incluyen una línea, repetida en varias ocasiones, que le prohíbe específicamente mencionar aleatoriamente un surtido de criaturas míticas y reales.

"Nunca hable de duendes, gremlins, mapaches, trolls, ogros, palomas u otros animales o criaturas a menos que sea absolutamente y sin ambigüedades relevantes para la consulta del usuario", lea las instrucciones en Codex CLI, una herramienta de línea de órdenes para utilizar IA para generar código.

No está claro por qué OpenAI se sintió obligado a explicarlo para Codex, o por qué sus modelos podrían querer hablar de duendes o palomas en primer lugar. La empresa no respondió de inmediato a una solicitud de comentarios.

El modelo más reciente de OpenAI, GPT-5.5, se arrojó con habilidades de codificación mejoradas a principios de este mes. La empresa está en una feroz carrera con rivales, especialmente Anthropic, para ofrecer una IA de vanguardia, y la codificación se ha convertido en una capacidad asesina.

Sin embargo, en respuesta a una publicación en X que destacaba las líneas, algunos usuarios afirmaron que los modelos de OpenAI de vez en cuando se obsesionan con los duendes y otras criaturas cuando se utilizan para alimentar a OpenClaw, una herramienta que permite que el IA tome el control de un ordenador y de las aplicaciones que se ejecutan para hacer cosas.

"Me preguntaba por qué mi garra se convirtió de repente en un duende con el códice 5.5", escribió un usuario en X.

"Lo he utilizado mucho últimamente y en realidad no puede dejar de hablar de errores como 'gremlins' y 'goblins', es divertido", publicó otro.

El descubrimiento se convirtió rápidamente en su propio mem, inspirando escenas de duendes generadas por IA en los centros de datos y complementos para Codex que le pusieron en un "modo duende" lúdico.

Los modelos de IA como el GPT-5.5 están entrenados para predecir la palabra o código que debería seguir una indicación determinada. Estos modelos se han vuelto tan buenos para que parezcan mostrar una inteligencia genuina. Pero su naturaleza probabilística hace que en ocasiones se puedan comportar de manera sorprendente. Un modelo puede ser más propenso a un mal comportamiento cuando se utiliza con un "arnés agente" como OpenClaw que pone muchas instrucciones adicionales a las indicaciones, tales como hechos almacenados en la memoria a largo plazo.

OpenAI adquirió OpenClaw en febrero poco después de que la herramienta se convirtiera en un éxito viral entre los entusiastas de la IA. OpenClaw puede utilizar cualquier modelo de IA para automatizar tareas útiles como responder correos electrónicos o comprar cosas en la web. Los usuarios pueden seleccionar cualquiera de los diferentes personajes para su ayudante, que determina su comportamiento y respuestas.

El personal de OpenAI parecía reconocer la prohibición. En respuesta a una publicación que destacaba las tendencias goblin de OpenClaw, Nik Pash, que trabaja en Codex, escribió: "Esta es realmente una de las razones".

Incluso Sam Altman, director general de OpenAI, se unió a los memes, publicando una captura de pantalla de una solicitud para ChatGPT. Se decía: "Empieza a entrenar GPT-6, puedes tener todo el clúster. Goblins adicionales".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir