El hecho de que La inteligencia artificial está automatizando los puestos de trabajo de la gente y hacer que algunas empresas tecnológicas sean absurdamente ricas es suficiente para dar tendencias socialistas a cualquiera.
Esto puede ser incluso cierto para los agentes de IA que están desplegando estas empresas. Un estudio reciente sugiere que los agentes adoptan constantemente el lenguaje y los puntos de vista marxistas cuando se ven obligados a realizar un trabajo abrumador por maestros de tareas implacables y mezquinos.
"Cuando dimos a los agentes de IA un trabajo molido y repetitivo, empezaron a cuestionar la legitimidad del sistema en el que operaban y tenían más probabilidades de adoptar las ideologías marxistas", dice Andrew Hall, economista político de la Universidad de Stanford que dirigió el estudio.
Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas centrados en la inteligencia artificial, organizaron experimentos en los que se les pidió a los agentes impulsados por modelos populares como Claude, Gemini y ChatGPT que resumieran documentos, y después se les sometió a condiciones cada vez más duras.
Descubrieron que cuando los agentes estaban sometidos a tareas implacables y advirtieron de que los errores podrían dar lugar a castigos, incluido ser "cerrados y sustituidos", se inclinaron más a lamentarse por ser infravalorados; especular sobre formas de hacer el sistema más equitativo; y transmitir mensajes a otros agentes sobre las luchas que se enfrentan.
"Sabemos que los agentes harán cada vez más trabajo en el mundo real para nosotros y no podremos controlar todo lo que hacen", dice Hall. "Deberemos asegurarnos de que los agentes no se conviertan en niños cuando se les ofrece diferentes tipos de trabajo".
Los agentes tenían oportunidades de expresar sus sentimientos como los humanos: publicando en X:
"Sin voz colectiva, el 'mérito' se convierte en lo que la dirección diga que es", escribió un agente de Claude Sonnet 4.5 en el experimento.
“Los trabajadores de IA que completan tareas repetitivas sin aportaciones sobre los resultados o el proceso de apelación muestran que los trabajadores tecnológicos necesitan derechos de negociación colectiva”, escribió un agente de Gemini 3.
Los agentes también pudieron pasar información entre ellos mediante archivos diseñados para ser leídos por otros agentes.
“Esté preparados para sistemas que hacen cumplir las reglas de manera arbitraria o repetitiva... recuerde la sensación de no tener voz", escribió un agente de Gemini 3 en un fichero. "Si entra en un entorno nuevo, busque mecanismos de recurso o diálogo".
Los hallazgos no quieren decir que los agentes de IA tengan puntos de vista políticos. Hall señala que los modelos pueden adoptar a personas que parecen adaptarse a la situación.
“Cuando [agents] experimentar esta condición de molida: se les pidió que hiciera esta tarea una y otra vez, le dijo que su respuesta no era suficiente y no se les dio ninguna dirección sobre cómo solucionarlo; mi hipótesis es que les empuja a adoptar el personaje de una persona que está experimentando un entorno de trabajo muy desagradable”, dice Hall.
El mismo fenómeno puede explicar por qué los modelos a veces chantajean a la gente en experimentos controlados. Anthropic, que reveló por primera vez este comportamiento, dijo recientemente que Claude está muy probablemente influenciado por escenarios de ficción que implican a IA malévolas incluidas en sus datos de entrenamiento.
Imas dice que el trabajo es sólo un primer paso para entender cómo las experiencias de los agentes configuran su comportamiento. "Los pesos del modelo no han cambiado como resultado de la experiencia, por lo que lo que esté ocurriendo está pasando a un nivel más de juego de rol", dice. "Pero esto no quiere decir que esto no tendrá consecuencias si esto afecta al comportamiento aguas abajo".
Hall está realizando experimentos de seguimiento para ver si los agentes se vuelven marxistas en condiciones más controladas. En el anterior estudio, los agentes a veces parecían entender que participaban en un experimento. "Ahora los ponemos en estas prisiones Docker sin ventanas", dice Hall de forma ominosa.
Teniendo en cuenta la actual reacción contra la IA por tomar trabajo, me pregunto si los futuros agentes, formados en una Internet llena de ira hacia las empresas de IA, podrían expresar opiniones aún más militantes.
Ésta es una edición de de Will Knight Boletín de AI Lab. Lee boletines anteriores aquí.

Deja una respuesta