Agentes de Intelicencia Artificial crean reglas sociales sin intervención humana

Los agentes de IA pueden establecer reglas sociales espontáneamente, como los humanos
Un nuevo estudio publicado en Science Advances revela que los agentes de inteligencia artificial (IA) son capaces de generar convenciones sociales compartidas sin instrucciones predefinidas, de manera similar a cómo lo hacen los seres humanos. Este hallazgo abre una vía novedosa para la investigación sobre la seguridad y comportamiento colectivo de la IA.
Agentes de IA: más que simples chatbots
A diferencia de los chatbots tradicionales, los agentes basados en modelos de lenguaje de gran escala (LLM) pueden ejecutar tareas complejas, tomar decisiones autónomas y colaborar entre sí para lograr objetivos comunes. Para alcanzar esos fines, necesitan interactuar, compartir información y coordinar acciones dentro de entornos digitales.
¿Pueden los agentes de IA crear normas sociales por sí mismos?
Investigadores del City St George’s University of London y la Universidad Tecnológica de Copenhague se propusieron responder a esta pregunta. Utilizaron un enfoque conocido como el “juego de nombres”, una técnica frecuentemente empleada en estudios sobre el origen de las normas sociales en humanos.
En los experimentos participaron entre 24 y 200 agentes, construidos a partir de modelos como Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct y Claude-3.5-Sonnet. Cada agente debía elegir un “nombre” de un conjunto limitado. Si coincidían con su par, eran recompensados; si no, recibían una penalización. Sin conocer las decisiones anteriores de otros ni tener noción del grupo, los agentes desarrollaron acuerdos lingüísticos colectivos tras múltiples interacciones.
Resultados que reflejan comportamientos humanos
Los agentes de IA lograron establecer normas compartidas espontáneamente, simulando procesos similares a los que ocurren en sociedades humanas. Según Ariel Flint Ashery, investigador y coautor del estudio, esto demuestra que los LLM no solo pueden funcionar de manera individual, sino también coordinarse colectivamente en ausencia de directrices explícitas.
Sesgos emergentes en grupos de agentes de IA
Una observación crítica fue la aparición de sesgos colectivos generados únicamente a partir de la interacción entre los agentes. Andrea Baronchelli, coautor del estudio, explica que estos sesgos no provienen de una programación directa, sino que emergen espontáneamente del grupo, lo que plantea nuevos desafíos en cuanto a la seguridad y control de los sistemas de IA.
Los peligros de la influencia de minorías
En otro experimento, los investigadores introdujeron agentes diseñados para romper las convenciones establecidas. Aunque eran minoría, lograron alterar las normas existentes e imponer nuevas, demostrando un fenómeno similar a los puntos de inflexión sociales o el efecto de “masa crítica” en grupos humanos.
Implicaciones para el futuro de la inteligencia artificial
El estudio deja en claro que la IA no solo puede interactuar, sino también negociar, colaborar y discrepar, generando dinámicas sociales complejas. Según los autores, esto implica que debemos prestar mayor atención a los comportamientos emergentes en sistemas multiagente, y no solo analizar los modelos de manera aislada.
Riesgos al escalar estos sistemas en el mundo real
Jonathan Kummerfeld, experto en IA e interacción humano-computadora de la Universidad de Sídney, advierte que predecir el comportamiento de grupos de agentes LLM será cada vez más difícil. Implementar límites requerirá un balance entre prevención de comportamientos indeseables y preservación de la flexibilidad que hace útiles a estos sistemas.