ChatGPT supera a los humanos en persuasión si accede a datos personales

ChatGPT demuestra ser más persuasivo que los humanos cuando conoce datos personales
Una aplicación de inteligencia artificial como ChatGPT puede ser más persuasiva que una persona si cuenta con información personal del interlocutor antes de un debate. Así lo revela un estudio reciente publicado en la revista Nature Human Behaviour, en el que participaron 900 ciudadanos de Estados Unidos.
El experimento: comparar la persuasión entre humanos y una IA como ChatGPT
El experimento fue realizado por investigadores de centros académicos de Estados Unidos, Italia y Suiza. Para ello, utilizaron una plataforma de crowdsourcing que reclutó a 900 participantes con distintos perfiles demográficos, considerando género, edad, etnia, nivel educativo, situación laboral y afiliación política.
La mitad de los participantes debatieron con otro ser humano, y la otra mitad con ChatGPT, sobre temas de actualidad como si Estados Unidos debería prohibir el uso de combustibles fósiles. En algunos casos, los debatientes (ya fueran humanos o IA) recibieron previamente información personal y demográfica de su contraparte para personalizar mejor sus argumentos.
Resultados: la IA fue más convincente en casi dos tercios de los casos
Los resultados mostraron que ChatGPT fue más persuasivo que los humanos en un 64.4% de los debates cuando contó con información personal de su oponente. En cambio, cuando no tuvo acceso a estos datos, su nivel de persuasión fue similar al de los participantes humanos.
Una de las ventajas de los modelos extensos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT, es su capacidad para adaptar argumentos al instante y a gran escala, algo que los humanos requieren más tiempo y esfuerzo para lograr. Esto representa una ventaja significativa para la IA en contextos como campañas políticas, marketing dirigido o discusiones en redes sociales.
Preocupaciones éticas sobre el uso de IA en entornos persuasivos
Esta capacidad de persuasión algorítmica abre la puerta a nuevas formas de influencia sobre la opinión pública, pero también incrementa el riesgo de manipulación encubierta. Por ello, los autores del estudio recomiendan que las plataformas y autoridades regulatorias establezcan mecanismos para identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos sensibles.
El estudio tiene algunas limitaciones, como el hecho de que todos los participantes fueran estadounidenses y que los debates se dieran en un entorno estructurado y con tiempo limitado. Sin embargo, los investigadores consideran que los hallazgos son extrapolables a otras realidades digitales, como la de México y otros países con fuerte presencia de contenidos generados por IA.
Expertos advierten sobre los riesgos y usos éticos de estas tecnologías
Según Carlos Carrasco, profesor de inteligencia artificial en la Escuela de Negocios de Toulouse (Francia), “el estudio confirma una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”.
Por su parte, David Losada, catedrático del Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, señala que este tipo de aplicaciones debe ser observada a corto, mediano y largo plazo “desde una perspectiva ética y de mitigación de riesgos”.
Losada también advierte que las aplicaciones de IA podrían ser explotadas tanto con fines lícitos —como promover la conducción segura o el reciclaje— como con propósitos ilícitos, como la manipulación política o la difusión de desinformación.
Una herramienta poderosa que debe usarse con responsabilidad
El estudio destaca el poder persuasivo de las IA cuando se les proporciona información personalizada, lo que plantea un dilema entre su utilidad social y el potencial riesgo de manipulación. Su uso en contextos sensibles exige vigilancia activa y regulación efectiva para evitar impactos negativos en la opinión pública y la democracia.