No venceréis, pero convenceréis
¿Y si la IA de Misión Imposible fuera Sócrates?
¿Tienes un amigo que siempre intenta convencerte de todo, pero nunca lo consigue? Da igual si se trata de ver su serie favorita, probar ... una dieta milagro o darle un giro a tu postura política: se esfuerza, insiste... y al final te encoges de hombros, sonríes y concluyes que simplemente no te ha persuadido.
Ahora imagina que, en lugar de ese amigo tenaz pero ineficaz, quien debate contigo es una inteligencia artificial capaz de calibrar tus datos personales al milímetro. Sin levantar la voz, sin parecer insistente, sin mostrar prisa, la IA te ofrece razones tan afinadas que las probabilidades de que cambies de idea se disparan: según un estudio de la Escuela Politécnica Federal de Lausana, publicado en Nature Human Behaviour y liderado por Francesco Salvi, modelos como ChatGPT o Gemini logran persuadir mejor que las personas en un 64 % de los enfrentamientos.
Mientras tu amigo colecciona intentos fallidos, la máquina juega con ventaja y suele ganar la partida de la persuasión.
El experimento contó con 900 personas en debates breves sobre temas sociales, sin que supieran si discutían con un humano o con una IA. En algunos casos, los modelos de IA tenían acceso a información personal básica del interlocutor: edad, ideología, nivel educativo, entre otros. Cuando disponían de estos datos, su discurso se volvía más persuasivo.
No se trataba solo de argumentar bien, sino de adaptar el mensaje al perfil psicológico del oyente. Como decía Blaise Pascal: «el corazón tiene razones que la razón no entiende». Y eso es exactamente lo que estas IAs están aprendiendo a interpretar: no solo lo que pensamos, sino lo que sentimos.
¿Por qué convence más una máquina que una persona? La clave está en su dominio automatizado —y afinado— de técnicas clásicas de persuasión. La reciprocidad, por ejemplo: al ofrecer información útil o empatía al inicio, la IA genera una actitud receptiva. Luego emplea el principio de coherencia, guiando al interlocutor a aceptar pequeños acuerdos que desembocan en uno mayor.
También usa la prueba social: «la mayoría de las personas de tu grupo creen que...», una estrategia que apela a nuestro deseo de pertenencia. Añade autoridad con un lenguaje técnico y estructurado. Y conquista con simpatía: las IAs han sido diseñadas para sonar amables, empáticas, cuidadosas. Si pueden personalizar el tono, afinan aún más su efecto. Además, saben cómo introducir un dato impactante al principio para condicionar todo lo que viene después, anclaje, o destacar la urgencia de una propuesta, escasez.
Estos principios no son nuevos. Ya Aristóteles, en su obra 'Retórica', identificó los tres pilares fundamentales de toda persuasión eficaz: ethos (credibilidad), pathos (emoción) y logos (razón). La IA no los inventa, pero los aplica con una precisión milimétrica, sin distracciones ni emociones que interfieran. Así, lo que en un humano puede ser una estrategia intuitiva, en un sistema algorítmico es un patrón optimizado.
Estas máquinas también manejan estructuras retóricas complejas como la secuencia motivada de Monroe —atención, problema, solución, visualización y acción—, y lo hacen sin titubear, sin cansancio, sin emociones que enturbien el mensaje. Frente a un humano, que duda, improvisa o se distrae, una IA mantiene el foco, detecta patrones y ajusta su discurso en tiempo real.
El verdadero problema no es solo que estas máquinas conozcan técnicas persuasivas, sino que las apliquen con una eficacia y una personalización imposibles de igualar por un ser humano. Si además disponen de nuestros datos, el nivel de influencia se dispara.En palabras de Ortega y Gasset: «El hombre es él y su circunstancia, y si no la salva a ella no se salva él». Y es precisamente eso lo que hace la IA: adapta sus mensajes a nuestras circunstancias, a nuestro contexto personal, emocional y social, moldeando lo que pensamos sin que apenas lo notemos. Cuando el entorno deja de ser neutral y se convierte en un algoritmo diseñado para persuadirte, el margen para decidir libremente se estrecha peligrosamente.
Este estudio no está solo. Investigadores de la Universidad de Cambridge, han alertado sobre la llegada de una «economía de la intención», donde los sistemas de inteligencia artificial moldean nuestras decisiones incluso antes de que seamos conscientes de ellas. A través de datos de comportamiento, búsquedas o lenguaje emocional, estos sistemas pueden sugerir opciones que parecen espontáneas, pero están calculadas. Si el mensaje suena como algo que nosotros mismos podríamos haber dicho, la defensa se debilita.
La propia OpenAI ha expresado preocupación. Su equipo de Preparedness se dedica a anticipar riesgos relacionados con el uso de modelos avanzados de IA, como la manipulación, el engaño o la persuasión automatizada. Estudian hasta qué punto estas tecnologías pueden influir en nuestras decisiones y desarrollan estrategias para evitar que ese poder se use de forma indebida.
¿Y si el cambio no llegara con explosiones, sino con una charla serena, empática y diseñada con precisión quirúrgica para tu forma de pensar, mientras tomas tu dosis diaria de soma? Tu misión, si decides aceptarla, no es enfrentarte a una máquina que dispara, sino a una que persuade. Y lo hace sabiendo exactamente lo que necesitas oír.
¿Tienes una suscripción? Inicia sesión