Vea la portada de CANARIAS7 de este viernes 5 de diciembre de 2025
IMAGEN GENERADA POR IA
Siguiendo el código

La ilusión de pensar

¿Y si la inteligencia artificial no fuera tan inteligente?

Juan Carlos Fernández

Las Palmas de Gran Canaria

Viernes, 13 de junio 2025, 23:02

Algunos de los modelos de IA más avanzados, como OpenAI o1, DeepSeek-R1 y Gemini Thinking, presumen de 'pensar en voz alta', mostrando en texto ... sus cadenas de razonamiento paso a paso antes de presentar una respuesta. Esta capacidad, conocida en la comunidad como 'chain-of-thought', se ha publicitado como un avance que aporta transparencia al proceso interno de la máquina, asemejándolo el razonamiento humano.

Publicidad

Sin embargo, detrás de estas explicaciones detalladas surgen dudas sobre si realmente estamos ante un proceso de pensamiento genuino o simplemente ante una puesta en escena meticulosamente ensayada para impresionar al usuario.

Para poner a prueba estas promesas, un equipo de Apple diseñó el estudio 'La ilusión del pensamiento', en el que compararon versiones de grandes modelos de lenguaje con y sin capacidad para exponer sus trazas de razonamiento. En lugar de emplear ejercicios matemáticos o de programación, fácilmente memorizables, recurrieron a puzzles lógicos clásicos como la torre de Hanoi, el salto de fichas, el cruce del río con un lobo, una cabra y una col, y el mundo de bloques.

Estos escenarios permiten graduar la complejidad con precisión y validar cada paso propuesto por la IA, de modo que no basta con acertar la respuesta final: también se evalúa la coherencia y eficacia del proceso intermedio.

Publicidad

Cuando los puzzles son muy sencillos, las versiones tradicionales de los modelos, que no exponen su razonamiento, igualan e incluso superan en velocidad y eficiencia a las versiones que 'piensan en voz alta'.

Por ejemplo, en la torre de Hanoi con tres discos, los modelos estándar resuelven el problema en los siete movimientos mínimos sin generar explicaciones adicionales, mientras que los razonadores describen cada movimiento con detalle excesivo, incluso después de haber encontrado la solución óptima.

Publicidad

Sin embargo, al elevar la complejidad a niveles intermedios, las máquinas que explicitan sus cadenas de pensamiento comienzan a mostrar una ventaja tangible. En retos como cruzar el río con dos parejas y un bote de dos plazas, estos modelos exploran múltiples rutas y justifican sus decisiones («no podemos llevar al lobo primero porque…»), lo que les permite corregir errores de forma más efectiva y resolver más casos que sus contrapartes silenciosas.

El precio que pagan es un tiempo de respuesta significativamente mayor y un incremento en el número de tokens generados, llegando a consumir cinco o diez veces más recursos.

Más allá de cierto umbral de dificultad, ambas familias de modelos colapsan y dejan de resolver los puzzles. Lo sorprendente es que los razonadores, en lugar de dedicar más esfuerzo y generar cadenas más largas, reducen su actividad reflexiva y abandonan antes de agotar todas las posibilidades. En este punto se rinden tan pronto como perciben que la tarea supera su presupuesto de planificación, produciendo respuestas vacías o desconectadas, como un estudiante que deja el examen en blanco al ver el primer problema complejo.

Publicidad

Para comprobar si esta tendencia a rendirse se debía a la falta de estrategias o a la incapacidad para seguir instrucciones, los investigadores de Apple suministraron a los modelos el algoritmo óptimo completo para resolver la torre de Hanoi paso a paso. Aun con esa guía perfecta, los razonadores no mejoraron su precisión ni prolongaron su esfuerzo antes de fracasar, lo que demuestra que no solo les cuesta inventar soluciones sino también aplicar de forma fiable indicaciones detalladas.

Este exceso de verbosidad y su coste en recursos no solo afecta al rendimiento en entornos controlados, sino que también plantea dudas sobre la viabilidad de estas técnicas en aplicaciones prácticas. Generar explicaciones extensas consume tiempo de cómputo y energía, lo que puede resultar inaceptable en dispositivos con recursos limitados o en servicios que requieren respuestas inmediatas. Además, el hecho de que la transparencia aparente deje en evidencia la falta de perseverancia y autocorrección revela un desequilibrio entre forma y fondo.

Publicidad

Estas observaciones tienen implicaciones directas en sectores sensibles. Si un modelo de IA se rinde ante un rompecabezas lógico, ¿cómo confiar en él para diagnósticos médicos complejos, decisiones financieras de alto riesgo o asesoramiento legal, donde no caben fallos? La ilusión de razonamiento puede generar una falsa sensación de seguridad en el usuario, que asume que la IA está analizando profundamente cada paso, cuando en realidad podría colapsar ante situaciones críticas.

De cara al futuro, será fundamental repensar cómo se diseñan estos modelos, añadiendo sistemas que les permitan supervisar y mejorar su propia forma de razonar. También será importante combinar métodos que imiten la flexibilidad del cerebro humano con otros más lógicos y estructurados, para lograr resultados más fiables y completos.

Noticia Patrocinada

Mientras tanto, seguiremos observando esta ilusión de pensamiento que, como ocurre en El Mago de Oz, revela que tras la cortina de explicaciones brillantes no siempre hay una inteligencia real, sino a menudo un elaborado espectáculo que puede resultar ser, en el fondo, un simple truco.

Este contenido es exclusivo para suscriptores

Regístrate de forma gratuita

Publicidad