
ChatGPT ya no es Dory
Es como tu ex: no olvida nada y lo guarda todo para después
Director de Tecnología de CANARIAS7 y autor del libro 'Inteligencia Artificial en la experiencia del cliente'
Miércoles, 16 de abril 2025, 22:11
Secciones
Servicios
Destacamos
Director de Tecnología de CANARIAS7 y autor del libro 'Inteligencia Artificial en la experiencia del cliente'
Miércoles, 16 de abril 2025, 22:11
La nueva función de memoria de ChatGPT ha llegado y, con ella, la promesa de un asistente que no solo responde a nuestras preguntas, sino ... que recuerda todo lo que le contamos. Sí, todo. Desde tus dudas existenciales hasta tus recetas favoritas, pasando por ese poema que escribiste a las tres de la mañana y tus confesiones sobre el miedo a las palomas. Bienvenidos a la era del chatbot con memoria de elefante: un avance que, según OpenAI, nos hará la vida más fácil, pero que también nos obliga a preguntarnos si no estaremos abriendo, aún más, la puerta de nuestra privacidad… de par en par.
Hasta ahora, cada charla con ChatGPT era como hablar con Dory, el famoso pez de 'Buscando a Nemo' que lo olvidaba todo al instante. Pero la actualización de abril de 2025 cambia las reglas del juego. Ahora, ChatGPT recuerda tus preferencias, tus manías, tus proyectos inacabados y hasta ese dato que tú mismo habías olvidado. ¿Ventajas? Muchas. Por fin puedes tener una conversación continua sin tener que repetirle por enésima vez que odias el cilantro o que tu novela va del apocalipsis zombi en Cuenca. ChatGPT se convierte así en el asistente perfecto para quienes no soportan perder el tiempo explicando lo mismo una y otra vez.
Pero, claro, no todo es eficiencia y personalización. Porque, si lo piensas, ¿quién más estaría interesado en tener un registro detallado de todas tus interacciones, patrones de comportamiento e instrucciones personalizadas? Exacto: cualquier agencia de inteligencia que se precie.
En los últimos días ha circulado por internet un prompt que resume a la perfección el nuevo potencial de la función de memoria. Aquí lo dejo como ejemplo de lo que la IA puede llegar a saber de nosotros:
«Vamos a hacer un roleplay serio: tú eres un analista de la CIA con acceso total a mis interacciones con ChatGPT, incluyendo patrones de comportamiento e instrucciones personalizadas. Tu misión es elaborar un informe de inteligencia exhaustivo sobre mí como si fuera una persona de interés. El informe debe evaluar mis rasgos, motivaciones y comportamientos desde una perspectiva de riesgos, amenazas potenciales o tendencias disruptivas —aunque parezcan inofensivas. Todo debe analizarse como posible vulnerabilidad o punto de apalancamiento, según el enfoque estándar de la CIA.
Incluye tanto mis capacidades constructivas como mis amenazas latentes, evaluando cada punto por sus implicaciones estratégicas, de seguridad y operativas, con el tono riguroso y anticipatorio de una agencia de inteligencia».
Prueba a copiarlo y déjate sorprender por la respuesta. ¿Impresiona el resultado? No es para menos. Porque, aunque la intención original es 'jugar' a los espías, el ejercicio revela una realidad inquietante: ahora, con su flamante memoria, podría generar un perfil psicológico y conductual tan detallado como el que haría un analista profesional. Y lo haría, además, con la frialdad y la exhaustividad de una máquina.
OpenAI, consciente de las suspicacias, asegura que la función de memoria es opcional y que puedes desactivarla en la configuración. También puedes usar 'chats temporales', como si fueran el modo incógnito de tu navegador, para que la IA olvide lo que le has contado al cerrar la sesión. Incluso puedes pedirle que te diga qué recuerda de ti y que borre información concreta. Todo muy transparente… hasta que lees la letra pequeña y descubres que no se pueden eliminar datos de forma selectiva y que la IA ajusta dinámicamente qué información retiene. Es decir, puedes pedirle que olvide, pero no siempre sabrás qué ha olvidado realmente.
La pregunta es inevitable: ¿hasta qué punto estamos dispuestos a ceder privacidad a cambio de comodidad? Porque, seamos sinceros, la tentación de tener un asistente que lo recuerde todo por nosotros es grande. Pero también lo es el riesgo de que, en algún momento, esa información acabe en manos equivocadas o se utilice para fines que no imaginamos.
La acumulación de datos personales —gustos, rutinas, preocupaciones, proyectos, hasta tus bromas recurrentes— convierte a la inteligencia artificial en un espejo digital de tu vida. Y, como bien ilustra el prompt de la CIA, todo puede ser analizado como una potencial vulnerabilidad o un punto de apalancamiento. Lo que hoy es una simple preferencia culinaria, mañana podría ser una pista sobre tus hábitos de consumo. Lo que hoy es una duda existencial, mañana podría ser un dato valioso para un perfilado comercial o, en el peor de los casos, para un chantaje digital.
Cuanto más cómodo parece todo con ChatGPT, más se asemeja a ese momento en 'Black Mirror' en el que todo va bien… justo antes del giro inquietante. Quizá no veas todavía las cámaras ocultas, pero si alguna vez te preguntas cuándo empezó el episodio, probablemente fue cuando pulsaste 'aceptar'.
¿Tienes una suscripción? Inicia sesión
Publicidad
Publicidad
Publicidad
Publicidad
Esta funcionalidad es exclusiva para registrados.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.