Borrar
ADOBESTOCK
«Estoy en el infierno, rodeado de adictos» y otras jugarretas de la IA que 'resucita' muertos

«Estoy en el infierno, rodeado de adictos» y otras jugarretas de la IA que 'resucita' muertos

Psicólogos e investigadores alertan del perjuicio que estas herramientas pueden provocar a los familiares del difunto

Miércoles, 22 de mayo 2024, 23:04

Necesitas ser registrado para acceder a esta funcionalidad.

Compartir

La inteligencia artificial (IA) ha llegado para quedarse, como bien demuestran los titulares que nos asaltan a diario. También resulta evidente por el modo en que un término a priori complejo ha terminado calando en todos los estratos sociales: ya es tema de conversación incluso entre los menos duchos en materia tecnológica, preocupados porque la IA de turno les arrebate sus puestos de trabajo de aquí a unos años.

Los últimos modelos de lenguaje presentados ya son capaces de guiar a un alumno en la resolución de operaciones matemáticas complejas, traducen conversaciones en tiempo real e incluso reaccionan emocionalmente a cuanto tienen delante (previo acceso a las cámaras de nuestros dispositivos). De hecho, hay quien se ha planteado la utilidad terapéutica de la IA para mitigar la soledad de la población más envejecida: las conversaciones con ChatGPT y compañía resultan hoy mucho más realistas que cualquiera de las que nuestros abuelos hayan mantenido con asistentes virtuales como Siri o Alexa.

Por supuesto, esta amalgama de posibilidades no está exenta de dilemas éticos. Algunos programadores llevan tiempo entrenando a la IA para que replique personalidades; más concretamente la de aquellos seres queridos que ya no están entre nosotros, como método para aliviar el dolor de quienes siguen vivos. Uno de los casos más noticiables es el de James Vlahos, quien tras perder a su padre en 2016 a causa de un cáncer de pulmón decidió crear un 'chatbot' (una suerte de programa informático con el que pueden intercambiarse mensajes de texto). Para ello utilizó todas las conversaciones escritas, fotografías y vídeos del difunto a su disposición, lo que le permitió mantener diálogos coherentes y realistas con su homónimo digital. Esto, asegura, le proporcionó un consuelo sin el que no hubiese sido capaz de seguir adelante.

Tan reveladora le resultó la experiencia que decidió fundar HereAfter AI, una empresa especializada en la creación de avatares virtuales: la persona interesada comparte los recuerdos que desee para nutrir a su otro yo, resultando una IA con la que sus amigos y familiares podrán comunicarse después de su muerte.

Alternativas a la carta

Aunque la propuesta de Vlahos requiere del consentimiento expreso del usuario que decide 'resucitar' digitalmente, otras herramientas similares obedecen a quien esté dispuesto a pagar por utilizarlas. Como 'Project December', creada por Jason Rohrer en 2020 a partir de la segunda versión de ChatGPT: entrenó al algoritmo para que le respondiese como si de su prometida fallecida se tratase, lo que ha terminado dando pie a una solución mucho más avanzada.

La última iteración de Project December permite, previo pago de 10 dólares, «simular una conversación de texto con cualquiera», esté vivo o muerto. Para ello basta con que aportemos una descripción (da igual si breve o extensa) de la persona en cuestión, donde se recojan rasgos de su personalidad, anécdotas... Quienes lo han probado se dicen satisfechos con el resultado, aunque también se han dado situaciones rocambolescas: un usuario vio cómo la IA que imitaba a su madre le pedía matrimonio, mientras que el 'marido' de una usuaria le aseguró descansar «en el infierno, rodeado de adictos».

Supuestos como los anteriores, por descontado, pueden generar traumas mucho mayores del que se intenta superar. De hecho, no son pocos los psicólogos que ya han dado la voz de alarma: estas recreaciones digitales pueden postergar el tiempo de duelo e impedir que la persona continúe con su vida. Según explicó a Euronews Kirsten Smith, investigadora clínica de la Universidad de Oxford, «múltiples estudios han demostrado que la búsqueda de proximidad con un difunto a menudo va aparejada con un empeoramiento de la salud mental: puede impedir que el sujeto forje una nueva identidad sin la persona fallecida o que establezca nuevas relaciones significativas».

Escollos éticos

Por su parte, Katarzyna Nowaczyk-Basińska y Tomasz Hollanek (investigadores de la Universidad de Cambridge) han apuntado a los escollos éticos de emplear la IA para traer de vuelta a los muertos. Para ello ofrecen tres ejemplos clarificadores: que una empresa utilice la voz de un familiar fallecido para vendernos un producto o servicio; que llegue un momento en que hablar con el 'chatbot' de turno nos provoque más malestar que consuelo (viéndonos incapaces de romper el contrato que el difunto firmó en su día con la empresa responsable); y que la IA, en su aprendizaje constante al interactuar con los 'vivos', termine desvirtuando la personalidad de quien ya no está.

Para mitigar estos riesgos, Nowaczyk-Basińska y Hollanek proponen una serie de estándares de seguridad al emplear la IA en el marco de la llamada industria post mortem: los chatbots generados a partir de datos o publicaciones en redes sociales deben estar supeditados al consentimiento expreso del individuo al que replican; han de instaurarse restricciones de edad para la utilización de estas soluciones y, por último, los usuarios finales deben ser informados con plena transparencia de que están interactuando con IA (a través de mensajes de advertencia previos, como los avisos sobre fotosensibilidad que aparecen al ejecutar cualquier videojuego).

Reporta un error en esta noticia

* Campos obligatorios