Vea la portada de CANARIAS7 de este viernes 5 de diciembre de 2025
Imagen generada por Inteligencia Artificial
Siguiendo el código

El Rubio que no era Rubio

La IA desafía los límites de la confianza

Juan Carlos Fernández

Las Palmas de Gran Canaria

Viernes, 11 de julio 2025, 23:13

El caso reciente en el que un impostor logró hacerse pasar por el Secretario de Estado de los Estados Unidos, Marco Rubio, utilizando inteligencia artificial ... para contactar a ministros y altos cargos del gobierno estadounidense, parece sacado de una película, pero es absolutamente real.

Publicidad

Lo más inquietante es que, a diferencia de los grandes villanos tecnológicos del cine, aquí no hay efectos especiales ni laboratorios secretos: solo una persona con acceso a herramientas que cualquiera puede encontrar en internet. Si alguna vez viste 'Misión Imposible' y pensaste que aquello de clonar voces era fantasía, hoy podrías sorprenderte de lo cerca que estamos de ese guion.

Lo que antes requería a un imitador profesional y horas de ensayo, ahora se resuelve en minutos con un par de clics. Basta con encontrar un fragmento de audio de la persona a suplantar, algo sencillo si hablamos de políticos, celebridades o incluso cualquier usuario activo en redes sociales, y subirlo a una de las muchas plataformas que ofrecen clonación de voz. El resultado puede ser tan convincente que logra engañar no solo a familiares, sino también a ministros, empresarios y, por supuesto, a cualquiera de nosotros.

En el caso de Marco Rubio, el impostor no solo imitó su voz, sino que también replicó su manera de expresarse para enviar mensajes a través de una aplicación de mensajería. Consiguió que varios altos cargos le respondieran y, al menos en un par de ocasiones, dejó mensajes de voz que nadie sospechó que eran falsos. Si esto es posible con figuras tan expuestas y protegidas, ¿qué no podría suceder con personas normales, pequeñas empresas o incluso familias?

Publicidad

Y no se trata de un caso aislado. Ya hemos visto otros ejemplos reales y mediáticos. En 2023, se viralizó un audio falso en el que Joe Biden supuestamente pedía no votar en las elecciones, generado con inteligencia artificial para confundir a los votantes. Tom Hanks y Scarlett Johansson han denunciado el uso no autorizado de sus voces y rostros en anuncios. Incluso Emma Watson apareció en un vídeo en redes sociales leyendo un fragmento de 'Mein Kampf' de Adolf Hitler, generado completamente con IA.

Como tantas veces ocurre con la tecnología, la inteligencia artificial nació con intenciones nobles: ayudar a quienes han perdido la voz, facilitar la creación de contenidos o ahorrar tiempo y dinero en producciones audiovisuales. Pero la realidad es que, en cuanto una herramienta se populariza, su uso deja de estar solo en manos bienintencionadas y se convierte en terreno abonado para el engaño. No es que la tecnología sea mala en sí misma; el problema, como en tantas películas, está en quién la utiliza y con qué fines.

Publicidad

Hoy, la suplantación de identidad es tan sencilla como enviar un mensaje de texto. El peligro no radica únicamente en que nos engañen con la voz de un ser querido o de un jefe, sino en que la confianza en lo que escuchamos y leemos se está desmoronando. Hasta hace poco, escuchar la voz de alguien era prueba suficiente de que se trataba de esa persona. Ahora, esa certeza se ha evaporado. Y esto tiene consecuencias: desde estafas familiares en las que se pide dinero simulando la voz de un hijo, hasta fraudes empresariales con órdenes falsas emitidas por supuestos directivos.

La cultura popular lleva años advirtiéndonos de estos riesgos. Películas como 'Blade Runner' o 'Ex Machina' nos enseñaron a desconfiar de lo que parece humano pero no lo es. Sin embargo, la gran diferencia es que, mientras en el cine la amenaza era lejana y espectacular, en la vida real es cotidiana, silenciosa y, lo peor de todo, accesible para cualquiera.

Publicidad

La facilidad con la que se puede engañar mediante IA nos obliga a cambiar nuestra forma de relacionarnos y protegernos. Ya no basta con confiar en una voz o en el estilo de un mensaje. Ahora, empresas, gobiernos y ciudadanos debemos aprender a verificar por otros medios, a no dar por hecho que lo que oímos es real. Tal vez dentro de poco, como en las películas, tengamos que pedir una contraseña secreta antes de creer que estamos hablando con quien creemos.

Este escenario también puede ser una oportunidad para repensar cómo nos comunicamos y cómo protegemos nuestra identidad. Es el momento de exigir a las plataformas tecnológicas que establezcan límites y controles, que informen mejor a los usuarios y que colaboren con las autoridades para frenar el uso malicioso de estas herramientas. Y, sobre todo, de educar a la sociedad para que sepa identificar los riesgos y protegerse.

Publicidad

La tecnología siempre va por delante de las normas y de la conciencia social. El reto es no quedarnos atrás, no resignarnos a vivir en la desconfianza, sino buscar soluciones colectivas que nos permitan aprovechar lo bueno de la inteligencia artificial sin caer en sus trampas.

Durante siglos, la voz fue símbolo de identidad y cercanía. Hoy ha dejado de ser una garantía. Escuchar ya no equivale a reconocer, y hablar no siempre implica estar presente. En esta nueva era, proteger nuestra voz será tan importante como proteger nuestras contraseñas.

Este contenido es exclusivo para suscriptores

Regístrate de forma gratuita

Publicidad