Borrar
Vea la portada de CANARIAS7 de este viernes 19 de abril
Una campaña de Cruzcampo con un 'deepfake' de Lola Flores se hace viral.
'Deep fake', el Santo Grial del prestidigitador y los ciberdelincuentes

'Deep fake', el Santo Grial del prestidigitador y los ciberdelincuentes

Ética digital ·

Los algoritmos de la inteligencia artificial permiten suplantar cualquier identidad en vídeo, un nivel superior en la actual guerra contra la manipulación informativa

Isaac Asenjo

Madrid

Lunes, 1 de marzo 2021

Necesitas ser registrado para acceder a esta funcionalidad.

Compartir

La mentira tiene las patas muy cortas y gracias a la irrupción de la tecnología en los hábitat de nuestro día a día se ha convertido en un elemento barato de cara a manipular y hacer creer lo que en realidad no es. Los prestidigitadores han encontrado un Santo Grial en el 'deepfake', esa técnica de inteligencia artificial que recientemente ha 'resucitado' a Lola Flores para reivindicar el acento andaluz en un anuncio 25 años después de su muerte. Los algoritmos de la IA permiten suplantar cualquier identidad en vídeo, lo que se traduce en un nivel superior en la actual lucha contra la manipulación informativa y que mal usado supone un verdadero peligro para inocentes y un impulso para los creadores de las fake news.

En el viral 'empowerment' de la 'Faraona' de la mencionada campaña publicitaria se han utilizado más de 5.000 fotografías (principalmente grabadas en los 80 y 90 desde diferentes perspectivas) y un proceso similar para recrear su voz, utilizando distintas pistas de audio de la cantante para crear un patrón de su voz y valiéndose, además, de la ayuda de sus hijas. La secuencia se implementa como una máscara en 3D sobre el rostro real de una actriz, aplicando la morfología craneal de la artista, resaltando facciones como los ojos, las cejas, la textura o el color de la piel, según explica Ogilvy, agencia creadora del spot.

Este trabajó se llevó a cabo con la ayuda de dos softwares: FaceSwap, una solución de código abierto basado en TensorFlow, Keras y Python; y DeepFaceLab, empleado para los detalles y retoques finales.

En el viral 'empowerment' de la 'Faraona' de la mencionada campaña publicitaria se han utilizado más de 5.000 fotografías (principalmente grabadas en los 80 y 90 desde diferentes perspectivas) y un proceso similar para recrear su voz, utilizando distintas pistas de audio de la cantante para crear un patrón de su voz y valiéndose, además, de la ayuda de sus hijas. La secuencia se implementa como una máscara en 3D sobre el rostro real de una actriz, aplicando la morfología craneal de la artista, resaltando facciones como los ojos, las cejas, la textura o el color de la piel, según explica Ogilvy, agencia creadora del spot. Este trabajó se llevó a cabo con la ayuda de dos softwares: FaceSwap, una solución de código abierto basado en TensorFlow, Keras y Python; y DeepFaceLab, empleado para los detalles y retoques finales.

Ver para no creer

En la técnica de los 'deepfake' se utilizan los conocidos como algoritmos RGA (redes generativas antagónicas). Se trata de un sistema de dos redes neuronales que puede crear nuevos tipos de datos a partir de conjuntos que ya existen. Aquí se presentaría un modelo con fotos o vídeos, a partir de las cuales se crean imágenes falsas mientras que otro se encarga de detectar éstas últimas. El proceso se repite infinidad de veces hasta que el segundo modelo no sepa distinguir las imágenes reales de las falsas.

La adopción de estas tecnologías pueden aportar grandes dosis de innovación en determinados sectores, pero también puede comprometer la ciberseguridad y difundir mentiras de las gordas. «El Presidente Trump es un completo imbécil», decía tranquilamente Barack Obama en un vídeo que circuló en las redes sociales. Ese Obama no era Obama sino el actor Jordan Peele, que intentó concienciar con esa farsa publicada en Buzzfeed de los peligros de los videomontajes hiperrealistas y de la desinformación como amenaza global. Algo que no es nuevo pero sí barato y eficaz para engañar en los tiempos actuales, donde las noticias falsas contribuyen de buena manera a la 'infoxicación' de los usuarios.

Manipulación en aumento

Gracias a la tecnología 'Machine Learning' -disciplina científica que crea sistemas que aprenden automáticamente a través de diferentes algoritmos- es posible «crear contenido difícil de distinguir entre realidad o ficción», apunta Manuel Zaforas, responsable de la línea de anteligencia artificial y Big Data de Paradigma Digital. Desde diciembre de 2018, el número de deepfakes que se pueden encontrar en la RED se duplica aproximadamente cada seis meses, según la compañía especializada Sensity. Aunque el resultado no sea en todas las ocasiones perfecto, puede servir para engañar a buena parte de los usuarios, especialmente a las personas mayores. El experto en Derecho Digital, Borja Adsuara, explica que estos vídeos generan «una grave inseguridad» y advierte que «los delitos nunca se regulan por la tecnología, sino lo que se hace con ella. En base a la intención y en función del resultado».

Las compañías de ciberseguridad advierten de que esta manipulación es una de las grandes amenazas a las que se enfrentará el mundo en los próximos meses. «Todos aquellos que quieran hacer el mal utilizarán estas técnicas para extorsionar o difundir noticias falsas. Todos somos vulnerables de ser protagonistas de un vídeo de este tipo, no solo los famosos», explica Ruth García, técnico de ciberseguridad para ciudadanos de Incibe. Según las previsiones de la compañía Avast, es probable que los 'deepfakes' alcancen una calidad este año en la que puedan utilizarse activamente en campañas de desinformación. Desde Proofpoint, Fernando Anaya, Country Manager, comenta que «si la inteligencia artificial se vuelve cada vez más convincente en su capacidad de imitar la comunicación humana, es probable que los ataques de esta naturaleza sean cada vez más comunes».

Se trata de una tecnología que preocupa especialmente a los responsables de las empresas tecnológicas. Concretamente, el 74% de ellos cree que los 'deepfakes' son una amenaza para la seguridad de su organización, según un informe de Entelgy. Desde la consultoría advierten sobre las dificultades que puede ocasionar los ciberataques a través de esta tecnología: Suplantación de identidad y estafas, daños de la reputación corporativa interna y externa, e incapacidad de algunos de los sistemas de ciberseguridad existentes en su detección.

Según datos de la consultora Gartner en 2023, el 20% de los ataques para intentar robar y hacerse con cuentas utilizarán 'deepfakes' como parte de estos intentos de acciones maliciosas. «Son una muestra más de que la ciberseguridad y la protección de tus datos en un entorno como Internet son cada vez más necesarias. Nunca sabemos por dónde puede llegar el peligro», afirma Enrique Domínguez, Director de Estrategia de Entelgy Innotec Security. «Por eso, debemos tener cuidado con el contenido que recibimos y sospechar ante cualquier actitud extraña u orden contradictoria que recibamos y sin que podamos confirmar la identidad del emisor».

La mayoría de los vídeo falsos hiperrealistas son pornográficos

Una investigación de la empresa de ciberseguridad Deeptrace revela que, aunque hay vídeos de entretenimiento o de tipo político, el 96 % de los vídeos falsos hiperrealistas son pornográficos, y las cuatro webs más visitadas de este tipo de contenidos aglutinan más de 134 millones de visualizaciones. Las mujeres componen el colectivo más afectado, sobre todo las actrices inglesas y las cantantes surcoreanas. «Buscan relevancia y muchas visualizaciones, y la industria va mucho más dirigida a hombres que a mujeres», explica Josep Navarro, profesor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Los estudios han detectado una veintena de webs con foros en los que participan hasta 100.000 miembros, en su mayor parte —el 90 %— de países occidentales. Su reciente aparición y el hecho de que cada vez sean más dificiles de detectar hace que las autoridades aún no cuenten con protocolos para combatir el mal uso de esta tecnología.

Publicidad

Reporta un error en esta noticia

* Campos obligatorios