Los algoritmos no predicen la estupidez humana (aún)

06/06/2020

Crean noticias falsas, invierten en Bolsa y pronostican atascos, pero nuestra espontaneidad se les escapa

El desconocimiento sobre qué son y cómo funcionan los algoritmos nos lleva a atribuirles capacidades que muchas veces no tienen. Se habla de ellos como si fueran oráculos que vaticinan el futuro y controlan lo que hacemos y, aunque en muchos casos es cierto, también tienen sus límites y engañarles es relativamente sencillo.

Lo demostró hace poco el artista alemán Simon Weckert, que consiguió burlar el algoritmo que utiliza Google Maps para predecir el tráfico. Lo que hizo fue conectar 99 móviles a la aplicación de forma simultánea, meterlos en un carrito y pasear con ellos por Berlín. Entonces, los dispositivos empezaron a mostrar en rojo las calles vacías que él atravesaba, como si hubiera mucho tráfico, y en las pantallas emergieron rutas alternativas para que los conductores evitasen el supuesto atasco.

Es solo un ejemplo pero también una prueba de que la inteligencia artificial no es infalible. «Los algoritmos pueden anticipar algunos de nuestros gustos o buscar soluciones a una partida de ajedrez o a un caso penal, pero la vida está llena de situaciones imprevisibles que se les escapan. ¿O alguien vio venir el ‘Brexit’ y la victoria de Donald Trump?», cuestiona la periodista y escritora Marta García Aller, que acaba de publicar ‘Lo imprevisible’ (Planeta), un relato que explora los límites que los algoritmos aún no han logrado traspasar. Para ello, la autora ha entrevistado a un centenar de expertos en distintas materias, como matemáticos, psicólogos, filósofos, abogados, ingenieros, lingüistas o humoristas, entre otros.

«No podemos esperar que la inteligencia artificial piense y decida por nosotros» Marta garcía aller

Así ha confirmado que hay algoritmos para todo. Los que generan noticias falsas, invierten en Bolsa, anticipan a quién vamos a votar, componen música o predicen los delitos, los atascos, y hasta los orgasmos. Pero también que esta tecnología está lejos de entender el sentido común, el humor o la estupidez.

«Los humanos tendemos a repetirnos, de ahí que los algoritmos aprendan a anticipar nuestro comportamiento, pero también somos espontáneos», añade. «La inteligencia artificial no es un poder inequívoco, así que no podemos esperar que piense y decida por nosotros. Es solo una herramienta para hacernos la vida más fácil, pero la responsabilidad moral de las decisiones ha de quedar del lado de las personas».

De ahí que entender la capacidad y los límites de los algoritmos sea tan necesario para decidir cuáles deberíamos explotar y cuáles restringir por nuestro propio bien. Ya no vamos a poder vivir sin ellos, así que lo mejor será conocer cómo nos influyen. Sobre todo porque, al estar programados por personas, pueden reproducir sesgos discriminatorios perjudiciales que ni siquiera entienden. Al fin y al cabo, el razonamiento, la empatía o la imaginación siguen siendo valores puramente humanos.

¿Cuáles son los límites de los algoritmos?
La salud
¿Predijeron esta pandemia?

Parecía que no, pero hubo algoritmos que predijeron la actual pandemia. El problema es que no nos lo creímos. «El olvido y la falta de bagaje histórico es lo que hace que repitamos nuestros errores. Por más que un sistema muy sofisticado nos advierta de un peligro, si no nos lo creemos no vamos a actuar», advierte García Aller. Algunos sistemas también prometen calcular la esperanza de vida, pero los comités de bioética aún no tienen claro hasta que punto deberíamos limitar esta capacidad. «¿Nos merece la pena vivir preocupados por algo que no tiene cura», pregunta la autora del libro.

El amor

Sus ‘match’ de Tinder también se equivocan

Internet se ha convertido en un medio más para encontrar pareja. Plataformas como Tinder o Match.com nos muestran perfiles de personas que podrían encajar mejor según nuestros intereses, pero la estadística a veces funciona tan bien como la arbitrariedad. En 2014, un estudio sobre cómo un algoritmo emparejaba a la gente probó a juntar usuarios aparentemente antagónicos para ver qué pasaba. Resultó que la posibilidad de éxito del romance tras la primera cita era muy similar entre perfiles aparentemente incompatibles y los que eran elegidos basándose en cientos de respuestas previas.

El empleo

Lo automático necesita supervisión humana

Los estudios sobre el mercado laboral del futuro calculan que gran parte de los empleos que existen actualmente serán automatizados en las próximas dos décadas. Mucha gente teme irse al paro pero, aunque sustituir los trabajos más rutinarios por robots podría aumentar el PIB mundial en un 40%, mientras haya trabajos con situaciones imprevisibles, la labor humana será necesaria. Por ejemplo, aunque automaticemos procesos como entregar comida a domicilio, harán falta personas que los supervisen. «Lo urgente es proteger a los trabajadores, para que tengan tiempo de reinventarse», dice la autora.

La verdad

Pueden llenar la red de mentiras muy creíbles

La tecnología conocida como ‘deepfake’ utiliza algoritmos para crear vídeos y audios que imitan a la perfección a otra persona, haciendo imposible diferenciar lo que es real y lo que no. Se utiliza como medio artístico (para poner la cara de un actor en un cuerpo que no es suyo) pero también delictivo (estafas, chantajes, espionaje). Es, junto a las ‘fake news’ (noticias falsas), una de las amenazas más peligrosas de la democracia en el siglo XXI. Lo malo es que se viraliza más rápido un bulo que su desmentido y que ha tenido que llegar una pandemia para que empresas como Facebook intenten remediarlo.

La justicia
No tienen capacidad de empatizar

En Estados Unidos ya hay algoritmos que predicen si una persona puede salir en libertad condicional según sus probabilidades de reincidir. «Parece algo bueno porque los humanos somos subjetivos y con estas máquinas todo el mundo sería tratado objetivamente», dice García Aller. El problema es que los sistemas judiciales y policiales tienen muchos datos de algunas etnias y pocos de otras, por lo que reproducen sesgos racistas de forma inconsciente. Además, a diferencia de la inteligencia humana, la artificial carece de la capacidad de razonar, empatizar con otros y adaptarse a las circunstancias.

La naturaleza
Terremotos en lugares que eran ‘seguros’

Predecir dónde se va a producir un incendio o una actividad sísmica podría salvar muchas vidas. Eso es lo que intentan conseguir muchos algoritmos. Sin embargo, sobre meteorología nunca se tienen todos los datos porque es caótica e imprevisible. De hecho, algunos de los temblores más destructivos del mundo —los de Los Ángeles en 1994, China en 2008, Haití en 2010 y Japón en 2011— ocurrieron en áreas que los mapas de riesgo sísmico consideraban seguras. Algunas empresas también se beneficiarían. Por ejemplo, para calcular cuántas cervezas se comprarán en un fin de semana soleado.

La seguridad
¿Es ético que un dron vigile el tránsito?

En la actualidad, ya hay sistemas de inteligencia artificial que predicen delitos con un 80% de acierto. Es una aplicación práctica de la tecnología sobre la seguridad, pero hay otras que plantean problemas éticos y de privacidad, desde los drones para supervisar el tránsito callejero a la biometría para vigilar la temperatura corporal en los aeropuertos. Las huellas dactilares, por ejemplo, han pasado de ser un método de identificación criminal a la manera más rápida de desbloquear el móvil. De hecho, Apple obtuvo en meses tantas huellas dactilares como las que al FBI le había costado décadas reunir.

Los gustos
Conocen nuestros intereses... y miedos

Las plataformas de ‘streamig’ estudian nuestros gustos para recomendarnos series, internet nos muestra publicidad acorde a las páginas web que visitamos y las redes sociales dan prioridad a las publicaciones en las que la probabilidad de que le demos a ‘me gusta’ es más alta. Todo esto puede ser útil, pero también inquietante. Una vez se conocen nuestros gustos también se deducen nuestros miedos. Estos datos pueden ser muy valiosos para la publicidad de empresas y partidos políticos. «Hace mucha falta un humanismo tecnológico que ayude a marcar los límites de lo cuantificable», dice la autora.

La estupidez
No la captan porque carece de sentido

Pocas cosas nos vuelven tan imprevisibles como la estupidez, y esa capacidad para ir en contra de sus propios intereses sin ganar nada a cambio es imposible de anticipar para los algoritmos, al menos todavía. «El futuro no se entenderá sin la inteligencia artificial, pero sin la estupidez humana tampoco. Ha marcado la Historia y no se puede aprender ni prever porque, en esencia, carece de sentido», expresa García Aller. «Aún estamos lejos de lograr que una máquina tenga una inteligencia de tipo general similar a la humana. Es uno de los objetivos más ambiciosos de la historia de la ciencia».

El humor

Si llegan a entenderlo, ¡huyamos!

La barrera para los algoritmos que tratan de escribir chistes no está solo en aprender a generar humor, también a entenderlo. La ironía y el sarcasmo son especialmente difíciles de comprender y detectar, a veces incluso para los humanos. Además, la esencia del humor es la sorpresa, que es muy difícil de prever. «Nada debería darnos más miedo que una inteligencia artificial que aprendiera a ser realmente graciosa. Si las máquinas logran dominar el humor, huyamos. Eso significaría que han comprendido todo lo demás. Ahí sí que la humanidad estaría en peligro», advierte la escritora.