Borrar

Google: "Probablemente nunca podamos construir máquinas con consciencia"

EFE

Jueves, 1 de enero 1970

Necesitas ser registrado para acceder a esta funcionalidad.

Compartir

El avance de la inteligencia artificial ha llegado a dotar a las máquinas de cualidades propias del ser humano, como la intuición y la improvisación, y ha logrado que superen al hombre en tareas concretas, pero la probabilidad de que tengan consciencia de sí mismas es una quimera. "No entendemos muy bien cómo funciona la consciencia, apenas sabemos nada de ese proceso humano. Probablemente nunca seamos capaces de construir máquinas que tengan consciencia de sí mismas", explica a Efe el neurocientífico Greg Corrado, impulsor de Google Brain, el proyecto de inteligencia artificial de Google. Tras sesenta años de investigación y una década de grandes avances en inteligencia artificial, "ya hay computadoras capaces de entender cosas muy básicas del mundo y de la comunicación humana", máquinas que realizan tareas con precisión y eficacia. Las más prestigiosas universidades y compañías tecnológicas trabajan en ella. Su impacto, según los expertos, va a ser tan revolucionario como el de internet. Sin embargo, aunque estas máquinas capaces de aprender por sí solas empiezan a mostrar rasgos propios de la inteligencia humana, están a años luz de poseer cualidades tan inherentes y determinantes del hombre como el sentido común, la consciencia o las capacidades social y creativa. El cerebro y el proceso del conocimiento siguen siendo un misterio y, subraya Corrado, el objetivo de la inteligencia artificial no es replicar a la humana, pese a que se aprovecha de los avances de la neurociencia, sino crear sistemas aparentemente inteligentes. Sistemas que ya escriben poemas inéditos a partir de su conocimiento de los clásicos de la literatura universal, que ganan al juego "go" al campeón del mundo, que pueden entender el lenguaje natural o detectar qué tipo de objetos aparecen en una fotografía. En tareas muy concretas, son mejores que el ser humano. El investigador de Google destaca los avances cosechados en el "deep learning", esto es, sistemas que aprenden por sí mismos a partir del ejemplo y son capaces de lograr la consecución de una tarea. Es el caso, por ejemplo, de un sistema que, tras ver grandes cantidades de fotos de gatos, puede deducir cuáles son las características definitorias de ese animal y saber cuándo aparece uno en una imagen que nunca ha visto. Los sistemas computacionales de percepción -capaces de "ver", "escuchar" y "entender" el mundo físico- experimentan grandes logros. "Es la primera ciencia que ha sido capaz de crear máquinas que son, en cierta medida, intuitivas", confirma Corrado. Son capaces de detectar patrones sin disponer de toda la información necesaria. En el campo del "deep learning" se trabaja en redes neuronales artificiales, que son sistemas que se inspiran en el entramado neuronal para procesar la información. Corrado explica que los sistemas de inteligencia artificial han conseguido también tener cierto grado de improvisación. Así, AlphaGo, la máquina que batió al campeón del mundo de go, ganó gracias a movimientos "sorprendentes e improvisados" tras hacer interpolación y extrapolación de los datos de que disponía. El investigador aclara, sin embargo, que no se trata de creatividad. Aunque el "deep learning" empieza a aplicarse en el arte como una herramienta más para la creación -por ejemplo para descubrir nuevas combinaciones musicales-, las máquinas aún necesitan la información creada por los humanos para trabajar. ¿Creará la inteligencia artificial por sí sola, sin la intervención humana? "No sabemos cómo funcionan la imaginación ni el proceso del conocimiento (...). Los artistas están muy influenciados por su contexto social y su afán comunicativo y eso no existe en las máquinas. Lo que éstas puedan crear va a ser algo muy distinto de lo que consideramos bellas artes", afina. Incrédulo ante la singularidad -que las máquinas superen la complejidad de la mente humana-, Corrado no ve ningún atisbo de amenaza en el uso de la inteligencia artificial y difiere de esa corriente de científicos y tecnólogos -liderados por Stephen Hawking y Elon Musk- que exige que se vigile su desarrollo para evitar malos usos y una actividad descontrolada. "Creo que los miedos vienen de la idea de que, de alguna manera, este tipo de sistemas van a ampliar su poder sin control y eso no lo contemplo siquiera como una posibilidad remota. Técnicamente es imposible. Los ingenieros tienen un chascarrillo que dice que preocuparse por la seguridad de la inteligencia artificial es como hacerlo por la superpoblación en Marte", subraya. Aun así, es partidario de que exista siempre en la sociedad un debate sobre los fines de la tecnología.

Reporta un error en esta noticia

* Campos obligatorios