Borrar
La ingeniera, Nuria Oliver, es experta en computación e IA y directora de la Fundación Ellis. Ángel Díaz/EFE
«La huella de carbono de la Inteligencia Artificial es aún muy elevada»

«La huella de carbono de la Inteligencia Artificial es aún muy elevada»

Nuria Oliver, miembro de la Real Academia de Ingeniería, señala la sostenibilidad como uno de los grandes retos de esta tecnología, clave para la sociedad futura

A. Herranz

Miércoles, 29 de junio 2022, 06:29

Necesitas ser registrado para acceder a esta funcionalidad.

Compartir

Ingeniera de telecomunicaciones, Nuria Oliver, directora de la de la Fundación Ellis Alicante, es académica electa de la Real Academia de Ingeniería de España. Experta en Inteligencia Artificial, repasa algunos de los grandes retos y de los grandes avances que, en materia de sostenibilidad, tienen los algoritmos.

-¿Cómo deberían ser los algoritmos para que para que fueran sostenibles?

-La intersección entre la tecnología y la sostenibilidad es diversa. Necesitamos utilizar técnicas de inteligencia artificial (IA) para poder afrontar la crisis climática y poder tener modelos más precisos del clima, sistemas de energías renovables que sean eficientes, buenas predicciones o sistemas de transporte autónomos. Pero esas técnicas, que no solamente utilizamos en el contexto de la sostenibilidad sino también para buscar información en internet o para poder recomendar películas o amigos, energéticamente no son eficientes. Involucran el uso de modelos de aprendizaje profundo o de redes neuronales profundas que requieren grandísimas cantidades de datos e inmensas cantidades de computación para poder modelar y resolver la tarea que para la que estén diseñados. La huella de carbono de la IA es muy elevada.

Hay un movimiento dentro de la disciplina de cómo diseñar algoritmos de IA que sean más eficientes energéticamente, que necesiten menos datos y que necesiten menos computación para reducir la huella de carbono. El objetivo es que el impacto neto (es decir, el impacto positivo menos el impacto negativo) sea positivo y realmente consigamos aprovechar los beneficios con un mínimo de desventajas.

-¿Qué partes de la IA son más consumidoras de energía?

-Hay varios elementos que son muy costosos energéticamente. El primero es el de los datos. La IA aprende a partir de datos y, al mismo tiempo, nos ayuda a interpretar esos datos. Además, para poder entrenar estas complejas redes neuronales se necesitan unas cantidades muy grandes de computación, lo que es energéticamente muy costoso. El tercer paso es el uso de los modelos. Aunque normalmente es menos costoso (por ejemplo, cuando le pedimos algo a un asistente de voz de nuestro teléfono), sigue habiendo una huella de carbono que también tenemos que intentar reducir.

«Solo preguntar al asistente de voz del teléfono tiene un impacto medioambiental que también hay que intentar reducir»

-El Gobierno español ha elaborado una estrategia de algoritmos verdes. ¿Qué valoración hace de este tipo de iniciativas?

-Creo que está alineado con la visión europea de afrontar dos grandes transiciones: la azul (la transición digital) y la verde (la sostenibilidad). No solo la visión europea, sino a nivel mundial, hay una mayor concienciación medioambiental del impacto que tiene la tecnología. Desconozco los detalles concretos de lo que el gobierno entiende por algoritmos verdes, pero la temática en sí misma forma parte de la visión y de la estrategia europea del desarrollo tecnológico en paralelo a la preservación del planeta.

-¿Es la energía el único problema de sostenibilidad que tienen los algoritmos?

-Hay un reto más relacionado con el hardware. Es decir, no es solo ni estrictamente que los algoritmos de IA (que es software) sean sostenibles, sino que ese software tiene que estar en alguna máquina que también debe ser eficiente. Luego tenemos todo el impacto medioambiental que conlleva la fabricación y el reciclaje de la tecnología, que sabemos que es muy grande. También hay una dimensión, que entraría dentro más del ámbito ético y que depende de cómo de amplio entendamos el concepto de sostenibilidad.

En la Fundación Ellis Alicante, que tiene como sobrenombre el Instituto de Inteligencia Artificial Central de la Humanidad, somos cofundadores de una red mundial de centros de excelencia en investigación en inteligencia artificial para el desarrollo sostenible.

Es un gran movimiento de intentar poner más foco en las posibilidades que nos brinda la IA para el desarrollo sostenible y, en ese contexto, estamos hablando de mucho más que estrictamente de consumo energético. El desarrollo sostenible conlleva la consecución de los 17 ODS, cuyo primer gran reto es la reducción de la pobreza y conlleva otros como el acceso a la educación, a la sanidad, la preservación del planeta…

«No vamos a poder abordar los grandes retos de la humanidad sin la ayuda de la Inteligencia Artificial»

En esos términos más amplios las posibilidades son muy grandes desde el punto de vista de la IA, pero también los retos que nos plantea. Tenemos que asegurarnos que esas posibilidades realmente se cumplen, superando retos como la discriminación y los sesgos algorítmicos, la violación de la privacidad, la falta de veracidad, la manipulación del comportamiento humano subliminalmente, la falta de transparencia… hay muchos de estos retos y esta es una de las líneas precisamente de trabajo de la Fundación.

-¿Cuáles serían los principales problemas que tiene la IA en materia de sostenibilidad?

-Sabemos que no vamos a poder abordar muchos de los grandes retos a los que nos enfrentamos sin la ayuda de la IA. Primero porque nos permite medir mejor si estamos consiguiendo los objetivos o no. Algo que en sí mismo ya es un reto. ¿Cómo medimos, por ejemplo, la pobreza? Si somos capaces de inferir los niveles de pobreza a partir de datos utilizando técnicas de IA, los propios datos y la inteligencia artificial nos podrían ayudar a medir mejor.

El segundo paso es cómo nos puede ayudar a conseguir los objetivos de una manera más rápida. La tercera línea es cómo la IA nos puede permitir ayudar a diseñar políticas públicas y a medir su impacto. La cuarta dimensión es evitar un impacto negativo porque los algoritmos estén discriminando o porque podamos estar violando la privacidad de las personas.

«No está bien desde el punto de vista social que el desarrollo de la IA esté en manos de las grandes tecnológicas y no de las universiadades»

Además, tenemos una situación de asimetría geográfica e institucional en el liderazgo inteligencia artificial: tiene dos polos geográficos (Norteamérica y China) y son las grandes empresas tecnológicas las que están liderando la IA, y no las universidades o los centros de investigación. Consideramos que, desde un punto de vista social, no es positivo.

Es imposible entender qué es exactamente lo que hace un algoritmo, pero en muchos contextos de bien social hay que poder explicar por qué el algoritmo está denegando un crédito, por qué dice que tengo cáncer, por qué está recomendando esto y no lo otro no entonces.

-¿Es optimista de cara a que en 2030 se pueden haber resuelto esos retos a los que ahora mismo se enfrenta la IA?

-Creo que, como mínimo, habremos avanzado en un mayor entendimiento de las virtudes y las limitaciones de los sistemas de inteligencia artificial. Habremos avanzado mucho más en la definición de una gobernanza que considere estas dimensiones, que por el momento no han sido consideradas y que son muy importantes. Quiero pensar que, para muchas de estas limitaciones, tendremos soluciones técnicas dentro de ocho años. Quizás el reto será el despliegue y la implantación de estas soluciones técnicas a gran escala.

Reporta un error en esta noticia

* Campos obligatorios