Decir que el uso de la Inteligencia Artificial es un tema polémico es, quizá, quedarse corto. Desde que hace unos años comenzó el actual auge de la Inteligencia Artificial Generativa, con el estreno público de ChatGPT como pistoletazo de salida, no ha habido faceta de esta tecnología que no sea foco de estudio y discusiones a menudo bastante acaloradas.
No es para menos: bien sea la sustitución progresiva de profesionales humanos por herramientas IA, bien por los posibles riesgos de una automatización cada vez mayor de herramientas que no consideran los posibles sesgos resultantes, está claro que el uso cada vez mayor de la Inteligencia Artificial implica que cualquier posible consecuencia va a propagarse a una velocidad equivalente -y a suscitar una polémica de magnitud correspondiente. Quizá la última de estas polémicas es el papel que juega la IA en el calentamiento global: más concretamente, en su hasta ahora ignorado consumo masivo de recursos energéticos.
Y es que no se trata de un gasto menor: al igual que la tecnología que es en muchos sentidos su predecesora espiritual, el Blockchain, la IA depende de la ejecución de un número realmente espectacular de operaciones, sobre una enorme cantidad de datos. Esto implica el uso de grandes Centros de Procesamiento de Datos (CPDs), llevando hasta el límite las capacidades del hardware utilizado. Esto conlleva un gasto importante de energía, además de otros recursos que mencionaremos en un momento. Pero antes, preguntémonos: ¿en qué manera se utilizan exactamente esos CPDs, cuando hablamos de Inteligencia Artificial?
La elaboración de herramientas de Inteligencia Artificial, y sobre todo Inteligencia Artificial Generativa, conlleva varios pasos distintos, de análisis, entrenamiento, depurado, e incluso la propia consulta. Todos estos pasos requieren energía en mayor o menor medida, pero sin duda los mayores responsables del gasto energético de la IA son los procesos de entrenamiento de los modelos y las consultas individuales.
El proceso de entrenamiento, realizado durante la etapa de desarrollo del modelo, requiere el análisis y procesado de millones y millones de datos, en procedimientos que se pueden alargar semanas, y que aprovechan al máximo las capacidades de las plataformas físicas en las que se desarrollan. Todo esto, por supuesto conlleva un importante gasto energético y de material.
Sin embargo, el gasto realizado por las “queries”, las peticiones concretas a los modelos abiertos (para que nos entendamos, cada vez que ChatGPT o sus equivalentes elabora una respuesta a una petición concreta) puede implicar un consumo energético exponencialmente mayor. Aunque cada petición individual conlleva un gasto modesto, comparado con el entrenamiento previo, estas peticiones se realizan por millones: es fácil, entonces, que los gastos se vayan acumulando –y el uso de estas aplicaciones no va a menos, eso está claro.
También hay que considerar que cada vez más gente usa herramientas de IA generativa para sustituir otros usos comunes de herramientas online. Es ya habitual ver como se realizan consultas a una IA en vez de realizar una búsqueda en Google – algo preocupante, entre otras cosas, por la estimación de que una consulta a IA consume entre 50 y 90 veces más energía que su equivalente en Google.
Por último, cabe destacar que la energía eléctrica (con su consecuente huella de carbono, e influencia sobre el calentamiento global) no es el único recurso consumido por los CPDs y supercomputadoras empleados en IA. Las interminables hileras de servidores funcionando a pleno rendimiento alcanzan temperaturas críticas, que deben controlarse para asegurar su buen funcionamiento. Esto requiere una cantidad importante de agua –algunas fuentes indican que, para generar un texto de 100 palabras, el modelo GPT-4 consume el equivalente a medio litro de agua –, justo en un momento en que se hace cada vez más patente la escasez cada vez mayor de agua dulce a nivel global, ha hecho saltar todas las alarmas en torno a una tecnología ya polémica.
En definitiva, queda claro que la huella que deja la Inteligencia Artificial en términos de consumo, ya sea energético o de recursos naturales, no es en absoluto irrelevante. Si bien su potencial es innegable, no podemos permitirnos avanzar en el sector sin replantearnos el uso que hacemos de este tipo de herramientas, ya sea a nivel individual o como sociedad. Otro enfoque es necesario, en un mundo donde, cada vez más, cada recurso cuenta.