ChatGPT-3 consume alrededor de dos litros de agua para realizar entre 10 y 50 consultas
Un grupo de investigadores ha advertido que utilizar el ‘chatbot’ ChatGPT-3, desarrollado por OpenAI, para dar respuesta a entre 10 y 50 consultas necesita un consumo de alrededor de dos litros de agua, lo que significa que cuadruplica la cantidad que hasta ahora barajaban los expertos.
La Inteligencia Artificial (IA) es una tecnología que demanda grandes cantidades de recursos energéticos, ya sea para su entrenamiento o para su uso.
Esto significa que, cuando mayores avances presente, más recursos necesitará. Esto, porque servidores alojados en centros de datos y creados para impulsar esta tecnología procesan mucha información y, debido a que emiten mucho calor en estos procesos, tienen una mayor demanda de refrigeración para mantener su rendimiento y fiabilidad.
Conviene mencionar que el agua también debe ser potable -lo que supone mayor gasto-, debido a que las impurezas de esta sustancia no potable pueden dañar los servidores; y que muchos de estos centros de datos emplean sistemas que evaporan el calor, lo que significa que el agua no se reutiliza.
Desde el Instituto de la Ingeniería de España (IIE) avanzaron en septiembre del año pasado que una consulta en ChatGPT, el ‘chatbot’ de inteligencia artificial generativa desarrollado por OpenAI, consumía tres veces más energía que otra hecha en el buscador de Google.
Esta no ha sido la única investigación relacionada con el consumo energético necesario para impulsar la tecnología, ya que un grupo de investigadores de la Universidad de Riverside (California) y de la Universidad de Arlington (Texas) ha arrojado nuevos datos relacionados con ello en diferentes ocasiones.
En octubre de 2023 publicaron una parte del estudio titulado ‘Making AI Less ‘Thirsty’: Uncovering and Addresing the Secret Water Footprint of AI Models’ (‘Hacer que la IA “tenga menos sed”: Descubrir y abordar la huella hídrica secreta de los modelos de IA).
En él, recogían cuánta agua se consumía en el entrenamiento de grandes modelos de lenguaje, tomando de ejemeplo el que impulsa ChatGPT.
Durante su entrenamiento en centros de datos de última generación de Microsoft en Estados Unidos, GPT-3, que trabaja con 175.000 millones de parámetros, podía consumir un total de 700.000 de litros de agua.
Más concretamente, necesitaba 500ml de agua para dar respuesta a entre 10 y 50 solicitudes. Este número depende de la complejidad de la petición.
Entonces, los expertos señalaron que estas cifras podían aumentar en el caso de GPT-4, una iteración más avanzada, debido a que los servidores basados en este modelo ejecutan más cálculos para afinar las respuestas.
Esto se ha mencionado más recientemente en un nuevo avance llevado a cabo por estos investigadores junto a The Washington Post.
Este medio señaló a mediados de septiembre que esta versión de del modelo -lanzada en marzo de 2023- requiere 519ml de agua, poco más de una botella, para generar un correo electrónico de cien palabras.
En dicha publicación, también se expuso que, además de para impulsar estos modelos, los centros de datos también requieren enormes cantidades de energía para respaldar otras actividades, como la computación en la nube.
Así, si un centro de datos está ubicado en una región cálida, requiere aire acondicionado para su enfriamiento, de manera que se necesita mucha electricidad para mantener los servidores a baja temperatura y a pleno rendimiento.
Y si los centros de datos que dependen de la refrigeración por agua están ubicados en áreas propensas a la sequía, pueden agotar este recurso natural. Estos investigadores han dado un paso más en su análisis y han llegado a la conclusión de que utilizar ChatGPT con GPT-3 para responder a un máximo de 50 consultas precisa de más de 500ml de agua.
En concreto, dos litros, según ha compartido uno de los autores de este estudio, el profesor de ingeniería eléctrica e informática de la Universidad de Riverside, Shaolei Ren, con The Times. Ren ha indicado que el cálculo original de la huella hídrica se basó en una cifra proporcionada por OpenAI en 2020.
Sin embargo, las nuevas cifras publicadas hace menos de un mes determinan que “el consumo de energía de GPT-3 será al menos cuatro veces superior” a esa cifra.
“Esto significa también que la huella hídrica se multiplicará por cuatro”, ha sostenido. (Europa Press)