Saludar a ChatGPT con un «Hola, ¿cómo estás?» y recibir su respuesta amistosa («¡Hola! Muy bien, gracias por preguntar. 😊 ¿Y tú? ¿Cómo estás? ¿En qué te puedo ayudar hoy?») supone un consumo energético, según me cuenta ChatGPT, similar a tener una bombilla led de 10 vatios encendida durante 72 segundos. Aunque puede parecer un gasto mínimo, si se multiplica este consumo por los 122 millones de usuarios activos diarios que tiene de media ChatGPT en todo el mundo (sin contar otras herramientas de inteligencia artificial disponibles), el gasto es inmenso. «Cada palabra que me envías contribuye un poco al consumo energético, aunque solo sea para decir ‘hola’, ‘adiós’ o ‘gracias'», me comenta ChatGPT.
«El consumo energético de una IA se reparte en dos grandes momentos: el entrenamiento del modelo y su uso o explotación», explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya. En este primer estadio, el entrenamiento es lo más costoso. «Requiere semanas o meses de cálculo intensivo en centros de datos donde miles de unidades de procesamiento gráfico (GPU) trabajan en paralelo para analizar y aprender de billones de palabras y datos. Este proceso se hace una sola vez (o pocas veces, si se reentrena), pero su huella energética es enorme y tiene lugar en los centros de datos y procesado», detalla.
La segunda parte es lo que hacemos los humanos con esta herramienta: las preguntas y consultas que le enviamos una vez que el modelo ya está entrenado y disponible para ser usado. «Es mucho menos costoso, aunque sigue siendo considerable si lo comparamos con servicios más simples, como el correo electrónico. Incluso en esta fase de explotación, cada petición activa millones de cálculos para generar una respuesta nueva desde cero», añade Pita.
¿Qué supone para el planeta una conversación? ¿Y una imagen?
«Si solo chateamos o me pides texto, soy relativamente eficiente; si me pides imágenes artísticas, gráficos pesados o vídeos generados con IA, esto sube mucho la potencia necesaria», me explica ChatGPT sobre cuáles son las peticiones que más energía le suponen. Y me advierte: «Si alguna vez tienes acceso a entrenar modelos desde cero (como los investigadores), estás entrando en el terreno más energívoro de todos».
«Los modelos son más eficientes que antes, y ahora una consulta simple de texto en ChatGPT consume lo mismo que una búsqueda en Google. Si se realizan tareas más complejas, es diferente: la generación de imágenes o gráficos o las peticiones complejas que requieren mucha contextualización, memoria o acceso a herramientas externas consumen más», afirma Andreas Kaltenbrunner, investigador del grupo Artificial Intelligence and Data for Society (AID4So) de la unidad de transformación digital, IA y tecnología, en la misma línea que me cuenta la IA.
Así, y según ChatGPT, una de las tareas menos sostenibles es el análisis de grandes volúmenes de datos como grandes documentos o bases de datos: “por ejemplo analizar 100 páginas o más me puede suponer un gasto alto (20-50 vatios-hora)”. Le sigue la generación de imágenes con modelos como DALL·E, Stable Diffusion o Midjourney, porque requiere cálculos muy intensos para crear píxeles, con un coste elevado (entre 10-100 vatios-hora por cada imagen). La generación de vídeo con modelos generativos (por ejemplo, Sora o Runway) es «una de las tareas más pesadas ahora mismo, con un consumo extremadamente alto (más de 1.000 vatios por minuto)». Y finalmente, como confirman los expertos, el entrenamiento de modelos de lenguaje de gran tamaño (por ejemplo, entrenar un GPT nuevo, no solo usarlo) supone un gasto enorme, de entre 1 y 10 gigavatios-hora, porque implica semanas con supercomputadores con miles de GPU.
«El peso de la actividad diaria es muy relevante: aunque puede parecer que el uso diario es menos intensivo por persona, si se multiplica por millones de usuarios todos los días, el consumo puede llegar a ser igual o superior al del entrenamiento, en términos acumulados», explica Kaltenbrunner.