Decir “por favor” y “gracias” a la IA cuesta millones en electricidad

Sam Altman, CEO de OpenAI, reveló que los usuarios que interactúan de forma educada con ChatGPT —incluyendo expresiones como “por favor” y “gracias”— generan un gasto de decenas de millones de dólares en consumo eléctrico. La declaración fue hecha en una publicación en la red social X, como respuesta a un usuario que cuestionó los costos energéticos de estas cortesías. El hecho pone sobre la mesa el impacto ambiental y económico del uso de la inteligencia artificial.
Interacción cortés con la inteligencia artificial incrementa el consumo energético
Todo comenzó cuando el usuario @tomiinlove preguntó en X cuánto dinero perdía OpenAI por los usuarios que incluían frases de cortesía en sus comandos. Altman respondió: “Decenas de millones de dólares bien gastados… Nunca se sabe”, dejando ver que, aunque anecdótico, el costo es real.
Cada palabra procesada por ChatGPT implica uso de cómputo y electricidad
Las plataformas de IA generativa, como ChatGPT, funcionan a través de grandes modelos de lenguaje que dependen de centros de datos con infraestructura robusta. Cada palabra, incluso las más breves, se convierte en “tokens” que requieren procesamiento computacional y, por tanto, consumo de energía.
Un simple “gracias” equivale a un token. Cuando millones de personas lo escriben diariamente, esto se traduce en un uso considerable de recursos. Aunque el impacto individual es pequeño, el volumen global hace que el efecto se note en la factura energética de OpenAI.
El uso masivo de modelos de lenguaje tiene un impacto ambiental creciente
Contrario al enfoque pragmático de Altman, Microsoft ha promovido el uso de expresiones educadas con sus asistentes de IA. Según la compañía, ser amable genera respuestas más colaborativas y completas, y puede mejorar el desempeño del modelo al activar componentes emocionales del lenguaje, una técnica conocida como Emotion Prompting.
“Ser educado no solo mejora la calidad de la respuesta, también refuerza la interacción humano-máquina con un enfoque más respetuoso”, afirmó Microsoft en un comunicado de 2024.
¿Cuánto consume la IA?
Más allá del debate sobre la cortesía, cada interacción con un chatbot representa un gasto energético real. Un estudio del grupo BestBrokers estima que ChatGPT consume alrededor de 1,058 GWh anuales, lo que equivale al consumo de energía de cientos de miles de hogares.
Además, el Instituto de Ingeniería de España ha advertido que enfriar los centros de datos requiere grandes volúmenes de agua potable. Se calcula que entre 10 y 50 consultas consumen aproximadamente dos litros debido al sistema de refrigeración necesario.
La Agencia Internacional de la Energía (AIE) estima que para 2030 los centros de datos consumirán hasta 945 TWh, más del doble que en 2023.
ChatGPT responde al dilema
Cuando se le consultó directamente a ChatGPT sobre este tema, el modelo respondió:
“Sí, usar palabras amables consume un poco más de cómputo y energía. No, no es un problema serio ni algo que se desaconseje. Y sí, incluso si cuesta unos centavos más, la cortesía bien vale la pena”.
Conclusión
La declaración de Sam Altman, aunque expresada en tono ligero, revela una realidad poco visible: interactuar con inteligencia artificial tiene un impacto económico y ecológico. La educación digital, por tanto, no solo implica cómo nos dirigimos a las máquinas, sino también cómo usamos los recursos tecnológicos de forma responsable.
La decisión de seguir diciendo “por favor” o “gracias” a ChatGPT queda en manos del usuario. Pero lo cierto es que, en un mundo con crisis energética y climática, incluso los gestos más pequeños pueden sumar o restar.