Sam Altman reveló cuánto consume realmente hacerle una pregunta a ChatGPT
El CEO de OpenAI publicó los datos oficiales sobre cuánta energía y agua requiere cada consulta al chatbot.
Sam Altman dio a conocer cifras concretas sobre el consumo de energía que demanda una pregunta a ChatGPT. Según el ejecutivo, cada interacción utiliza aproximadamente 0,34 vatios-hora, un gasto muy bajo si se compara con el uso cotidiano de electrodomésticos o iluminación.
También reveló que el proceso requiere una mínima cantidad de agua destinada a la refrigeración de los servidores donde se procesan las consultas.
Qué implica este consumo a gran escala
Aunque el uso por consulta es muy pequeño, el volumen global de interacciones convierte ese gasto en un tema relevante. Millones de preguntas diarias multiplican el impacto energético, lo que abre el debate sobre la sostenibilidad de la inteligencia artificial a largo plazo.
Especialistas en tecnología y ambiente señalan que estos datos permiten dimensionar mejor el costo real de los centros de datos y de los modelos de IA en expansión.
El desafío hacia una IA más sustentable
La publicación de estas cifras se interpreta como un paso hacia mayor transparencia en la industria. El desarrollo de modelos más eficientes, mejoras en la gestión energética y regulaciones que contemplen el impacto ambiental aparecen como puntos clave en la agenda tecnológica futura.
La discusión no solo se centra en la innovación, sino en cómo se equilibra el avance de la IA con prácticas responsables de consumo y sostenibilidad.