El costo ambiental oculto detrás de cada consulta a la inteligencia artificial
27 de marzo de 2026

La mayoría de las personas que interactúan con la inteligencia artificial imaginan una tecnología sin fricciones. Cuando le pedimos a un chatbot que escriba un correo electrónico o genere una imagen, la respuesta llega en segundos, como si apareciera por arte de magia de la nada. Hablamos de la nube como si nuestras vidas digitales flotaran sobre el mundo físico, desconectadas de la dureza de la industria pesada. Sin embargo, detrás de las interfaces elegantes y las milagrosas habilidades de conversación, se esconde una infraestructura masiva que requiere muchísimos recursos. Lejos de ser un fenómeno etéreo, la inteligencia artificial es una de las tecnologías más exigentes a nivel físico del siglo XXI, ya que consume silenciosamente cantidades asombrosas de electricidad y agua dulce.
La magnitud de este consumo resulta alarmante cuando se traduce a medidas cotidianas. En 2023, investigadores de la Universidad de California en Riverside publicaron un amplio estudio que calculaba la huella ambiental de los grandes modelos de lenguaje. Descubrieron que entrenar un modelo líder en centros de datos a gran escala requirió aproximadamente 700.000 litros de agua limpia y dulce. Para ponerlo en perspectiva, esa cantidad es suficiente para fabricar cientos de automóviles o abastecer a varios hogares durante todo un año. Los investigadores también estimaron que una conversación promedio de un usuario, que consta de entre diez y cincuenta consultas, "bebe" en la práctica una botella estándar de medio litro de agua para fines de refrigeración. Al multiplicarse por cientos de millones de usuarios diarios en todo el mundo, el costo ecológico oculto de nuestra curiosidad digital se vuelve innegable. Además, un informe de 2024 de la Agencia Internacional de la Energía proyectó que la demanda mundial de electricidad de los centros de datos, la inteligencia artificial y el sector de las criptomonedas podría duplicarse para 2026, alcanzando niveles aproximadamente equivalentes a todo el consumo de energía de Japón.
Este fenómeno no es meramente teórico; ya ha comenzado a transformar la gestión de los recursos locales. Tomemos como ejemplo la ciudad de West Des Moines, en Iowa, que alberga enormes grupos de centros de datos responsables de entrenar algunos de los algoritmos más avanzados que existen. Los informes municipales sobre el agua de la ciudad revelaron un pico atípico en el consumo de la comunidad precisamente durante los meses en que la última generación de estos algoritmos estaba en pleno entrenamiento intensivo. El complejo de centros de datos local necesitó millones de galones de agua municipal para evitar que los servidores se sobrecalentaran, lo que consumió gran parte de los recursos de los servicios públicos durante las fases cruciales de desarrollo. En las regiones que ya enfrentan condiciones de sequía o escasez histórica de agua, la llegada de instalaciones informáticas masivas introduce una competencia intensa y de alto riesgo entre las necesidades humanas y el progreso tecnológico.
Para entender por qué la inteligencia artificial es tan exigente, hay que observar los mecanismos básicos de cómo aprenden estos sistemas. A diferencia del software tradicional, que funciona con comandos lógicos relativamente simples, los modelos generativos aprenden analizando miles de millones, o incluso billones, de puntos de datos a través de miles de unidades de procesamiento gráfico especializadas. Estos chips se agrupan de forma muy densa en bastidores de servidores y funcionan a una capacidad casi máxima durante meses seguidos en la fase de entrenamiento. La fricción física de este cálculo incesante genera un calor inmenso y concentrado. Para evitar que los equipos se derritan o sufran fallas técnicas catastróficas, las instalaciones dependen principalmente de grandes torres de enfriamiento por evaporación. Estos sistemas absorben grandes cantidades de agua potable, que se evapora para reducir la temperatura ambiente de las salas de servidores. Además del agua, el funcionamiento constante de estos procesadores de alto rendimiento exige un flujo continuo e ininterrumpido de electricidad, gran parte de la cual todavía se genera quemando combustibles fósiles en la red eléctrica regional.
Las consecuencias de este consumo de recursos sin control van mucho más allá de las facturas de servicios públicos locales. A medida que se acelera la carrera armamentística de la inteligencia artificial a nivel mundial, la creciente demanda de energía amenaza con descarrilar por completo los objetivos climáticos internacionales. Las empresas tecnológicas que alguna vez defendieron ambiciosas promesas de cero emisiones netas ahora están viendo cómo su huella de carbono corporativa se expande drásticamente, una tendencia impulsada de forma directa por sus enormes inversiones en nueva infraestructura de inteligencia artificial. Para las comunidades locales que albergan estas instalaciones en expansión, el impacto se siente de forma aún más aguda. Los vecindarios situados cerca de las granjas de servidores en crecimiento expresan cada vez más su preocupación por la contaminación acústica continua de los ventiladores de refrigeración, las redes eléctricas severamente sobrecargadas y el agotamiento constante de los acuíferos locales. Si la trayectoria actual se mantiene inalterada, la búsqueda agresiva de una inteligencia artificial superior podría llevar a una trágica paradoja en la que la sociedad logre una innovación digital sin precedentes al mismo tiempo que agrava sus crisis ambientales más severas.
Reconciliar la profunda promesa de la inteligencia artificial con la dura realidad de su impacto ambiental requiere una intervención sistémica e inmediata. Una solución clave radica en la eficiencia algorítmica. Los ingenieros de software y los investigadores están comenzando a explorar modelos más pequeños y altamente especializados que requieren una fracción del poder computacional para lograr resultados comparables a los de sus predecesores masivos y ávidos de recursos. Además, la industria debe replantearse fundamentalmente la ubicación geográfica de su infraestructura física. Al alejar los centros de datos de las regiones con estrés hídrico y reubicarlos en climas naturalmente más fríos, las empresas pueden aprovechar los métodos ambientales de enfriamiento gratuito. Por ejemplo, las granjas de servidores construidas en los países nórdicos han utilizado con éxito las temperaturas bajo cero del ambiente para regular los equipos, lo que reduce drásticamente la necesidad de torres de agua por evaporación. Los organismos reguladores también tienen un papel vital que desempeñar al exigir una estricta transparencia ambiental. En la actualidad, las huellas precisas de energía y agua de modelos patentados específicos se guardan en gran medida como secretos corporativos. Exigir a las empresas que informen públicamente el verdadero costo ecológico de sus procesos de entrenamiento empoderaría a los consumidores para tomar decisiones informadas e incentivaría fuertemente a los desarrolladores a priorizar la eficiencia junto con la capacidad bruta.
La revolución provocada por la inteligencia artificial tiene un potencial innegable para transformar la medicina, la investigación científica y las economías mundiales. Sin embargo, la sociedad no puede darse el lujo de tratar su desarrollo como un logro abstracto completamente divorciado del mundo natural. Reconocer la pesada realidad industrial que hay detrás de nuestras herramientas digitales es el primer paso para exigir un futuro tecnológico más responsable. La verdadera innovación nunca debería requerir agotar los embalses de las comunidades o revertir rápidamente décadas de progreso climático logrado con tanto esfuerzo. Al insistir en la transparencia estructural, en la ingeniería orientada a una eficiencia radical y en tratar el impacto ambiental como una métrica central del éxito, la sociedad puede asegurar que los sistemas que construimos para resolver nuestros problemas más complejos no generen nuevos de forma inadvertida. La medida definitiva de la inteligencia artificial no se basará solo en lo bien que imite el pensamiento humano, sino en si puede coexistir de forma sostenible con los límites físicos del hábitat humano.