La escasez de turbinas de gas complica la carrera eléctrica de la IA y enfría la expansión de los centros de datos

Última actualización: noviembre 8, 2025
  • La falta global de turbinas de gas y las trabas de interconexión frenan la expansión de centros de datos de IA.
  • Texas impone requisitos de autoabastecimiento y recorte de carga que empujan a generación in situ.
  • OpenAI pide 100 GW anuales; ONU advierte riesgos hídricos y energéticos; crecen críticas y dudas sobre demanda real.

infraestructura energetica y centros de datos

El auge de la inteligencia artificial ha desatado una carrera por la capacidad eléctrica que, paradójicamente, topa con su propia sombra: no hay turbinas de gas suficientes ni conexiones a la red al ritmo que exigen los nuevos centros de datos. En medio de estimaciones que se disparan y promesas multimillonarias, la realidad es tozuda: la cadena de suministro, la regulación y los límites físicos marcan el compás de lo que se puede construir y cuándo.

En Estados Unidos, Texas se ha convertido en el epicentro de este pulso energético. ERCOT prevé un pico adicional de 35 GW de demanda por centros de datos para 2035, casi la mitad del máximo actual del sistema, empujado por un aluvión de proyectos impulsados por la IA. Pero la velocidad a la que se conectan nuevas cargas, la obligación de autoabastecerse y una escasez mundial de turbinas de gas están enfriando la euforia. A la vez, OpenAI presiona a la Casa Blanca con un objetivo colosal —100 GW nuevos cada año—, mientras la ONU y voces del sector alertan de impactos en agua, red y comunidades locales.

Texas, territorio clave: mucho apetito, menos enchufes

Texas atrae a los gigantes tecnológicos por su coste energético relativamente bajo y la disponibilidad de suelo, un cóctel que parecía perfecto para el boom de la IA. Sin embargo, el “cuello de botella” real está en la conexión a la red y en asegurar potencia firme las 24/7. La pregunta que sobrevuela ahora el mercado no es si habrá crecimiento, sino cuánto de lo prometido llegará realmente a operación en esta década.

El operador ERCOT ha actualizado sus previsiones para reflejar la avalancha de interés, pero los analistas que miran proyecto a proyecto detectan fricciones. Hay capacidad anunciada que no encuentra hueco para interconectarse, y los plazos de los equipos críticos se han estirado a varios años. El resultado es una desaceleración respecto a los planes más agresivos, pese a la voluntad inversora.

SB 6: autoabastecimiento y “botón de emergencia”

El Proyecto de Ley del Senado 6 de Texas, aprobado el 20 de junio de 2025, establece el primer marco en EE. UU. para gestionar cargas gigantes (≥ 75 MW). La norma exige capacidad de reducción inmediata en crisis —un “interruptor de emergencia”, lo que choca con la aspiración de los campus de IA a operar con tiempos de actividad cercanos al 99,999% (apenas cinco minutos de caída al año).

Para cuadrar el círculo, los desarrolladores están optando por soluciones detrás del contador. La vía rápida —y la que satisface un funcionamiento continuo— es instalar turbinas de gas in situ para despachar potencia firme sin depender de recortes o indisponibilidades de la red. Esa estrategia, además, permite sortear en parte la incertidumbre de los procesos de interconexión.

El gran tapón: falta de turbinas de gas

Tres fabricantes dominan más del 70% del mercado mundial de turbinas de gas: GE Vernova, Siemens Energy y Mitsubishi Power. Tras años de menor demanda por la caída de nuevas plantas durante la pandemia, el repunte de la electrificación global reactivó pedidos en 2024 y ha llenado las agendas de entrega. El aterrizaje tardío de los centros de datos en esta “cola” complica aún más las cosas.

Los fabricantes están aumentando producción, pero con cautela para no sobredimensionar. Hoy, la espera por equipos nuevos supera los tres años: en la llamada de resultados del 23 de abril, el CEO de GE Vernova, Scott Strazik, confirmó que los huecos de 2026 y 2027 estaban prácticamente agotados, y que los centros de datos representaban una porción menor de la cartera comprometida.

Cuánto cabe realmente: límites de oferta y cifras para Texas

Suponiendo que la industria crezca a un ritmo similar al de GE Vernova, el suministro global de turbinas de gas pasaría de 27 GW en 2025 a algo más de 42 GW en 2027. Se estima que el 60% de esa cadena de suministro apunta a EE. UU., y que, a partir de 2027, los centros de datos captarían alrededor de un tercio de ese volumen.

  ¿Qué es http www w3 Org 1999 XHTML?

Con esas piezas, la aritmética sugiere un tope aproximado de 11,4 GW disponibles para centros de datos en EE. UU. en 2028, una vez servidos pedidos previos. Si Texas consiguiese atraer algo más de la mitad, ERCOT podría sumar en torno a 6 GW anuales de turbinas dedicadas a centros de datos. Es una cifra sustancial, pero insuficiente para algunos de los despliegues más ambiciosos anunciados.

Del titular a la obra: lo anunciado no alcanza el pronóstico

Los anuncios públicos de nuevos campus de hiperescala apuntan a añadir unos 17 GW de capacidad en Texas. Aun así, esa cartera equivale a unas dos quintas partes de lo que ERCOT proyecta hasta 2029, lo que deja un hueco difícil de cubrir en el corto plazo sin aceleraciones poco realistas.

Si se extrapola la curva de crecimiento con datos “de abajo arriba”, en 2035 aflorarían ~25 GW frente a los 57 GW nominales proyectados. El desajuste puede tener dos lecturas: proyectos que avanzan de forma discreta y no se publicitan hasta estar maduros, o, al contrario, una sobrerrepresentación en los listados de interconexión por parte de promotores que se cubren enviando múltiples solicitudes especulativas.

Qué es razonable esperar: 44 GW en 2035, más tarde y menos

Con la escasez de generación in situ como freno dominante, el escenario plausible para Texas apunta a un máximo de 44 GW de centros de datos en 2035, un 24% por debajo de la proyección de ERCOT. En el próximo trienio entrarían los proyectos con potencia asegurada —probablemente por debajo de 10 GW—, y a partir de 2028 podrían sumarse incrementos anuales cercanos a 6 GW conforme lleguen nuevas turbinas.

Este aterrizaje en cifras menos exuberantes no implica parón, pero sí una expansión más gradual y selectiva, especialmente en emplazamientos que consigan anclar contratos de suministro con garantías físicas.

La oportunidad: co-ubicación y primas por energía firme

La propia SB 6 empuja a una solución de compromiso atractiva para generadores y operadores de centros de datos: acuerdos de co-ubicación detrás de un punto común de interconexión. Así, el generador puede vender energía directa —por ejemplo, bajo un PPA— y el centro de datos mejorar su resiliencia reduciendo su exposición a la red.

Para promotores con proyectos en lista de espera, la co-ubicación puede ser más rentable y rápida que una estrategia “merchant” pura. Hay precedentes notables, como el acuerdo entre Google e Intersect Power, que ilustra cómo capturar primas por entrega firme y facilitar la puesta en marcha de nuevas cargas intensivas. Además, muchos diseños contemplan integrar un banco de energía para mejorar resiliencia y cobertura temporal ante interrupciones.

La carrera eléctrica por la IA: ambición federal y brecha con China

OpenAI ha elevado el debate a razón de Estado: en un memorando a la Casa Blanca, pide considerar la electricidad como un activo estratégico nacional y reclama construir 100 GW de nueva capacidad cada año, el doble del actual ritmo estadounidense. El telón de fondo es incómodo: China añadió 429 GW en 2024, más de un tercio de toda la red eléctrica de EE. UU., mientras Estados Unidos incorporó 51 GW.

La compañía respalda su discurso con compromisos: seis sitios “Stargate” en Texas, Nuevo México, Ohio y Wisconsin, con casi 7 GW de capacidad computacional y más de 400.000 millones de dólares de inversión en tres años, combinando generación in situ de gas y solar con potencia conectada a la red. El objetivo declarado es alcanzar 10 GW y 500.000 millones de dólares de compromiso total antes de finales de 2025.

“Electrones” como nuevo petróleo… y los límites de la analogía

El lenguaje es deliberadamente geopolítico: alimentar la IA a escala es comparable a controlar el crudo en el siglo XX. Quien disponga de electrones abundantes y baratos marcará el paso tecnológico. La analogía tiene matices: la generación eléctrica es más distribuible y tecnológica que un recurso geológicamente concentrado; el “ventajismo” no depende de pozos, sino de coordinación, permisos y manufactura.

Esa narrativa funciona como palanca política, pero no elimina tensiones con los objetivos climáticos ni con las comunidades anfitrionas. Y sugiere un camino de reformas —más que de “dominio de recursos”— para replicar a gran escala la capacidad de construir rápido.

  ¿Cómo hacer un histograma de probabilidad?

Reservas estratégicas, créditos fiscales y permisos exprés

El memorando propone reservas estratégicas de cobre, aluminio y tierras raras para blindar cadenas críticas. También aboga por ampliar los incentivos fiscales más allá del chip: servidores, transformadores y otros componentes aguas arriba y abajo del semiconductor.

Otra demanda clave es acortar los trámites: los plazos de permisos ambientales e interconexión son incompatibles con la velocidad a la que se mueve la IA. La petición es preservar salvaguardas esenciales, pero podar redundancias que añaden meses sin mejorar resultados.

Cuello de botella humano: oficios especializados

Los planes de infraestructura revelan que EE. UU. necesitará alrededor del 20% de su fuerza laboral de oficios en los próximos cinco años solo para centros de datos y plantas de generación: electricistas, linieros, técnicos de climatización, soldadores y operadores, entre otros.

OpenAI prepara un programa escalonado de certificaciones en IA y una plataforma de talento asociada a sus emplazamientos “Stargate”, empezando en 2026 en Abilene (Texas), con un objetivo ambicioso: certificar a 10 millones de estadounidenses antes de 2030. El reto es que estos perfiles requieren formación práctica prolongada, difícil de acelerar solo con sueldos más altos.

Centros de datos “curtibles”: promesas, ventajas y dudas

Para aliviar la preocupación local, algunos diseños incorporan capacidad de reducir carga o devolver energía a la red en picos de demanda o emergencias. Bien ejecutado, esto ayuda a estabilizar el sistema y mejora el encaje con renovables intermitentes, desplazando cálculo a horas de abundancia solar/eólica.

La letra pequeña, no obstante, alimenta el escepticismo: entrenar modelos punteros requiere semanas continuas, y parar por una alerta puede suponer ceder terreno a competidores. Sin mecanismos de cumplimiento con sanciones cuantiosas, hay dudas de que los compromisos voluntarios se sostengan bajo presión comercial.

Realismo regulatorio y técnico: las voces prudentes

Willie Phillips, expresidente de la FERC, ha advertido que algunas estimaciones de demanda pintan demasiado y que en ciertas regiones ya se han rebajado previsiones. Señala, además, práctica de presentar el mismo megaproyecto a varias utilities, generando aparente duplicación que distorsiona la planificación.

Desde la ingeniería, Mark Daly (Utilidata) va más lejos: califica de inviable, por ahora, los centros de datos de 5 GW, dados los equipos de alta tensión y transformadores especiales que hoy tienen plazos largos y proveedores limitados. La logística pesada marca el “tempo”.

Impactos locales, agua y contestación social

Al calor de la fiebre de la IA, algunos estados han endurecido normas e impuestos específicos para centros de datos. La refrigeración líquida —cada vez más necesaria con chips de mayor densidad— añade tensión hídrica sobre zonas ya estresadas. Y fuera de EE. UU., casos como Querétaro, en México, ilustran fricciones: inversiones de Microsoft, Google y Amazon conviven con quejas por sequías, desplazamientos y carencia de agua potable.

El relator de la ONU para el derecho al agua ha pedido frenar la construcción acelerada de megacentros ante el nexo agua-energía: la demanda computacional se dispara, elevando consumo eléctrico y requerimientos hídricos, con riesgos ambientales y de equidad en el acceso a recursos.

¿Cuánta energía pedirá la IA? Incertidumbre con datos en la mano

Grid Strategies estima 120 GW de demanda adicional a 2030 en EE. UU., de los que 60 GW provendrían de centros de datos, según previsiones de utilities. La evidencia en campo apunta en esa dirección: cargas que eran de 50 MW ahora se acercan al gigavatio en nuevos campus.

El propio Sam Altman avisó de “burbuja” en 2024, y a la vez acordó con Nvidia construir 10 GW de centros. La aparente contradicción evidencia dos planos: templar expectativas bursátiles y, simultáneamente, preparar la capacidad por si esa demanda se materializa.

Clima, gas y realpolitik de los plazos

El empuje de 100 GW anuales chocaría con calendarios y tecnologías disponibles. El gas natural es hoy la opción más rápida para aportar potencia firme, y por eso aparece en los planes iniciales pese a los objetivos de descarbonización. El discurso oficial habla de solar y, con el tiempo, nuclear; pero el arranque se hará quemando hidrocarburos en muchos casos.

La Administración federal ha mostrado apertura a agilizar permisos para centros de datos, transmisión y generación. Aun así, el mosaico regulatorio estatal augura conflictos: incluso con apoyo de Washington, la batalla se jugará también en consejos locales y tribunales.

  ¿Qué es el ciclo de ventas?

Riesgos de sobreconstrucción: lecciones de la luz y la fibra

La industria eléctrica recuerda episodios de inversiones que llegaron demasiado pronto, como algunas centrales nucleares sobredimensionadas y activos varados que encarecieron tarifas durante años. Quienes ven menos riesgo hoy citan la inflación y los cuellos de suministro como dique natural al exceso.

Las telecomunicaciones ofrecen un espejo tentador: la fibra se tendió antes de tiempo en los 90, dejando capacidad “oscura” que tardó años en usarse. Si la IA siguiera patrón parecido, las utilities podrían cargar costes de capacidad ociosa a consumidores cautivos. El Instituto Edison prevé 1,1 billones de dólares en CAPEX hasta 2029; coordinar bien esa avalancha será crucial.

Lo que consumen realmente los modelos: números incómodos

La Agencia Internacional de la Energía recuerda que una consulta a un chatbot de IA gasta entre 10 y 100 veces más electricidad que una búsqueda web al uso; además, existen guías sobre qué aparatos consumen energía apagados, útiles para comparar demandas relativas.

Google ha compartido métricas parciales: una petición media en Gemini usaría ~0,26 ml de agua y 0,24 Wh. Expertos apuntan que esas cifras se limitan a la inferencia y no incluyen entrenamiento ni almacenamiento; útiles, sí, pero incompletas para un balance integral.

Agua, estándares y la lupa de la ONU

El informe del relator de la ONU subraya la ausencia de estándares unificados de medición hídrica y energética en centros de datos. En paralelo, algunas investigaciones proyectan que, por el empuje de la IA, se requerirán entre 4.200 y 6.600 millones de m³ de agua en los próximos dos años para sostener operaciones globales.

El universo total de centros de datos es difuso, aunque se habla de más de 10.000 instalaciones. Para 2028, un estudio para el Departamento de Energía sugiere que estos centros podrían consumir hasta el 12% de la electricidad de EE. UU., un salto con implicaciones serias para mercados y planificadores.

La cadena de cuellos de botella: chips, transformadores, generación

Elon Musk ha puesto cifras llamativas a la mesa: su gigafábrica de datos en Memphis necesitaría alrededor de 1 GW, comparable a una central nuclear mediana, solo para los servidores. Y avisa de tensiones en 2026 si no se aceleran fabricantes y permisos.

El guion que describe es escalonado: primero faltan GPUs (ver instalar CUDA), luego transformadores especiales, finalmente la generación. Es una secuencia que el mercado ya percibe, con esperas prolongadas para equipos de alta tensión y un embudo claro en turbinas de gas.

Resiliencia e infraestructuras críticas bajo presión

Mustafa Suleyman, ahora al frente de Microsoft AI, señala un riesgo menos “hollywoodense” y más prosaico: una IA muy eficaz puede volverse incontrolable por pura eficiencia. Su foco inmediato está en infraestructuras críticas: estima que el 80% opera con sistemas obsoletos y vulnerables.

La combinación de demanda eléctrica creciente, redes envejecidas y dependencia digital eleva la probabilidad de apagones con efectos sistémicos. Los cortes recientes en Europa —aunque por causas diversas— recuerdan lo frágil que puede ser la continuidad del servicio.

Debate público y comunidad tecnológica

En paralelo a informes técnicos y memorandos, comunidades y foros especializados hierven de debates sobre el uso, los riesgos y las implicaciones sociales de la IA. La conversación ya no es de nicho: cruza desde ingeniería eléctrica hasta derechos humanos al agua y gobernanza tecnológica.

Este escrutinio social presiona a empresas y administraciones a ser más transparentes con datos, estándares y compromisos, tanto en consumo energético como hídrico, y a incorporar salvaguardas que respondan a las preocupaciones locales donde se instalan los megacentros.

La expansión de los centros de datos para IA avanza, pero lo hace a ras de suelo y paso firme, no a zancadas: Texas seguirá creciendo, probablemente hasta unos 44 GW en 2035, condicionado por turbinas, permisos y mano de obra; la petición de OpenAI de 100 GW al año marca una ambición más política que operativa a corto plazo; la ONU, Musk y reguladores ponen límites y alertas útiles. El sector tendrá que hilar fino entre pragmatismo energético, estándares de medición creíbles, co-ubicación inteligente y diálogo con comunidades si quiere que la promesa de la IA no se ahogue por falta de electrones —ni de agua—.

Artículo relacionado:
¿Qué trabajo realiza la Agencia Andaluza de la energía?