Cómo la IA amenaza con colapsar la electrónica de consumo y la red eléctrica

Última actualización: diciembre 10, 2025
Autor: Isaac
  • La demanda de memorias DRAM y NAND para proyectos de IA desvía producción del mercado de consumo y dispara los precios de PCs, móviles y componentes.
  • Fabricantes como Micron, Samsung, AMD o Sandisk priorizan la infraestructura de IA, provocando escasez, subidas de precio en cadena y salidas del segmento retail.
  • Los centros de datos de IA generan picos de consumo eléctrico que ponen en riesgo la estabilidad de redes como PJM o ERCOT y elevan la probabilidad de apagones.
  • El usuario final afronta una "chipflaction" que encarece hardware y servicios digitales, mientras se buscan soluciones en baterías, renovables y mayor eficiencia.

Impacto de la IA en la electrónica de consumo

La revolución de la inteligencia artificial está disparando todas las alarmas en la industria tecnológica. Lo que hace poco parecía solo una carrera por lanzar el mejor chatbot o el modelo más potente, se ha convertido en una tormenta perfecta que afecta al suministro de memorias, al precio de los componentes, a la estabilidad de la red eléctrica y al bolsillo de cualquiera que quiera comprar un PC, un móvil o un simple SSD.

Mientras las grandes tecnológicas presumen de modelos cada vez más avanzados, la infraestructura que hace posible esa IA está absorbiendo recursos a una velocidad brutal: obleas de DRAM que desaparecen del mercado de consumo, centros de datos que piden más electricidad que ciudades enteras y fabricantes que suben precios en cadena. Y todo esto se traduce en algo muy simple: pagar más por la electrónica de siempre, sin que necesariamente obtengamos beneficios claros como usuarios.

La escasez de motores a reacción amenaza la expansión de los centros de datos de IA
Artículo relacionado:
La escasez de turbinas de gas complica la carrera eléctrica de la IA y enfría la expansión de los centros de datos

La IA se come la memoria: amenaza directa para la electrónica de consumo

El mercado de la electrónica de consumo vive un desequilibrio como no se recordaba en años. Los gigantes de la IA necesitan infraestructuras de datos descomunales para entrenar y hacer funcionar sus modelos, y esa maquinaria devora memorias DRAM y NAND a un ritmo que el mercado tradicional no puede seguir.

La industria tecnológica se ha subido al tren de la IA sin frenos: inversores, directivos y marketing empujan en la misma dirección, aunque muchos profesionales del sector no tengan tan claro que las ventajas reales compensen el coste. Se habla de burbuja, de una posible reedición del pinchazo de las puntocom, pero de momento las valoraciones bursátiles siguen disparadas y todo el mundo quiere su trozo del pastel.

En ese contexto, detener o siquiera frenar el desarrollo de modelos de IA es casi un tabú. Los sistemas deben seguir aprendiendo y procesando datos sin parar, lo que implica un consumo de recursos sin precedentes: más centros de datos, más GPUs, más memorias y, por supuesto, más energía eléctrica. El llamado proyecto “Stargate”, impulsado por OpenAI y socios como SoftBank, planea invertir en torno a 500.000 millones de dólares en nueva infraestructura de IA solo en Estados Unidos.

En estas instalaciones, las GPUs especializadas en IA son la estrella, pero las memorias de alto rendimiento son igual de críticas. Aunque los formatos de memoria de los centros de datos (como HBM o RDIMM) sean distintos a los módulos que montamos en un PC doméstico, los fabricantes están desviando capacidad de producción porque el margen de beneficio es mucho mayor en el segmento de IA que en el mercado minorista.

Un dato ilustra la magnitud del problema: Samsung y SK hynix han prometido 900.000 obleas de DRAM al mes solo para el proyecto Stargate. Ese compromiso implica reducir en torno a un 40% la oferta mundial disponible de DRAM para el resto de clientes. El resultado ya lo notamos: subida brutal de precios y escasez de un componente básico para cualquier dispositivo, desde un portátil hasta una consola o una placa de desarrollo.

Centros de datos y consumo de memoria

Crucial abandona al usuario doméstico: la memoria se va a la IA

Uno de los golpes más simbólicos para el mercado cliente ha sido la decisión de Micron de retirar la marca Crucial del segmento de consumo. Crucial lleva casi tres décadas siendo un nombre de referencia en módulos de RAM y unidades de almacenamiento flash para usuarios finales, pero la prioridad ha cambiado.

Micron ha destinado toda su producción de 2026 a memorias HBM, un tipo de DRAM de altísimo ancho de banda diseñada específicamente para aceleradores de IA. Sus directivos no han tenido problema en admitirlo: la demanda de los grandes actores de la IA es tan alta y tan rentable que no tiene sentido seguir compitiendo en el canal minorista, donde los márgenes son mucho más ajustados.

El problema es que los productos de Crucial estaban entre los más vendidos y populares del mercado retail, y no está nada claro que otros fabricantes vayan a cubrir ese hueco, sobre todo porque ellos también están priorizando acuerdos con centros de datos. La consecuencia inmediata es una nueva escalada de precios para la RAM y los SSD que utilizamos en PCs y portátiles, sumándose a la subida que ya veníamos arrastrando en los últimos meses.

Los módulos DDR5, en especial, han visto incrementos de coste muy por encima de lo habitual, y lo que vemos en tiendas no es más que la punta del iceberg. Por detrás, los contratos a gran escala con proveedores de componentes se renegocian al alza, y el pequeño consumidor es el último de la fila.

  ¿Qué es un circuito ecualizador?

Cuando ni Samsung se vende memoria a sí misma

La tensión en el mercado de DRAM ha llegado a situaciones tan surrealistas como que Samsung Semiconductor rechace pedidos internos de su propia corporación. Samsung es un coloso industrial que fabrica de todo: chips, móviles, televisores, electrodomésticos, barcos… y coordinar esa monstruosa estructura ya es complicado en tiempos normales.

Las filiales de la compañía suelen acudir primero a la división de semiconductores para sus necesidades de memoria, pero la escasez actual ha roto ese esquema. Un informe procedente de medios económicos surcoreanos señala que Samsung Semiconductor ha denegado un pedido de DRAM para smartphones solicitado por la división Mobile Experience, responsable de los Galaxy.

Hasta ahora, esa división disfrutaba de un contrato anual preferente para asegurarse suministro a precios estables. Ese acuerdo se transformará en reservas trimestrales con tarifas más elevadas si quieren seguir teniendo acceso a los chips que ellos mismos producen a nivel de grupo.

El desenlace es obvio: los próximos teléfonos Samsung y otros dispositivos móviles se encarecerán, no solo por moda o por añadir más cámaras, sino porque el coste de la memoria se ha disparado y la prioridad absoluta es abastecer a los centros de datos de IA.

PCs y hardware general: subidas en cadena para CPUs, GPUs y portátiles

Los grandes fabricantes de ordenadores tampoco se libran. Según datos del sector citados por firmas de análisis como TrendForce, Dell, Lenovo y HP ya preparan incrementos notables de precios tanto en servidores como en PCs de sobremesa y portátiles.

Dell planea aplicar estas subidas en cuestión de semanas, mientras que Lenovo ajustará sus tarifas a partir del 1 de enero de 2026, y HP revisará su lista de precios antes de la segunda mitad de ese mismo año. El propio director de operaciones de Dell, Jeff Clarke, reconocía que nunca había visto un aumento tan rápido del coste de los chips de memoria.

En algunos casos, componentes de DRAM DDR5 han subido un 70% año tras año, y hay modelos concretos que llegan a incrementos del 170%. Eso se traduce en que la lista de materiales de un PC medio con 32 GB de RAM y 1 TB de SSD ha encarecido su coste de fábrica más de un 20%, lo que obliga a los fabricantes a repercutir parte de ese incremento al usuario final.

Este escenario ha llevado a revisar a la baja las previsiones de venta de portátiles. TrendForce, por ejemplo, ha pasado de estimar un ligero crecimiento del 1,7% a un descenso del 2,4% en los envíos de portátiles para 2026. Un giro de casi cuatro puntos que refleja hasta qué punto la inflación de chips está enfriando la demanda.

La presión no termina en la memoria: AMD ya ha avisado a sus socios de que subirá los precios de sus CPU y, sobre todo, de sus GPUs dedicadas, precisamente porque integran memoria propia (VRAM) cuyo coste también se ha disparado.

Se habla de aumentos de unos 20 dólares por tarjeta gráfica con 8 GB de VRAM y de alrededor de 40 dólares adicionales para modelos con 16 GB. Estas cifras, que pueden parecer pequeñas aisladas, se multiplican al aplicarse a miles de unidades, y los ensambladores de PCs temen que acaben reflejándose íntegramente en el precio final al consumidor. Además, se esperan nuevas subidas en el segundo semestre.

En paralelo, circulan informaciones (todavía no confirmadas oficialmente) de que NVIDIA estaría reduciendo el suministro directo de VRAM a sus socios para tarjetas gráficas de consumo, obligándoles a negociar por su cuenta con los fabricantes de memoria. Eso crearía una guerra de ofertas entre integradores, todos peleando por cantidades limitadas de chips mientras las grandes granjas de IA se llevan los contratos más jugosos.

Memoria flash NAND y SSD: menos oferta, contratos congelados y precios al alza

La memoria DRAM no es la única afectada. La memoria flash NAND, base de cualquier SSD, también está sufriendo el tirón de la IA y la presión por mejorar márgenes. Un ejemplo claro es el movimiento reciente de Sandisk, que ha incrementado en torno a un 50% los precios de sus contratos de NAND para alinearse con la relación actual entre oferta y demanda.

Este cambio de tarifas ha provocado que varios fabricantes secundarios de SSD pausaran temporalmente las entregas mientras renegocian precios y compromisos con sus clientes. El impacto es inmediato en el canal: menos modelos disponibles, menos promociones agresivas y mayores precios de entrada.

Marcas como Transcend, que dependen de proveedores como Samsung y Sandisk para su suministro de NAND, han notificado internamente que no reciben envíos de memoria flash desde octubre. Esto ha afectado de lleno a la disponibilidad de sus productos, generando retrasos y faltas de stock en determinados segmentos.

De ahí que muchos usuarios hayan notado una oferta mucho más pobre de SSD en eventos como el Black Friday, con menos chollos y muchas menos unidades rebajadas que otros años. Lo que podría parecer una simple estrategia comercial tiene detrás una realidad de escasez y subida de precios a nivel de contrato mayorista.

Raspberry Pi y el golpe a los proyectos de bajo coste

Ni siquiera los proyectos orientados a la educación y al bajo coste, como Raspberry Pi, se han librado de esta marea. La fundación, famosa por mantener precios muy ajustados en sus placas de desarrollo, se ha visto obligada a aplicar el mayor incremento de su historia.

  ¿Cuántos ciclos de vida tiene una batería MacBook Air?

El responsable de Raspberry Pi Trading, Eben Upton, ha explicado que el detonante ha sido el aumento inusual del coste de la memoria LPDDR4 que utilizan sus placas. Esta memoria, aunque no sea exactamente la misma que HBM o RDIMM, compite por capacidad de producción en las mismas fábricas, y los desarrolladores de infraestructura de IA están acaparando los recursos disponibles.

La situación es paradójica: mientras la IA se vende como herramienta democratizadora y de acceso masivo al conocimiento, está encareciendo los componentes que permiten a aficionados, estudiantes y makers montar proyectos propios a bajo coste. El impacto en la comunidad de hardware libre y educativo es evidente.

Más allá del hardware: software y servicios también se encarecen

El efecto de la IA sobre los precios no se limita al hardware. Grandes proveedores de software y servicios en la nube también han empezado a ajustar sus tarifas al alza, en parte para financiar sus inversiones en capacidades de IA.

Un ejemplo claro es Microsoft 365, cuya suscripción empresarial y gubernamental ya tiene programadas subidas de precio a partir del 1 de julio de 2026. La compañía justifica estos incrementos hablando de nuevas capacidades de seguridad, gestión e inteligencia artificial, pero a efectos prácticos muchas organizaciones ven que pagan más por funciones de IA que quizá no necesitan o no tienen claro cómo rentabilizar.

La sensación generalizada es que la IA se está colando en todos los productos y servicios, a menudo sin que el usuario la haya pedido, y que esa capa “inteligente” sirve como excusa para subir precios en casi cualquier suscripción digital, desde suites ofimáticas hasta herramientas de colaboración.

La factura energética de la IA: del minado de criptos al riesgo de apagones

centro de datos

Durante años, la minería de criptomonedas fue el gran villano en materia de consumo energético digital. Ahora, el foco se ha desplazado con fuerza hacia la inteligencia artificial como nueva devoradora de electricidad. Diversos análisis estiman que la IA podría estar en camino de consumir anualmente una cantidad de energía similar a la que utiliza un país como Irlanda (casi 30 TWh al año).

En Estados Unidos, esta presión ya se está dejando notar. La red eléctrica, especialmente en grandes interconexiones como PJM (que agrupa 13 estados), empieza a mostrar síntomas de saturación. Según cifras recientes, en apenas cinco semanas se han emitido nueve alertas energéticas de nivel 1, cuando el año anterior solo se registró una. En junio, la demanda alcanzó máximos no vistos en 14 años.

Buena parte de esta tensión procede de proyectos como Stargate, que exige nuevos centros de datos gigantescos para OpenAI y otros actores. Estas instalaciones operan con decenas o cientos de miles de GPUs coordinadas como una supercomputadora, y su consumo puede cambiar de forma brusca en cuestión de segundos debido a procesos como el guardado de checkpoints durante el entrenamiento.

Este comportamiento, con caídas y subidas de decenas de megavatios en poco tiempo, no estaba contemplado en el diseño de las redes eléctricas actuales. Incluso con “solo” 24.000 GPUs, como se ha detallado en publicaciones técnicas de empresas como Meta, los cambios de carga en milisegundos ya representan un reto serio para la estabilidad del sistema.

Para evitar daños o apagones locales, se han llegado a desarrollar trucos de software como comandos que generan carga ficticia para suavizar los picos, algo así como “engañar” a la red manteniendo un consumo más estable. Pero esa energía no deja de desperdiciarse, con costes que pueden alcanzar decenas de millones de dólares anuales solo en electricidad tirada a la basura.

Riesgo de apagones en cascada: de Texas a la península ibérica

A nivel internacional, distintos operadores de red han comenzado a lanzar advertencias muy serias. En Texas, por ejemplo, el gestor ERCOT acumula solicitudes de conexión de más de 100 GW de nueva carga, principalmente centros de datos y proyectos relacionados con IA y criptominería. Para ponerlo en contexto, el pico de demanda de toda Estados Unidos ronda los 745 GW: un solo estado quiere añadir casi una sexta parte de esa cifra.

No se trata solo de cuánto se consume, sino de qué ocurre si esos centros de datos se desconectan de golpe. Si por una perturbación en la red (algo tan simple como un fallo en una línea distante) varios gigavatios de carga saltan a la vez para pasar a generadores propios, el desequilibrio entre generación y consumo puede hacer caer la frecuencia y desencadenar apagones en cadena.

Los estudios de ERCOT indican que una desconexión súbita de unos 2,5 GW de centros de datos podría ser suficiente para provocar un apagón regional. Y esto no es un escenario de ciencia ficción: en abril de 2025, la península ibérica sufrió un apagón masivo, con España y Portugal quedándose a oscuras en solo 27 segundos por una combinación de errores de despacho y desconexiones súbitas que replican lo que podría ocurrir con datacenters mal integrados.

Aunque existen medidas de mitigación, como condensadores síncronos o sistemas de inercia virtual, los operadores calculan que incluso con estos recursos podrían desconectarse entre 1,3 y 1,9 GW de carga crítica en estados como Texas. Suficiente para desencadenar un problema serio.

  ¿Qué son los archivos rasterizados?

Baterías, Megapacks y nuevas estrategias para estabilizar la red

Una de las líneas de defensa más prometedoras frente a estas oscilaciones son los sistemas de almacenamiento de energía con baterías a gran escala (BESS). Soluciones como los Megapack de Tesla permiten absorber o inyectar cientos de megavatios en cuestión de segundos, actuando como un colchón frente a las variaciones bruscas de los centros de datos.

Empresas como xAI, la compañía de IA de Elon Musk, ya están desplegando Megapacks en instalaciones clave, por ejemplo en Memphis, y se estudian configuraciones que combinen baterías con supercondensadores o generadores síncronos para aportar más inercia eléctrica al sistema.

El problema es que todo esto cuesta una fortuna. Una planta de 100 MW con cuatro horas de capacidad en baterías puede suponer entre 76 y 157 millones de dólares de inversión. Y hablamos de centros de datos que aspiran a operar a escalas del orden de 1 GW, lo que podría elevar la cifra a cerca de 1.000 millones de dólares solo en baterías.

Además, estas soluciones no sustituyen por completo a los sistemas de alimentación ininterrumpida (UPS) ni a los generadores diésel que ya se utilizan en los datacenters, sino que se añaden encima como una capa adicional de protección y flexibilidad. Es decir, más complejidad y más coste operativo.

La advertencia de Elon Musk: crisis energética digital en el horizonte

Durante una conferencia en Austin, Elon Musk fue especialmente contundente al señalar que la próxima gran crisis no será puramente tecnológica, sino energética. Según él, la infraestructura eléctrica actual no está preparada para sostener el ritmo de crecimiento del consumo digital, impulsado principalmente por la IA generativa y los centros de datos siempre encendidos.

Los factores que menciona son claros: el entrenamiento de modelos de última generación como GPT-5, Gemini Ultra o Grok-2 requiere cantidades masivas de electricidad; los centros de datos funcionan 24/7; y la demanda se estaría duplicando en plazos de entre seis y doce meses, algo sencillamente insostenible para unas redes pensadas hace décadas.

Esto se traduce en cuellos de botella a varios niveles: falta de transformadores y reguladores de voltaje, subestaciones saturadas incluso en países muy desarrollados, y plazos cada vez más largos para conectar nuevos datacenters. No basta con tener dinero y terreno; hace falta una red capaz de soportar ese consumo continuo y creciente.

Las consecuencias a corto y medio plazo pueden incluir desde interrupciones en servicios digitales críticos (plataformas en la nube, streaming, videojuegos online) hasta subidas de precios generalizadas en servicios digitales, a medida que las empresas rebotan el aumento de costes energéticos a sus clientes.

Como posibles salidas, Musk apunta a una expansión agresiva de energías renovables y almacenamiento en baterías, mejoras radicales en eficiencia (chips más eficientes, refrigeración líquida, algoritmos optimizados) y un mayor peso del edge computing para repartir la carga de procesamiento y aliviar la presión sobre los grandes centros de datos centrales.

Todo esto no afecta solo a la IA: también se encuentran en el punto de mira sectores como el streaming de vídeo, el gaming en la nube, las fintech, el comercio electrónico o el Internet de las cosas, todos ellos muy dependientes de una infraestructura digital estable y disponible 24/7.

¿Qué puede hacer el consumidor ante la “chipflaction” de la IA?

Para el usuario de a pie, todo este panorama se resume en algo muy claro: pagar más por productos electrónicos y servicios digitales, aunque no haya pedido ni necesite las nuevas funciones de IA que supuestamente justifican estas subidas.

La IA tiene un coste ambiental considerable, con entrenamientos de modelos avanzados que pueden generar huellas de carbono comparables a cientos de vuelos transoceánicos o al ciclo de vida completo de varios coches. Tiene un coste económico brutal para empresas y gobiernos que todavía no saben si recuperarán la inversión. Y, al final, tiene un coste directo para el usuario, que se encuentra con móviles, PCs, suscripciones y juegos en la nube cada vez más caros.

En este contexto, la mejor arma del consumidor sigue siendo controlar el momento de compra. Si no necesitas de forma urgente un componente, un smartphone o un ordenador nuevo, lo más sensato es esperar a ver si la oferta de memorias mejora y la especulación se relaja. La historia del hardware muestra que los ciclos de escasez extrema suelen ir seguidos de una normalización… aunque tarde más de lo que nos gustaría.

Si, por el contrario, te ves obligado a renovar o adquirir ya un equipo, puede que salir corriendo a comprar antes de ciertas fechas clave sea la opción menos mala, sobre todo cuando muchos fabricantes han anunciado que revisarán sus tarifas a partir del 1 de enero de 2026 y en sucesivas olas. En ese escenario, adelantar la compra puede evitar parte de la subida.

Entre la alta demanda de memorias por la IA, la presión brutal sobre las redes eléctricas y las decisiones estratégicas de los grandes fabricantes, el panorama que se dibuja es el de una economía digital cada vez más cara y dependiente de recursos limitados; si no se equilibran pronto ambición tecnológica, sostenibilidad energética y protección al consumidor, corremos el riesgo de que la próxima gran generación de dispositivos y servicios llegue acompañada de precios prohibitivos y de una infraestructura al borde del colapso.