SpaceX y TeraFab: así es el plan para crear sus propias GPU con Intel 14A

Última actualización: abril 28, 2026
Autor: Isaac
  • SpaceX planea fabricar sus propias GPU y aceleradores de IA dentro de TeraFab, con fuerte inversión y altos riesgos reconocidos en su registro S-1.
  • El proyecto se apoyará en el proceso Intel 14A, con Tesla operando una línea piloto de I+D y SpaceX enfocada en la producción a gran escala.
  • TeraFab aspira a integrar diseño, fabricación, empaquetado y pruebas de chips, en un sector dominado por gigantes como Nvidia y TSMC.
  • La apuesta busca asegurar suministro de cómputo y personalizar hardware para IA, pero exige superar enormes retos técnicos, financieros y de competencia.

SpaceX fabricará sus propias GPU para IA

La idea de que SpaceX dé el salto a diseñar y fabricar sus propias GPU para inteligencia artificial parecía ciencia ficción hace unos años, pero ya está negro sobre blanco en su documentación previa a la salida a bolsa. El movimiento no es pequeño: implica meterse de lleno en uno de los negocios tecnológicamente más complejos del mundo, el de los semiconductores de alto rendimiento, y hacerlo además con un objetivo muy concreto, alimentar la enorme demanda de cómputo que se viene en IA, robótica y centros de datos espaciales.

Este plan se articula alrededor de TeraFab, el megacomplejo de fabricación de chips de IA que Elon Musk quiere levantar en Austin (Texas) con la participación conjunta de SpaceX, Tesla y xAI. En los documentos del registro S-1 remitidos a la SEC estadounidense, y en declaraciones posteriores de Musk a analistas, van apareciendo las piezas: qué quiere fabricar, dónde, con qué tecnología (el proceso Intel 14A) y qué riesgos está dispuesto a asumir. Lo que se dibuja es una apuesta colosal por controlar el hardware clave de la próxima década.

SpaceX y el gran salto: fabricar sus propias GPU

En los extractos del S-1 revisados por Reuters y por otros medios, SpaceX incluye entre sus mayores partidas de inversión futura la “fabricación de nuestras propias GPUs”. No se trata de un proyecto marginal ni de un experimento: la compañía lo coloca explícitamente en el bloque de gastos de capital sustanciales ligados al desarrollo de inteligencia artificial y a otras tecnologías avanzadas que necesitarán cantidades masivas de potencia de cálculo.

En ese mismo documento, SpaceX alerta a los inversores de algo fundamental: no dispone de contratos a largo plazo con muchos de sus proveedores de chips. En un mercado donde conseguir GPU de alta gama es casi una batalla campal, depender exclusivamente de terceros es una invitación al cuello de botella. Por eso, la empresa admite que seguirá comprando una parte importante de su hardware de cómputo a fabricantes externos, pero deja claro que quiere reducir esa dependencia metiéndose en la fabricación por cuenta propia.

La referencia a las GPU aparece también en el contexto de la salida a bolsa de SpaceX, valorada en alrededor de 1,75 billones de dólares. En la práctica, el mensaje que lanza la compañía es: vamos a gastar muchísimo dinero en IA y chips, sabemos que los riesgos son enormes, pero creemos que el potencial de crecimiento compensa. Es una advertencia para inversores y, al mismo tiempo, una declaración de intenciones sobre dónde está el foco estratégico de Musk.

Ahora bien, incluso dentro de la propia documentación hay matices: no está del todo claro si “GPU” se usa en sentido estricto (procesadores gráficos de propósito general como los de Nvidia) o como una especie de palabra paraguas para hablar de aceleradores de IA en general. La terminología podría englobar ASIC específicos, TPU al estilo Google, XPU híbridas u otros diseños a medida para cargas de trabajo concretas. La única certeza es que se trata de chips de alto rendimiento pensados para inteligencia artificial.

Lo que tampoco se detalla de forma definitiva es qué empresas asumirán cada fase del proceso industrial dentro de TeraFab: diseño, fabricación, empaquetado, test… Musk ha comentado que la intención es abarcar el máximo número de etapas posible bajo un mismo techo, pero todavía no hay un reparto pormenorizado entre los socios ni un calendario cerrado que marque el momento exacto en el que esa producción propia empezará a funcionar a gran escala.

Complejo TeraFab para chips de IA

TeraFab: el corazón del proyecto de chips para IA

Todo este movimiento gira en torno a TeraFab, el complejo industrial de chips de IA en Texas que SpaceX, Tesla y xAI están desarrollando de forma conjunta. Musk lo ha presentado como una instalación pensada para integrar bajo el mismo ecosistema capacidades de diseño, fabricación, empaquetado y pruebas, con el objetivo de crear procesadores capaces tanto de empujar modelos de IA gigantescos en tierra como de funcionar en centros de datos orbitales sometidos a condiciones extremas.

  ¿Qué significa el cable rojo y blanco?

En la presentación de TeraFab, Musk fue bastante claro sobre el problema de base: aunque compraran todos los chipsets disponibles en el mercado, apenas cubrirían alrededor del 2 % de las necesidades de cómputo que prevén a futuro. Con esa escala de demanda, depender solo de proveedores como Nvidia, AMD y compañía se vuelve directamente inviable. De ahí que el diseño y la producción propia de chips pasen de ser una opción interesante a una necesidad casi urgente para SpaceX y su ecosistema.

La idea de Musk es que TeraFab abarque todas las fases del ciclo del chip: desde el diseño de la arquitectura hasta el empaquetado avanzado y las pruebas finales. Esto rompe, al menos en teoría, con el modelo clásico de la industria de semiconductores, donde las distintas etapas se reparten entre empresas muy especializadas: foundries como TSMC o Intel Foundry Services para la fabricación, compañías como ASE o Amkor para el packaging, y una larga lista de firmas de test y verificación en medio.

Según la documentación de SpaceX, TeraFab no solo debería suministrar chips para los sistemas de IA relacionados con los cohetes, satélites y centros de datos espaciales, sino también para aplicaciones en vehículos eléctricos, robots humanoides y otras plataformas vinculadas tanto a Tesla como a xAI. Es, en esencia, la factoría de silicio que aspira a alimentar todos los proyectos de IA del universo Musk.

Sin embargo, en el propio S-1 se reconoce que el reto es mayúsculo: SpaceX admite que no puede garantizar que vaya a cumplir los objetivos de TeraFab en plazo, o incluso que sea capaz de lograrlos en absoluto. Esta sinceridad no es casual: de cara a los inversores, la compañía está obligada a detallar los riesgos materiales, y aquí la complejidad técnica, el coste descomunal y la competencia brutal del sector pesan muchísimo.

Intel 14A: el proceso elegido para las GPU de SpaceX

Una de las piezas más interesantes del puzle es la elección del proceso de fabricación Intel 14A para la producción futura de estos chips. En una llamada con analistas, Musk explicó que TeraFab planea usar este nodo cuando la planta haya alcanzado cierto nivel de madurez y cuando el propio proceso 14A esté listo para producción a gran escala más adelante en esta década.

Musk llegó a afirmar que Intel 14A “parece la decisión correcta” para la fase de escalado serio. También subrayó que mantiene una buena relación con Intel, tanto con la cúpula directiva como con los equipos técnicos, lo que sitúa a Intel Foundry Services como un socio estratégico clave en este movimiento. En un mercado en el que TSMC acapara la mayor parte de la producción de chips avanzados, un acuerdo de esta magnitud es oro puro para Intel, que intenta remontar en la carrera de los procesos punteros.

La elección de Intel 14A implica que, al menos en la fase de alto volumen, la fabricación de las obleas se apoyará en las capacidades de Intel, mientras que TeraFab se situaría como el centro integrador de diseño, validación, empaquetado y test orientado a las necesidades específicas de SpaceX, Tesla y xAI. Es una forma de combinar la experiencia de un gigante de semiconductores con la visión de integración vertical que persigue Musk.

Aunque los documentos dejan algunos cabos sueltos, el esquema general que se desprende es bastante claro: SpaceX se reserva el papel de productor a gran escala, Tesla asume la parte piloto y de I+D, e Intel aporta el proceso de fabricación avanzado. En el aire sigue la pregunta de si los chips finales serán GPU en el sentido tradicional o una familia más amplia de aceleradores específicos para IA, pero el nodo de fabricación al que se apunta ya está definido.

Esta apuesta también coloca a SpaceX en una situación curiosa respecto a Nvidia DGX Spark y el resto de la industria: pasa de ser simplemente un gran cliente de aceleradores de IA a convertirse en potencial competidor en el diseño de hardware. Eso sí, llegar al nivel de eficiencia, ecosistema de software y escala de Nvidia no es precisamente un paseo; estamos hablando de una empresa que lleva décadas refinando GPUs y que externaliza su fabricación a TSMC, la foundry con más experiencia real del planeta en procesos de vanguardia.

  ¿Qué microprocesadores se desarrollaron en el año 2004?

Reparto de papeles: qué hará Tesla y qué hará SpaceX

La hoja de ruta descrita reparte el protagonismo entre Tesla y SpaceX con cierto nivel de detalle. Por un lado, Tesla se encargaría de levantar y operar una línea piloto centrada en investigación y desarrollo. Esta planta, situada en su campus de Texas, tendría un coste aproximado de unos 3.000 millones de dólares y estaría pensada para procesar solo unos pocos miles de obleas al mes.

El objetivo de esta instalación piloto es claro: probar nuevas ideas de diseño y validarlas en un entorno cercano al de producción real, pero sin el riesgo y el volumen de una fábrica masiva. Es el laboratorio avanzado donde se pueden ajustar procesos, experimentar con empaquetados novedosos, depurar los flujos de test y, en definitiva, preparar el terreno para el salto a gran escala.

Por otro lado, SpaceX asumiría la misión de fabricar chips a gran volumen. Ese es el escalón verdaderamente complejo, porque ya no se trata solo de que el diseño funcione, sino de que funcione a millones de unidades, con rendimientos aceptables, costes controlados y fiabilidad extrema. Pasar de una línea piloto a una fábrica de alto volumen exige inversiones gigantescas no solo en maquinaria, sino también en talento, procesos de calidad y cadena de suministro.

Dentro de este esquema, TeraFab actúa como la infraestructura industrial donde confluyen las aportaciones de SpaceX, Tesla y xAI. xAI aporta las necesidades de cómputo para sus modelos de inteligencia artificial, Tesla añade su visión en vehículos, robots y sistemas de conducción autónoma, y SpaceX lleva el enfoque de centros de datos espaciales, comunicaciones satelitales y aplicaciones en órbita, donde los chips deben soportar radiación, temperaturas extremas y condiciones poco amigables.

Esta separación de funciones permite que cada compañía se especialice en una parte del problema, pero también complica la coordinación: no basta con tener diseños brillantes, hay que alinearlos con los calendarios de fabricación, el ritmo de maduración del proceso Intel 14A y la disponibilidad de equipos clave de litografía, metrología y empaquetado avanzados. Cualquier retraso en una pieza del engranaje puede arrastrar al resto.

Un sector dominado por gigantes: por qué es tan difícil fabricar GPU

Para entender la magnitud del reto que asume SpaceX conviene recordar en qué liga se ha metido. Fabricar GPU o aceleradores de IA avanzados es una de las tareas industriales más complejas que existen. No es solo un problema de dinero; es una cuestión de experiencia acumulada, ecosistema de proveedores y dominio de procesos que se han ido perfeccionando durante décadas.

Hoy por hoy, Nvidia es el gran referente en diseño de GPU. Su modelo se basa en externalizar la fabricación a TSMC, la foundry taiwanesa que ha invertido miles de millones de dólares y años de trabajo en pulir sus nodos más avanzados. Para hacerse una idea, la fabricación de un chip de vanguardia puede implicar más de mil pasos de proceso, con materiales exóticos y tolerancias a escala atómica. Cualquier desviación mínima se traduce en chips defectuosos y pérdidas enormes.

El resultado es que TSMC tiene una especie de monopolio de facto en la producción de chips de gama alta, gracias tanto a sus procesos punteros como a la experiencia práctica de fabricar miles de millones de chips para clientes como Apple. Esa experiencia real, acumulada oblea a oblea durante años, es algo que no se compra de la noche a la mañana, y representa una ventaja brutal frente a cualquier recién llegado.

A esto hay que sumar que la industria de los semiconductores está organizada en una cadena de valor muy fragmentada. Empresas como ASML dominan la fotolitografía de ultravioleta extremo; firmas como Cadence y Synopsys controlan buena parte de las herramientas de diseño electrónico (EDA); KLA y LAM Research son esenciales para inspección, metrología y procesos de fabricación; y una larga lista de proveedores aportan químicos, gases especiales y equipamiento específico. Coordinar todo ese ecosistema es de por sí una odisea.

En este contexto, la ambición de Musk de que TeraFab “se encargue de cada paso de la producción de chips, incluido el diseño” es, como mínimo, muy agresiva. Implica no solo negociar con todos estos proveedores, sino también aprender a sacarles el máximo partido, algo que players consolidados han tardado décadas en dominar. SpaceX reconoce en su S-1 que el riesgo de no alcanzar los objetivos de TeraFab es muy real, y que el proyecto podría no tener éxito comercial, especialmente en lo relativo a los planes de centros de datos orbitales.

  ¿Qué es y para qué sirve el proyector?

Motivaciones y riesgos: por qué SpaceX se mete en este lío

Más allá del titular llamativo de “SpaceX crea sus propias GPU”, lo importante es entender el porqué estratégico de este movimiento. La primera razón es puramente de oferta: no hay suficientes chips en el mercado para cubrir la demanda de cómputo que Musk ve venir para sus proyectos de IA. Él mismo ha señalado que, incluso acaparando todos los chipsets disponibles, apenas llegarían a una fracción de lo que van a necesitar en los próximos años.

La segunda razón es la independencia tecnológica y de suministro. No contar con contratos a largo plazo con proveedores de chips deja a SpaceX muy expuesta a cambios de ciclo, problemas geopolíticos, restricciones de exportación y, en general, a la volatilidad de una industria donde todo el mundo está peleando por los mismos wafers avanzados. Controlar al menos parte de la producción propia reduce esta vulnerabilidad, aunque implica asumir riesgos colosales.

La tercera motivación tiene que ver con la personalización extrema del hardware. Los requisitos de un chip pensado para aguantar radiación en órbita, operar en un robot humanoide o moverse en un coche autónomo pueden diferir bastante de los de una GPU de centro de datos estándar. Diseñar procesadores a medida permite optimizar consumo, rendimiento y fiabilidad para casos de uso muy concretos, algo que es difícil conseguir comprando chips genéricos, por muy potentes que sean.

En el lado de los riesgos, el primero es el financiero: las inversiones necesarias para poner en marcha TeraFab y la línea piloto de Tesla se cuentan en miles de millones de dólares, y eso sin contar los costes recurrentes de operación, mantenimiento, actualización de equipos y contratación de talento altamente especializado. Si los plazos se retrasan o el rendimiento de fabricación no alcanza los niveles esperados, el impacto económico puede ser muy serio.

El segundo riesgo es técnico: dominar la fabricación avanzada de chips es extraordinariamente difícil. Incluso grandes veteranos del sector sufren problemas de rendimiento, yields más bajos de lo deseado o retrasos en la introducción de nuevos nodos. Para una empresa que, hasta ahora, no es un actor puro de semiconductores, la curva de aprendizaje será empinada, por muy buen equipo que reclute.

Y el tercero es competitivo: al entrar en el terreno de las GPU y aceleradores de IA, SpaceX se enfrenta indirectamente a pesos pesados como Nvidia, AMD o incluso Google con sus TPU, que no solo tienen hardware puntero, sino también ecosistemas de software, bibliotecas y comunidades de desarrolladores muy asentados. Construir todo eso alrededor de un chip propio es otro proyecto gigantesco en sí mismo.

Con todo lo anterior sobre la mesa, la foto que se dibuja es la de un plan extremadamente ambicioso, lleno de incógnitas y riesgos, pero alineado con la forma de operar de Musk: apuntar muy alto, mover cantidades ingentes de capital y tratar de cambiar las reglas del juego en sectores donde pocos se atreven a entrar. Si TeraFab y las GPU propias de SpaceX salen bien, la compañía podría asegurarse una ventaja competitiva brutal en IA aplicada al espacio, la automoción y la robótica; si salen mal, el golpe económico y de reputación no será precisamente pequeño.

Todo este proyecto coloca a SpaceX en una posición singular dentro de la carrera global por el hardware de IA: entre la necesidad urgente de más cómputo, la falta de suministro garantizado y la voluntad de integrar toda la cadena de valor del chip, la empresa ha decidido lanzarse a uno de los retos industriales más difíciles del momento. Queda por ver si será capaz de transformar esta apuesta en una realidad que funcione a escala, pero, mientras tanto, el mensaje al mercado es cristalino: el futuro de SpaceX pasa también por el silicio, no solo por los cohetes.

NVIDIA DGX Spark
Related article:
NVIDIA DGX Spark: el mini sistema de IA que cambia las reglas