Tachyum Prodigy 2 nm: todo sobre el primer procesador universal

Última actualización: noviembre 13, 2025
Autor: Isaac
  • Prodigy a 2 nm promete unificar CPU, GPU y aceleradores de IA con hasta 1.024 núcleos y DDR5 a 17,6 GT/s.
  • Rendimiento declarado: hasta 21,3× frente a NVIDIA Rubin Ultra NVL576 y más de 1.000 PFLOPs en inferencia.
  • Financiación de 220 M$, pedido de 500 M$ y foco en eficiencia (10× menos consumo y menor coste).
  • Dudas clave: memoria, interconexión, toolchain, frameworks y benchmarks verificables.

Procesador Tachyum Prodigy 2 nm

La compañía eslovaco-estadounidense promete un golpe sobre la mesa con Tachyum Prodigy a 2 nm, el que definen como el primer procesador universal capaz de unificar CPU, GPU y aceleradores de IA en un único silicio. En sus propios datos, este chip llega con avances contundentes en rendimiento, eficiencia y coste para IA y supercomputación, con cifras que, de cumplirse, cambiarían la foto del centro de datos.

Más allá del eslogan, hay números que llaman la atención: modelos de la familia Prodigy afirman multiplicar el rendimiento por rack en IA hasta 21,3 veces frente a NVIDIA Rubin Ultra NVL576 y 25,8 veces frente a Rubin 144, además de superar por primera vez la barrera de los 1.000 PFLOPs en inferencia frente a los 50 PFLOPs que adjudican a la competencia. Todo llega arropado por financiación, pedidos en firme y una narrativa que apela al momento del mercado y a la eficiencia energética en plena carrera por la IA.

Qué es Prodigy y por qué lo llaman procesador universal

En el lenguaje de Tachyum, “procesador universal” significa que Prodigy puede ejecutar cargas típicas de CPU, GPU y TPU sin necesidad de hardware especializado adicional. La arquitectura incorpora núcleos de 64 bits de diseño propio con soporte para formatos de precisión habituales en IA y HPC (FP64, FP32, FP8, TF32, BF16, Int8 e incluso TAI por núcleo), buscando combinar alto rendimiento escalar y paralelismo masivo en el mismo chip.

Otra pata clave es la compatibilidad de software. La empresa asegura que Prodigy puede ejecutar software nativo y también binarios de x86, ARM, RISC-V e incluso código basado en CUDA, apoyándose en traducción binaria y herramientas propias. La promesa es grande: consolidar pilas de cómputo heterogéneas en una arquitectura homogénea sin sacrificar rendimiento, algo que en la práctica histórica suele acarrear peajes de software.

En eficiencia, el mensaje es igual de ambicioso: Prodigy, según la compañía, puede hacer el mismo trabajo con hasta 10 veces menos consumo y a un tercio del coste del hardware tradicional. Tachyum cifra que alcanzar ciertas capacidades con tecnologías actuales requeriría más de 8 billones de dólares y 276 GW de potencia, mientras que su propuesta las bajaría a 78.000 millones de dólares y apenas 1 GW. Son números que, de ser reales a escala, impactan en CAPEX y OPEX de cualquier operador.

En rendimiento agregado por rack, se citan comparativas frente a la próxima generación de NVIDIA: hasta 21,3× respecto al Rubin Ultra NVL576 y 25,8× frente al Rubin 144 en IA. Además, proclaman haber superado la cota simbólica de los 1.000 PFLOPs en inferencia, dejando atrás los supuestos 50 PFLOPs del entorno rival. Aquí la cautela es obligada: son datos del fabricante a la espera de benchmarks independientes.

Arquitectura Prodigy 2 nm

Especificaciones y arquitectura a 2 nm (y generaciones previas)

La versión a 2 nm llega con una arquitectura rediseñada para mejorar radicalmente rendimiento por vatio y densidad. Cada chiplet integraría 256 núcleos de alto rendimiento de 64 bits, y configuraciones como Prodigy Ultimate contemplan hasta 1.024 núcleos en total, con 24 controladores DDR5 a 17,6 GT/s y 128 líneas PCIe 7.0. El objetivo es claro: empujar a la exaescala en supercomputación con una sola arquitectura programable.

  ¿Qué es interconexión a la PSTN?

Junto a ello, Tachyum afirma que liberará todo su software como código abierto y que su diseño puede multiplicar por diez el ancho de banda efectivo en módulos DIMM convencionales. También abren la puerta al licenciamiento del diseño a terceros, un movimiento estratégico si buscan sembrar un ecosistema amplio que facilite la adopción fuera de sus propios sistemas.

Conviene enmarcar la foto con lo ya comunicado en generaciones anteriores: el Prodigy T16128, fabricado en 5 nm (TSMC N5P), fue presentado con 128 núcleos a hasta 5,7 GHz, 16 canales de DDR5 a 7.200 MT/s, 64 líneas PCIe 5.0 y TDP de hasta 950 W, con opciones de refrigeración por aire o líquida en form factor de data center. La gama incluía variantes como T16128-AIM (4,5 GHz, 700 W) o T16128-HT (4,5 GHz, 300 W), proyectando distintos perfiles de consumo y frecuencia.

Por debajo, se detallaron familias de 64 y 32 núcleos: los T864-HS (hasta 5,7 GHz) y T864-HT (4,5 GHz) con 8 controladoras DDR5 a 6.400 MHz, PCIe 5.0 x32 y TDP de 300 W; y los T832-HS y T832-LP (este último a 3,2 GHz con 8 canales DDR5 a 4.800 MHz, PCIe 5.0 x32 y TDP de 180 W). Aquella hoja de ruta situaba la producción en masa en la primera mitad de 2023 y una segunda generación a 3 nm con PCIe 6.0 y CXL para muestras en la segunda mitad de 2024.

Entre tanto, Tachyum comunicó un salto intermedio con un “universal” de 192 núcleos, resultado de cambiar de proveedor IP y herramientas de automatización de diseño electrónico. Aseguran un +50% de rendimiento con solo un +20% de área, dejando el die en 600 mm², ampliando la caché L2/L3 hasta 192 MB y elevando los SERDES hasta 96 por chip. También hablan de un posible die de 858 mm², si bien el ancho de banda de memoria emergía como límite práctico, con configuraciones de 16 líneas DDR5 a 7.200 MT/s.

Rendimiento Prodigy frente a alternativas

Rendimiento declarado frente a NVIDIA e Intel

Las comparativas oficiales mezclan generaciones y cargas, pero dibujan una tesis repetida: Prodigy quiere ser competitivo a la vez en cloud, HPC e IA. En CPU pura, Tachyum ha sostenido en varias comunicaciones un ×4 frente a Intel Xeon Platinum 8470, mientras que, en HPC, proclaman ×3 sobre una GPU NVIDIA H100 y hasta ×6 en determinadas aplicaciones de IA. A ello suman los titulares más recientes frente a la línea Rubin: 21,3× frente a Rubin Ultra NVL576 y 25,8× frente a Rubin 144 en IA por rack.

Si estos números se convirtieran en realidad con software maduro, operadores podrían pasar del “trípode” de CPU + GPU + aceleradores a una pieza única programable, elevando la utilización de los racks y simplificando operaciones. Eso, traducido, son menos piezas, menos interoperabilidad que gestionar y potencialmente un coste por token (en entrenamiento e inferencia) más bajo, un punto crítico hoy.

La mención a superar los 1.000 PFLOPs en inferencia frente a supuestos 50 PFLOPs en alternativas no es menor: abre la puerta a escenarios de serving de modelos gigantes en menos racks. En paralelo, Tachyum presume de estar construyendo en la Unión Europea el que sería el superordenador de IA más rápido del mundo (128 exaflops de IA) apoyado en procesadores Prodigy, un guiño a la ambición europea por reforzar su capacidad de cómputo.

  Qué es la pasta térmica del PC: tipos, uso, cambio y modelos recomendados

Ecosistema Prodigy en centros de datos

Memoria, interconexión y redes ópticas

La configuración a 2 nm pone el foco en memoria convencional de alta velocidad: hasta 24 controladoras DDR5 a 17,6 GT/s en los modelos tope de gama. Falta por ver si habrá variantes con HBM o si el roadmap se apoyará en DDR5 y CXL para escalar capacidad; en cualquier caso, la clave será el ancho de banda efectivo por núcleo y cómo se comporta con cargas de IA modernas (transformers, MoE, FSDP), donde la latencia y el streaming de datos marcan diferencias.

En conectividad, la cifra de 128 líneas PCIe 7.0 en los modelos 2 nm apunta a plataformas con mucho IO y expansión, mientras los 96 SERDES citados en la variante de 192 núcleos sugieren márgenes para fabrics internos y escalabilidad multi-socket. El detalle del “fabric” entre chiplets, su topología y latencias inter-núcleo será vital para entender el rendimiento real en multi-die.

A nivel de red, Tachyum anunció una colaboración con Senko Advanced Components para integrar conectividad SN en sus sistemas Prodigy. Estos conectores están pensados para alta densidad y baja latencia, con soporte de 400 Gbps u 800 Gbps por canal. La variante multifibra SN‑MT16 mira ya al siguiente salto, con velocidades de hasta 1,6 TB o incluso 3,2 TB en el puerto de conmutación, clave para alimentar IA y HPC con tráfico Este‑Oeste intenso.

La capacidad de “breakout” directo desde el puerto del switch permite migraciones suaves a mayores anchos de banda y cuadruplicar la densidad efectiva: un conmutador de 32 puertos puede operar como uno de 64 o 128, elevando la radix y la eficiencia del cableado. Desde SENKO se subraya que esta solución es fiable y versátil, mientras que Tachyum recalca que es la infraestructura idónea para su red plana optimizada para IA/HPC con Prodigy.

Software, compatibilidad y apertura

Más allá del hierro, el éxito o fracaso de una arquitectura se decide en el software. Tachyum asegura que liberará su stack como open source y que dispone de toolchains capaces de ejecutar binarios x86, ARM y RISC‑V, además de trabajar con ecosistemas basados en CUDA. De cara al día 1, la comunidad querrá ver compiladores (LLVM), librerías BLAS, FFT, kernels para transformers y soporte de operadores modernos listos para producción.

En frameworks, el mínimo exigible pasa por PyTorch, TensorFlow y JAX con buen soporte de XLA/OpenXLA, además de runtimes como Triton y ecosistemas tipo ROCm. Por el lado “cloud‑native”, importan Kubernetes, drivers maduros, integración con DPUs/SmartNICs, almacenamiento y telemetría para operar cargas mixtas en entornos reales. Sin un software sólido, incluso el mejor silicio tarda en despegar.

Una baza diferenciadora, si funciona como se promete, es la ejecución de x86, ARM, RISC‑V y CUDA con impacto mínimo en rendimiento. Históricamente la traducción binaria conlleva peajes, pero Tachyum defiende su enfoque. Mientras llegan pruebas, la compañía mantiene un canal de comunicación activo con boletín propio y perfiles en redes sociales (X/Twitter, LinkedIn y Facebook); en X, si el navegador tiene JavaScript desactivado, aparece el típico aviso de incompatibilidad, un detalle menor pero que recuerda dónde está la conversación.

Financiación, tape-out y estrategia de mercado

En el frente financiero, Tachyum comunicó un acuerdo vinculante de Serie C por 220 millones de dólares con un inversor europeo y, en paralelo, un pedido de 500 millones para chips Prodigy. Con ello superan los 300 millones captados y se colocan para cerrar el tape‑out y publicar especificaciones actualizadas “en breve”. En su hoja de ruta asoma incluso una posible salida a bolsa en 2027, señal de ambición y de que ven mercado para un actor alternativo a x86, ARM y a la hegemonía actual de las GPU de NVIDIA en IA a gran escala.

  ¿Qué líquido se le pone a las baterías de gel?

El “timing” no podría ser más propicio: los aceleradores suben de precio, los plazos se alargan y se levantan campus de centenares de megavatios. Operadores persiguen bajar el coste por token y por entrenamiento, y cualquier opción que suba la utilización y reduzca la complejidad suma. Tachyum apunta a supercomputación, criptomonedas, cloud y analítica como verticales objetivo, con la geopolítica de fondo: tensiones EE. UU.–China y un empuje europeo por la soberanía tecnológica (IPCEI, proyectos continentales) que podrían favorecer a quien aporte capacidad con eficiencia.

Preguntas abiertas y qué vigilar

Hay cuestiones que la comunidad técnica querrá ver resueltas antes de comprometer despliegues a gran escala. Estas dudas no restan interés, pero marcan la diferencia entre un gran anuncio y una plataforma lista para producción con pruebas verificables.

  • Nodo, TDP y frecuencias sostenidas: confirmar el proceso de fabricación real, consumo y clocks en workloads largos.
  • Memoria: ¿habrá HBM o se dependerá de DDR5/CXL? Importa el ancho de banda efectivo por núcleo y su escalado con modelos gigantes.
  • Interconexión: detalles del fabric entre chiplets y sockets, latencias y topologías para IA/HPC distribuida.
  • Toolchain y frameworks: estado de compiladores, librerías (BLAS, FFT), kernels de transformers, soporte en PyTorch, TensorFlow y JAX.
  • Virtualización y cloud‑native: rendimiento bajo Kubernetes, drivers, DPUs/SmartNICs y rutas de datos de almacenamiento en escenarios reales.
  • Benchmarks reproducibles: tokens/s en entrenamiento, coste por token e inferencia con latencias P50/P99 frente a configuraciones de mercado.

Para los equipos de plataforma y compras, conviene seguir una hoja de control que reduzca incertidumbre y ayude a medir el TCO por rack con datos replicables.

  1. Calendario: fechas de tape‑out, engineering samples, quality samples, drivers y soporte de frameworks.
  2. Rendimiento reproducible: resultados con modelos abiertos/cerrados en HPC, pre‑entrenamiento, fine‑tuning e inferencia.
  3. Eficiencia operativa: rendimiento por vatio, densidad, refrigeración (aire/líquida), fiabilidad y utilización real.
  4. Ecosistema y soporte: ISV, compiladores (LLVM), runtimes (XLA, Triton), integraciones con K8s y MLOps.
  5. Portabilidad y lock‑in: estándares abiertos adoptados y facilidad para mover cargas entre plataformas.

Quien quiera seguir la pista a la compañía puede suscribirse a su newsletter y consultar sus canales sociales: X/Twitter (https://twitter.com/tachyum), LinkedIn (https://www.linkedin.com/company/tachyum) y Facebook (https://www.facebook.com/Tachyum/). Si entras desde un navegador no soportado o con JavaScript desactivado, te toparás con el aviso de rigor, pero el flujo de actualizaciones es constante.

La propuesta de Tachyum Prodigy a 2 nm encaja con lo que el mercado reclama: más potencia, mejor rendimiento por vatio y menos complejidad operativa. Desde la promesa de 1.024 núcleos, DDR5 a 17,6 GT/s y PCIe 7.0 hasta la compatibilidad con x86/ARM/RISC‑V y la colaboración óptica con SENKO, el relato es coherente y ambicioso. Falta la pieza que lo consagra: silicio disponible, software maduro y benchmarks independientes que confirmen las cifras frente a NVIDIA (Rubin/H100) e Intel (Xeon 8470). Si esos avales llegan, Prodigy podrá aspirar a consolidar CPU, GPU y aceleradores bajo un mismo techo; si no, al menos habrá forzado a la industria a acelerar y a reconsiderar cuánto hardware específico es realmente necesario para escalar la IA.