Qué es AMD Zyphra y cómo está cambiando la IA empresarial

Última actualización: diciembre 3, 2025
Autor: Isaac
  • AMD Zyphra es la alianza entre AMD, IBM Cloud y Zyphra para entrenar modelos de IA multimodales a gran escala sobre GPU Instinct MI300X.
  • Zyphra desarrolla superinteligencia abierta con productos como el superagente Maia y el modelo fundacional Mixture-of-Experts ZAYA1.
  • El clúster en IBM Cloud integra GPU AMD, red Pensando y software ROCm, logrando alta eficiencia, seguridad y escalabilidad empresarial.

Infraestructura AMD Zyphra IBM Cloud

AMD Zyphra se ha convertido en uno de los nombres propios del nuevo mapa de la inteligencia artificial a gran escala, donde hardware, nube y modelos abiertos empiezan a ir de la mano. No estamos hablando de un simple chip ni de un único modelo de IA, sino de un ecosistema que une a AMD, IBM Cloud y el laboratorio de IA abierta Zyphra para entrenar modelos multimodales gigantes, con el foco puesto en la empresa y en la superinteligencia de código abierto.

La pregunta «qué es AMD Zyphra» se responde entendiendo esta alianza: AMD pone la potencia de cómputo con sus GPU Instinct MI300X y la red acelerada Pensando; IBM aporta la infraestructura de nube empresarial, seguridad y escalabilidad; y Zyphra llega con la investigación puntera en modelos multimodales, aprendizaje continuo y memoria a largo plazo, además de productos como Maia o el modelo fundacional ZAYA1. Juntos, están levantando uno de los clústeres de entrenamiento de IA generativa más avanzados del mercado.

Qué es Zyphra y por qué importa en el ecosistema de AMD e IBM

Zyphra es una empresa de investigación y productos de IA de código abierto con sede en San Francisco, especializada en superinteligencia abierta y ciencia abierta. Tras cerrar una ronda Serie A, la compañía ha sido valorada en 1.000 millones de dólares, una cifra que refleja la confianza de los inversores en su enfoque de modelos abiertos, reproducibles y auditables para entornos empresariales exigentes.

La misión de Zyphra gira en torno a tres grandes líneas de I+D: nuevas arquitecturas de redes neuronales, sistemas de memoria de largo plazo y técnicas de aprendizaje continuo. El objetivo es ir más allá de los modelos estáticos que se entrenan una vez y se congelan, para dar paso a modelos que puedan actualizarse, recordar experiencias pasadas y adaptarse constantemente a nuevos datos y contextos.

Esta filosofía de ciencia abierta tiene un impacto directo en el sector: al publicar modelos, técnicas y resultados, Zyphra facilita la transparencia, la evaluación externa de sesgos y la capacidad de terceros para reproducir y auditar sus avances. A cambio, la compañía se enfrenta al reto de que otros puedan replicar parte de su trabajo, algo que compensan con velocidad de ejecución y una infraestructura de entrenamiento muy avanzada.

El acuerdo con IBM y AMD es clave para materializar esa visión. Zyphra necesitaba un entorno donde poder entrenar modelos fundacionales multimodales de gran escala, con acceso garantizado a aceleradoras modernas y una red diseñada específicamente para cargas de trabajo de IA. Ahí es donde encajan IBM Cloud y la plataforma completa de AMD, desde GPU a NICs y DPUs.

Dentro de la hoja de ruta de Zyphra destaca Maia, un superagente de propósito general orientado a trabajadores del conocimiento en empresas. Maia está diseñado como una plataforma multimodal que integra lenguaje, visión y audio en un solo sistema, que sea capaz de comprender documentos, imágenes y audio de forma conjunta, y que se beneficie de memoria a largo plazo y aprendizaje continuo para mejorar con el uso.

AMD Instinct MI300X y la red Pensando: el músculo de la infraestructura

El corazón de la parte «AMD» en AMD Zyphra son las GPU AMD Instinct MI300X, aceleradoras pensadas específicamente para cargas de trabajo de IA generativa y computación de alto rendimiento (HPC). Cada MI300X integra 192 GB de memoria HBM de alto ancho de banda, lo que permite manejar modelos enormes y lotes de datos muy grandes sin recurrir a técnicas de particionado extremo que complican el entrenamiento.

Esta memoria masiva evita el costoso expert o tensor sharding, es decir, la necesidad de fragmentar expertos o tensores entre múltiples GPU para que quepan en memoria. Al reducir esa fragmentación, se simplifica la arquitectura del modelo y se mejora el rendimiento global de la pila de entrenamiento, ya que hay menos comunicación entre dispositivos y menos sobrecoste de sincronización.

La plataforma no se queda solo en las GPU, también incluye la red AMD Pensando. El clúster desplegado para Zyphra en IBM Cloud incorpora AMD Pensando Pollara 400 AI NICs y DPUs AMD Pensando Ortano, que actúan como aceleradores de red y de plano de datos. Estas tarjetas descargan tareas de red, seguridad y almacenamiento del servidor principal, liberando CPU y mejorando la eficiencia general del clúster.

  ¿Qué es un calefactor de bajo consumo?

La combinación de GPU Instinct y red Pensando forma una pila de cómputo y red totalmente integrada, algo que AMD y Zyphra remarcan como un hito: es la primera vez que toda la plataforma de entrenamiento de AMD, desde el cómputo hasta la red, se integra y escala con éxito en IBM Cloud. Esto se traduce en una menor latencia este-oeste entre nodos, mayor throughput y una utilización más alta de las GPU.

Sobre esta base de hardware se apoya el stack de software AMD ROCm, una pila abierta de desarrollo para GPU que permite implementar kernels optimizados, I/O distribuido y librerías de deep learning adaptadas a las Instinct MI300X. Zyphra ha aprovechado estas capacidades para conseguir, por ejemplo, más de 10 veces de mejora en los tiempos de guardado (checkpointing) de modelos gracias a un I/O distribuido optimizado por AMD.

Para AMD, esta colaboración es una demostración de liderazgo en cómputo acelerado. Directivos como Emad Barsoum y Philip Guido han subrayado que el proyecto con Zyphra muestra la potencia y flexibilidad de las GPU Instinct y la red Pensando para entrenar modelos complejos y de gran escala, y establece un nuevo estándar de infraestructura de IA preparada para cargas multimodales y de inferencia eficiente.

IBM Cloud: el entorno donde se ejecuta AMD Zyphra

Cluster AMD Zyphra en IBM Cloud

IBM Cloud es el otro pilar fundamental de esta historia. La compañía ha firmado un acuerdo plurianual con Zyphra para desplegar un gran clúster dedicado de GPU AMD Instinct MI300X en su nube pública, con arquitectura de tejido y almacenamiento de alto rendimiento. Este despliegue está ya operativo desde principios de septiembre y tiene una ampliación planificada para 2026.

Se trata del primer clúster de entrenamiento a gran escala en IBM Cloud que aprovecha exclusivamente el ecosistema de GPU de AMD, incluyendo las MI300X, las NICs Pollara 400 de IA y las DPUs Ortano. IBM aporta no solo la infraestructura, sino también capacidades de orquestación, seguridad, gobernanza y cumplimiento normativo, claves para que los modelos de Zyphra se puedan usar en entornos empresariales regulados.

La nube de IBM se ha diseñado para ofrecer seguridad, fiabilidad y escalabilidad. Esto incluye aislamiento de cargas, opciones de nube híbrida y multicloud, y herramientas de observabilidad que permiten monitorizar una red empresarial y el rendimiento, consumo energético, deriva de modelos y métricas de negocio. Para Zyphra, esta capa es esencial para alinear la investigación con la realidad operativa de las empresas.

IBM y AMD ya venían colaborando antes de este proyecto. El año anterior anunciaron la disponibilidad de aceleradoras AMD Instinct MI300X como servicio en IBM Cloud, con el objetivo de mejorar el rendimiento y la eficiencia energética de modelos de IA generativa y aplicaciones HPC. El programa de Zyphra lleva esta colaboración un paso más allá, al pasar de un servicio compartido a un clúster dedicado de gran capacidad adaptado a las necesidades de un único cliente estratégico.

Para los responsables de TI y CTOs, este despliegue funciona como referencia arquitectónica. Demuestra cómo alinear suministro de GPU, descarga de red y operaciones de nube empresarial para conseguir un flujo de trabajo sostenible de entrenamiento de modelos de vanguardia, manteniendo al mismo tiempo métricas claras de coste total de propiedad, rendimiento por vatio y previsibilidad del coste por trabajo.

IBM Cloud aporta además flexibilidad híbrida y multicloud. Aunque el entorno de Zyphra se ejecuta actualmente en IBM Cloud, las decisiones de diseño de red, DPUs y orquestación están pensadas para poder adaptarse a escenarios híbridos. Para muchas organizaciones, esto abre la puerta a combinar centros de datos propios con capacidad bajo demanda, sin tener que rehacer por completo sus pipelines de IA.

Maia: el superagente multimodal que se entrena sobre AMD Zyphra

Uno de los grandes productos que se apoyan en esta infraestructura es Maia, el superagente de propósito general que está construyendo Zyphra. Lejos de ser un chatbot más, Maia se concibe como un superagente multimodal empresarial, capaz de trabajar con texto, imágenes y audio de forma integrada para ayudar a los trabajadores del conocimiento.

Maia se apoya en modelos fundacionales que integran lenguaje, visión y sonido. Esto le permite, por ejemplo, analizar documentos, presentaciones, capturas de pantalla, correos electrónicos y grabaciones de reuniones en un mismo contexto, generando resúmenes, planes de acción, priorización de tareas o detección de riesgos sin tener que separar cada tipo de contenido en silos.

Uno de los rasgos diferenciales de Maia es su énfasis en la memoria a largo plazo. El sistema está diseñado para mantener información relevante a lo largo del tiempo, de forma que pueda recordar decisiones anteriores, acuerdos alcanzados en reuniones, patrones de comportamiento en proyectos o preferencias de los usuarios. Esto contrasta con muchos asistentes actuales, que trabajan con ventanas de contexto limitadas y «olvidan» todo al cerrar la sesión.

  Que son los adaptadores tap windows y por que su vpn requiere este controlador

Maia incorpora también capacidades de aprendizaje continuo, orientadas a que el modelo pueda ir ajustándose a nuevas experiencias y datos. La meta es que no dependa solo de grandes reentrenamientos periódicos, sino que pueda adaptarse a cambios en procesos, herramientas y flujos de trabajo empresariales, refinando sus estrategias más allá de instrucciones rígidas y predefinidas.

Todo este diseño requiere una infraestructura de entrenamiento de gran escala. El clúster de AMD Instinct MI300X en IBM Cloud permite a Zyphra entrenar y reajustar modelos multimodales de gran tamaño para Maia, con la posibilidad de escalar recursos en función de la demanda. Sin esta capacidad de cómputo, buena parte de las ambiciones de Maia se quedarían en demos de laboratorio sin aplicación real en empresas.

ZAYA1: el modelo fundacional Mixture-of-Experts entrenado sobre plataforma AMD

Más allá de Maia, uno de los hitos técnicos más llamativos es ZAYA1, el primer modelo fundacional Mixture-of-Experts (MoE) de gran escala que Zyphra ha desarrollado y entrenado íntegramente sobre la plataforma de GPU y red de AMD. Este modelo se ha entrenado en el clúster de IBM Cloud usando GPU AMD Instinct MI300X, la red AMD Pensando y la pila de software abierto AMD ROCm.

ZAYA1 es un modelo MoE de gran tamaño diseñado para IA generativa. Su arquitectura utiliza múltiples expertos especializados que se activan de forma selectiva para cada entrada, lo que permite manejar un gran número total de parámetros sin que todos estén activos en cada inferencia. Esto mejora la eficiencia y hace posible obtener alto rendimiento con un coste computacional más contenido.

La variante ZAYA1-Base cuenta con 8,3 mil millones de parámetros totales, de los cuales solo 760 millones están activos en cada paso. Aun así, los resultados publicados por Zyphra muestran que este modelo iguala o supera a alternativas abiertas como Qwen3-4B (Alibaba), Gemma3-12B (Google), Llama-3-8B (Meta) u OLMoE en pruebas de razonamiento, matemáticas y programación, lo que ilustra la eficiencia del diseño MoE sobre la plataforma de AMD.

El papel de las GPU AMD Instinct MI300X ha sido determinante en ZAYA1. Gracias a sus 192 GB de memoria HBM, Zyphra ha podido evitar estrategias complejas de particionado de tensores o expertos, simplificando el entrenamiento y reduciendo cuellos de botella. Además, el I/O distribuido optimizado por AMD ha permitido reducir más de diez veces los tiempos de guardado de checkpoints, aumentando la fiabilidad y la eficiencia del proceso.

Directivos de AMD y Zyphra han destacado la importancia de este logro. Emad Barsoum, vicepresidente corporativo de IA e ingeniería en AMD, ha señalado que el liderazgo de AMD en cómputo acelerado está permitiendo a innovadores como Zyphra ir más allá de los límites actuales de la IA. Por su parte, Krithik Puthalath, CEO de Zyphra, ha subrayado que ZAYA1 refleja su apuesta por la eficiencia y el co-diseño entre arquitecturas de modelo, silicio y sistemas.

En la práctica, ZAYA1 demuestra la escalabilidad de las GPU AMD Instinct para producción. El modelo ha sido entrenado completamente en la plataforma de AMD, utilizando el clúster co-diseñado junto con IBM, con GPU MI300X y red Pensando. Esta experiencia sirve como prueba de concepto de que es posible entrenar modelos MoE de gran escala y alto rendimiento fuera de los ecosistemas dominantes tradicionales, apoyándose en una pila abierta de hardware y software.

Estrategia conjunta de IBM, AMD y Zyphra: más allá de un simple clúster

La colaboración entre IBM, AMD y Zyphra va más allá de un contrato de infraestructura. Se trata de una estrategia de largo plazo para construir una plataforma de superinteligencia de código abierto orientada a la empresa, en la que la infraestructura, los modelos y los productos finales estén alineados desde el diseño.

En el plano de negocio, IBM y AMD posicionan este proyecto como un referente para otras empresas que quieran entrenar modelos a gran escala con garantías de seguridad, gobernanza y eficiencia. El entorno de Zyphra muestra cómo combinar suministro de GPU, DPUs programables, red avanzada y nube híbrida para obtener un flujo de trabajo robusto, desde la ingesta de datos hasta el despliegue de modelos.

  ¿Cómo saber si el mando funciona bien?

En el plano técnico, la alianza enfatiza el co-diseño entre capas. Zyphra ha trabajado mano a mano con AMD e IBM para definir la arquitectura del clúster, optimizar la interconexión, adaptar el stack ROCm y ajustar los algoritmos de entrenamiento de sus modelos. Este enfoque coordinado es lo que ha permitido, por ejemplo, los grandes saltos en tiempos de guardado de modelo o la eliminación del sharding costoso en ZAYA1.

La planificación de la capacidad también forma parte de la estrategia. Al asegurar desde el inicio el acceso a GPU AMD Instinct MI300X y a la red Pensando en IBM Cloud, Zyphra evita uno de los grandes cuellos de botella del sector: la falta de aceleradores disponibles a tiempo. El clúster inicial arrancó en septiembre y ya cuenta con un plan explícito de expansión en 2026, alineado con la evolución prevista de sus modelos y datasets.

Además, IBM y AMD están explorando conjuntamente arquitecturas cuántico-céntricas. Más allá del clúster actual, ambas compañías trabajan en supercomputación centrada en lo cuántico, que combina ordenadores cuánticos de IBM con computación de alto rendimiento clásica y aceleración de IA de AMD. Aunque todavía es una línea experimental, abre la puerta a futuros pipelines híbridos donde algunas tareas de optimización o muestreo puedan derivarse a procesadores cuánticos.

Para startups y grandes empresas, este modelo de colaboración marca tendencia. Pone de relieve que se pueden construir alternativas reales a los grandes proveedores dominantes de infraestructura de IA, apostando por plataformas abiertas, métricas de eficiencia claras y estrategias de nube híbrida. Si Zyphra consigue transformar esta infraestructura en modelos útiles y reutilizables como ZAYA1 y Maia, el impacto en el ecosistema será considerable.

Retos, riesgos y oportunidades en torno a AMD Zyphra

Aunque el proyecto AMD Zyphra tiene una enorme proyección, no está exento de retos. Uno de los más evidentes es el suministro de aceleradores en un mercado todavía muy tensionado, donde muchas empresas compiten por las mismas GPU de última generación. Mantener la capacidad garantizada y los plazos de entrega pactados será clave para que las hojas de ruta de Zyphra no se vean retrasadas.

El coste total de propiedad es otro punto crítico a vigilar. No basta con tener hardware potente; la eficiencia real se mide en términos como coste por token entrenado, rendimiento por vatio y estabilidad del clúster a largo plazo. Ahí entran en juego factores como la ingeniería de datos, la mezcla de tareas, el diseño de los pipelines de preparación de datos, el checkpointing inteligente y las estrategias de optimización de modelos.

La gobernanza y la seguridad son igualmente esenciales, especialmente cuando se trabaja con modelos de miles de millones de parámetros entrenados sobre petabytes de datos. Las NIC y DPUs programables de AMD Pensando permiten implementar aislamiento, telemetría fina y políticas de seguridad en el propio plano de datos, mientras que IBM Cloud aporta controles de cumplimiento y auditoría. Aun así, será necesario un esfuerzo continuo de red-teaming y evaluación de riesgos para evitar usos indebidos de los modelos abiertos.

La dimensión de código abierto de Zyphra presenta tanto ventajas como desafíos. Por un lado, compartir modelos, recetas de entrenamiento y benchmarks facilita la adopción y la mejora colaborativa; por otro, obliga a definir licencias claras, gestionar las expectativas de la comunidad e invertir en documentación y soporte. Para muchas empresas que recelan de soluciones de «caja negra», esta transparencia será un argumento de peso para apostar por la tecnología de Zyphra.

Por último, las oportunidades de integración en entornos híbridos son muy amplias. La arquitectura de AMD Zyphra, basada en GPU Instinct, red Pensando y orquestación en IBM Cloud, puede servir de referencia para organizaciones que quieran combinar infraestructuras on-premise con nube pública, preservando la soberanía de los datos sensibles y, al mismo tiempo, accediendo a capacidad adicional bajo demanda cuando sus proyectos de IA lo requieran.

AMD Zyphra describe un nuevo modo de construir IA a gran escala: una alianza donde el silicio de AMD, la nube de IBM y la ciencia abierta de Zyphra se alinean para entrenar modelos multimodales como Maia y ZAYA1, priorizando rendimiento, eficiencia y transparencia. Si el clúster sigue escalando como está previsto y los modelos demuestran valor real en empresas, este proyecto se consolidará como una referencia para cualquiera que quiera entender cómo se diseña hoy la infraestructura de superinteligencia abierta.

problemas de stock de memoria RAM
Artículo relacionado:
Problemas de stock de memoria RAM: qué está pasando, cuánto ha subido y cómo te afecta