Microsoft Cobalt 200: CPU Arm para la nube y la era de los agentes

Última actualización: noviembre 19, 2025
Autor: Isaac
  • Cobalt 200 eleva hasta un 50% el rendimiento sobre Cobalt 100 con 132 núcleos, 3 nm y DVFS por núcleo.
  • Seguridad reforzada: cifrado de memoria por defecto, Arm CCA y HSM integrado con Key Vault y FIPS 140-3.
  • Azure Boost impulsa E/S: hasta 20 GB/s, 1M IOPS y 400 Gbps para futuras VM.
  • Ecosistema Azure alineado: Foundry, Fabric y Copilot preparan agentes y datos para IA a escala.

Procesador Azure Cobalt 200

Microsoft ha desvelado su nuevo procesador personalizado para la nube, Azure Cobalt 200, y lo ha hecho en el marco de Ignite con un mensaje claro: la infraestructura del centro de datos entra en una era convergente donde CPU de propósito general y aceleradores especializados trabajan codo con codo. Este chip Arm de nueva generación llega con una promesa nada tímida, un salto de rendimiento de hasta un 50% sobre su predecesor. La apuesta es total: más músculo, más eficiencia y seguridad reforzada para cargas cloud y de inteligencia artificial.

La compañía ha confirmado que los primeros servidores de Cobalt 200 ya están en producción dentro de sus propios centros de datos, mientras prepara una disponibilidad más amplia para clientes. Algunas fuentes hablan de acceso temprano en modo vista previa y una extensión de despliegue durante el próximo año, con una apertura más general en 2026. Este lanzamiento se apoya en el éxito de Cobalt 100 y en un ecosistema Azure que, además, se ha equipado con nuevas herramientas para agentes, datos y observabilidad.

Qué es Azure Cobalt 200 y por qué importa

CPU Arm para data center

El proceso de fabricación también suma a la ecuación, ya que Microsoft se apoya en la tecnología de 3 nm de TSMC. Esta base, junto con técnicas avanzadas de gestión de energía, impulsa una eficiencia notable. Una de las rarezas más interesantes es el DVFS por núcleo: cada uno de los 132 núcleos puede ajustar voltaje y frecuencia de forma independiente, afinando consumo y rendimiento en función de la mezcla de trabajo real.

La seguridad se trata como un principio de diseño, no como un extra. Cobalt 200 incorpora un controlador de memoria personalizado que habilita cifrado de memoria activado por defecto y con impacto despreciable en prestaciones. Además, implementa la arquitectura de computación confidencial de Arm (CCA), que aísla la memoria de las máquinas virtuales frente al hipervisor y al sistema operativo anfitrión.

Otra de las lecciones extraídas de cargas reales tiene que ver con patrones universales de cómputo: compresión, descompresión y cifrado aparecen por todas partes. En torno a un tercio de las cargas en la nube hacen uso intensivo de alguna de estas operaciones. Para acelerar estos casos, Cobalt 200 integra bloques dedicados de hardware para compresión y criptografía, descargando a la CPU y reduciendo coste y latencia; servicios como Azure SQL ya se benefician al liberar ciclos de cómputo para el trabajo que realmente importa al cliente.

Google implementa nuevos procesadores Axion
Artículo relacionado:
Google Axion: la jugada Arm que redefine la nube de Google

El SoC no llega solo: el sistema completo incluye mejoras de red y almacenamiento remoto gracias a Azure Boost, un subsistema que saca del hipervisor funciones de virtualización y las lleva a hardware especializado. El resultado es más ancho de banda, menos latencias y un plano de datos más fluido para las próximas familias de máquinas virtuales.

De Cobalt 100 a Cobalt 200: lo aprendido en producción

Microsoft Cobalt 200 en Azure

El recorrido empezó con Cobalt 100, el primer procesador Arm de 64 bits diseñado íntegramente por Microsoft para su nube. Desde octubre de 2024, las máquinas virtuales con Cobalt 100 están en disponibilidad general y se han extendido rápidamente a 32 regiones de centros de datos. Clientes exigentes como Databricks o Snowflake han migrado cargas analíticas a esta plataforma por su equilibrio entre rendimiento, eficiencia y precio por rendimiento.

  ¿Cómo se descarga un archivo adjunto?

La propia casa también ha hecho los deberes: Microsoft Teams obtuvo hasta un 45% más de rendimiento frente a su plataforma previa y pudo recortar un 35% el número de núcleos de cómputo necesarios para el procesado de medios. En especificaciones, Cobalt 100 opera a 3,4 GHz y mapea cada vCPU a un núcleo físico completo, lo que simplifica la planificación y la previsibilidad.

Respecto a cobertura de producto, estas VMs aplican a máquinas virtuales Linux, máquinas virtuales Windows y a conjuntos de escalado, tanto en modo flexible como uniforme. Su foco son servicios nativos de nube con escalado horizontal, desde servidores web y aplicaciones hasta bases de datos de código abierto o cachés distribuidas.

Para rematar, la compatibilidad de sistemas operativos invitados sobre Cobalt 100 es amplia, con algunas excepciones. Debajo se detalla una tabla de referencia orientativa para despliegues Arm64 en Azure:

SO invitado Versión
AlmaLinux 8 o posterior
Azure Linux 3
Debian 11+
Flatcar No disponible
Kali Linux No disponible
QNX Cox RTOS 7.1
Red Hat Enterprise Linux (RHEL) 8.6
SUSE Linux Enterprise Server (SLES) 15 SP4+
Ubuntu 20.04+
Windows 11 cliente No disponible

Quien necesite comprobar compatibilidades actualizadas puede filtrar por imágenes Arm64 desde el portal de Azure. En la sección de detalles de instancia es posible ver todas las imágenes y aplicar el filtro de tipo Arm64 para afinar la búsqueda.

Diseño y simulación: del silicio al rack

Un problema clásico de la ingeniería de procesadores es que los benchmarks tradicionales no reflejan bien la diversidad de cargas reales. En Azure se ejecutan desde microservicios pequeños hasta productos SaaS globales, y la telemetría muestra patrones que no encajan con pruebas centradas solo en los núcleos. Muchas aplicaciones cloud dependen de red y almacenamiento tanto como de la potencia de CPU, así que hacía falta un enfoque diferente.

Para enfrentarlo, Microsoft construyó un catálogo de pruebas directamente inspirado en el uso real de Azure: bases de datos, servidores web, cachés de almacenamiento, transacciones de red y analítica de datos, con múltiples variantes por tecnología y patrón de uso. En total, más de 140 variantes individuales formaron parte de la batería interna de evaluación.

Con apoyo de los equipos de software, se montó un gemelo digital de la plataforma, desde la microarquitectura del núcleo y la tela de interconexión hasta el diseño de servidor y topología de rack. Mediante modelos estadísticos, técnicas de IA y la capacidad de cómputo de Azure, se simuló rendimiento y consumo sobre 2.800 combinaciones de parámetros de SoC y sistema: número de núcleos, tamaños de caché, velocidad de memoria, topología de servidor, potencia del SoC o configuración del rack, entre otros.

El alcance del estudio fue masivo, con más de 350.000 candidatos de configuración evaluados. Este proceso permitió iterar rápido y encontrar el punto óptimo de diseño para Cobalt 200, logrando ese salto de más del 50% respecto a Cobalt 100 sin perder la eficiencia energética que caracteriza a la familia.

Seguridad y aceleración de E/S en la plataforma

La propuesta de seguridad de Cobalt 200 combina varias capas: cifrado de memoria por defecto con controlador propio, aislamiento de memoria de máquinas virtuales con CCA y módulos de hardware dedicados a operaciones criptográficas. A nivel de infraestructura, Azure integra un HSM nativo enlazado con Key Vault para gestión de claves a gran escala y con cumplimiento FIPS 140-3 Nivel 3, lo que resulta clave para sectores regulados.

  ¿Quién creó WebM?

En el plano de entradas/salidas, Azure Boost evoluciona para dar cabida a cargas cada vez más hambrientas de datos. La última generación anuncia hasta 20 GB/s de rendimiento de almacenamiento remoto, hasta un millón de IOPS remotas y ancho de banda de red de hasta 400 Gbps. La clave está en descargar procesos de virtualización desde el hipervisor y el sistema anfitrión hacia hardware a medida, reduciendo latencia y elevando el techo de rendimiento.

Estas capacidades se integran con las mejoras del SoC, que ya prioriza la eficiencia y libera a la CPU de tareas repetitivas como compresión o cifrado gracias a aceleradores específicos. La suma es un plano de cómputo y datos más predecible y económico, con menos colas en red y almacenamiento.

Colaboración con Arm y un centro de datos convergente para IA

Arm y Microsoft comparten visión: la nube del futuro será más eficiente, escalable y sostenible si se optimiza cada capa de la pila, desde el silicio hasta el software. Con Cobalt 200, Microsoft se convierte en el primer implementador público de Neoverse CSS V3, aprovechando una arquitectura extensible para añadir capacidades únicas como DVFS por núcleo, aceleradores de compresión y criptografía y la integración con Azure Boost.

Neoverse CSS V3 es una plataforma preintegrada y probada en silicio que acelera la creación de chips a medida, tanto para hiperescaladores como para socios del programa Arm Total Design. Incluye compatibilidad con Armv9, CCA y SVE2, y permite a los diseñadores centrarse en la optimización que aporta valor diferencial a sus cargas, mientras Arm sostiene el ecosistema de software de nube a borde.

Microsoft ha aplicado esta filosofía a rajatabla: con un perfilado exhaustivo de cargas reales y la evaluación de cientos de miles de configuraciones, ha ajustado Cobalt 200 tanto para necesidades de clientes como para aplicaciones internas (incluyendo servicios como Teams). El resultado es una CPU hecha para la era de los agentes y la IA, pero sin olvidar los cimientos imprescindibles de la web, el almacenamiento y el procesamiento de datos.

Novedades de Azure para agentes y datos que acompañan a Cobalt 200

La presentación del chip llega junto a una oleada de capacidades en Azure orientadas a agentes y datos. El antiguo Azure AI Foundry pasa a ser Microsoft Foundry y amplía el menú de modelos: Claude Sonnet 4.5, Opus 4.1 y Haiku 4.5 se suman al catálogo, al igual que los modelos de Cohere, reforzando una oferta con más de once mil modelos y opciones de enrutamiento automático para elegir el modelo idóneo por tarea (función de model router ya disponible de forma general).

Para dotar de contexto empresarial a los agentes, llegan dos piezas clave: Fabric IQ, que organiza datos corporativos por conceptos de negocio y unifica analítica, series temporales y datos operacionales; y Foundry IQ, que simplifica el acceso de agentes a fuentes públicas y privadas (como SharePoint, Fabric IQ o la web) mediante Azure AI Search y recuperación agentic lista para usar.

Además, Microsoft presenta Agent Factory, un programa que combina Work IQ, Fabric IQ y Foundry IQ con un plan medido único y soporte práctico de ingeniería desplegada. En el frente de conectividad, Foundry incorpora el protocolo MCP para conectar datos y herramientas, y expone más de 1.400 sistemas empresariales (SAP, Salesforce, Workday y otros) como herramientas MCP a través de conectores de Logic Apps.

  • Azure Copilot se posiciona como interfaz agentic para orquestar agentes especializados a lo largo del ciclo de vida de gestión cloud, con agentes de migración, despliegue, operaciones y optimización.
  • Foundry Control Plane aporta seguridad, gobierno y observabilidad en tiempo real para agentes, integrando señales de todo Microsoft Cloud.
  • DevSecOps de extremo a extremo con la integración nativa de Microsoft Defender for Cloud y GitHub Advanced Security, cubriendo del código a la nube.
  • Capas de datos modernas: HorizonDB (PostgreSQL gestionado, alto rendimiento y replicas elásticas), DocumentDB (NoSQL con estándares abiertos y vectores) y la disponibilidad de SQL Server 2025 con capacidades para IA y analítica casi en tiempo real vía OneLake.
  ¿Cuál es el objetivo principal de Pinterest?

Dentro de Microsoft Fabric, se integran SQL Database y Cosmos DB para ejecutar cargas transaccionales y NoSQL en el mismo entorno, y se añade la compartición bidireccional de datos sin copia con SAP Business Data Cloud. La idea de fondo es simple: construir una base de datos y agentes preparada para IA, con gobierno y observabilidad de nivel empresarial.

Voz del mercado y comunidad

El movimiento de Microsoft no pasa desapercibido entre analistas: se valora que el salto de rendimiento de una generación a otra sea tan contundente y que la compañía use su propio chip en servicios internos y lo ofrezca a clientes. La combinación de proceso de 3 nm, arquitectura Arm Neoverse y la ingeniería de Microsoft anticipa una adopción fuerte entre clientes que suelen esperar a que la tecnología se consolide.

En paralelo, el sector observa cómo los grandes proveedores de nube diseñan sus propios chips para optimizar costes y ajustar capacidades a sus servicios, manteniendo alianzas con Nvidia, AMD e Intel para otras piezas del rompecabezas. Esta tendencia de silicio a medida convive con un ecosistema más abierto en modelos y herramientas para IA y agentes.

La conversación también se ha movido por foros y redes: comunidades como r/hardware comentan las novedades, y medios tecnológicos integran estas publicaciones en resúmenes y feeds para suscriptores. Algunas plataformas señalan restricciones de reutilización con fines informativos y no comerciales, mientras otras requieren JavaScript habilitado o muestran avisos de cookies para personalizar contenidos y anuncios.

Disponibilidad y hoja de ruta

Microsoft indica que Cobalt 200 ya está desplegándose en sus centros de datos y que ampliará la disponibilidad a clientes a lo largo del próximo ciclo, con una apertura mayor en 2026. El chip encaja con la visión de centros de datos como superfábricas de IA, y con una infraestructura de Azure que sube el listón en red, almacenamiento, seguridad y gobierno.

Para quienes quieran profundizar, las sesiones y materiales de Ignite desgranan con detalle todas estas piezas, desde el plano de silicio hasta la capa de agentes. La invitación es clara: evaluar cómo esta combinación de CPU, aceleradores y servicios de datos puede mejorar el coste, la resiliencia y el rendimiento de cargas críticas.

Con la experiencia acumulada de Cobalt 100 en producción, la llegada de CSS V3, el uso de 3 nm, el DVFS a nivel de núcleo, aceleradores para compresión y cifrado, seguridad confidencial por hardware y un plano de E/S vitaminado por Azure Boost, Cobalt 200 dibuja un CPU que no va solo a por benchmarks sintéticos, sino a por lo que de verdad cuenta en la nube: tiempo de respuesta, coste predecible y throughput sostenido. Sumado a Foundry, Fabric, Copilot y el resto de piezas anunciadas, el ecosistema de Azure refuerza su propuesta para una nube agentic, preparada para datos y pensada para transformar negocio.