Arm AGI CPU: el salto de Arm al silicio para IA agéntica

Última actualización: marzo 30, 2026
Autor: Isaac
  • Arm AGI CPU es el primer procesador de centro de datos diseñado y vendido directamente por Arm, enfocado en infraestructura de IA agéntica.
  • El chip integra hasta 136 núcleos Neoverse V3, gran ancho de banda de memoria y 96 líneas PCIe Gen6 con CXL 3.0, optimizados para cargas de trabajo masivas y sostenidas.
  • Las arquitecturas de referencia permiten más de 8.000 núcleos por rack con aire y más de 45.000 con refrigeración líquida, con más del doble de rendimiento por rack frente a x86.
  • Meta, OpenAI, Cloudflare, SAP y otros grandes actores ya han confirmado despliegues, respaldando un ecosistema amplio en torno a Arm AGI CPU.

Procesador Arm AGI CPU para centros de datos de IA

La irrupción de Arm AGI CPU marca un antes y un después en el mundo de los centros de datos y la inteligencia artificial. Por primera vez, la compañía británica deja de ser solo la mente en la sombra que diseña arquitecturas y se lanza a comercializar su propio chip terminado, listo para montarse en servidores que van a mover buena parte de la IA mundial.

Este movimiento no es un simple cambio de catálogo, sino un giro estratégico de enorme calado. Arm entra a competir en producción de silicio para IA agéntica, se planta frente a gigantes como Intel, AMD o Nvidia y, al mismo tiempo, se alinea con socios como Meta, OpenAI o Cloudflare para redefinir cómo se construye la infraestructura de IA moderna, especialmente en un contexto donde la CPU vuelve a ganar protagonismo.

Qué es Arm AGI CPU y por qué es tan importante

Chip Arm AGI CPU para inteligencia artificial

Arm AGI CPU es la primera familia de procesadores de centro de datos diseñada y vendida directamente por Arm, en vez de limitarse a licenciar su arquitectura o sus diseños de referencia. Supone el tercer pilar de su plataforma: a las licencias de IP y a los Arm Compute Subsystems (CSS) se suma ahora silicio terminado, listo para producción y despliegue masivo.

Este procesador está orientado a lo que Arm denomina “infraestructura de IA agéntica”: sistemas donde no solo se entrenan modelos, sino que funcionan de forma continua a través de agentes capaces de razonar, planificar, llamar herramientas, coordinar subagentes y tomar decisiones en segundo plano. En este entorno, la CPU pasa de ser un mero anfitrión de las GPU a convertirse en el auténtico director de orquesta.

El lanzamiento llega tras más de tres décadas de dominio de Arm en movilidad (smartphones, tablets, dispositivos conectados) y una presencia creciente en PCs y servidores, con ejemplos como AWS Graviton, Google Axion, Azure Cobalt o las plataformas de Nvidia. Ahora, con Arm AGI CPU, la compañía da el salto directo a los racks de IA con un chip propio, fabricado por TSMC en 3 nm y diseñado desde cero para escalar agentes de IA a gran escala.

Al no limitarse ya a vender solo diseños, Arm se mete de lleno en un mercado dominado por GPU de Nvidia y CPUs x86 de Intel y AMD. La baza con la que juega es su fortaleza histórica: una arquitectura mucho más eficiente en consumo que x86, algo crítico en un escenario donde el gasto eléctrico de los centros de datos se ha disparado y la sostenibilidad es un factor de primera línea.

IA agéntica: por qué ahora la CPU vuelve al centro del escenario

En los últimos años, el relato sobre hardware para IA parecía claro: todo giraba en torno a las GPU. Se hablaba de clústeres gigantescos, de nodos de entrenamiento, de aceleradoras para inferencia masiva… y la CPU quedaba relegada a un papel secundario, casi como un coste obligado para que las GPU pudieran funcionar.

El auge de la IA agéntica está cambiando radicalmente ese guion. En este nuevo modelo, los sistemas de IA ya no se limitan a procesar lotes de datos en modo entrenamiento o a devolver respuestas puntuales. Ahora los agentes encadenan llamadas a herramientas, consultan bases de datos, esperan validaciones humanas, coordinan subagentes, gestionan estados conversacionales largos y toman decisiones de forma sostenida.

En este tipo de flujos, mientras el agente espera resultados de una API, consulta un índice vectorial o orquesta varios modelos, la GPU a menudo permanece asignada pero ociosa. Quien realmente trabaja en esas fases es la CPU, que procesa lógica de negocio, coordina peticiones, mueve datos y gestiona colas de tareas.

Estudios como uno de Georgia Tech e Intel sobre cargas de trabajo representativas de agentes han mostrado que el procesamiento de herramientas en la CPU puede llegar a representar hasta el 90,6 % de la latencia total. Es decir, el cuello de botella de muchas experiencias de IA avanzada ya no está en la GPU, sino en cómo responde y coordina la CPU.

  ¿Qué disco duro es más rápido IDE o SATA?

Datos de producción de empresas como Anyscale refuerzan esta idea: al separar las fases muy intensivas en CPU de las fases dominadas por GPU, lograron reducir hasta ocho veces la necesidad de GPU para la misma carga de trabajo. Al mismo tiempo, fabricantes como computadora de agente de AMD reconocen que la demanda de CPU está superando las previsiones precisamente por el auge de aplicaciones de IA agéntica, e Intel está reasignando capacidad de fabricación desde procesadores de cliente hacia chips para servidores.

Arquitectura interna de Arm AGI CPU: núcleos, memoria y E/S

La base de Arm AGI CPU es un diseño de centro de datos construido sobre núcleos Arm Neoverse V3, la generación de alto rendimiento de la compañía para entornos cloud e IA. El chip puede integrar hasta 136 núcleos por CPU en una configuración de doble chip (dos dies) dentro de un mismo paquete, manteniendo un TDP objetivo de 300 vatios.

Estos núcleos Neoverse V3 están optimizados para ofrecer alto rendimiento por hilo, algo clave en cargas de trabajo donde miles de tareas interactivas se ejecutan en paralelo. A diferencia de muchas CPUs x86, cada núcleo se asocia a un único hilo de ejecución, sin recurrir a SMT (multi-hilo simultáneo). El objetivo es garantizar un comportamiento más determinista y evitar que el rendimiento caiga en situaciones de carga sostenida con muchos procesos activos.

En términos de frecuencia, Arm habla de hasta 3,2 GHz con todos los núcleos activos y picos de hasta 3,7 GHz en modo turbo, manteniendo el equilibrio entre potencia bruta y eficiencia. Cada núcleo dispone de una caché L2 dedicada de 2 MB, lo que ayuda a minimizar los accesos a memoria y mantener baja la latencia en tareas intensivas en control y lógica.

La memoria es uno de los puntos fuertes del diseño. Arm AGI CPU soporta 12 canales de memoria DDR5 a velocidades de hasta DDR5-8800, lo que se traduce en un ancho de banda agregado superior a 800 GB/s. Esto equivale a unos 6 GB/s por núcleo, con un objetivo de latencia inferior a 100 nanosegundos. Además, cada chip puede manejar hasta 6 TB de memoria, lo que lo hace especialmente atractivo para servicios de IA con contextos extensos, bases de datos en memoria o cargas de trabajo que requieren grandes espacios de trabajo.

En cuanto a conectividad, el procesador incluye 96 líneas PCIe Gen6, preparadas para conectar aceleradoras de IA, tarjetas de red de alta velocidad o almacenamiento de última generación. También integra soporte nativo para CXL 3.0, lo que abre la puerta a ampliar memoria, crear pools de memoria compartida entre nodos o desplegar arquitecturas más flexibles para grandes modelos.

Todos estos elementos se combinan en un chip fabricado por TSMC en tecnología de 3 nm, uno de los nodos más avanzados disponibles, que permite alcanzar altos niveles de rendimiento manteniendo un consumo razonable. El conjunto está pensado para ofrecer un rendimiento sostenido, sin grandes caídas bajo carga prolongada, justo lo que piden los centros de datos de IA agéntica.

Diseño a escala de rack: miles de núcleos para IA agéntica

Más allá del propio silicio, Arm ha puesto el foco en cómo se despliega este procesador a gran escala. La compañía ha definido una arquitectura de referencia a nivel de rack para sacar partido a Arm AGI CPU en entornos de alta densidad, tanto con refrigeración por aire como con soluciones líquidas.

El servidor de referencia es un sistema de 1U (1OU) y doble nodo, en el que se montan dos chips Arm AGI CPU, cada uno con su propio conjunto de memoria y E/S. En total, cada blade agrupa 272 núcleos, orientados a ejecutar miles de hilos de agentes y servicios al mismo tiempo con un comportamiento predecible.

En un rack estándar de 36 kW con refrigeración por aire, es posible instalar hasta 30 blades de este tipo, lo que suma un total de 8.160 núcleos. Esta configuración está pensada para centros de datos que quieran maximizar la densidad de computación sin salirse de los límites térmicos habituales de instalaciones ya existentes.

Para escenarios aún más extremos, Arm se ha aliado con Supermicro en una configuración de 200 kW refrigerada por líquido. En este caso, el rack puede alojar hasta 336 Arm AGI CPU, superando los 45.000 núcleos. Este tipo de despliegues está dirigido a “fábricas de IA” o grandes operadores cloud que buscan exprimir al máximo el espacio físico y la potencia contratada.

  ¿Qué pasa si conecto un teclado a un amplificador de guitarra?

Según estimaciones internas de la compañía, en estas configuraciones el Arm AGI CPU puede ofrecer más del doble de rendimiento por rack frente a sistemas x86 de última generación. Este salto se atribuye a la combinación de una arquitectura más eficiente, mejor comportamiento bajo carga sostenida, mayor ancho de banda de memoria por núcleo y un mayor número de hilos realmente aprovechables.

Arm también ha desarrollado el servidor de referencia 1U Dual Node siguiendo el estándar DC-MHS del Open Compute Project (OCP). Su idea no es solo vender chips, sino compartir el diseño del servidor, el firmware, manuales de servidores y tutoriales, marcos de depuración y herramientas de diagnóstico, para impulsar un ecosistema de plataforma abierta donde otros fabricantes y operadores puedan construir sobre esa base.

Un cambio de modelo de negocio para Arm y para la industria

Durante décadas, Arm ha sido conocida por un modelo de negocio muy particular: licenciar su arquitectura e IP a terceros, que luego diseñaban y fabricaban sus propios chips. De este esquema han salido procesadores icónicos de Apple, Qualcomm, Samsung, Nvidia o los ya citados AWS Graviton y Google Axion.

La introducción de Arm AGI CPU supone una evolución de esa estrategia. La empresa no abandona las licencias ni sus Compute Subsystems, pero añade una tercera vía: ofrecer productos de silicio completos, listos para producción, que los clientes puedan comprar y desplegar directamente en sus centros de datos sin pasar por un diseño de chip propio.

Este movimiento tiene implicaciones competitivas importantes. Por un lado, Arm amplía sus fuentes de ingresos y se posiciona en un segmento de alto margen vinculado a la IA. Por otro, entra a competir de forma más directa con algunos de sus propios clientes y socios, como Nvidia, Google, Amazon o fabricantes tradicionales x86, todos ellos con propuestas de CPU orientadas a IA.

La compañía insiste en que se trata de un movimiento aditivo, no sustitutivo: la hoja de ruta de Arm Neoverse CSS sigue adelante y el ecosistema de licencias se mantiene. Sin embargo, a medida que Arm venda sus propios chips a los mismos centros de datos donde ya se despliegan productos como Nvidia Grace, AWS Graviton, Google Axion o Azure Cobalt, habrá que ver cómo se gestiona ese delicado equilibrio.

Desde el punto de vista del mercado, la apuesta es clara: el auge de la IA agéntica, el aumento del número de tokens generados y la necesidad de coordinar más tráfico y más aceleradoras hacen que la demanda de CPU se dispare. Arm calcula que los centros de datos orientados a agentes podrían necesitar más de cuatro veces la capacidad de CPU por gigavatio de potencia instalada respecto a los despliegues actuales, lo que abre una ventana de oportunidad enorme.

Además, Arm vincula este movimiento a su misión histórica de ofrecer alta eficiencia energética y escalabilidad. En una época en la que el coste eléctrico y las restricciones regulatorias empiezan a pesar tanto como el rendimiento bruto, su propuesta de duplicar el rendimiento por rack con el mismo consumo y reducir el CAPEX por gigavatio de capacidad de IA tiene un gancho evidente para hyperscalers y grandes empresas.

Socios, clientes y ecosistema alrededor de Arm AGI CPU

El despliegue de Arm AGI CPU no llega en solitario. Arm ha tejido una red de socios muy amplia que cubre desde grandes plataformas de Internet hasta fabricantes de hardware, proveedores cloud y compañías de memoria y red.

El socio principal es Meta, que ha co-desarrollado el chip y planea desplegarlo junto con sus propios aceleradores MTIA (Meta Training and Inference Accelerator). Según su responsable de infraestructura, el objetivo es mejorar la densidad de rendimiento de sus centros de datos y contar con una hoja de ruta multigeneracional para acompañar la evolución de sus sistemas de IA.

Entre los primeros clientes también están OpenAI, Cloudflare, SAP, Cerebras, F5, Positron, Rebellions y SK Telecom, que utilizarán Arm AGI CPU para distintos casos de uso: desde la orquestación de cargas de trabajo de IA a gran escala hasta la densificación de servicios en la nube, pasando por la gestión de aceleradores, el procesamiento del plano de control o entornos de red y telecomunicaciones.

OpenAI ha destacado que Arm AGI CPU ayudará a reforzar la capa de orquestación que coordina sus cargas de trabajo masivas de IA, mejorando eficiencia, rendimiento y ancho de banda en todo el sistema. Esta descripción encaja con el papel que Arm quiere otorgar a la CPU en la era de la IA agéntica: no solo como procesador generalista, sino como el núcleo que gobierna el flujo de tareas entre GPU, memoria y red.

  ¿Cómo se pone el acento en el teclado del ordenador?

En el lado de los fabricantes de sistemas, Arm colabora con ASRock Rack, Lenovo, Quanta Computer y Supermicro para acelerar la disponibilidad de servidores basados en AGI CPU. Los primeros sistemas ya se pueden solicitar y se espera una disponibilidad más amplia durante la segunda mitad del año, tanto en configuraciones de aire como de refrigeración líquida.

El respaldo del ecosistema se extiende a más de 50 empresas líderes en cloud, silicio, memoria, redes, software y diseño de sistemas. Entre los nombres más destacados figuran AWS, Broadcom, Google, Marvell, Micron, Microsoft Azure, Nvidia, Samsung, SK hynix, TSMC, Oracle Cloud Infrastructure, Red Hat, VMware, Cisco, Arista, Databricks, MongoDB, Hugging Face y muchas otras. Todos ellos ven en Arm AGI CPU una plataforma sobre la que construir nuevas soluciones de infraestructura de IA.

Qué aporta Arm AGI CPU a los centros de datos de IA

Desde un punto de vista práctico, Arm AGI CPU pretende convertirse en la base de los centros de datos diseñados para agentes de IA, aportando una combinación de rendimiento, escalabilidad y eficiencia difícil de alcanzar con arquitecturas x86 tradicionales.

En rendimiento, el procesador ofrece hasta 136 núcleos Neoverse V3 por chip, alto rendimiento por hilo y un ancho de banda de memoria sobresaliente. Esto se traduce en más capacidad para gestionar miles de tareas simultáneas, coordinar llamadas a modelos, procesar herramientas, mover datos entre nodos y mantener ocupadas las GPU sin que el plano de control se convierta en un cuello de botella.

En escalabilidad, el diseño de 300 W de TDP con un núcleo dedicado por hilo permite mantener un rendimiento predecible bajo carga sostenida. No hay hilos “fantasma” que compitan por los mismos recursos del núcleo, ni degradación brusca cuando se disparan las colas de trabajo. Arm pone el foco en el rendimiento determinista por tarea, algo muy valorado en servicios interactivos masivos.

En eficiencia, las configuraciones de referencia de Arm permiten montar miles de núcleos por rack en infraestructuras de aire y decenas de miles en infraestructuras líquidas. En sus estimaciones internas, Arm habla de más de 2x de rendimiento por rack frente a CPUs x86 y de un potencial ahorro de hasta 10.000 millones de dólares en CAPEX por gigavatio de capacidad de centro de datos de IA, combinando ahorro energético y mayor densidad de computación.

Además, al estar integrado en un ecosistema abierto que incluye diseños de referencia, firmware compartido, herramientas de depuración y una amplia red de socios de hardware y software, Arm AGI CPU pretende facilitar la adopción de servidores basados en Arm por parte de operadores que hasta ahora trabajaban mayoritariamente con x86.

Este procesador no está pensado para el usuario final ni para llegar a móviles u ordenadores personales, pero su impacto se notará en el día a día. Una infraestructura más eficiente permitirá servicios de IA más rápidos y económicos: chatbots con menos latencia, traducciones casi instantáneas, sistemas de recomendación más precisos y aplicaciones capaces de anticiparse mejor a las necesidades del usuario gracias a agentes que operan de manera continua.

La llegada de Arm AGI CPU abre una etapa en la que las CPU vuelven a ocupar un lugar protagonista en la IA, ya no solo como soporte de las GPU, sino como el motor que mantiene en marcha una red creciente de agentes inteligentes que operan sin descanso en los centros de datos de todo el mundo.

El conjunto de decisiones técnicas, el foco en la IA agéntica, la alianza con grandes actores como Meta y OpenAI y el respaldo masivo del ecosistema indican que Arm no se ha limitado a sacar “otro chip más”, sino que aspira a definir cómo se construye la infraestructura de IA nativa a gran escala en los próximos años, llevando su filosofía de alto rendimiento y bajo consumo desde el móvil que llevamos en el bolsillo hasta las “fábricas de inteligencia” que sostendrán la próxima ola de servicios digitales.

cibercriminal manipula chatbot
Artículo relacionado:
Cómo un cibercriminal puede manipular un chatbot de IA