Qué son las ACE (AI Compute Extensions) y por qué importan

Última actualización: mayo 4, 2026
Autor: Isaac
  • ACE en x86 son extensiones de computación de IA conjuntas de AMD e Intel para unificar y acelerar el cálculo matricial en CPUs.
  • Estas extensiones se integran con AVX10, soportan formatos como INT8 y FP8 y ofrecen hasta 16x más densidad de cómputo para IA.
  • El estándar ACE cuenta con el apoyo del x86 Ecosystem Advisory Group y grandes actores cloud, facilitando la adopción en Windows y Linux.
  • NVIDIA ACE es distinto: una suite de modelos y herramientas de IA para crear personajes de juego más realistas, con voz, animación e inteligencia avanzadas.

Extensiones ACE para computo de IA

Si te interesa la inteligencia artificial y el hardware de PC, seguramente ya te suene que AMD e Intel han decidido unir fuerzas en torno a la IA, impulsadas por iniciativas como AMD Ryzen AI 400. Lo que quizá no tengas tan claro es qué son exactamente las ACE (AI Compute Extensions), qué resuelven y por qué están levantando tanta expectación dentro del ecosistema x86. Además, el término ACE también aparece ligado a NVIDIA y a su plataforma para personajes de videojuegos, así que es normal que haya cierta confusión.

A lo largo de este artículo vamos a desgranar con calma qué son las AI Compute Extensions para x86, por qué suponen un antes y un después en la forma de ejecutar modelos de IA sobre CPUs AMD e Intel, cómo encajan dentro de la estrategia del «x86 Ecosystem Advisory Group» y, de paso, aclararemos en qué se diferencia todo esto de NVIDIA ACE orientado a videojuegos, que es un concepto completamente distinto aunque comparta siglas.

Qué son las ACE (AI Compute Extensions) en la arquitectura x86

Cuando hablamos de ACE en el contexto de AMD e Intel, nos referimos a AI Compute Extensions para la ISA x86, es decir, a un conjunto de nuevas instrucciones y capacidades de hardware diseñadas para acelerar de forma nativa las operaciones de IA directamente en la CPU. No es un chip aparte, ni una tarjeta dedicada, sino una evolución del propio conjunto de instrucciones x86 que utilizan los procesadores de sobremesa, portátiles y servidores, siempre que el ecosistema de chiplets y conexiones como UCIE lo permita.

Tradicionalmente, cada fabricante había seguido su propio camino: Intel apostó por AMX (Advanced Matrix Extensions) y otras extensiones ligadas a AVX, mientras que AMD integraba sus propios mecanismos de cálculo matricial dentro de las unidades de ejecución de arquitecturas como Zen. El resultado de esta disparidad es que el ecosistema se fragmentaba: el código optimizado para un lado no siempre funcionaba igual de bien en el otro, y los desarrolladores tenían que dedicar tiempo a ajustes específicos de cada marca.

Las ACE nacen justo para atacar ese problema. AMD e Intel han creado una arquitectura estándar de aceleración de matrices que pretende convertirse en el «lenguaje común» de la IA dentro de x86. Ambas compañías, bajo el paraguas del x86 Ecosystem Advisory Group (EAG), han publicado un whitepaper conjunto donde describen la propuesta de ACE como la «Standard Matrix Acceleration Architecture for x86», es decir, la referencia unificada para acelerar operaciones de matrices en esta plataforma.

En esa documentación se indica que ACE se construye como una extensión integrada con AVX10, aprovechando las optimizaciones previas de este conjunto de instrucciones vectoriales, pero añadiendo bloques específicos para IA que ofrecen una mejora brutal de densidad de cálculo: hasta 16 veces más rendimiento en operaciones de multiplicación-acumulación de matrices frente a su equivalente en AVX10, manteniendo el mismo número de vectores de entrada.

Arquitectura ACE para x86

Objetivos técnicos de las AI Compute Extensions

La meta central de ACE es ofrecer una base técnica común para acelerar modelos de IA directamente en procesadores x86, desde portátiles hasta superordenadores, incluso en equipos compactos como el miniPC para IA AMD Ryzen AI. Para ello, la alianza entre AMD e Intel se ha marcado varios objetivos muy claros que afectan tanto al hardware como al software.

En primer lugar, ACE se centra en la unificación de las extensiones ISA dedicadas al cálculo matricial. Esto significa que las instrucciones de matrices, tan críticas en redes neuronales y modelos de lenguaje extenso (LLM), se comportarán de manera consistente en procesadores Intel Core / Xeon y en AMD Ryzen / EPYC. Para los programadores, esto se traduce en poder escribir una vez el código optimizado y esperar un rendimiento coherente en ambas plataformas sin tener que hacer versiones separadas.

Otro pilar clave tiene que ver con la optimización de la jerarquía de caché y del ancho de banda de memoria. Los modelos de IA, especialmente los LLM y la inferencia generativa, son auténticos devoradores de datos. Si las unidades de aceleración matricial no reciben datos a la velocidad necesaria, se quedan paradas. Con ACE, el diseño de la arquitectura contempla cómo alimentar de forma más eficiente esos motores de IA para reducir cuellos de botella, algo que se vuelve especialmente importante en portátiles y servidores donde el rendimiento por vatio es crítico, y en soluciones de almacenamiento como SSD PCIe 6.0 para IA.

Además, ACE introduce una forma específica de acelerar el cálculo basada en la operación de producto exterior. Frente al esquema tradicional de multiplicación de matrices implementado sobre AVX10, este enfoque permite reorganizar el trabajo interno de forma que, con el mismo número de vectores de entrada, se multiplican hasta por 16 las operaciones de cómputo efectivo, elevando de manera notable la densidad de cálculo disponible por ciclo.

Los objetivos técnicos de ACE también se apoyan en el desarrollo de un ecosistema software sólido. AMD e Intel han dejado claro que la idea es acompañar a la arquitectura con bibliotecas de software de código abierto que permitan a los marcos de IA más utilizados (PyTorch, TensorFlow, NumPy, SciPy y librerías de Deep Learning / HPC especializadas en GEMM de baja precisión y primitivas de LLM) utilizar de forma transparente estas nuevas capacidades de aceleración x86.

Por último, la arquitectura ACE también tiene en cuenta la reducción de la latencia entre la CPU y los núcleos dedicados de IA, como las NPU integradas en algunos SoC modernos. La idea es que, al tener un estándar común de aceleración matricial en la CPU, la coordinación con NPUs o GPUs cercanas sea más eficiente, disminuyendo el coste de mover datos y mejorando el consumo energético en dispositivos móviles y equipos finos y ligeros.

  DirectX 13 en el gaming: avances, impacto y compatibilidad

Ecosistema x86 y ACE

ACE dentro de la estrategia unificada del ecosistema x86

Las AI Compute Extensions no aparecen de la nada. Se enmarcan dentro de una estrategia más amplia para reforzar el ecosistema x86 en plena era de la IA generativa, donde arquitecturas alternativas como ARM y la proliferación de aceleradores propietarios (GPUs, ASICs, NPUs discretas) amenazan con restarle protagonismo a la CPU tradicional, incluidos desarrollos en chips como Tesla AI5 y AI6.

En este contexto, AMD e Intel constituyeron el llamado x86 Ecosystem Advisory Group (EAG), un grupo de trabajo cuyo objetivo es coordinar el futuro de la arquitectura x86 con la participación de grandes actores del sector. A través de este foro se definieron una serie de características que se querían estandarizar para garantizar compatibilidad y escalabilidad a largo plazo: FRED, AVX10, ChkTag y, cómo no, ACE.

Según el whitepaper oficial, con las aportaciones del EAG, ambas compañías han alineado y refinado la ISA de ACE para ofrecer prestaciones estandarizadas de aceleración matricial en todo el ecosistema x86. Cada fabricante ha puesto encima de la mesa ideas y propuestas, que se han fusionado en una arquitectura conjunta que pretende ser útil en todo tipo de cargas de trabajo, especialmente IA, pero también otros ámbitos que utilicen cálculo matricial intensivo.

El EAG no solo está formado por AMD e Intel: en la hoja de ruta de ACE y AVX10 participan miembros como Microsoft, Google o Meta, que han mostrado su respaldo a este estándar para garantizar compatibilidad en entornos cloud y empresariales. El mensaje es claro: los grandes proveedores de infraestructura se comprometen a soportar estas extensiones en sus pilas de software, lo que favorece una adopción rápida por parte de los desarrolladores.

Esta alineación también tiene una lectura estratégica. La propia industria ha reconocido que, sin un movimiento así, x86 corría el riesgo de perder relevancia frente a soluciones ARM o frente a ecosistemas fuertemente integrados como el de NVIDIA. De hecho, el propio CEO de NVIDIA ha señalado públicamente que era lógico que AMD e Intel trabajasen juntos si quieren que x86 siga siendo competitivo en un mundo dominado por la IA.

Especificaciones técnicas clave de ACE para IA

Más allá del discurso de alto nivel, ACE incluye elementos técnicos muy concretos que son los que realmente marcan la diferencia cuando toca ejecutar modelos de IA reales. Uno de los aspectos más relevantes es el soporte nativo de formatos de datos específicos para IA, que permiten equilibrar precisión y rendimiento.

La propuesta de ACE contempla compatibilidad directa con tipos de datos como INT8, OCP FP8, OCP MXFP8, OCP MXINT8 y BF16. Estos formatos, impulsados en gran medida por iniciativas de estandarización dentro del sector, están pensados para ofrecer la precisión suficiente en tareas de entrenamiento e inferencia, pero consumiendo mucha menos memoria y ancho de banda que la FP32 clásica.

Al soportar estos formatos de forma nativa en la ISA, ACE puede maximizar el rendimiento en operaciones de multiplicación de matrices (el núcleo de casi todas las redes neuronales modernas y LLM) sin necesidad de recurrir siempre a aceleradores externos. Esto se traduce en una mejora sustancial no solo de velocidad, sino también de eficiencia energética, ya que se reduce la cantidad de datos que deben moverse y procesarse.

Otra pieza técnica destacable es la ya mencionada operación de producto exterior como base de la aceleración matricial. Frente al patrón tradicional de multiplicación de matrices sobre instrucciones SIMD, el uso de producto exterior permite reestructurar cómo se acumula el resultado, mejorando la reutilización de datos en registros internos y logrando una densidad de cálculo hasta 16 veces superior a una operación equivalente sobre AVX10 convencional.

Esta ganancia de densidad no llega sola: se integra de forma transparente con AVX10, de manera que los compiladores y librerías pueden reutilizar optimizaciones previas para vectores y SIMD y, al mismo tiempo, sacar partido a la nueva capa de aceleración específica de IA. Ese «encaje limpio» con AVX10 es una de las claves que hacen que ACE tenga potencial para convertirse en una pieza ubicua del ecosistema x86.

Impacto de ACE en el software de IA y en los desarrolladores

Para que todas estas mejoras de hardware sirvan de algo, es imprescindible que el software pueda aprovecharlas sin convertirse en un infierno de mantenimiento. Justo aquí es donde ACE pretende brillar, ofreciendo un objetivo de programación unificado para todos los desarrolladores que trabajan con IA sobre x86; para ello es útil saber cómo medir el rendimiento de la CPU y comprobar que las optimizaciones efectivamente benefician al flujo de trabajo.

Al integrarse como extensión de AVX10 y definirse como estándar compartido por AMD e Intel, ACE se convierte en un punto común para bibliotecas de bajo nivel y frameworks de alto nivel. Las empresas han anunciado que ya se está trabajando en la integración de ACE en librerías de Deep Learning y HPC, con especial foco en:

  • GEMMs de baja precisión (operaciones de multiplicación de matrices generalizadas), fundamentales para acelerar redes neuronales densas.
  • Primitivas específicas para LLM, como atenciones, proyecciones y capas de feed-forward optimizadas.
  • Bibliotecas muy utilizadas en ciencia de datos y computación científica como NumPy y SciPy, que podrán aprovechar estas extensiones de forma progresiva.
  • Frameworks de IA como PyTorch y TensorFlow, que integrarán rutas de ejecución capaces de detectar ACE y utilizarla cuando esté disponible.

Para el desarrollador, esto significa que su código puede escalar desde un portátil hasta un superordenador aprovechando las mismas abstracciones, sin preocuparse de si está sobre un procesador AMD o Intel. La fricción se reduce drásticamente en comparación con modelos donde parte del cálculo se deriva obligatoriamente a GPUs o a aceleradores propietarios con APIs diferentes.

Otro efecto colateral importante es que, al haber una ruta de aceleración estándar en CPU, resulta más sencillo combinar IA en CPU, GPU y NPU según el tipo de carga, equilibrando latencias y consumo. En determinados escenarios de inferencia en tiempo real, puede resultar preferible mantener parte del modelo en la CPU con ACE para evitar los costes de ida y vuelta de datos hacia un dispositivo externo.

  Clipchamp para Windows 11: Instala Ahora y Edita Videos desde tu PC.

Rendimiento, eficiencia energética y despliegue de ACE

Uno de los mensajes que más repiten AMD e Intel en torno a ACE es la mejora en densidad de cómputo y eficiencia energética. Al integrar directamente en la CPU operaciones de IA específicas, se reduce la necesidad de enviar grandes volúmenes de datos a chips externos, lo que recorta la latencia y el consumo asociado al movimiento de información.

En comparación con AVX10 puro, el whitepaper indica que ACE puede ofrecer hasta 16 veces más operaciones de matriz por unidad de entrada. Esto no solo incrementa el rendimiento bruto, sino que, al aprovechar mejor los datos que ya residen en cachés y registros, también significa menos accesos a memoria principal y, por tanto, menos energía gastada.

La hoja de ruta presentada por AMD e Intel sitúa la integración de ACE en sus próximas generaciones de procesadores a partir de finales de 2026 y principios de 2027. En el caso de Intel, se espera que estas extensiones aparezcan en futuras familias de Xeon y Core Ultra, mientras que AMD planea incorporarlas a sus líneas EPYC y Ryzen de nueva hornada, incluyendo modelos orientados a IA como AMD Ryzen AI 9 HX 470.

El hecho de que el x86 Ecosystem Advisory Board, con gigantes como Microsoft, Google y Meta, haya dado su apoyo a ACE, es una señal clara de que veremos adopción rápida en centros de datos y servicios cloud. Si los grandes proveedores incorporan soporte para ACE en sus hipervisores, compiladores y librerías, y en aceleradores cloud como Qualcomm Cloud AI 100 Ultra, los desarrolladores que despliegan en la nube podrán empezar a beneficiarse de estas extensiones en cuanto los procesadores con ACE lleguen al mercado.

A nivel de usuario final, todo esto se traduce en que los PCs de próxima generación podrán manejar tareas de IA local con mayor fluidez, algo muy ligado a conceptos como los Copilot+ PC y otras soluciones que ejecutan modelos generativos directamente en el dispositivo. La estandarización de la aceleración matricial en x86 ayuda a que esta experiencia sea consistente independientemente de que el equipo monte un procesador de AMD o de Intel.

El papel de ACE frente a ARM y aceleradores propietarios

La aparición de ACE no puede entenderse sin tener en cuenta la presión competitiva de ARM y de los aceleradores de IA propietarios. En los últimos años, hemos visto cómo arquitecturas basadas en ARM han ganado presencia tanto en móviles como en portátiles y servidores, mientras que fabricantes como NVIDIA empujan con fuerza soluciones donde la GPU es el centro de todo el cómputo de IA, y las mejoras en la PCIe de alta velocidad influyen en cómo se mueven grandes volúmenes de datos entre dispositivos.

En este escenario, la arquitectura x86 corría el riesgo de ir quedándose atrás si cada fabricante seguía su propio camino. Con ACE, AMD e Intel buscan presentar un frente común, ofreciendo una plataforma coherente y estándar para ejecutar IA que pueda competir en rendimiento por vatio y escalabilidad con las alternativas existentes.

La estandarización de instrucciones de IA a nivel de CPU también reduce la dependencia de aceleradores externos muy específicos. Aunque las GPUs seguirán siendo clave para entrenamiento masivo y modelos gigantescos, muchas tareas de inferencia, herramientas de productividad y aplicaciones de escritorio podrán funcionar de manera muy eficiente sobre CPU, sin necesidad de contar con hardware extra.

Al mismo tiempo, ACE no se plantea como un sustituto total de las GPUs o de otros aceleradores, sino como una forma de simplificar el desarrollo en un mundo heterogéneo. Los programadores pueden considerar ACE como la base común en la CPU, y encima de ella decidir si derivan partes concretas del workload a GPU, NPU u otros dispositivos cuando tenga sentido por coste o rendimiento.

Qué es NVIDIA ACE y por qué no hay que confundirlo con las AI Compute Extensions

Para complicar un poco las cosas, el término ACE también aparece muy ligado a NVIDIA, pero con un significado completamente distinto. Mientras que las AI Compute Extensions de AMD e Intel son una ampliación de la ISA x86, NVIDIA ACE es un conjunto de tecnologías y modelos de IA orientados a videojuegos, pensado para que los desarrolladores creen personajes más realistas e interactivos.

NVIDIA define su ACE (a menudo referido como «NVIDIA ACE para juegos») como una suite de modelos y herramientas que abarcan varias áreas: animación facial, comprensión de voz, generación de voz y razonamiento de personajes. El objetivo es que los NPC y asistentes dentro de los juegos se comporten de manera más humana, puedan mantener conversaciones naturales con el jugador y reaccionen a su tono de voz, expresiones y decisiones.

Para integrar esta plataforma en los juegos, NVIDIA ofrece el SDK NVIGI (NVIDIA In-Game Inferencing), que proporciona una ruta optimizada para ejecutar modelos de IA de forma local dentro del propio juego o aplicación, utilizando C++ y CUDA en la GPU del usuario. NVIGI soporta diferentes backends de inferencia y está pensado para sacar partido de todo el hardware disponible (GPU, NPU, CPU) en el sistema, aunque muchos de los modelos más avanzados están claramente optimizados para GPUs NVIDIA.

Componentes de NVIDIA ACE: animación, inteligencia y diálogo

El ecosistema ACE de NVIDIA se estructura en tres grandes bloques funcionales: animación, inteligencia y diálogo. Cada uno de ellos incluye modelos preentrenados y herramientas que los estudios pueden integrar en sus motores de juego para añadir capas de realismo sin tener que reinventar la rueda.

En el apartado de animación, una de las tecnologías estrella es Audio2Face. Este sistema utiliza IA para convertir directamente el audio en expresiones faciales sincronizadas, incluyendo el movimiento de labios y gestos asociados a emociones. Si el jugador grita o habla con un tono enfadado, el avatar puede mostrar una cara airada o tensa, generando una sensación mucho más natural.

En la rama de inteligencia, NVIDIA ACE recurre a varios modelos de lenguaje y visión. Por ejemplo, Nemotron Nano 9B está orientado a ofrecer mayor precisión en el razonamiento, mejorando la calidad de las respuestas de los personajes. Los modelos Qwen3 aportan capacidades de razonamiento, seguimiento de instrucciones y soporte multilingüe. Mistral-Nemo-Minitron se enfoca en funciones de rol y llamadas a funciones, mientras que Nemovision-4B combina comprensión visual y acciones en pantalla para que los personajes reaccionen mejor a lo que sucede en el entorno.

  Mfplat dll falta o no se encontro en windows 10

En cuanto al diálogo, NVIDIA ACE integra componentes como Riva ASR y Riva TTS. Riva ASR se encarga de tomar la voz del jugador, captada por el micrófono, y transformarla en texto que los modelos puedan comprender. Riva TTS hace el proceso inverso: genera voces sintéticas naturales y expresivas en múltiples idiomas a partir de texto, permitiendo que los NPC hablen de forma creíble en tiempo real.

Según NVIDIA, los beneficios de ACE para los desarrolladores de juegos se resumen en varias ventajas: modelos relativamente compactos que no exigen hardware descomunal, optimización para aprovechar al máximo la GPU disponible con baja latencia y bajo uso de VRAM, y soporte de inferencia para distintos backends que facilita manejar cargas complejas.

Ejemplos de uso de NVIDIA ACE en videojuegos y aplicaciones

Para demostrar las capacidades de su plataforma, NVIDIA ha colaborado con diversos estudios y proveedores de software, dando lugar a experiencias prácticas donde NPCs y asistentes IA cobran un papel protagonista. Algunos ejemplos ilustran bastante bien hacia dónde va esta tecnología.

En Total War: Pharaoh se ha mostrado un asesor basado en IA integrado en el juego, capaz de analizar las partidas y ofrecer consejos sobre mecánicas, errores frecuentes o estrategias. La idea es que el usuario tenga un asistente experto dentro del propio título, sin tener que salir al navegador a buscar guías.

En PUBG, KRAFTON ha implementado los llamados CPC (Co-Player Characters), compañeros controlados por IA que se comunican mediante lenguaje natural y actúan como si fueran compañeros humanos. Estos aliados son capaces de coordinarse, seguir órdenes y adaptarse a la situación del combate, aprovechando las capacidades conversacionales y de razonamiento de los modelos de ACE.

Otro ejemplo llamativo lo encontramos en MIR5, donde algunos jefes (bosses) se apoyan en ACE para aprender del estilo de juego del usuario y ajustar sus patrones de ataque, haciendo los enfrentamientos más dinámicos y menos predecibles. En inZOI, los llamados Smart Zois son agentes controlados por IA que planifican, actúan y reflexionan sobre sus decisiones, lo que genera interacciones sociales emergentes dentro del mundo virtual.

Dead Meat, por su parte, es un juego centrado en el interrogatorio, en el que el jugador puede preguntar prácticamente cualquier cosa al sospechoso utilizando su propio lenguaje. El personaje, alimentado por los modelos conversacionales de NVIDIA ACE, responde de acuerdo con el contexto del caso, aumentando la sensación de estar hablando con una persona real.

Fuera de los juegos puros, hay ejemplos como el asistente de streaming impulsado por Streamlabs e Inworld AI, que actúa como productor, ayudante técnico y acompañante 3D para creadores de contenido, todo ello apoyado en los modelos y herramientas de NVIDIA ACE para voz, lenguaje y animación.

Limitaciones, adopción actual y futuro de NVIDIA ACE

A pesar de lo espectacular del concepto, la adopción de NVIDIA ACE en el mercado todavía es relativamente limitada. Entre los títulos que ya han anunciado integración o pruebas con estas tecnologías se encuentran PUBG, Naraka: BladePoint, inZOI, MIR5, Dead Meat, AI People, ZooPunk, Alien: Rogue Incursion, World of Jade Dynasty, Black Vultures: Prey of Greed y Fate Trigger. Son proyectos interesantes, pero aún lejos del catálogo masivo de superventas que muchos jugadores tienen en mente.

Las razones son variadas. Por un lado, algunos estudios consideran que inyectar IA generativa en todos los aspectos de un juego puede chocar con la visión artística o narrativa clásica, donde el contenido está cuidadosamente escrito y controlado. Por otro, muchas de estas soluciones están pensadas para aprovechar núcleos de IA dedicados o GPUs relativamente modernas, lo que podría dejar fuera a parte importante de la base de jugadores con hardware más modesto, como quienes siguen utilizando GPUs equivalentes a una RTX 3060 o una RX 6600 XT.

También hay inquietudes sobre el impacto en la experiencia multijugador: la presencia de compañeros controlados por IA con demasiado protagonismo puede generar situaciones frustrantes, como que el aliado de otro jugador acabe siendo más determinante que las personas reales. Además, algunos análisis han señalado que ciertas funciones, como el asesor de Total War, todavía necesitan más pulido para resultar verdaderamente útiles y consistentes.

Desde el punto de vista del desarrollo, integrar ACE no es un paseo. Tal y como explicaba Christian Guyton en una entrevista con un responsable de NVIDIA, en algunos casos puede suponer más trabajo implementar un NPC con ACE que programar un personaje convencional, especialmente si se busca un comportamiento controlado, seguro y coherente con la historia del juego. El equilibrio entre flexibilidad de la IA y control creativo sigue siendo un reto.

Aun así, muchos en la industria ven en estas tecnologías un adelanto de lo que vendrá en los próximos años. La IA generativa ya se utiliza en multitud de tareas de desarrollo (texturas, animaciones, assets 3D, etc.), y compañías como NVIDIA y Google están explorando cómo generar mundos 3D casi por completo mediante IA. En ese contexto, ACE se perfila como una de las piezas que podría transformar cómo hablamos, cooperamos y competimos con personajes dentro de los juegos.

En conjunto, el término ACE está empezando a convertirse en sinónimo de IA avanzada aplicada tanto al hardware como a la experiencia interactiva: por un lado, con las AI Compute Extensions que unifican y aceleran el cálculo matricial en CPUs x86 de AMD e Intel; por otro, con la plataforma de NVIDIA para dotar de voz, inteligencia y emociones a los personajes de videojuegos. Entender bien ambas vertientes ayuda a ver hacia dónde se mueve el sector: procesadores más capaces de ejecutar IA localmente, estándares compartidos que facilitan el trabajo a los desarrolladores y experiencias de usuario mucho más ricas, donde la interacción con máquinas será cada vez menos rígida y más cercana a una conversación humana.

mini pc con procesadores amd ryzen ai 400 strix halo
Related article:
Mini PC con AMD Ryzen AI 400 Strix Halo: potencia e IA en formato compacto