- La caché de nivel 0 es una microcaché diminuta y ultrarrápida situada en el corazón del núcleo de la CPU.
- Forma parte de una jerarquía de memoria (L0, L1, L2, L3, L4, RAM y disco) que reduce drásticamente la latencia de acceso a datos.
- Su función es adelantar instrucciones y datos críticos para aumentar la tasa de aciertos de caché y evitar esperas en la CPU.
- Aunque la cantidad de caché importa, su impacto depende de la arquitectura y del tipo de carga de trabajo, sobre todo en juegos y tareas sensibles a memoria.

Si has trasteado alguna vez con especificaciones de procesadores, seguro que te suenan términos como caché L0, L1, L2 o L3, pero no siempre está claro qué significan ni para qué sirven en el día a día. Y, sin embargo, son clave para entender por qué dos CPUs con la misma frecuencia pueden rendir de forma tan distinta.
En este artículo vamos a desgranar de forma sencilla, pero con bastante detalle, para qué sirve la caché de nivel 0 (L0) y cómo encaja en toda la jerarquía de memoria de un ordenador: desde el disco duro hasta la RAM y los distintos niveles de caché de la CPU y la GPU. Verás qué impacto real tiene en el rendimiento, qué pasa cuando falla la caché, cómo influye al comprar un procesador y por qué no deberías obsesionarte solo con este dato.
Qué es la memoria caché y dónde encaja la caché de nivel 0
En informática llamamos memoria caché a un espacio de almacenamiento extremadamente rápido que guarda datos usados recientemente, con el objetivo de tenerlos “a mano” cuando vuelvan a hacer falta. La idea es simple: si algo se usa mucho, es mejor tenerlo en una memoria muy rápida que volver a cargarlo constantemente desde una memoria lenta.
La caché actúa como un intermediario entre memorias más lentas y el componente que procesa la información. En una CPU, la caché se coloca entre los núcleos de procesamiento y la memoria RAM; en un disco duro, entre el plato o las celdas de memoria y el bus de datos; en una API web, entre el servicio principal y las peticiones de los usuarios.
Cuando hablamos de procesadores, la memoria caché se organiza en niveles: L0, L1, L2, L3 e incluso L4 en algunos diseños. Cada nivel tiene una capacidad, velocidad y cercanía al núcleo distintas, y esos tres factores determinan cuánto puede ayudar al rendimiento.
La denominada caché de nivel 0 (L0) es un microcaché de capacidad muy reducida, de apenas unos pocos bytes, que se sitúa en la parte más interna del flujo de datos de la CPU. Su función es servir de almacén ultrarrápido para datos o instrucciones que se van a usar de forma inminente, aislándolos y poniéndolos literalmente “en la puerta” del núcleo.
Jerarquía de memoria en un PC: del disco duro a la caché L0
Para entender de verdad qué hace la caché de nivel 0, conviene ver el conjunto de la memoria en un ordenador como una escalera de niveles, desde el más lento y grande al más rápido y pequeño.
En la parte inferior tenemos el almacenamiento primario: los discos duros mecánicos (HDD) y las unidades de estado sólido (SSD). Un HDD típico ronda los 150 MB/s, mientras que los SSD NVMe modernos pueden superar los 3.500 MB/s. Son memorias no volátiles: los datos permanecen aunque apagues el equipo.
Por encima está la memoria RAM (DRAM), una memoria volátil mucho más rápida, con anchos de banda que superan fácilmente los 30.000 MB/s en DDR4 y bastante más en DDR5. La RAM actúa como pasarela entre el disco y la CPU, guardando sólo lo que está activo en ese momento (sistema operativo, programas, datos en uso).
El siguiente peldaño es la memoria caché de la CPU, de tipo SRAM, mucho más cara y rápida que la DRAM. Aquí es donde entran en juego los niveles L0, L1, L2, L3 y, en algunos casos, L4. Esta SRAM puede alcanzar centenares de GB/s de ancho de banda y latencias de menos de 1 nanosegundo en los niveles más altos.
La caché L0 se sitúa justo en la parte más alta de esta pirámide, como pre‑caché o micro‑caché previa a L1. Su tamaño es minúsculo comparado con el resto, pero su latencia es extremadamente baja y está pegada a las unidades de ejecución del núcleo.
Memoria caché de la CPU: concepto general y diferencias con la RAM
La memoria caché de la CPU es una memoria integrada directamente en el chip del procesador, separada de la RAM del sistema, que se monta en la placa base. Ambas son volátiles, pero su función y diseño son muy distintos.
La RAM está pensada para almacenar grandes cantidades de datos de todo tipo: programas, bibliotecas, archivos en uso, buffers de vídeo, etc. No está tan cerca de los núcleos, se accede a ella mediante el bus de memoria y su latencia es mucho mayor. Aun así, es muchísimo más rápida que el disco.
La caché de la CPU, en cambio, está diseñada para gestionar las instrucciones y datos que el procesador está usando “ahora mismo”. Aunque su capacidad se mide en kilobytes o unos pocos megabytes, su velocidad supera ampliamente a la RAM. De hecho, se habla de que la caché puede ser decenas o hasta cien veces más rápida que una RAM estándar en términos de latencia.
El tamaño de la caché es pequeño porque fabricar SRAM dentro del chip es caro y ocupa mucho espacio de silicio. Por eso tiene sentido reservarla sólo para la información que se utiliza con más frecuencia o que se va a necesitar en breve, dejando el resto en la RAM.
Por encima de la caché y la RAM se encuentran el almacenamiento permanente y otros tipos de memoria especializados, como la VRAM de la GPU, que también cuentan con sus propios subsistemas de caché adaptados a necesidades concretas (por ejemplo, renderizar gráficos a gran velocidad).
Caché L0, L1, L2, L3 y L4: cómo se organiza la jerarquía
Dentro de la CPU, la caché no es un bloque único, sino un conjunto organizado en niveles jerárquicos, cada uno con características distintas:
- Caché L0: microcaché de nivel 0, muy pequeña (unos pocos bytes), integradísima en la ruta de datos del núcleo, con la latencia más baja de todas. Suele dedicarse a instrucciones o datos que van a ejecutarse de inmediato.
- Caché L1: nivel principal de caché de cada núcleo, con capacidades típicas de 32 a 64 KB por núcleo para instrucciones y otros tantos para datos. Es la más rápida y cercana (latencias de alrededor de 0,7-1 ns, velocidades superiores a 1.000 GB/s en pruebas sintéticas).
- Caché L2: nivel intermedio, algo más alejado y con mayor capacidad, que puede ir desde 256 KB hasta varios MB por núcleo. Su latencia ronda 2-3 ns y sigue siendo muy rápida, con cientos de GB/s de ancho de banda.
- Caché L3: nivel compartido entre varios núcleos, con tamaños que hoy en día van desde 4 MB en CPUs modestas hasta más de 96 MB en modelos de gama alta. Es más lenta que L1 y L2 (aprox. 10 ns de latencia), pero muchísimo más rápida que la RAM.
- Caché L4: un nivel adicional poco frecuente, normalmente usado como buffer de gran capacidad para GPUs integradas o para reducir la dependencia de la RAM en algunos diseños. Suele estar en un encapsulado separado pero cercano al procesador.
La forma de trabajar es siempre la misma: la CPU busca primero en el nivel de caché más cercano. Si encuentra lo que necesita en L0 o L1, el acceso es ultrarrápido. Si falla, prueba en L2, luego en L3 y, si sigue sin estar, tendrá que ir a la RAM.
Cada vez que encuentra los datos necesarios en alguna de estas cachés se produce un “acierto de caché” (cache hit). Cuando no los encuentra, hablamos de un “fallo de caché” (cache miss). A mayor porcentaje de aciertos, mejor rendimiento global, porque el procesador pierde menos tiempo esperando datos.
Qué hace exactamente la caché de nivel 0 (L0)
La caché de nivel 0, cuando existe como tal en una arquitectura concreta, se puede considerar un mini‑almacén hiperlocal dentro del propio núcleo. Suele estar asociada a partes muy específicas del pipeline: por ejemplo, a la unidad de predicción de saltos o a la etapa de decodificación de instrucciones.
Su propósito es aislar y poner a disposición inmediata un conjunto ridículo de datos o instrucciones que se van a usar en cuestión de ciclos de reloj. Es tan pequeña que hablamos de unos pocos bytes por núcleo, pero su latencia es tan baja que prácticamente funciona como si las instrucciones ya estuvieran “enganchadas” a las unidades de ejecución.
Podemos verlo como un «buffer de anticipación»: el procesador, a partir de lo que está ejecutando, predice cuáles son los siguientes datos o instrucciones que va a necesitar y los trae desde L1 o L2 hasta L0 para que, cuando llegue el momento, estén allí listos para ser usados.
Gracias a este enfoque, la caché L0 ayuda a reducir aún más la latencia efectiva en operaciones muy frecuentes o críticas, como bucles ajustados, ramas de código que se repiten una y otra vez o instrucciones de control.
No todos los fabricantes documentan la caché L0 como un nivel separado (muchas veces se integra conceptualmente dentro de la L1 o de los buffers internos), pero la idea de una capa de micro‑caché ultrarrápida en la parte más profunda del núcleo es común en las arquitecturas modernas de alto rendimiento.
Cómo funciona el proceso de “almacenamiento en caché”
El almacenamiento en caché, o caching, es el mecanismo mediante el cual la CPU decide qué datos e instrucciones se guardan en la memoria caché y cuáles se expulsan cuando ya no hay espacio.
En la práctica, el procesador va observando qué datos se están usando de forma recurrente. Cada vez que accede a un dato que está en niveles más bajos (L3 o RAM), guarda una copia en L2 y L1 (y, según diseño, puede llegar también a L0) si estima que es probable que vuelva a necesitarlo pronto.
Cuando en el futuro se vuelve a pedir ese dato, la CPU arranca buscando en la caché más cercana: primero L0, luego L1, después L2, L3 y, solo si no hay suerte, RAM. Si lo encuentra en cualquier nivel, hablamos de acierto de caché y la instrucción se puede procesar sin tener que esperar a un acceso mucho más lento.
En cambio, si el dato no está en la caché correspondiente, se produce un fallo de caché y la CPU tiene que “bajar” al siguiente nivel de la jerarquía. Cada bajada implica más latencia y, por tanto, más ciclos de reloj en los que el núcleo permanece inactivo esperando la información.
Debido a que la caché tiene un tamaño muy limitado, el procesador utiliza políticas de reemplazo (como LRU, “menos usado recientemente”) para decidir qué entradas se expulsan para dejar sitio a nuevas. La caché L0, por su insignificante tamaño, está continuamente reciclando entradas y manteniendo sólo lo que es inminentemente necesario.
Aciertos, fallos de caché y su impacto real en el rendimiento
Cada acierto en caché, especialmente en niveles cercanos como L0 y L1, supone un ahorro enorme de tiempo frente a buscar en la RAM. Hablamos de pasar de 0,7-3 nanosegundos a más de 70 ns o incluso más, dependiendo de la configuración de memoria.
Imagina una CPU moderna que procesa miles de millones de ciclos por segundo. Si cada vez que necesita una instrucción tuviera que esperar decenas de nanosegundos a la RAM, pasaría gran parte de su tiempo parada, desperdiciando potencial. La caché está pensada justo para minimizar esa espera.
Cuando la tasa de aciertos es alta (lo normal en aplicaciones bien optimizadas), la CPU rinde cerca de su máximo teórico. Sin embargo, si por cualquier motivo el patrón de acceso a memoria es muy disperso o los datos no caben en la caché, los fallos se disparan y el rendimiento se derrumba.
La caché L0 entra en juego precisamente para rematar esos accesos que se producen una y otra vez en fragmentos críticos del código. Aunque su capacidad es irrisoria, contribuye a que la CPU aproveche mejor sus ciclos y reduzca aun más las burbujas de inactividad en el pipeline.
En el lado contrario, cuando el procesador no encuentra algo ni en L0, ni L1, ni L2 ni L3 y tiene que ir a RAM o incluso a disco, se habla de “falta de caché” severa. En esos casos, la sensación para el usuario es de un PC “perezoso”, con programas que tardan en reaccionar o juegos que muestran tirones.
Qué pasa cuando la caché se llena o se gestiona mal
Aunque suele decirse que la caché “acelera el equipo”, en algunos escenarios una gestión deficiente de la caché o una saturación continua puede provocar el efecto contrario.
En sistemas operativos y navegadores, por ejemplo, es habitual que el caché (de archivos temporales, imágenes web, etc.) crezca sin control si no se hace mantenimiento. Ese volumen extra de datos en disco y memoria no ralentiza la CPU directamente, pero sí puede provocar que ciertas operaciones tarden más y que las aplicaciones consuman más recursos de la cuenta.
En el plano de hardware, las cachés L0, L1, L2 y L3 no “se llenan” en el sentido coloquial, sino que constantemente reemplazan entradas según las políticas definidas en la arquitectura. Aun así, si la carga de trabajo genera más datos activos de los que caben en esas cachés, el procesador se ve obligado a expulsar cosas que luego vuelve a necesitar, disparando los fallos de caché.
Por eso es tan importante el diseño de la jerarquía completa (tamaños, latencias, anchos de banda, número de niveles) y no sólo el tamaño de cada caché individualmente. Y también explica por qué arquitecturas distintas, con la misma cantidad de caché en MB, pueden comportarse de forma muy diferente en pruebas reales.
En el mundo del software y las aplicaciones web ocurre algo similar: si un sistema de caché (por ejemplo, para una API) almacena demasiadas respuestas que apenas se reutilizan, se desperdicia memoria y se complica la invalidación, pudiendo servir datos obsoletos o generando cuellos de botella.
Otros usos del término “caché”: disco, web y APIs
Más allá de la CPU, el término caché también se aplica a cualquier conjunto de datos almacenados temporalmente para acelerar accesos posteriores, ya sea en hardware o en software.
En los discos duros y SSD existe la caché de disco, que guarda bloques de datos leídos recientemente en una pequeña porción de memoria RAM integrada en el propio dispositivo o en el sistema. De esta forma, si se vuelven a solicitar esos bloques, se sirven desde la caché sin tener que ir de nuevo a la superficie del disco o a las celdas NAND.
En el navegador y en los servidores web encontramos la caché web, que almacena páginas, imágenes y otros recursos estáticos. Cuando visitas de nuevo una web, parte del contenido se carga desde esa caché local, reduciendo el tráfico a través de Internet y recortando el tiempo de carga que percibes.
En aplicaciones modernas basadas en APIs, como las que funcionan sobre Amazon API Gateway u otros gateways, es muy habitual habilitar un caché de respuestas de API. Por ejemplo, si ofreces un catálogo de productos cuyas categorías solo cambian una vez al día, puedes guardar la respuesta de la API durante ese día y servirla desde la caché.
Esto reduce drásticamente la carga sobre los servidores de aplicaciones y bases de datos, mejora los tiempos de respuesta y hace la API más escalable y rentable. En esencia, se aplica el mismo concepto que en la caché de CPU: guardar durante un tiempo limitado la información que se repite mucho para evitar recalcularla todo el rato.
Caché de GPU y memoria gráfica
Las tarjetas gráficas dedicadas, así como las GPUs integradas en algunos procesadores, cuentan con su propia jerarquía de memoria y caché, diseñada para el trabajo masivo con gráficos y operaciones en paralelo.
En GPUs integradas dentro de la CPU, ambas comparten parte de los recursos (RAM del sistema, bus de memoria), por lo que la cantidad de caché disponible es limitada y se reparte entre distintas funciones. Esto puede restringir el rendimiento gráfico cuando la carga es muy alta.
Las GPUs dedicadas traen VRAM específica y sistemas de caché internos muy optimizados para el renderizado 3D, el cálculo de shaders y cargas como la IA. En el contexto de juegos, contar con memorias caché amplias y bien diseñadas ayuda a reducir los temidos tirones o stuttering al dibujar escenas complejas.
En ciertos procesadores con GPU integrada se ha llegado incluso a implementar caché L4 como eDRAM externa al chip, que actúa como un gran buffer intermedio entre la GPU integrada y la RAM del sistema. Esta L4 específica mejora el ancho de banda efectivo y reduce la dependencia de una memoria principal más lenta.
Aunque no se suele hablar tanto de “L0” en GPUs como en CPUs, internamente también usan pequeñas memorias intermedias y buffers comparablemente rápidos para acercar los datos a las unidades de cálculo gráfico, siguiendo el mismo principio general que en el procesador principal.
Cómo influye la caché (incluida L0) al comprar una CPU
A la hora de elegir procesador, muchos usuarios miran sobre todo frecuencia, número de núcleos e hilos, y dejan en segundo plano las especificaciones de caché. Sin embargo, en algunas cargas de trabajo el tamaño y la organización de la caché pueden marcar diferencias muy visibles.
Un ejemplo muy claro es el de procesadores como el AMD Ryzen 7 5800X3D, que frente al 5800X “normal” incorpora una caché L3 apilada en 3D de 96 MB en lugar de 32 MB. A nivel de arquitectura de núcleo y número de núcleos son prácticamente gemelos, pero esa diferencia de caché hace que, en juegos, el 5800X3D obtenga incrementos de rendimiento muy notables.
Lo curioso es que, para hacer hueco a esa caché adicional, el modelo 3D reduce ligeramente sus frecuencias base y turbo, e incluso renuncia a algunas opciones de overclocking. Aun así, en gaming sale ganando precisamente porque muchos motores de juego se benefician enormemente de disponer de más caché L3 para guardar datos de físicas, geometría, IA, etc.
En cambio, en cargas de creación de contenido (edición de vídeo, render, productividad general) el aumento de L3 no siempre se traduce en mejoras, e incluso puede suponer alguna pérdida si a cambio se ha reducido la frecuencia máxima. En esas tareas, la caché no era el cuello de botella principal.
Esto nos lleva a una idea clave: no tiene sentido elegir CPU sólo por la cantidad de caché. Más caché ayuda, pero su efecto depende de la arquitectura, de cómo se reparte entre núcleos, de la latencia de cada nivel y, sobre todo, del tipo de carga de trabajo que vayas a ejecutar a diario.
Cómo saber cuánta caché tienen tu procesador y sus niveles
Si te pica la curiosidad y quieres ver la caché L1, L2 y L3 de tu CPU, una forma muy rápida es usar herramientas como CPU‑Z, disponibles gratuitamente para Windows. En una de sus pestañas muestra con bastante detalle la cantidad de memoria caché de cada nivel.
Otra opción es ir directamente a la página oficial del fabricante (Intel, AMD, etc.) e introducir el modelo exacto del procesador. Allí suelen figurar la caché L2 y L3, y en algunos casos también se desglosan las L1 de datos e instrucciones por núcleo.
Que se muestre o no la caché L0 depende mucho de la forma en la que el fabricante documente su arquitectura. A menudo se integra en descripciones más genéricas de los buffers internos del pipeline, por lo que no siempre aparece listada como “L0” en las fichas públicas.
En cualquier caso, incluso sin tener el dato de L0 por separado, ver las cantidades de L1, L2 y L3 ya da una buena idea del potencial de la CPU en tareas sensibles a memoria, sobre todo si comparas procesadores dentro de la misma familia o generación.
Latencia, ancho de bus, fallos de caché y papel de L0
Cuando hablamos de rendimiento de memoria, las dos palabras mágicas son latencia y ancho de banda. El ancho de banda indica cuántos datos se pueden transferir por segundo, mientras que la latencia mide el tiempo que tarda en empezar a servirse el dato desde que se pide.
La caché L0 y L1 son las que ofrecen las menores latencias, por eso el procesador intenta que las instrucciones críticas pasen por ellas siempre que sea posible. L2 y L3 tienen algo más de latencia, pero siguen ofreciendo anchos de banda altísimos y un acceso muy superior al de la RAM.
Cuando una instrucción o dato no está en ninguno de esos niveles, la CPU recurre a la RAM a través del bus de memoria. El ancho del bus (por ejemplo, 64 bits por canal, 128 bits con dual channel) determina cuántos bits pueden viajar en paralelo; de ahí que configuraciones de doble canal dupliquen la capacidad respecto a un único módulo.
Si el procesador tiene que ir constantemente a RAM porque falla la caché una y otra vez, la combinación de mayor latencia y posible saturación de ancho de banda provoca una degradación notable del rendimiento. Aquí es donde la existencia de una microcaché L0 ayuda a “limar” algunos accesos repetitivos y a reducir la presión sobre L1.
En pruebas prácticas con herramientas como AIDA64 se puede ver claramente la diferencia: en un Ryzen 7 7700X, por ejemplo, la caché L1 puede mostrar latencias del orden de 0,7 ns y más de 2.700 GB/s de lectura, L2 unos 2,7 ns y L3 alrededor de 10 ns y algo más de 900 GB/s. En contraste, la RAM DDR5 a 6.000 MT/s puede rondar los 70 ns de latencia.
Visto así, se entiende mejor por qué los diseños antiguos en los que la caché L2/L3 estaba en la placa base, lejos físicamente del chip, rendían mucho menos: la distancia extra aumentaba la latencia, diluyendo buena parte de las ventajas de la caché.
El papel de la L0, aunque menos visible, es justamente minimizar aún más esa latencia efectiva en los puntos más delicados del pipeline, acercando los datos justo donde se consumen y permitiendo que la CPU encadene instrucciones con la mínima espera posible.
En conjunto, la combinación de una buena jerarquía de cachés (incluida L0 cuando está presente), una RAM rápida y un bus ancho y eficiente es lo que permite que el procesador se aproxime a su rendimiento teórico sin estar constantemente bloqueado esperando datos.
En definitiva, entender para qué sirve la caché de nivel 0 y cómo se relaciona con los demás niveles ayuda a ver el procesador no solo como una cifra de GHz o de núcleos, sino como una pieza de ingeniería donde cada nanosegundo cuenta: desde esa minúscula L0 pegada al núcleo, hasta el SSD donde guardas tus archivos, todo forma parte de una misma cadena cuyo rendimiento está tan limitado como lo esté su eslabón más lento.