Qué es el yield en la fabricación de chips y por qué importa

Última actualización: marzo 29, 2026
Autor: Isaac
  • El yield mide el porcentaje de chips funcionales por oblea y determina la rentabilidad de cada nodo de fabricación.
  • Defectos, tamaño del die, materiales de proceso y sistemas de gases influyen directamente en el rendimiento global.
  • El binning permite aprovechar mejor el yield clasificando los chips según calidad y habilitando distintas gamas de producto.
  • La lotería del silicio refleja las variaciones entre unidades dentro de una misma CPU o GPU, sobre todo relevantes para overclocking.

rendimiento en fabricación de chips

Cuando se habla de fabricar chips, casi todo el mundo piensa en nanómetros, GHz o cantidad de núcleos, pero muy poca gente repara en un concepto que manda más que ninguno: el yield o rendimiento de fabricación. Sin un buen yield, por muy avanzado que sea un nodo litográfico, el negocio simplemente no sale a cuenta para el fabricante.

En la industria de los semiconductores, el yield es el punto de equilibrio entre tecnología puntera, costes y beneficios. Determina cuántos chips de una oblea se pueden vender realmente, cómo se fijan los precios, qué productos llegan al mercado y hasta qué margen tienen los entusiastas para hacer overclocking. Vamos a ver con calma qué es, cómo se calcula y cómo se relaciona con conceptos como el binning y la famosa lotería del silicio.

Qué es el yield en la fabricación de chips

En términos generales, yield es la palabra que se usa para hablar de rendimiento o rentabilidad, especialmente en el ámbito financiero. Trasladado a la microelectrónica, hace referencia al porcentaje de chips que salen buenos en una oblea tras completar todo el proceso de fabricación usando un nodo y unas tecnologías concretas.

Dicho de otra forma, el yield es la tasa de éxito de un proceso de fabricación de semiconductores. Si de una oblea salen 500 chips y 400 funcionan dentro de las especificaciones, el yield es del 80 %. Cuanto más alto es este porcentaje, más rentable y eficiente resulta el proceso para el fabricante.

Este porcentaje es crucial porque impacta directamente en el coste unitario de cada chip funcional. Si con la misma maquinaria, tiempo y materiales se obtienen más chips válidos por oblea, el coste por chip baja y el margen de beneficio sube. Por eso los fabricantes se obsesionan con mejorar el yield, sobre todo cuando estrenan nodos de fabricación más avanzados.

En la práctica, el yield se expresa casi siempre como un porcentaje del total de dies producidos en una oblea que cumplen los requisitos eléctricos, de consumo y frecuencia. Ese porcentaje también marca si tiene sentido seguir fabricando en un nodo o abandonarlo por ser económicamente inviable.

Cálculo básico del yield y factores que lo afectan

Para entender bien el yield, primero hay que tener claro cómo se calcula el número de chips que caben en una oblea. El total de troqueles potenciales (Nt) depende del diámetro del wafer, de la zona que se pierde en el borde y del área de cada chip. A grandes rasgos, a mayor oblea y menor tamaño de die, más chips posibles por wafer.

Una vez sabemos cuántos troqueles caben teóricamente en una oblea, el yield se obtiene comparando cuántos de esos chips salen realmente funcionales (Ng) frente al total posible (Nt). El cociente Ng/Nt, expresado en porcentaje, es el famoso rendimiento de fabricación que tanto preocupa a foundries como TSMC, Samsung o Intel.

El problema es que, en el mundo real, las obleas nunca están perfectas y siempre hay defectos repartidos por su superficie. Pueden ser partículas de polvo, contaminación química, fallos en el cristal de silicio, desalineación de máscaras, degradación de las propias máscaras, problemas en los baños químicos, variaciones de temperatura, etc. Cada pequeño fallo puede arruinar por completo un die o afectar solo a parte de él.

Para modelar este comportamiento, se utilizan fórmulas de yield del die basadas en la densidad de defectos y en el área de cada chip. En ellas aparece un parámetro de defectos por unidad de área (DPA), que suele ser mayor en procesos nuevos y se reduce conforme el nodo madura, y un término de agrupamiento (alfa) que refleja cómo se concentran los defectos sobre la oblea.

En resumen, cuanto mayor es el área de un die y más alta es la densidad de defectos del proceso, peor será el yield de ese diseño. Por eso los chips gigantes de gama alta, como GPUs muy grandes o CPUs con muchísimos núcleos, son tan difíciles de fabricar con buenos rendimientos y suelen ser caros y escasos al principio.

Por qué el yield es tan importante para los fabricantes

Desde el punto de vista económico, el yield es uno de los parámetros más críticos de todo el negocio del semiconductor. Una foundry no solo mira si técnicamente puede fabricar un chip a 3 nm o 2 nm, sino si el porcentaje de dies funcionales por oblea permite que la operación sea rentable.

  ¿Cómo Calibrar un monitor IPS?

Los fabricantes suelen establecer un umbral mínimo de rendimiento por debajo del cual no compensa producir en un nodo concreto. Si el yield real cae por debajo de ese mínimo, cada oblea genera tan pocos chips aprovechables que el coste por unidad se dispara y el cliente tendría que pagar un precio exagerado para que la cuenta de resultados cuadre.

Cuando el proceso es muy joven, es habitual que el yield sea bajo y vaya mejorando con el tiempo a base de ajustes en máquinas, químicos, máscaras y procedimientos. A medida que un nodo se “madura”, la experiencia acumulada y las mejoras en control de calidad elevan el rendimiento hasta niveles muy altos, lo que permite producir en masa con costes mucho más ajustados.

Por eso, en muchos casos, los nodos maduros suelen ser la opción preferida para productos de gran volumen y precio ajustado, como gamas medias o chips de consumo masivo. Mientras tanto, los nodos de última generación se reservan inicialmente para productos premium, donde el cliente está dispuesto a pagar más y asumir yields más modestos.

Todo esto lleva a que, para cada combinación de nodo, diseño y volumen, el fabricante calcule cuidadosamente la rentabilidad del proyecto, como muestran ejemplos de fábricas, rendimiento y estrategia. Si el yield previsto no llega a lo que se considera aceptable, es posible que ese chip nunca llegue a producción comercial, aunque sea viable desde el punto de vista técnico.

Yield de principio a fin: más allá del propio chip

Cuando se habla de rendimiento, solemos pensar solo en cuántos chips salen buenos de cada wafer, pero el yield “end to end” incluye todo el flujo de fabricación del semiconductor y el consumo de recursos como el agua necesaria para fabricar un chip. Eso significa tener en cuenta paradas de línea, sustitución de componentes, problemas de contaminación y cualquier incidencia que afecte a la cantidad de chips válidos por hora de producción.

En este contexto, un punto clave a menudo infravalorado son los sistemas de fluidos y gases que alimentan las cámaras de proceso. Estos sistemas transportan gases halógenos y otros compuestos extremadamente reactivos desde los tanques de almacenamiento hasta las cámaras de deposición y grabado donde se forman las capas del chip.

Si los materiales de esos sistemas no están a la altura, aparecen dos enemigos directos del yield: la contaminación y la corrosión. Cualquier partícula o impureza que entre en la cámara de proceso puede provocar defectos en los patrones litográficos, arruinando capas enteras de la oblea y reduciendo drásticamente el porcentaje de chips buenos.

Además, los gases cada vez más agresivos y las temperaturas de operación más altas aumentan el riesgo de corrosión de válvulas, racores y tuberías. Si un componente se degrada y hay que pararlo para sustituirlo, la producción se detiene, se pierden lotes en curso y el rendimiento global se resiente tanto por tiempo de inactividad como por posibles fugas o impurezas añadidas.

En entornos de ultra alta pureza, una simple fuga o un pequeño defecto superficial en un tubo de acero puede marcar la diferencia entre una serie de obleas perfectas o un desastre de producción. Por eso los fabricantes no solo miran la litografía o la maquinaria principal, sino también la calidad de todo aquello que rodea y alimenta el proceso.

Selección de materiales y control de calidad para mejorar el yield

Un modo muy eficaz de elevar el rendimiento global es apostar por materiales optimizados en todos los componentes de los sistemas de gases y fluidos. En particular, las aleaciones de acero inoxidable que se emplean en válvulas, racores y tuberías tienen un impacto directo en la limpieza del proceso y en la resistencia a los químicos usados en la fabricación.

Las formulaciones de acero inoxidable de alta gama incluyen proporciones muy cuidadas de cromo, níquel y molibdeno para incrementar tanto la resistencia mecánica como la resistencia a la corrosión. Estos elementos ayudan a que las superficies en contacto con gases agresivos mantengan su integridad durante más tiempo, reduciendo fallos y necesidad de cambios prematuros.

Al mismo tiempo, es necesario controlar con precisión el contenido residual de elementos como el azufre. Un cierto nivel de azufre facilita el mecanizado y puede mejorar el acabado superficial, pero un exceso incrementa el riesgo de inclusiones y puntos débiles. Encontrar el equilibrio justo requiere mucha experiencia en metalurgia y un control muy fino de los procesos de fusión y refinado.

Para maximizar la pureza y minimizar impurezas, se utilizan técnicas avanzadas como la descarburización del oxígeno de argón (AOD), la fusión por inducción al vacío (VIM) o el refundido por arco de vacío (VAR). Estos procesos permiten obtener aceros con muy pocas inclusiones no metálicas y una distribución uniforme de los elementos de aleación, algo crítico cuando el más mínimo defecto puede acabar en partículas en el sistema de gases.

  ¿Cuál es la diferencia entre cartucho de tinta y tóner?

Además, los fabricantes serios someten sus materiales a pruebas no destructivas rigurosas: ultrasonidos, corrientes de Foucault y otros métodos capaces de detectar pequeñas discontinuidades internas o defectos superficiales. Luego, tras el mecanizado, se aplican tratamientos como el electropulido o la pasivación para limpiar aún más la superficie y reducir la posibilidad de desprendimiento de partículas.

Qué debe ofrecer un buen proveedor para optimizar el rendimiento

Para un fabricante de chips, no vale cualquier proveedor de componentes de sistemas de fluidos. Necesita socios que entiendan a fondo las exigencias de la industria de los semiconductores y que garanticen un nivel de limpieza y trazabilidad extremo en todo lo que suministran.

Un proveedor ideal debe ser capaz de comprender los retos específicos de la ciencia de materiales aplicada a la fabricación de semiconductores, desde la interacción entre gases y metales hasta el comportamiento de las superficies tratadas en entornos de alta temperatura y reactivos muy agresivos.

También es clave que obtenga sus aceros inoxidables de fuentes probadas y certificadas, manteniendo constantes la química y los parámetros de procesado, sin sorpresas entre lotes. Cualquier variación no controlada podría traducirse en cambios de comportamiento en fábrica y afectar a la consistencia del yield.

Otro pilar básico es el control de calidad: probar a fondo todos los materiales y piezas antes de que lleguen a la sala limpia, con procedimientos estrictos y documentación completa. Esto implica trazabilidad del 100 %, desde la materia prima hasta la pieza acabada que se instala en la línea de producción.

Cuando un fabricante logra rodearse de proveedores con este nivel de exigencia, reduce paradas imprevistas, minimiza la contaminación y estabiliza su rendimiento de producción. Ese plus de fiabilidad se traduce en más chips buenos por oblea y en menores costes a largo plazo, justo lo que pide un mercado tan competitivo como el de los semiconductores.

Qué es el binning y cómo se relaciona con el yield

Incluso cuando un chip sale “funcional” a nivel básico, no todos los dies de una misma oblea se comportan igual. Hay variaciones en consumo, frecuencia máxima estable, fugas, etc. Aquí entra en juego el binning, un proceso de clasificación que los fabricantes usan para sacar el máximo partido económico al yield que han obtenido.

El binning consiste en probar y etiquetar cada chip según la calidad y el rendimiento que demuestra en fábrica. Aquellos que cumplen las especificaciones más exigentes se destinan a modelos de gama alta; los que presentan pequeños defectos o no escalan tan bien en frecuencia se “reciclan” como productos de gama media o de entrada, desactivando partes del chip si es necesario.

Por ejemplo, al fabricar una oblea con un gran chip pensado inicialmente para ser un tope de gama, es muy posible que algunos dies tengan uno o varios núcleos defectuosos, o que se vuelvan inestables a la frecuencia objetivo pero funcionen bien a algo menos. En lugar de tirarlos, el fabricante desactiva esos núcleos o baja la frecuencia y los vende como modelos inferiores.

Esto explica por qué muchas CPUs y GPUs de diferentes gamas comparten exactamente la misma base de silicio. Un supuesto “Core i7” puede ser físicamente el mismo chip que un “Core i9”, con ciertos núcleos desactivados y otro voltaje o frecuencia máxima aprobada. Lo mismo ocurre con GPUs que usan el mismo die pero con menos unidades activas y frecuencias más contenidas.

Gracias al binning, el fabricante aprovecha mejor cada oblea y mejora el rendimiento económico global del proceso. Los chips perfectos maximizan el beneficio en la gama alta, mientras que los imperfectos siguen generando ingresos en segmentos inferiores en lugar de convertirse en chatarra.

Lotería del silicio: la cara entusiasta del binning

Cuando este proceso de clasificación se traslada al usuario final, aparece un concepto muy conocido entre los entusiastas: la lotería del silicio. Básicamente, describe el factor azar que determina si la unidad concreta de CPU o GPU que te ha tocado es mejor o peor que la media dentro de su misma gama.

En fábrica, los chips ya se han clasificado para decidir si se venden como un modelo u otro, con más o menos núcleos o con determinadas frecuencias base y turbo. Pero dentro de un mismo modelo, siguen existiendo pequeñas diferencias. Algunos ejemplares requieren menos voltaje para alcanzar la frecuencia especificada, otros aguantan mejor temperaturas, algunos escalan mejor en overclocking… y otros todo lo contrario.

La lotería del silicio refleja precisamente esa variabilidad. Dos usuarios con la misma CPU “sobre el papel” pueden obtener resultados de overclock muy distintos: uno llega a frecuencias altas con poco voltaje y buenas temperaturas, mientras que otro se topa con limitaciones pronto y necesita más voltaje para el mismo rendimiento.

Si no haces overclocking, esta lotería importa bastante menos. Los fabricantes solo ponen a la venta chips que cumplen los requisitos de estabilidad y frecuencia para la etiqueta que llevan, así que una RTX 4060 o un Core i5 deberían comportarse dentro de un margen muy estrecho respecto a lo anunciado, independientemente del bin interno.

  ¿Cuánto mide un televisor de 55 pulgadas?

Es cuando se busca exprimir el chip al máximo, ya sea manualmente o con tecnologías de auto-boost como Turbo Boost o Precision Boost Overdrive, cuando la calidad interna del silicio marca diferencias. Ahí se ve si “te ha tocado” una unidad especialmente buena o simplemente normalita dentro del rango aceptable.

Relación entre yield, binning y overclocking

Yield, binning y lotería del silicio forman un triángulo que explica por qué vemos tantas gamas distintas de un mismo chip y por qué no todos rinden igual. Un yield alto implica que hay muchos dies completamente funcionales; esto permite al fabricante ser más selectivo y reservar los mejores para modelos premium o para socios que quieren tarjetas gráficas con overclock de fábrica.

Cuando el yield es más bajo o un diseño es muy grande, es habitual encontrar un porcentaje considerable de chips parcialmente defectuosos. Esos dies se salvan vía binning, desactivando núcleos, reduciendo la frecuencia máxima o recortando caché, y terminan convertidos en gamas medias o bajas. Así, la misma oblea alimenta varias líneas de producto.

El overclocking, por su parte, depende tanto de la calidad intrínseca del silicio como del resto del sistema. Puedes tener una CPU con un silicio excelente, pero si la placa base tiene VRM flojo, la refrigeración es limitada o la fuente de alimentación no acompaña, no vas a poder sacar todo el partido posible a ese chip “ganador”.

También hay que tener en cuenta que, con el paso de las generaciones, los procesos de fabricación se han afinado tanto que las diferencias extremas son cada vez menos comunes. La variedad entre unidades de una misma SKU se reduce y el margen extra de overclock que ofrecen las mejores piezas suele ser más modesto que en generaciones anteriores.

Aun así, el azar sigue existiendo y hay entusiastas que siguen buscando ciertos lotes o revisiones concretas que históricamente han demostrado escalar mejor. En su día incluso hubo tiendas especializadas que probaban CPUs una por una para vender solo las más “tocadas por la varita”, cobrando un sobreprecio por eliminar esa incertidumbre, algo que hoy es mucho menos habitual.

Hasta qué punto importa la lotería del silicio

Si te preguntas si la lotería del silicio afecta a otros componentes como RAM, SSD u otros chips, la respuesta práctica es que el término se usa sobre todo para CPUs y GPUs en el contexto del overclocking. En otros productos también hay variaciones internas, pero no se suele hablar de ello en esos términos ni es tan determinante para el usuario medio.

En cuanto a si el overclocking depende totalmente de la suerte, la respuesta matizada es que la calidad del silicio marca el techo, pero el resto del sistema define si puedes acercarte a ese límite. Una buena refrigeración, una placa base sólida, una fuente fiable y una configuración cuidadosa influyen tanto o más que haber recibido un chip especialmente bueno.

Algunas familias de productos están, de serie, mejor clasificadas. Por ejemplo, las CPUs pensadas para centros de datos suelen priorizar estabilidad con bajo consumo, mientras que las gamas entusiastas dan más margen a frecuencias elevadas. En entornos profesionales además se tienen en cuenta fenómenos como TDDB y transistor aging, que afectan a la fiabilidad a largo plazo.

Con las GPUs ocurre algo parecido: los socios ensambladores a veces reservan los mejores chips para modelos con overclock de fábrica, mientras que las variantes más baratas reciben silicio que simplemente cumple lo mínimo requerido. Aun así, el usuario doméstico rara vez nota grandes diferencias si no se mete a ajustar voltajes y frecuencias manualmente.

Por todo ello, para la mayoría de personas, es más razonable centrarse en elegir bien la gama y el modelo según el uso y el presupuesto, que obsesionarse con el azar del silicio. Los procesos modernos han reducido suficiente la variabilidad como para que el rendimiento real se mantenga muy cerca de lo prometido por el fabricante.

Entender cómo funciona el yield, por qué el binning es tan importante y qué hay detrás de la llamada lotería del silicio ayuda a poner en contexto tanto los precios como las diferencias de rendimiento entre productos aparentemente similares; al final, la fabricación de chips es un delicado equilibrio entre física, materiales, procesos industriales y estrategia comercial, donde cada porcentaje de rendimiento cuenta y donde los fabricantes aprovechan al máximo cada oblea para que a ti te llegue el procesador o la GPU que encaja con tu bolsillo y tus expectativas.

qué es el throughput cuando se habla de rendimiento de un chip
Artículo relacionado:
Qué es el throughput cuando se habla de rendimiento de un chip