Cómo instalar CUDA en Windows: requisitos, instalación y verificación

Última actualización: noviembre 6, 2025
  • Compatibilidad: GPU NVIDIA con soporte CUDA, Windows 10/11 y versiones de Visual Studio admitidas.
  • Instalación flexible: asistente gráfico, modo silencioso, conda o pip (runtime).
  • Verificación esencial: nvcc, nvidia-smi y ejemplos deviceQuery/bandwidthTest.

Instalación de CUDA en Windows

Si estás buscando cómo instalar CUDA en Windows y no sabes por dónde empezar, aquí tienes una guía completa y actualizada con todo lo que debes tener en cuenta, desde requisitos y compatibilidades hasta instalación, verificación y resolución de problemas. A lo largo del texto verás opciones como instalación gráfica, silenciosa, conda o incluso pip, además de cómo compilar y probar ejemplos para confirmar que todo está listo, y cómo resolver fallos de instalación. La idea es que termines con CUDA funcionando y con las herramientas clave para desarrollar o ejecutar cargas aceleradas por GPU.

CUDA es la plataforma de cómputo paralelo y modelo de programación de NVIDIA que permite aprovechar la potencia de la GPU para acelerar aplicaciones. Con CUDA, las partes paralelas corren en la GPU mientras que lo serie se queda en la CPU, logrando grandes mejoras de rendimiento en IA, ciencia de datos, simulación, visión artificial y otros escenarios intensivos.

Cómo hacer que tu gráfica NVIDIA funcione con el máximo rendimiento posible
Artículo relacionado:
Cómo hacer que tu gráfica NVIDIA funcione con el máximo rendimiento posible

Qué es CUDA y por qué te interesa

CUDA no es solo un conjunto de librerías: incluye compilador (nvcc), tiempo de ejecución, herramientas de análisis y perfiles, ejemplos y la integración con IDEs como Visual Studio. El objetivo es facilitar la paralelización con un puñado de extensiones a C/C++ para que te centres en el algoritmo y no en el andamiaje.

Los núcleos de la GPU comparten recursos como registros y memoria compartida de chip, lo que permite a miles de hilos colaborar con muy baja latencia. Este modelo heterogéneo CPU+GPU hace posible aplicar CUDA de forma incremental, ejecutando en GPU lo que realmente gana con paralelización.

Requisitos del sistema en Windows

Antes de instalar, toca mirar compatibilidades. En general, necesitas una GPU NVIDIA compatible con CUDA y una versión de Windows soportada. Las guías oficiales contemplan Windows 11 (22H2/23H2/24H2) y Windows 10 22H2, además de Windows Server 2022 y 2025 en entornos de servidor.

Si compilas con Visual Studio, revisa que tu versión esté soportada por el Toolkit que vas a usar. CUDA 13.0 U1 soporta MSVC 192x (VS 2019 16.x) y 193x (VS 2022 17.x), con dialectos C++11 hasta C++20. El soporte para VS 2017 quedó deprecado en 12.5 y eliminado en 13.0.

Importante para proyectos heredados: la compilación de 32 bits se eliminó a partir de CUDA 12.0. El driver seguirá ejecutando binarios de 32 bits en GPUs GeForce hasta arquitectura Ada (Hopper ya no los soporta), pero el Toolkit moderno compila solo a 64 bits.

En escenarios concretos (por ejemplo, Model Builder con clasificación de imágenes), Microsoft documenta requisitos más antiguos por compatibilidad: CUDA 10.1 y cuDNN 7.6.4, sin coexistencia de varias cuDNN. En ese caso, tras descomprimir cuDNN, copia el archivo cudnn64_7.dll a la carpeta bin de v10.1.

Cómo comprobar si tu PC es compatible

Lo primero es confirmar que tienes una GPU NVIDIA que soporte CUDA. En Windows puedes verlo en Administrador de dispositivos > Adaptadores de pantalla; comprueba marca y modelo y contrástalo con la lista de GPUs CUDA en la web de NVIDIA.

  ¿Cómo recortar en Window 11?

Si prefieres rutas “de usuario”, en Configuración > Sistema > Pantalla > Pantalla avanzada verás el adaptador activo. También desde el Administrador de tareas > Rendimiento > GPU puedes consultar el modelo en la esquina superior derecha de ese panel.

Si no apareciese la NVIDIA en esos apartados, abre el Administrador de dispositivos y mira Adaptadores de pantalla: puede que falte instalar el controlador correcto. Usa GeForce Experience o descarga el driver desde la página oficial para tu GPU.

Para ver la versión del compilador de CUDA instalada (si ya tuvieras Toolkit): abre PowerShell o CMD y ejecuta nvcc --version. Para el estado del driver y compatibilidad de runtime, nvidia-smi es tu mejor amigo, ya que muestra versión de driver y «CUDA Version» (máximo runtime soportado por ese driver).

Descarga del NVIDIA CUDA Toolkit

Ve a la página oficial de descargas del CUDA Toolkit (developer.nvidia.com/cuda-downloads). Tienes dos formatos de instalador: Network Installer (mínimo) y Full Installer (completo). El primero baja solo lo que selecciones; el segundo incluye todo, ideal para equipos sin Internet o despliegues enterprise.

Si lo necesitas, puedes verificar la integridad del instalador comparando su checksum MD5 con el que publica NVIDIA. Si no coincide, el archivo está corrupto y debes descargar de nuevo para evitar fallos de instalación extraños.

Instalación en Windows (GUI y silenciosa)

La ruta más simple es ejecutar el instalador y seguir el asistente. Lee las notas de la versión (Release Notes) antes por si hay cambios o incidencias abiertas que te afecten (drivers, VS, librerías).

Si necesitas automatización, el instalador admite modo silencioso con la bandera -s, y puedes añadir parámetros para elegir subpaquetes concretos (por ejemplo, solo el compilador). Con -n evitas reinicio automático incluso si fuese requerido.

El Toolkit se compone de subpaquetes (se instalan por defecto en «C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.Y»). Entre los más comunes: nvcc (compilador), cudart (runtime), cuBLAS, cuFFT, cuRAND, cuSOLVER, cuSPARSE, Nsight Compute y Systems, NVRTC, NVTX, NVML dev, nvJitLink, OpenCL, Compute Sanitizer, Thrust, documentación y la integración con Visual Studio.

Un detalle a tener en cuenta si estás con Toolkits recientes: desde CUDA 13 el instalador ya no incluye el driver. Debes instalar el controlador NVIDIA por separado (página de drivers o GeForce Experience) antes o después, pero que quede alineado con lo que vayas a usar.

Verificar que todo funciona

Una vez instalado, abre un símbolo del sistema y ejecuta nvcc -V para ver la versión de Toolkit. Después, clona los CUDA Samples oficiales (github.com/nvidia/cuda-samples), compílalos y lanza los clásicos de validación.

El más importante es deviceQuery. Si está todo correcto, detectará tu GPU y pasará el test. El otro imprescindible es bandwidthTest, que valida la comunicación CPU–GPU y reporta los anchos de banda; ambos deberían terminar con “Result = PASS”.

Integración con Visual Studio

Los ejemplos vienen con soluciones para VS 2019 y 2022. Los archivos .props de CUDA (por ejemplo, CUDA 13.0.props) se instalan en las rutas de MSBuild de tu Visual Studio, y el instalador añade y gestiona la variable de entorno CUDA_PATH.

Para un proyecto nuevo, crea una plantilla NVIDIA > CUDA en Visual Studio y elige la versión (p. ej., “CUDA 13.0 Runtime”). Para proyectos existentes, añade las Build Customizations desde “Build Dependencies > Build Customizations…” y marca la versión de CUDA que quieras apuntar.

  ¿Cómo cambiar el fondo de pantalla del escritorio en Windows 7?

Si prefieres que un proyecto apunte siempre al Toolkit más reciente instalado, en Propiedades > CUDA C/C++ > Common, fija “CUDA Toolkit Custom Dir” a $(CUDA_PATH). Eso sí, en la práctica suele ser mejor fijar versión concreta para evitar cambios silenciosos de configuración entre Toolkits.

Recuerda marcar los archivos con código de dispositivo como CUDA C/C++ dentro del proyecto. Y si quieres probar otro Toolkit sin tocar el .vcxproj, puedes construir desde el Developer Command Prompt de VS, configurando entorno y rutas al Toolkit adecuado.

Instalar CUDA con Conda o con pip

Si usas entornos aislados, NVIDIA publica paquetes en Anaconda (anaconda.org/nvidia). Puedes instalar el Toolkit completo con conda y fijar versiones previas indicando la etiqueta de release (útil para reproducibilidad).

Para Python puro, NVIDIA distribuye wheels por pip destinados al runtime (no incluyen las herramientas de desarrollo, que deberás instalar aparte si compilas). Primero instala nvidia-pyindex para que pip resuelva contra el repositorio de NVIDIA NGC PyPI y, a partir de ahí, añade los paquetes que necesites.

Existen metapaquetes “cu12” que arrastran la última versión de cada componente compatible con CUDA 12 en Windows, por ejemplo: nvidia-cublas-cu12, nvidia-cuda-nvcc-cu12, nvidia-cuda-runtime-cu12, nvidia-cuda-nvrtc-cu12, nvidia-cufft-cu12, nvidia-curand-cu12, nvidia-cusolver-cu12, nvidia-cusparse-cu12, nvidia-npp-cu12, nvidia-nvjitlink-cu12, nvidia-nvjpeg-cu12, nvidia-nvml-dev-cu12 y nvidia-nvtx-cu12. Estos metapaquetes resuelven a paquetes específicos etiquetados internamente (como cu129 en el momento de esa publicación).

Modelos de driver: WDDM vs TCC

En Windows 10 y superiores, el driver puede trabajar en modo WDDM (dispositivos de pantalla) o TCC (para GPUs de cómputo como Tesla o ciertos modelos Titan). Puedes ver y cambiar esto con nvidia-smi en sistemas que lo permitan (consulta nvidia-smi -h para opciones).

CUDA en WSL (Subsistema de Windows para Linux)

Windows 11 y Windows 10 21H2 en adelante admiten ejecutar herramientas, librerías y frameworks de ML que usan CUDA dentro de WSL (Linux). Esto incluye TensorFlow, PyTorch y Docker con NVIDIA Container Toolkit en un entorno muy similar a Linux nativo.

Pasos clave: instala el controlador NVIDIA habilitado para CUDA en WSL, activa WSL y pon una distro basada en glibc (Ubuntu/Debian) o consulta las mejores distros de Linux para GPUs NVIDIA. Asegúrate de tener kernel 5.10.43.3 o superior (compruébalo con wsl cat /proc/version) y aplica actualizaciones de Windows cuando toque.

Después, sigue la guía de usuario de NVIDIA CUDA en WSL para configurar el entorno, imágenes de contenedor y librerías. Si trabajas con contenedores, NVIDIA Container Toolkit te lo pondrá muy fácil para usar la GPU dentro de Docker en WSL.

Escenarios especiales con herramientas de Microsoft (Model Builder)

Hay casos en los que una herramienta concreta exige versiones antiguas por compatibilidad, como Model Builder en clasificación de imágenes. En ese escenario se pide explícitamente CUDA 10.1 y cuDNN 7.6.4, y no se admite tener varias cuDNN en paralelo.

Tras descargar cuDNN 7.6.4 para CUDA 10.1 en ZIP, descomprime y copia cudnn64_7.dll a la carpeta bin del Toolkit 10.1 (por ejemplo: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\bin). Esto es crítico para que ciertas integraciones detecten el runtime correcto y no fallen en tiempo de carga.

  ¿Cómo funciona el Media Player?

Resolución de problemas habituales

“No tengo GPU local, ¿qué hago?” Puedes entrenar en CPU, pero será mucho más lento. Otra opción es usar máquinas virtuales con GPU en Azure para escenarios como clasificación de imágenes si no dispones de hardware local.

“Tengo una NVIDIA y no aparece en Configuración o en el Administrador de tareas”. Entra en Administrador de dispositivos > Adaptadores de pantalla: si ves una genérica o con triángulo, instala el driver adecuado. GeForce Experience te sugerirá actualizaciones; en caso de duda, baja el driver desde la web oficial.

“¿Cómo confirmo la versión de CUDA?” nvcc --version te muestra el Toolkit; nvidia-smi refleja la versión de driver y la “CUDA Version” soportada por ese driver. Ojo: el número de «CUDA Version» en nvidia-smi no implica que tengas ese Toolkit instalado, solo la máxima versión de runtime que soporta el driver.

“Me falla la instalación o la ejecución de ejemplos”. Revisa el log del instalador y confirma dependencias: driver instalado (desde CUDA 13 ya no viene con el Toolkit), Visual Studio soportado, PATH correcto, y que no haya restos de Toolkits/cuDNN conflictivos. Compila y ejecuta deviceQuery y bandwidthTest para diagnosticar.

Caso práctico: portátil con iGPU AMD + NVIDIA GeForce en Windows 11

Supón un equipo tipo Lenovo Ideapad 5 Pro con Ryzen 7, Radeon integrada y GeForce GTX dedicada. Si nvidia-smi muestra driver 526.56 y “CUDA Version: 12.0”, el driver soporta runtime 12.0 pero el Toolkit que instales (11.8, 12.8, etc.) debe estar correcto en PATH.

Consejos clave para esta configuración híbrida: evita colisiones en PATH entre varias instalaciones de CUDA; si una herramienta pide cuDNN concreto, usa la versión exacta y no mezcles DLLs. Asegúrate de que los procesos que quieras acelerar se ejecuten en la GPU NVIDIA (configuración de gráficos en Windows o panel de control de NVIDIA).

Si probaste varios Toolkits y sigues viendo errores, limpia instalaciones previas, reinicia y prueba un Toolkit soportado por tu cadena (VS, librerías, framework). Verifica que el perfil de energía no esté forzando la iGPU AMD y que el driver de NVIDIA esté actualizado. Tras instalar, valida con deviceQuery.

Desinstalación y extracción del instalador

Todos los subpaquetes del Toolkit pueden desinstalarse desde Panel de control > Programas y características. Si quieres inspeccionar el paquete completo sin instalar, el Full Installer se puede extraer con 7-Zip/WinZip (LZMA); dentro verás carpetas como CUDAToolkit y ficheros de soporte.

Buenas prácticas para proyectos reales

– Fija versiones de Toolkit/driver y documenta el entorno (especialmente en equipos de trabajo). La reproducibilidad te ahorrará dolores de cabeza.
– Si compilas con VS, alinea MSVC con el soporte declarado por tu Toolkit.
– Para ciencia de datos/IA, valora usar conda o contenedores con NVIDIA Container Toolkit en WSL o Linux nativo.
– Mantén a mano los tests de cuda-samples para validar tras cambios.

Deberías tener claro qué exigir a tu equipo, cómo descargar e instalar el Toolkit adecuado, cómo verificar que la GPU calcula como toca y cómo resolver los problemas más frecuentes (incluyendo escenarios con versiones antiguas para herramientas específicas, instalación por conda/pip y uso en WSL). Siguiendo estas pautas, podrás trabajar con CUDA en Windows con confianza y sin sorpresas.