Asistente de IA con Raspberry Pi: cómo montarlo, opciones locales y aceleración con Hailo

Última actualización: noviembre 10, 2025
  • RaspiGPT muestra un asistente web sencillo en Raspberry Pi con chat, gestión de conversaciones y respuestas en streaming.
  • ASRAI combina VOSK en local con un LLM vía API compatible con OpenAI (Ollama), accesible por Meshnet.
  • Raspberry Pi 5 y el AI Kit con Hailo‑8L (13 TOPS) permiten IA eficiente en el borde integrada con Raspberry Pi OS.
  • Seguridad: actualizaciones, redes IoT aisladas y cifrado; opciones de STT/TTS y NLP para asistentes por voz y chat.

Asistente de IA con Raspberry Pi

El boom de los modelos de lenguaje ha puesto la IA al alcance de cualquier maker, y la Raspberry Pi es la excusa perfecta para trastear. En este artículo te cuento, con todo lujo de detalle, cómo se han construido proyectos reales como un asistente web tipo chat en PiCockpit, un asistente privado por voz en una Pi 4 y varias opciones potentes con Raspberry Pi 5 y su kit de IA. La idea es que veas qué piezas encajan, qué hardware y software necesitas y qué caminos puedes seguir según quieras algo en la nube, híbrido u off‑line.

Para que no te falte nada, repasamos desde la instalación de dependencias (Node.js, npm, yarn), configuración de claves, ejecución y uso de la interfaz, hasta reconocimiento de voz local con VOSK, integración con modelos a través de API tipo OpenAI (vía Ollama), y aceleración con la NPU Hailo‑8L. Verás también consideraciones de ciberseguridad, una pincelada de gestión de equipos para sacar el proyecto adelante y ejemplos reales funcionando en distintas generaciones de Raspberry Pi.

¿Qué puede hacer un asistente de IA en Raspberry Pi?

Un asistente en Raspberry Pi puede responder dudas, ejecutar acciones locales, controlar dispositivos o convertirse en un punto de entrada por voz con respuestas naturales. En la práctica, verás dos enfoques principales: chat basado en web y asistentes activados por voz, con opciones de cómputo en la nube, en tu red o 100% en local.

En la variante web, como RaspiGPT para PiCockpit, tienes una interfaz de chat con gestión de conversaciones y llamadas a un modelo de lenguaje. En la variante por voz, como el proyecto ASRAI, se combinan micrófonos, reconocimiento de voz local y un LLM accesible por API, incluso desde otra máquina a través de túneles o redes privadas.

RaspiGPT en PiCockpit: un asistente de IA tipo chat

El equipo de PiCockpit desarrolló una app sencilla, bautizada como RaspiGPT, pensada para responder preguntas sobre Raspberry Pi y temas tecnológicos relacionados. Su interfaz ofrece zona de texto y botones para renombrar, denunciar, eliminar o crear nuevos chats, lo justo para conversar con comodidad sin complicarse.

La clave de RaspiGPT está en que es fácil de levantar y cubre lo esencial: entrada de mensajes, llamadas al modelo y respuesta con streaming en tiempo real. Mientras el modelo genera el contenido, lo ves aparecer poco a poco, algo que mejora mucho la experiencia.

Nota Para desplegar tu propia versión necesitas una clave de API de OpenAI. Sin esa credencial no podrás completar la configuración y la app no responderá.

Instalación de dependencias (Raspberry Pi 4 u otros sistemas)

La demo original se ejecuta en una Raspberry Pi 4, pero cualquier sistema con Node.js va igual de bien. El proceso empieza clonando el repositorio del proyecto y preparando el entorno. Necesitarás instalar Node.js, npm y el gestor de paquetes yarn, descargando la build adecuada para tu plataforma.

Si trabajas con una Raspberry Pi 4, la descarga corresponde a ARMv8. Tras obtener el archivo, lo habitual es extraerlo e instalarlo, y después verificar que todo quedó correcto. Comprueba las versiones de node y npm para confirmar que la instalación no dio errores antes de seguir con la app.

  ¿Cuál es el error 80 de Netflix?

Un detalle importante: el nombre del fichero puede cambiar según la versión que descargues, así que ojo al sustituirlo en el comando. Si algo falla, el README del proyecto suele ofrecer pasos adicionales o soluciones para casos típicos.

Con Node.js y npm listos, instala yarn y tendrás la última pieza del entorno preparada. A partir de ahí ya puedes pasar a la construcción y ejecución de la aplicación con total normalidad.

Construcción y configuración de RaspiGPT

Una vez clonado el repo, toca la configuración mínima: crear una clave de API en tu cuenta de OpenAI y referenciarla en el proyecto. Genera la clave (por ejemplo, “RaspiGPT‑Key”) y cópiala con cuidado porque la necesitarás inmediatamente.

Esa clave se pega en la línea correspondiente del archivo de configuración del framework, en este caso «nuxt.config.ts». Sin esa variable bien definida, las llamadas al modelo no se autentican, así que es un paso crítico.

Ejecutar el asistente y usar la interfaz

Con las dependencias instaladas y la clave configurada, solo queda construir y ejecutar el servicio (asegúrate de estar dentro del directorio «gpt-demo»). Al arrancar, la app se aloja en local y puedes abrirla en el navegador en «http://localhost:3000» para empezar a conversar.

El asistente responde con streaming, lo que hace la interacción mucho más fluida: lees mientras la IA redacta. Además, puedes gestionar los chats (renombrar, denunciar, eliminar o crear) desde la propia interfaz sin tocar nada del backend.

En el proyecto original hay previsto un vídeo demostración que llegará más adelante, útil para ver el comportamiento real. Hasta entonces, la app es lo bastante simple como para que te hagas con ella en minutos una vez esté corriendo en tu equipo.

ASRAI: un asistente privado por voz en Raspberry Pi 4

Otra aproximación muy interesante es ASRAI, creado por Adam Frydrych. Aquí la clave es la voz: el sistema escucha, interpreta y responde, respetando tu privacidad. El montaje usa una Raspberry Pi 4 Modelo B, una pantalla GPIO de 3,5 pulgadas y un periférico estrella: la cámara Sony PlayStation Eye.

¿Por qué la PS Eye? Porque, además de la cámara, integra un conjunto de cuatro micrófonos que puedes extraer y usar con la Pi. Cuestan muy poco de segunda mano, se integran con facilidad y dan una calidad de captura más que decente para un proyecto casero.

En software, ASRAI se apoya en VOSK para el reconocimiento de voz en local, sin depender de servicios externos. Para el modelo de lenguaje, en lugar de correrlo en la propia Pi, se utiliza una API compatible con OpenAI expuesta por Ollama en otra máquina de la red.

Gracias a Meshnet de NordVPN, el sistema puede comunicarse con ese servidor LLM desde cualquier lugar, manteniendo el canal privado. Este enfoque híbrido (voz en local + LLM remoto) equilibra latencia, privacidad y potencia, y encaja muy bien en entornos domésticos.

Para rematar, el creador añadió imágenes de “durmiendo” y “escuchando” que se muestran en la pequeña pantalla según el estado del asistente. Si te animas a replicarlo, necesitarás una impresora 3D y un soldador, ya que el diseño implica un poquito de mano.

Si te gustan las ideas en esta línea, existen más experimentos donde convierten una Raspberry Pi en un asistente con funciones de IA, y también comparativas con la Raspberry Pi 5 probando diferentes modelos. La comunidad se mueve rápido y encontrarás referencias en medios especializados hablando de estos montajes.

  ¿Qué escuchar al despertar?

Raspberry Pi 5: potencia y conectividad para tu asistente

La Raspberry Pi 5 supuesto que dobla las posibilidades frente a generaciones previas, con más CPU, memoria y buses modernos. Hablamos de un ARM Cortex‑A76 a 2,4 GHz, opciones de hasta 8 GB de RAM LPDDR4X, Wi‑Fi 5 y Bluetooth 5.0/BLE, y salida de vídeo dual micro‑HDMI con soporte 4K a 60 Hz.

Con estas especificaciones, puedes ejecutar sistemas operativos completos y frameworks de IA ligeros, además de proyectos de automatización o multimedia. Programar en Python, Java o C++ y conectar sensores y actuadores es pan comido con el ecosistema de la Pi.

Kit de IA para Raspberry Pi 5 con Hailo‑8L

Si quieres ir un paso más allá, el AI Kit para Raspberry Pi 5 añade una NPU Hailo‑8L a través de una M.2 HAT+. Esta unidad puede alcanzar hasta 13 TOPS y viene montada en formato M.2 2242, lista para enchufar.

El paquete incluye la M.2 HAT+, el módulo con Hailo‑8L, un cabezal GPIO apilable, espaciadores, tornillos y el cable plano para la conexión con PCIe de la Pi 5. La placa incorpora además un disipador para mantener a raya la temperatura cuando el acelerador está a pleno rendimiento.

Una vez instalado el hardware, el software se integra con el entorno Raspberry Pi OS: libcamera, rpicam‑apps y picamera2 están soportados. Los controladores de Hailo, HailoRT y HailoTappas se instalan cómodamente con apt, sin pelear con compilaciones raras.

Este AI Kit es el primero de una gama pensada para llevar IA de alto rendimiento a la Pi con eficiencia energética. Sirve para detección de objetos, reconocimiento facial, asistentes locales y otros casos de IA en el borde que necesitan baja latencia y privacidad.

Reconocimiento de voz, NLP y síntesis: opciones de software

Para capturar comandos por voz tienes varias rutas. En local, VOSK es una alternativa sólida, y también existen motores como PocketSphinx; si buscas servicios cloud, hay bibliotecas que conectan con proveedores externos. En Python, la librería SpeechRecognition facilita la integración con diferentes backends de STT.

Para entender la intención del usuario entra en juego el procesamiento del lenguaje natural. Un LLM accesible vía API tipo OpenAI te simplifica la parte semántica, ya sea un modelo en la nube, uno que expongas con Ollama en tu red o incluso alguno optimizado que corra en la Pi 5.

Para responder por voz, pyttsx3 es una opción de síntesis de texto a voz que no depende de Internet. Con estos bloques (STT + LLM + TTS) puedes construir un loop conversacional completo que corra en una Pi o con apoyo de otra máquina.

Caso práctico en Raspberry Pi 5: instalación y scripting

Si quieres algo minimalista en Pi 5, instalar una imagen ligera como Raspbian Lite libera recursos para la IA. Después, configura las librerías necesarias (por ejemplo, SpeechRecognition y pyttsx3) y crea tus scripts en Python con la lógica de tu asistente.

La ventaja de esta aproximación es que ajustas cada pieza a tu caso: palabra de activación, flujo de diálogo, acciones del sistema y dispositivos. Al final, tu Pi puede ejecutar tareas locales o mandar órdenes a otros equipos conectados por Wi‑Fi o Bluetooth.

Proyectos 100% en la Pi 5: modelos pequeños pero útiles

Si prefieres todo en la propia Raspberry Pi 5, hay ejemplos reales de agentes que funcionan íntegramente en la placa. Un caso destacable usa modelos compactos como Qwen3 1.7B y Gemma3 1B, con detección de palabra de activación, transcripción e inferencia ejecutándose en el mismo dispositivo.

  Lo que un tesla ve cuando conduce solo dentro de la ciudad

Este tipo de proyectos demuestra que, con optimizaciones y modelos reducidos, la conversación básica y el control de herramientas son viables sin apoyos externos. El código y la documentación pública permiten replicar el montaje y aprender los trucos de rendimiento que lo hacen posible.

Hardware de audio: por qué un array de micrófonos marca la diferencia

La captación de voz es crítica en asistentes activados por palabras clave. Reutilizar el array de 4 micrófonos de la Sony PlayStation Eye es una idea barata y funcional que ya ha probado su eficacia en la Raspberry Pi 4.

Con un buen array y un motor de STT local, reduces ruido, mejoras precisión y evitas depender de la red para entender al usuario. Este equilibrio entre hardware sencillo y software optimizado es lo que hace tan práctico el enfoque maker en la Pi.

Ciberseguridad y mantenimiento: lo que no debes pasar por alto

Con asistentes conectados, la seguridad importa. Mantén actualizado el sistema, librerías y dependencias para mitigar vulnerabilidades conocidas. Una red aislada para tus dispositivos IoT y cifrado en las comunicaciones disminuyen la superficie de ataque ante intentos externos.

Aunque no hay CVE señaladas específicamente para un asistente en Pi 5 en este contexto, conviene seguir de cerca problemas comunes en IoT. Vulnerabilidades como CVE‑2021‑22945 o CVE‑2021‑22946 recuerdan la importancia de parchear y revisar cualquier servicio expuesto.

Gestión del proyecto: influencia sin autoridad para que el equipo fluya

Si trabajas con más gente en un asistente de IA, la coordinación cuenta tanto como el código. La autoridad formal ayuda, pero la credibilidad, las relaciones y la visibilidad suelen pesar más a la hora de desbloquear dependencias.

Asume que en cualquier organización hay política: prioridades distintas, presiones y miradas diversas. Tu papel es gestionar esas tensiones con empatía, cartografiar interdependencias y construir confianza, no imponer por título.

Pregúntate quién necesita cooperar, quién podría frenar un avance y quién depende de tu entrega. Hasta que el entorno no perciba que quieres hacer lo correcto, sabes cómo y puedes lograrlo, la influencia será limitada, por muy técnico que sea el reto.

El salto final es pasar de “consigo lo que necesito” a “genero victorias compartidas”. Ese cambio de mentalidad acelera la colaboración y la innovación, justo lo que necesita un proyecto transversal como un asistente de IA.

Casos de uso que encajan especialmente bien

Con la Pi 5 y, si lo deseas, la NPU Hailo‑8L, puedes abordar tareas de visión y asistentes híbridos con gran soltura. Control de acceso por reconocimiento facial, un ayudante virtual para tu laboratorio o un robot con conductas básicas de aprendizaje son proyectos perfectamente al alcance.

Si prefieres portabilidad, una Pi 4 con VOSK y un array de micrófonos te da un asistente por voz competente sin depender de la nube. Y si quieres una experiencia de chat cuidada, la propuesta tipo RaspiGPT ofrece lo esencial en minutos, desde el navegador y con respuestas en streaming.

En el terreno del hardware, el AI Kit de Hailo simplifica la entrada al mundo de la aceleración. El hecho de que el software esté empaquetado para apt y se integre con libcamera y picamera2 reduce fricción y permite centrarse en el modelo y el caso de uso.

Con las piezas que has visto puedes elegir tu ruta: nube, híbrido o local; web o voz; Pi 4 o Pi 5 con NPU. Lo importante es que las opciones son reales y están probadas en proyectos de la comunidad, así que solo queda que te lances a construir.