Qué es Apple PARS (PAirwise Relative Shift) y cómo puede transformar los futuros AirPods

Última actualización: diciembre 3, 2025
Autor: Isaac
  • Apple PARS es un método de autoaprendizaje que analiza EEG sin etiquetado humano, prediciendo el desplazamiento temporal entre fragmentos de señal.
  • La combinación de PARS y ear‑EEG permite obtener información cerebral útil desde el oído, encajando con la posible integración en futuros AirPods.
  • Patentes de Apple describen auriculares con múltiples electrodos en el oído y selección inteligente de las mejores señales mediante IA.
  • Las aplicaciones van del seguimiento del sueño y el bienestar mental a la detección temprana de anomalías, con fuertes retos de privacidad y regulación.

Ilustración sobre Apple PARS y ear EEG

La idea de que unos AirPods puedan llegar a leer ciertas señales procedentes del cerebro ya no suena a guion de ciencia ficción. Entre estudios científicos, patentes y prototipos, se está dibujando un escenario en el que Apple aprovecharía el oído como punto de acceso privilegiado a la actividad eléctrica cerebral, combinando sensores diminutos con modelos de inteligencia artificial muy avanzados.

Por ahora, eso sí, seguimos en un terreno de investigación, ensayos de laboratorio y documentos técnicos, sin ningún producto oficial anunciado. Pero todo lo que ya se ha publicado —incluido un trabajo aceptado en un taller de NeurIPS 2025— permite entender bastante bien qué es Apple PARS (PAirwise Relative Shift), cómo funciona este método de autoaprendizaje para EEG y por qué encaja tan bien con la posible llegada de unos “AirPods cerebrales”.

Qué es Apple PARS (PAirwise Relative Shift) y qué problema intenta resolver

En el corazón de esta línea de investigación está PARS, siglas de PAirwise Relative Shift, un método de aprendizaje autosupervisado diseñado para entender señales de electroencefalografía (EEG) sin necesitar que neurólogos etiqueten a mano miles de registros. En vez de depender de bases de datos donde alguien ha marcado a qué parte del sueño corresponde cada fragmento o cuándo empieza una crisis epiléptica, PARS se alimenta de EEG “en bruto”.

La clave de PARS es plantear a la inteligencia artificial una tarea aparentemente sencilla pero muy potente: el algoritmo recibe dos ventanas cortas de señal EEG escogidas al azar y debe averiguar cuál es el desplazamiento temporal entre ellas, es decir, cuánto se han movido una respecto a la otra en la línea de tiempo.

Al acostumbrar al modelo a resolver ese “rompecabezas de posiciones relativas”, PARS obliga a la red a capturar la estructura global y de largo alcance de las ondas cerebrales, no solo patrones locales muy cortos. De esa forma genera representaciones internas ricas que luego sirven para muchas tareas: clasificar fases de sueño, detectar anomalías neurológicas, identificar convulsiones o diferenciar actividad normal de actividad patológica.

Hasta ahora, buena parte de los métodos de autoaprendizaje en EEG se habían centrado en técnicas tipo masked autoencoders (MAE), que “tapan” trozos de la señal y entrenan al modelo para reconstruir lo que falta. Ese enfoque captura bien patrones locales, pero es menos eficaz para dependencias de largo recorrido en el tiempo. PARS se sitúa justo en el extremo contrario: en lugar de rellenar huecos, se focaliza en comprender la composición temporal relativa entre segmentos lejanos, lo que parece encajar mejor con la naturaleza de las señales neuronales.

En los experimentos descritos por los investigadores, los transformadores preentrenados con PARS igualan o superan el rendimiento de otras estrategias de self-supervised learning en varias tareas de decodificación de EEG, tanto en escenarios con pocas etiquetas como en contextos de transferencia a nuevos conjuntos de datos. Es decir, con menos anotaciones humanas, se consigue un rendimiento muy competitivo o incluso mejor.

Esquema de tecnología Apple PARS y AirPods

Cómo funciona el preentrenamiento PARS en las señales EEG

El mecanismo de PARS se basa en una tarea de pretexto: una misión artificial creada para que el modelo aprenda representaciones útiles sin supervisión explícita. El procedimiento, a grandes rasgos, sigue siempre la misma filosofía, aunque pueda variar en detalles técnicos según el experimento.

Primero, se toman grabaciones de EEG de distinta procedencia —por ejemplo, registros de sueño, bases de datos con episodios epilépticos o señales recogidas desde el oído— y se segmentan en pequeñas ventanas temporales. De cada señal continua se extraen múltiples fragmentos, que luego se emparejan de manera aleatoria.

El modelo recibe pares de ventanas y debe predecir el desplazamiento temporal relativo (relative shift) entre ellas. No se le dice qué etapa del sueño está viendo ni si hay una convulsión; solo se le pide que determine si una ventana va antes o después, y a qué distancia, dentro de la misma secuencia original.

En vez de tratar de tratar de reconstruir los valores exactos de una parte oculta de la señal, PARS entrena a los codificadores para codificar relaciones temporales de largo alcance, mejorando la sensibilidad a cómo cambian los patrones neuronales a lo largo del tiempo. Este tipo de comprensión resulta especialmente útil para distinguir transiciones lentas, como las que se producen entre fases de sueño NREM y REM o entre estados de vigilia relajada y sueño profundo.

Una vez que el modelo ha sido preentrenado con esta tarea, se reutiliza como bloque base para distintos problemas clínicos o de bienestar: basta con añadir una capa de clasificación específica y ajustar el sistema con un conjunto de datos relativamente pequeño y etiquetado. El resultado es un rendimiento muy sólido sin tener que anotar manualmente cantidades ingentes de EEG, algo que suele ser caro y lento.

  ¿Qué es mejor HD o Full HD?

Conjuntos de datos y tareas: del sueño a las crisis epilépticas

La potencia de PARS no se queda en lo teórico; el método se ha evaluado en múltiples bases de datos clínicas de EEG, abarcando tareas muy diferentes. Esto es importante porque demuestra que las representaciones que aprende el modelo son versátiles y transferibles.

Entre los conjuntos de datos utilizados destacan, por ejemplo, registros orientados a la clasificación de las fases del sueño con wearables, donde se analizan transiciones entre vigilia y sueño, así como las distintas fases NREM (1, 2 y 3) y la fase REM caracterizada por movimientos oculares rápidos y alta actividad cerebral.

También se han empleado bases centradas en la detección de EEG anómalo, donde el objetivo es distinguir entre patrones considerados normales y otros que sugieren alteraciones neurológicas. A esto se suman conjuntos específicos para el estudio de crisis epilépticas, en los que el modelo debe identificar segmentos que corresponden a convulsiones o descargas anómalas en el cerebro.

Otra línea de evaluación relevante es la llamada imaginación motora, donde se pide a los sujetos que imaginen movimientos (por ejemplo, mover una mano) sin realizarlos físicamente, y el EEG recoge estos patrones. Es una tarea muy usada en interfaces cerebro-computador, y sirve para ver si el modelo es capaz de reconocer intenciones de movimiento a partir de señales sutiles.

En la mayoría de estas pruebas, los modelos preentrenados con PARS superaron o igualaron las mejores técnicas anteriores de aprendizaje autosupervisado para EEG, especialmente cuando se disponía de pocas etiquetas. Este comportamiento refuerza la sensación de que centrarse en la predicción de desplazamientos temporales ayuda a capturar aspectos globales de la señal que resultan valiosos en distintos contextos.

EEG desde el oído (ear‑EEG): por qué encaja con los futuros AirPods

Uno de los elementos más llamativos de la investigación es el uso de registros de EEG obtenidos desde el oído, en lugar de los típicos electrodos colocados sobre el cuero cabelludo. Esta modalidad, conocida como ear‑EEG o EEG auricular, utiliza electrodos situados dentro o alrededor del pabellón auditivo para captar la actividad eléctrica cerebral.

En conjuntos de datos como EESM17, se recopila información del sueño mediante un sistema portátil de ear‑EEG de varios canales, a menudo combinado con mediciones tradicionales en la cabeza. Los resultados muestran que, a pesar de que las señales desde el oído son algo más débiles y ruidosas, siguen reflejando patrones clínicamente significativos, como las distintas fases del sueño o ciertas características asociadas a convulsiones.

La gran ventaja de este enfoque es su discreción y comodidad. Frente a los cascos clínicos llenos de cables, un sistema basado en el oído es mucho menos visible y más fácil de llevar durante horas, incluso en el día a día. Y ahí es donde entran con fuerza unos posibles AirPods equipados con sensores.

Apple lleva años reforzando la vertiente de salud de su ecosistema: ECG en el Apple Watch, medición de oxígeno en sangre, sensores ópticos avanzados y funciones de seguimiento físico cada vez más completas. Integrar la lectura de señales cerebrales desde el oído sería, en cierto modo, una extensión natural de esa estrategia, aprovechando un dispositivo que millones de personas ya usan a diario.

En mercados como España y el resto de Europa, donde el uso de auriculares inalámbricos está muy extendido, convertir los AirPods en un punto de medición continua de estados cerebrales y fisiológicos podría abrir la puerta a aplicaciones de bienestar, monitorización del sueño y seguimiento de posibles problemas neurológicos, sin requerir cambios drásticos en los hábitos cotidianos.

La patente de 2023: electrodos en el oído y selección inteligente de señales

Además de los artículos científicos, Apple ha registrado una patente en 2023 para un dispositivo electrónico portátil capaz de medir bioseñales desde el oído del usuario. Aunque el documento no cita de forma explícita a los AirPods, las ilustraciones y descripciones recuerdan mucho a unos auriculares intraaurales.

La patente explica que la actividad cerebral puede medirse no solo con electrodos distribuidos sobre el cuero cabelludo, sino también con electrodos colocados dentro o alrededor de la oreja externa. Esta opción ofrece ventajas evidentes: menos visibilidad, mayor comodidad y posibilidad de usar el sistema mientras el usuario trabaja, camina o descansa en casa.

Sin embargo, el documento también reconoce una limitación importante: cada persona tiene un oído con forma diferente. Regiones como la concha, el canal auditivo o el trago varían bastante entre individuos, lo que dificulta que un diseño único garantice siempre el mejor contacto entre el electrodo y la piel en todos los usuarios.

Para sortear ese obstáculo, Apple plantea un diseño con más electrodos de los estrictamente necesarios, distribuidos estratégicamente por la carcasa interna del auricular. A partir de esas múltiples mediciones, un modelo de inteligencia artificial evaluaría en tiempo real qué electrodos ofrecen mejor calidad de señal, considerando parámetros como la impedancia o el nivel de ruido.

El dispositivo combinaría entonces las lecturas de los distintos sensores para generar una señal cerebral “fusionada” optimizada, asignando más peso a los canales de mayor calidad. La patente contempla además gestos táctiles —como tocar o presionar el auricular— para iniciar o detener la captura de bioseñales, y variantes de diseño pensadas para adaptarse a oídos con geometrías muy diversas.

  Quemar una iso en mac os sierra 10 12 el capitan 10 11

Cómo podrían funcionar unos AirPods con lectura de señales cerebrales

Si unimos las piezas —el método PARS, el ear‑EEG y la patente de 2023— no es difícil imaginar el funcionamiento básico de unos AirPods capaces de registrar e interpretar señales cerebrales. La idea consistiría en integrar electrodos y sensores bioeléctricos en las zonas del auricular que contactan con el canal auditivo y la oreja externa.

Estos sensores captarían pequeñas variaciones de potencial eléctrico ligadas a la actividad neuronal, además de otras bioseñales cercanas como la actividad muscular facial, los movimientos oculares o cambios en el volumen de sangre que pasa por los vasos del oído. Un chip integrado en cada auricular se ocuparía de una primera fase de trabajo: segmentar la señal, filtrar parte del ruido y normalizar los datos.

A continuación, las señales preprocesadas se enviarían de forma inalámbrica a un iPhone, iPad o Apple Watch, donde modelos de IA más potentes —entrenados con esquemas tipo PARS— analizarían la información para extraer patrones relevantes. Gracias al preentrenamiento autosupervisado, el sistema podría reconocer fases del sueño, episodios inusuales o cambios en el nivel de atención sin necesidad de que un neurólogo etiquete manualmente cada registro.

Entre los usos que se plantean en los documentos están la monitorización detallada de las fases del sueño, la detección temprana de posibles crisis epilépticas, el seguimiento de irregularidades neurológicas y la observación de indicadores relacionados con el sistema nervioso o la circulación. También se abre la puerta a aplicaciones orientadas a la concentración, la fatiga o el estado de alerta, tanto para usuarios particulares como para entornos profesionales.

En la práctica, la idea es que el usuario apenas tenga que cambiar su rutina diaria: bastaría con ponerse los AirPods como siempre. El sistema podría activarse manualmente mediante un gesto o funcionar de manera programada en determinadas franjas, por ejemplo durante la noche, para después mostrar en el móvil informes sobre la calidad del descanso, interrupciones del sueño o episodios de estrés detectados.

Capacidades potenciales: del sueño al bienestar mental

Los estudios y patentes sugieren que unos AirPods con sensores EEG podrían llegar a realizar funciones que hoy se asocian a equipos hospitalarios complejos, todo ello desde un dispositivo pequeño y discreto. La detección de fases del sueño es uno de los campos donde esta tecnología parece más madura.

Mediante el análisis de las señales recogidas mientras la persona duerme, el sistema sería capaz de identificar segmentos correspondientes al despertar, a las fases NREM (1, 2 y 3) y a la fase REM. Las fases NREM son cruciales para la recuperación física y la reparación del organismo, mientras que la fase REM se asocia a una intensa actividad cerebral y a la consolidación de ciertos tipos de memoria.

Además, los sensores podrían actuar como una herramienta de biofeedback para entrenar la concentración y el bienestar mental, proporcionando información sobre niveles de atención, estados de relajación o episodios de estrés. En combinación con otros sensores —por ejemplo, de volumen sanguíneo o actividad muscular— se podrían construir indicadores bastante completos del estado fisiológico y emocional del usuario.

A medio y largo plazo, las posibilidades van desde la detección temprana de trastornos del sueño, epilepsia o enfermedades neurodegenerativas, hasta el apoyo en rutinas de entrenamiento, la prevención de somnolencia al volante o la personalización del descanso. Siempre con la cautela de que, para usos médicos regulados, harían falta ensayos clínicos rigurosos y la aprobación de las autoridades sanitarias.

Conviene matizar que, en una primera etapa, lo más probable es que estos sistemas se sitúen más cerca del seguimiento de bienestar general que de un dispositivo clínico de diagnóstico. Pero el salto de comodidad que supone medir desde el oído puede acelerar la adopción de registros frecuentes, algo muy valioso para complementar la atención médica tradicional.

Ventajas y límites de medir la actividad cerebral desde el oído

Elegir el oído como punto de medida tiene mucho sentido desde el punto de vista práctico. Un sistema de ear‑EEG ofrece una visibilidad muy reducida frente a los cascos clínicos clásicos, lo que facilita su uso en entornos cotidianos como el transporte público, la oficina o la universidad sin llamar la atención.

Además, los auriculares se han convertido en un accesorio que muchas personas llevan puestos durante horas cada día, lo que hace posible obtener registros frecuentes y a largo plazo sin desplazarse constantemente a una consulta. Para quienes sufren problemas de sueño o siguen tratamientos neurológicos, contar con estos datos recogidos en casa podría resultar especialmente útil como complemento al seguimiento médico.

La cruz de la moneda es que las señales captadas desde el oído suelen ser más débiles y ruidosas que las registradas en el cuero cabelludo. Actividades tan normales como hablar, masticar o hacer ejercicio introducen artefactos que distorsionan la lectura, por lo que el sistema debe aplicar estrategias avanzadas de filtrado, cancelación de ruido y corrección de movimiento.

El ajuste físico del auricular también influye enormemente: un ligero cambio de posición puede alterar el contacto entre el electrodo y la piel y degradar la calidad de la señal. Para minimizar este problema, se necesitan diseños ergonómicos muy trabajados y algoritmos de calibración continua que se adapten a pequeños desplazamientos y a la diversidad de anatomías de oído.

  ¿Qué es el significado de decibeles?

Desde un punto de vista científico, otra limitación es que el ear‑EEG quizá no alcance en todas las tareas la precisión de un montaje clínico de EEG de alta densidad sobre el cuero cabelludo. Por eso, al menos inicialmente, su papel podría estar más cerca del monitoreo continuo y la detección de tendencias que de reemplazar los estudios hospitalarios tradicionales cuando se necesita un diagnóstico detallado.

Privacidad, datos sensibles y regulación en Europa

Más allá de la parte técnica, la idea de que unos auriculares puedan leer señales cerebrales plantea cuestiones serias sobre privacidad, seguridad de datos y regulación, especialmente en la Unión Europea, donde el Reglamento General de Protección de Datos (RGPD) trata la información sanitaria como categoría especialmente protegida.

Los registros EEG pueden revelar patrones de sueño, posibles trastornos neurológicos o indicadores indirectos de atención y fatiga. Estamos hablando de datos extremadamente sensibles, que encajan de lleno en la categoría de información sanitaria. Su tratamiento requiere bases legales claras, consentimiento explícito e información transparente para el usuario sobre qué se hace con sus datos.

Si Apple llegara a comercializar en Europa unos AirPods con estas capacidades, tendría que garantizar un cifrado robusto de las bioseñales tanto en la transmisión como en el almacenamiento, políticas de retención de datos muy claras y mecanismos sencillos para ejercer derechos como acceso, rectificación, portabilidad o borrado del historial.

Otro aspecto complejo será trazar la frontera entre un producto de consumo orientado al bienestar y un dispositivo médico regulado. Si las funciones se centran en la mejora del descanso, el control del estrés o indicadores generales, el marco normativo será más flexible; si se posiciona como herramienta de diagnóstico o tratamiento de patologías concretas, entrarán en juego normas más exigentes y la supervisión de organismos como las agencias nacionales de medicamentos o la Agencia Europea de Medicamentos.

Los reguladores europeos ya están muy atentos al auge de la salud digital y de los wearables avanzados. Una tecnología capaz de leer señales cerebrales desde el oído probablemente impulsará la necesidad de actualizar y concretar los marcos regulatorios, buscando un equilibrio entre apoyar la innovación y proteger los derechos fundamentales de los ciudadanos en países como España, Francia o Alemania.

Estado actual del desarrollo y horizonte temporal de los «AirPods cerebrales»

Con todo lo que se sabe hasta ahora, la situación se sostiene en tres pilares: investigación en IA aplicada al EEG, patentes de hardware para ear‑EEG y proyectos de otras empresas que ya trabajan en auriculares biométricos. Ninguno de estos elementos, por sí solo, implica que el lanzamiento de unos AirPods capaces de leer señales cerebrales sea inminente.

El trabajo sobre PARS deja claro que hablamos de experimentos de laboratorio centrados en representación de señales, no de un producto empaquetado listo para su venta. El objetivo principal es comprobar si la predicción de desplazamientos temporales mejora la calidad de las representaciones internas de EEG y, por lo tanto, el rendimiento en tareas como la clasificación del sueño o la detección de crisis.

En paralelo, las patentes suelen describir caminos posibles más que compromisos firmes. Muchas solicitudes se registran para proteger ideas, diseños o tecnologías que quizás se retomen años más tarde, si encajan con la estrategia comercial o con el estado de madurez del mercado. Que exista una patente sobre bioseñales en el oído no garantiza que veamos un producto comercial basado en ella.

Además, ya hay compañías especializadas —como algunos fabricantes de wearables biométricos— que han presentado auriculares orientados a medir actividad cerebral y señales relacionadas con el nervio vago o con vasos sanguíneos del canal auditivo. Estos proyectos demuestran que el sector está en plena efervescencia y que la apuesta por el oído como punto de registro de bioseñales no es exclusiva de Apple.

Teniendo en cuenta los tiempos de desarrollo de hardware, la necesidad de validaciones extensas y los requisitos regulatorios, es razonable pensar que, si esta línea sigue adelante, veremos avances progresivos en los próximos años —nuevos sensores, funciones de sueño más avanzadas, análisis básicos de EEG auricular— más que un salto repentino hacia unos auriculares que “lean la mente” de la noche a la mañana.

Todo apunta a que Apple está construyendo, pieza a pieza, la base tecnológica para que unos futuros AirPods dejen de ser solo un accesorio de audio y se conviertan en una ventana discreta a la actividad cerebral: sensores en el oído, modelos de IA capaces de aprender sin anotaciones humanas y una capa de software orientada al bienestar y, quizá, a ciertos usos clínicos. Que esa visión acabe integrándose en la vida cotidiana de los usuarios en España y el resto de Europa dependerá tanto de la madurez técnica y normativa como del grado de confianza que la gente esté dispuesta a depositar en un dispositivo que hoy utilizan para escuchar música y atender llamadas, y que mañana podría manejar las señales más íntimas de su propio cerebro.

Artículo relacionado:
Apple patenta la carga inalambrica entre iphones ipads y mac