Apple tiene una tecnología con la que podría leer e interpretar señales del cerebro directamente desde los AirPods. La propia compañía de Cupertino ha publicado un estudio en el que describe un método para analizar señales de electroencefalograma utilizando pequeños sensores y electrodos en los auriculares.
La investigación se basa en una técnica llamada PARS (desplazamiento relativo por pares), que utiliza IA para aprender a partir de señales cerebrales sin que una persona las tenga que etiquetar de forma manual.
Los AirPods podrían medir aspectos de la actividad cerebral
¿Cómo funciona? En el estudio se explica que, en lugar de depender del trabajo de un neurólogo para identificar cada detalle de una señal, el sistema es capaz de comparar fragmentos aleatorios y calcular la diferencia temporal entre ellos. Es decir, con este proceso puede detectar los patrones relacionados con la actividad cerebral y el sueño.
La información del estudio, que recogen también en 9to5Mac, cuenta que los investigadores comprobaron que este método podía clasificar con un avanzado grado de fiabilidad las etapas del sueño, utilizando datos obtenidos desde la oreja. De hecho, Apple tiene una solicitud de patente de 2023 en la que se muestran auriculares con sensores capaces de registrar actividad eléctrica desde el oído.
Esto significa que, en el futuro, los AirPods podrían medir aspectos concretos de la actividad cerebral sin tener equipos más grandes. Eso sí, para lograr precisión en la medición, los auriculares necesitarían varios electrodos y un chip interno que divida las zonas de lectura. Después, el iPhone procesionaria la información y eliminaría el ruido para enviar los datos limpios al modelo de IA encargado de interpretarlos.
Fuente: 20minutos.es



