Tesis doctorales de la Escuela Internacional de Doctorado de la URJC desde el curso 2024/25
Diseño y desarrollo de un sistema multisensorial y automático de análisis de la actividad humana para evaluar la funcionalidad (EYEFUL)
Autor
OBESO BENÍTEZ, PAULA
Director
MARTÍNEZ PIÉDROLA, ROSA MARÍA
Codirector
PÉREZ DE HEREDIA TORRES, MARTA
Fecha de depósito
28-04-2026
Periodo de exposición pública
29 de abril a 13 de mayo de 2026
Fecha de defensa
Sin especificar
Programa
Ciencias de la Salud
Mención internacional
No
Resumen
Introducción
La funcionalidad humana, según la Clasificación Internacional del Funcionamiento, la Discapacidad y la Salud, se define como la interacción dinámica entre las funciones y estructuras corporales, la ejecución de actividades y la participación en la vida diaria, modulada por factores personales y ambientales. Desde esta perspectiva, la discapacidad y dependencia no se constituyen por una característica individual, sino por el resultado de dicha interacción entre factores. Las actividades de la vida diaria representan un indicador clave de la funcionalidad y la autonomía personal, ya que las limitaciones en su desempeño se asocian directamente con estados de dependencia. La evaluación de la funcionalidad en contextos reales constituye uno de los principales retos actuales en el ámbito clínico y sociosanitario. Los métodos tradicionales presentan limitaciones y sesgos al basarse en valoraciones puntuales, autoinformes u observaciones en entornos controlados, lo que dificulta la captura objetiva y contextualizada del desempeño real. En este contexto, los sistemas de reconocimiento de actividades humanas han mostrado potencial, aunque frecuentemente fragmentan las tareas y no reflejan la complejidad funcional de las actividades de la vida diaria.
El sistema EYEFUL surge como una propuesta innovadora a la necesidad de herramientas que operativicen el enfoque de la CIF, mediante el uso de tecnologías multisensoriales y algoritmos de inteligencia artificial para el análisis del desempeño funcional en actividades completas y significativas, con el objetivo de aportar una evaluación más objetiva, contextualizada y clínicamente relevante de la funcionalidad en entornos reales.
Objetivo
Definir, diseñar y desarrollar EYEFUL, un sistema automático multisensorial para el análisis de la capacidad funcional y del estado de dependencia a través del desempeño de las actividades de la vida diaria.
Metodología
El trabajo se desarrolló en dos fases. La Fase 1 consistió en el diseño y desarrollo iterativo del sistema EYEFUL, basado en un modelo de desarrollo tecnológico. En esta fase se definieron las actividades, métricas funcionales, configuraciones de sensorización, algoritmos de detección, interfaz de usuario e inferencias clínicas, así como la implementación del sistema y la realización de pruebas piloto. La Fase 2 correspondió a un estudio observacional transversal destinado a la validación técnica del sistema, junto con la evaluación de la validez de contenido y el análisis de la fiabilidad clínica del sistema.
Resultados
Los resultados obtenidos evidenciaron que el sistema EYEFUL es capaz de detectar y analizar de manera consistente el desempeño funcional de las personas durante la realización de actividades de la vida diaria en entornos reales. De forma global, el sistema mostró un funcionamiento técnico robusto, con una detección fiable de las actividades definidas y una adecuada integración de la información procedente de los distintos sensores, lo que permitió superar las limitaciones asociadas a enfoques basados en tareas aisladas o datos parciales.
El análisis del desempeño funcional permitió generar métricas objetivas coherentes con los parámetros funcionales definidos en el diseño metodológico, ayudando a la identificación de la capacidad funcional y la situación de dependencia. Los resultados obtenidos para las diferentes actividades evaluadas mostraron una alta consistencia interna, lo que respalda la estabilidad del sistema en la evaluación de actividades completas y significativas desde el punto de vista funcional.
En relación con la validación clínica, el estudio de validez de contenido reflejó un alto grado de acuerdo entre expertos, confirmando la relevancia clínica, claridad y adecuación de las actividades, métricas e inferencias propuestas por el sistema EYEFUL. Asimismo, los análisis de fiabilidad clínica mostraron una adecuada consistencia en la medición de la capacidad funcional, apoyando la reproducibilidad de los resultados.
Conclusiones
Los resultados de esta tesis permiten concluir que EYEFUL es un sistema automático y multisensorial fiable y clínicamente coherente para el análisis de la capacidad funcional y el estado de dependencia, a partir de la observación del desempeño en actividades de la vida diaria. La validez técnica, la validez de contenido y la fiabilidad clínica demostradas respaldan su aplicabilidad en contextos reales. Además, la definición conceptual, el procedimiento de diseño y el proceso metodológico clínico y técnico empleados se mostraron adecuados y coherentes con las necesidades del ámbito clínico. El enfoque interdisciplinar adoptado refuerza la consistencia interna del sistema y su potencial como herramienta objetiva de evaluación funcional.
Palabras clave:
Actividades de la vida diaria; Evaluación funcional; Dependencia; Sistema multisensorial; Inteligencia artificial; Tecnología.
La presente tesis doctoral se enmarca en un proyecto con financiación pública, aprobado por el Ministerio de Ciencia e Innovación Español, con referencia MICINN/AEI/10.13039/501100011033. Proyecto aprobado en la convocatoria 2020 de «Proyectos de I+D+i» de los Programas Estatales de Generación de Conocimiento y Fortalecimiento Científico y Tecnológico del Sistema de I+D+i y de I+D+i Orientada a los Retos de la Sociedad.