Ingeniería
Ir a Estadísticas
Permanent URI for this collection
Bienvenido a la colección de Tesis Doctorales de Ingeniería de la Universidad de Murcia.
Este portal está dirigido a los investigadores y profesores de la Universidad de Murcia con la finalidad de aumentar la visibilidad de sus tesis doctorales pertenecientes al ámbito de la Ingeniería.
News
Si es Ud. Investigador o Profesor de la UMU y desea que se integre su Tesis Doctoral en esta colección contacte con la siguiente dirección archivum@um.es
Browse
Recent Submissions
- PublicationOpen AccessTowards Interoperability and Novel Methodological Approaches for Scalable Game-Based Assessment(Universidad de Murcia, 2025-10-07) Gómez Moratilla, Manuel Jesús; García Clemente, Félix Jesús; Ruipérez Valiente, José Antonio; Sin departamento asociado; Escuelas::Escuela Internacional de DoctoradoA medida que el siglo XXI progresa, surgen nuevas metodologías de evaluación que desafían los enfoques tradicionales para evaluar conocimientos, habilidades y comportamientos. La Evaluación Basada en Juegos (Game-Based Assessment, GBA) ha ido ganando atención durante los últimos años debido a su potencial para mejorar los enfoques de evaluación actuales, demostrando ser muy buenas alternativas a las formas convencionales de evaluación como las pruebas escritas. Dado este gran potencial para transformar las prácticas de evaluación tradicionales, el objetivo principal de esta tesis es explorar y desarrollar enfoques metodológicos y técnicos que permitan utilizar las GBAs como una solución para ofrecer evaluaciones válidas y robustas. Específicamente, esta tesis plantea cinco objetivos: el primer objetivo propone un análisis y evaluación exhaustivos del campo de GBA, especialmente teniendo en cuenta el reciente aumento en la popularidad de los juegos y el aprendizaje digital. El segundo objetivo de esta tesis se centra en el diseño y desarrollo de un modelo semántico interoperable para datos de interacción de estudiantes con juegos. El tercer objetivo se orienta al diseño y creación de una arquitectura eficiente capaz de ejecutar GBAs a gran escala. En cuarto lugar se explora el uso de Inteligencia Artificial Explicable (XAI) para mejorar la predicción del rendimiento estudiantil. Por último, el quinto objetivo se centra en la optimización del proceso de etiquetado de datos para técnicas de IA en el ámbito de las GBAs mediante la creación de una herramienta práctica. Para cumplir dichos objetivos, se ha seguido una metodología estructurada con pasos claramente definidos. En primer lugar, una revisión sistemática de 65 estudios recientes permitió identificar tendencias actuales, metodologías comúnmente utilizadas y brechas potenciales en la literatura. En segundo lugar, para abordar el problema de interoperabilidad identificado previamente, se diseñó e implementó un modelo ontológico para estandarizar distintos formatos de datos provenientes de diferentes juegos. Tras este desarrollo se realizó una evaluación formal y pruebas con datos reales, cumpliendo así con el segundo objetivo. Después, para abordar el tercer objetivo y proporcionar una arquitectura escalable, se desarrolló un sistema interoperable utilizando un motor de procesamiento de datos estructurados de código abierto como base, lo que permitió el procesamiento de grandes volúmenes de datos de forma eficiente. Posteriormente, se llevó a cabo una validación mediante un caso de estudio para demostrar la aplicación en escenarios del mundo real. El siguiente paso desarrolló un modelo de predicción del rendimiento del estudiante en un juego serio utilizando técnicas de Machine Learning (ML), incorporando interpretabilidad ya sea de forma inherente o a través de técnicas de XAI. Finalmente, el quinto paso de la metodología consistió en desarrollar una herramienta práctica diseñada específicamente para el etiquetado de distintos tipos de datos en entornos de GBA, con soporte para entradas de audio, video y datos de interacción. Como principales conclusiones, esta tesis doctoral subraya el valor y potencial de las GBAs para la educación y la formación. Aunque hemos visto que es posible extraer e inferir conocimiento valioso de los datos de interacción de los usuarios, sigue siendo necesario avanzar hacia marcos de evaluación más estandarizados, ya que la actual especificidad limita la replicación de experimentos y la transferibilidad de los resultados a la práctica. Además, la revisión realizada también puso de manifiesto la importancia de diseñar juegos con diseños de calidad en lugar de las típicas implementaciones básicas, como la inclusión de cuestionarios durante distintas etapas del juego. Por último, cabe destacar la necesidad de métodos de evaluación más sofisticados que logren captar la complejidad y naturaleza contextual de ciertas habilidades y comportamientos.
- PublicationOpen AccessEvaluome : Automated discovery of an underlying latent factor in research methods(Universidad de Murcia, 2025-10-03) Bernabé Díaz, José Antonio; Fernández Breis, Jesualdo Tomás; Franco Nicolás, Manuel; Sin departamento asociado; Escuelas::Escuela Internacional de DoctoradoEsta tesis desarrolla Evaluome, un marco de trabajo capaz de evaluar métricas cuantitativas mediante procesos de validación externa e interna, y métodos de clustering, para poder obtener el número de conjuntos (k clústeres) en los que las métricas se pueden agrupar. El marco de trabajo se aplicará sobre conjuntos de datos de métricas del dominio biomédico y ontológico. Los objetivos principales incluyen establecer un marco para la validación automatizada de métricas, determinar el número óptimo de k clústeres, mejorar la robustez del clustering en datos con valores atípicos, y aumentar la accesibilidad del trabajo para investigadores no expertos en esta materia. Estos objetivos se desarrollan y completan a través de tres publicaciones y dos recursos de software. La metodología se fundamenta en una revisión exhaustiva de la literatura, que condujo al desarrollo de métodos para calcular índices de validación externa e interna. El índice de Jaccard se utiliza para evaluar la estabilidad mediante remuestreo (bootstrapping) en ausencia de un estándar de referencia (gold standard), y para la validación externa cuando existe un estándar de referencia. Para la calidad de los clústeres o validación interna, se usa el índice de Silhouette. Estos índices de validación se integran en un algoritmo que determina el número óptimo de k clústeres, encargado de maximizar la estabilidad y calidad en un rango de k (por ejemplo, k ∈ [2,6]). Para procesar datos con valores atípicos (outliers), se incorporaron técnicas de preprocesamiento de datos, como el Análisis de Componentes Principales (ACP), y se desarrolló el método “Automated Trimmed & Sparse Clustering” (ATSC), el cual determina automáticamente los parámetros como la porción de recorte (α) y esparsididad (s), con el fin de determinar el número de particiones k óptimo para datos con valores atípicos. Los resultados de la tesis se reflejan en tres publicaciones indexadas en Journal Citation Reports (JCR). El primer artículo estableció las bases de Evaluome, presentando métodos de validación de clústeres automatizados y un algoritmo para determinar el k óptimo en datos de métricas de ontologías. El segundo, generalizó los métodos del marco para su aplicabilidad en otros dominios, como el bibliométrico y de meta-análisis, introduciendo a su vez un portal web basado en R Shiny para mejorar la accesibilidad. El tercero incorporó técnicas de preprocesamiento de datos y ATSC, mejorando la fiabilidad del clustering en datos biomédicos con un estándar de referencia y con valores atípicos. Todos estos avances del marco Evaluome se implementan en el paquete R “evaluomeR”, de código abierto, disponible tanto en GitHub como en Bioconductor, permitiendo así el uso de los métodos desarrollados para la comunidad. Estos esfuerzos han consolidado Evaluome como un marco de trabajo versátil para investigadores, con aplicaciones demostradas en diferentes dominios como el de ontologías, bibliometría y datos biomédicos. A su vez, los recursos de software mejoran la accesibilidad, permitiendo análisis avanzados con un mínimo de experiencia técnica. En conjunto, esta tesis proporciona una base sólida para la investigación basada en métricas, con implicaciones para estudios futuros en escalabilidad y optimización computacional.
- PublicationOpen AccessRealidad aumentada como soporte de asistencia y formación integrada en la Industria 4.0(Universidad de Murcia, 2025-07-28) Morales Méndez, Ginés; Cerro Velázquez, Francisco del; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoLa tesis doctoral tiene como finalidad explorar el papel de la realidad aumentada (RA) como tecnología habilitadora para optimizar la asistencia técnica y la formación en entornos industriales propios de la Industria 4.0. Esta investigación se enmarca en la convergencia entre los procesos de digitalización avanzados, los sistemas ciberfísicos y la transformación del trabajo humano, con el objeto de mejorar la eficiencia operativa, reducir errores y reforzar la seguridad industrial. El objetivo general del estudio es diseñar una arquitectura basada en RA que se adapte dinámicamente a las habilidades del operario, al tipo de tarea y a las condiciones del entorno, proporcionando apoyo operativo y formativo en tiempo real. A partir de este propósito central, se plantean cinco objetivos específicos: (1) identificar factores clave en la implementación de la RA en la industria, (2) cuantificar su impacto frente a métodos tradicionales, (3) desarrollar una arquitectura adaptativa, (4) validar experimentalmente un prototipo funcional y (5) proponer recomendaciones para su integración efectiva. La investigación se ha desarrollado en cinco fases. En primer lugar, se llevó a cabo una revisión sistemática y un análisis bibliométrico de 60 estudios relevantes, lo que permitió identificar las principales áreas de aplicación de la RA (como el mantenimiento, la formación o la seguridad) y detectar vacíos en la estandarización y la validación empírica. En segundo lugar, se realizó un metaanálisis cuantitativo con el fin de sintetizar los efectos de la RA sobre indicadores como la eficiencia, la tasa de errores y la carga cognitiva, donde se evidenció el valor añadido de la RA frente a métodos tradicionales. La tercera fase consistió en el diseño de una arquitectura adaptativa de RA, capaz de modular el contenido visual según el perfil del operario y el contexto del entorno. El diseño contempló variables como la experiencia del usuario, la complejidad de la tarea y los requisitos de seguridad. A continuación, se procedió al desarrollo y validación experimental de un prototipo basado en Microsoft HoloLens 2, Unity 3D y Vuforia, en un entorno industrial simulado, los ensayos demostraron mejoras significativas en la precisión, en los tiempos de ejecución, en el mantenimiento predictivo y em la reducción de la carga cognitiva. Por último, se formularon un conjunto de recomendaciones orientadas a facilitar la adopción de la RA en entornos reales, abarcando aspectos técnicos, formativos, organizativos y normativos. La tesis demuestra que la RA tiene un impacto significativo en la mejora de procesos industriales, al facilitar la toma de decisiones, incrementar la seguridad y proporcionar formación contextualizada en tiempo real. Los resultados avalan la viabilidad de una arquitectura adaptativa que optimiza la interacción humano-máquina y refuerza la transferencia de conocimiento operativo. No obstante, el estudio también identifica limitaciones, como las carencias estructurales en la digitalización de la industria española, la volatilidad de los dispositivos aumentados y la escasa madurez tecnológica de algunos sectores. Estas barreras justifican la necesidad de seguir investigando en contextos reales, fomentar la interoperabilidad de sistemas y avanzar hacia modelos más escalables e integrables
- PublicationOpen AccessCombinación de modelado y razonamiento espacio-temporal con tecnologías de grafos aplicado a epidemiología de infecciones nosocomiales e infecciones multirresistentes(Universidad de Murcia, 2025-07-21) Pujante Otálora, Lorena; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoEsta tesis doctoral tiene como objetivo demostrar que el uso combinado de técnicas de modelado y razonamiento espacio-temporal con tecnologías basadas en grafos son efectivas para el análisis epidemiológico de infecciones nosocomiales. Las infecciones nosocomiales, especialmente aquellas causadas por bacterias multirresistentes, representan un problema de salud pública global, debido a su rápida propagación y alto índice de mortalidad. En este contexto, planteamos como objetivo principal el diseño y formalización en forma de grafos de un modelo de datos y operacional que sirva de base para futuras investigaciones relacionadas con el análisis epidemiológico espacial y temporal basado en los movimientos y contactos entre pacientes dentro del hospital. Este modelo busca servir de base para tareas epidemiológicas fundamentales como la detección de brotes, de cadenas de transmisión entre pacientes y de potenciales fuentes de contagio (ya sean ubicaciones físicas o áreas dentro del hospital, o servicios o unidades del en los que se organiza el personal sanitario). Hemos desarrollado la investigación como se detalla a continuación. En primer lugar, realizamos un análisis exhaustivo del estado del arte sobre el uso de redes en modelos computacionales aplicados a la propagación de brotes epidémicos, identificando tendencias en escalas espaciales y temporales, tipos de redes utilizadas y fuentes de datos. Posteriormente, proponemos un modelo de datos espacio-temporal que incluye una dimensión espacial jerárquica (estructura física del hospital y organización del personal) y una dimensión temporal basada en los eventos clínicos registrados en el Sistema de Información Hospitalario (SIH) o Historia Clínica Electrónica del paciente (HCE). A partir de este modelo, hemos diseñado y formalizado seis consultas que representan tareas epidemiológicas fundamentales en la vigilancia y detección de brotes nosocomiales. En cuanto a la formalización del modelo y las consultas, hemos evaluado dos tecnologías orientadas a grafos: grafos de propiedades y grafos de conocimiento (formatos RDF y RDF*). Concretamente, hemos evaluado el rendimiento (tiempo ejecución y consumo de memoria principal) de dos bases de datos orientadas a grafos representativas de estas tecnologías: Neo4j y GraphDB. Los resultados muestran diferencias significativas en términos de eficiencia y expresividad según la tecnología empleada, destacando la escalabilidad de GraphDB y la utilidad de RDF* (y su lenguaje de consulta, SPARQL*) en la implementación de relaciones con propiedades y en las ventajas que ofrece el ser estándares. Finalmente, a partir del modelo y consultas propuestas, diseñamos y validamos un nuevo método denominado StESPT (Spatio-Temporal Epidemiological Similarity based on Patient Trajectories), orientado al descubrimiento de grupos de pacientes infectados espacial y temporalmente conectados. Este método consiste en cinco pasos: obtención de los pacientes infectados potenciales de un brote y transformación de sus estancias hospitalarias en trayectorias, cálculo de la similitud espacio-temporal epidemiológica entre puntos y entre trayectorias, y aplicación de técnicas de clustering para identificar posibles brotes y rutas de contagio. Validamos el modelo, consultas y método propuestos utilizando datos clínicos sintéticos. En las conclusiones destacamos que la combinación de tecnologías de grafos y razonamiento espacio-temporal aporta una representación flexible, expresiva y eficiente para el análisis de infecciones nosocomiales causadas por bacterias en entornos hospitalarios. Este enfoque facilita tareas como la búsqueda de casos índice, la reconstrucción de brotes y el descubrimiento de patrones ocultos, contribuyendo así a la toma de decisiones clínicas y al diseño de estrategias preventivas. Además, la tesis ha sido desarrollada bajo principios de ciencia abierta, garantizando la reproducibilidad de los experimentos mediante la publicación de código y datos en repositorios públicos
- PublicationOpen AccessAdvancements towards non-speculative concurrent execution of critical sections(Universidad de Murcia, 2025-06-10) Gómez Hernández, Eduardo José; Ros Bardisa, Alberto; Kaxiras, Stefanos; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoLos programas paralelos requieren, además de la orquestación de la caché, otro mecanismo que garantice la sincronización entre otros hilos del mismo programa. Estos mecanismos de sincronización inducirán sobrecargas, al ralentizar ciertas operaciones, detener hilos, entre muchos otros, para cumplir con los requisitos establecidos por el programador. Un gran problema a la hora de evaluar nuevas propuestas es la falta de líneas de comparación actualizadas y representativas. La más utilizada son las suites de benchmarks, pero la mayoría de ellas fueron creadas hace más de 20 años. Aunque algunas de ellas intentan mantenerse al día con los cambios arquitectónicos de los procesadores, muchas se quedan atrás. Una de las capacidades más tergiversadas son, los ya mencionados, mecanismos de sincronización. Las regiones de código que requieren sincronización se conocen como secciones críticas (o regiones atómicas). Dependiendo de la naturaleza y propiedades de estas secciones, se pueden utilizar diferentes enfoques para protegerlas. Las pequeñas con pocas direcciones, grano fino, tienden a ser más eficientes, pero mucho más difíciles de desarrollar y depurar; mientras que las grandes con varias direcciones, grano grueso, son triviales, incluso automatizadas, menos propensas a errores, pero mucho menos performantes. A lo largo de los años se han desarrollado diferentes métodos para facilitar las secciones críticas de grano grueso de alto rendimiento. La memoria transaccional por hardware y la elisión especulativa de bloqueos son los más conocidos en este contexto. El principal problema es que introducen muchos retos para los diseñadores de hardware, al tiempo que siguen mostrando dudas sobre si son un buen enfoque. El objetivo de la tesis es la ejecución eficiente de secciones críticas, es decir, regiones de código que deben ejecutarse atómicamente. El método más eficiente es la ejecución concurrente y no especulativa de estas secciones. Para lograrlo, presentamos los 3 pasos que hemos dado: 1) se pueden utilizar instrucciones atómicas simples para implementar secciones críticas no especulativas, por lo que desarrollamos una versión actualizada del conocido conjunto de pruebas Splash que utiliza instrucciones atómicas de dirección única para implementar la mayoría de las secciones críticas (Splash-4); 2) un nuevo conjunto de instrucciones atómicas multidirección, y una metodología sobre cómo implementarlas eficientemente, que pueden utilizarse para secciones críticas pequeñas (MADs); 3) sin intervención directa del programador, un método más genérico que limita los reintentos necesarios para ejecutar regiones críticas contendidas (CLEAR). Para una eficiente evaluación de los resultados, hemos utilizado las herramientas mas actualizadas que nos han sido posibles en cada caso, e incluso, cuando ha sido posible, máquinas reales en lugar de simulaciones. Para las simulaciones, hemos usado el simulador gem5, en todo momento realizando multiples ejecuciones. El simulador ha sido configurado para emular, lo más fiablemente posible, procesadores basados en las últimas generaciones de intel. En nuestro primer paso, Splash-4, hemos conseguido reducir el tiempo de ejecución al usar 64-cores en un 50%, manteniendo en todo momento la estructura y algoritmos originales. En el segundo objectivo (MADs), las nuevas instrucciones atomicas implementadas, reducen un 80% el tiempo de ejecución al compararse con el mecanismo de locks clásico, y un 60% al usar una tecnica de memoria transacional similar a intel TSX, añadiendo solo 68 bytes por core. Por último, CLEAR, es capaz de limitar la cantidad de rejecuciones de las secciones criticas ejecutadas bajo métodos especulativos, aumentando en un 35% la cantidad de secciones que se completan en el primer reintento, y reduciendo del 37% al 15% la cantidad de secciones que requieren llegar al fallback. Todo esto mejorando el timepo de ejecución en un 35% contra una implementación tipo Intel TSX y un 23% contra PowerTM.