Ingeniería
Ir a Estadísticas
Permanent URI for this collection
Bienvenido a la colección de Tesis Doctorales de Ingeniería de la Universidad de Murcia.
Este portal está dirigido a los investigadores y profesores de la Universidad de Murcia con la finalidad de aumentar la visibilidad de sus tesis doctorales pertenecientes al ámbito de la Ingeniería.
News
Si es Ud. Investigador o Profesor de la UMU y desea que se integre su Tesis Doctoral en esta colección contacte con la siguiente dirección archivum@um.es
Browse
Recent Submissions
- PublicationOpen AccessRealidad aumentada como soporte de asistencia y formación integrada en la Industria 4.0(Universidad de Murcia, 2025-07-28) Morales Méndez, Ginés; Cerro Velázquez, Francisco del; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoLa tesis doctoral tiene como finalidad explorar el papel de la realidad aumentada (RA) como tecnología habilitadora para optimizar la asistencia técnica y la formación en entornos industriales propios de la Industria 4.0. Esta investigación se enmarca en la convergencia entre los procesos de digitalización avanzados, los sistemas ciberfísicos y la transformación del trabajo humano, con el objeto de mejorar la eficiencia operativa, reducir errores y reforzar la seguridad industrial. El objetivo general del estudio es diseñar una arquitectura basada en RA que se adapte dinámicamente a las habilidades del operario, al tipo de tarea y a las condiciones del entorno, proporcionando apoyo operativo y formativo en tiempo real. A partir de este propósito central, se plantean cinco objetivos específicos: (1) identificar factores clave en la implementación de la RA en la industria, (2) cuantificar su impacto frente a métodos tradicionales, (3) desarrollar una arquitectura adaptativa, (4) validar experimentalmente un prototipo funcional y (5) proponer recomendaciones para su integración efectiva. La investigación se ha desarrollado en cinco fases. En primer lugar, se llevó a cabo una revisión sistemática y un análisis bibliométrico de 60 estudios relevantes, lo que permitió identificar las principales áreas de aplicación de la RA (como el mantenimiento, la formación o la seguridad) y detectar vacíos en la estandarización y la validación empírica. En segundo lugar, se realizó un metaanálisis cuantitativo con el fin de sintetizar los efectos de la RA sobre indicadores como la eficiencia, la tasa de errores y la carga cognitiva, donde se evidenció el valor añadido de la RA frente a métodos tradicionales. La tercera fase consistió en el diseño de una arquitectura adaptativa de RA, capaz de modular el contenido visual según el perfil del operario y el contexto del entorno. El diseño contempló variables como la experiencia del usuario, la complejidad de la tarea y los requisitos de seguridad. A continuación, se procedió al desarrollo y validación experimental de un prototipo basado en Microsoft HoloLens 2, Unity 3D y Vuforia, en un entorno industrial simulado, los ensayos demostraron mejoras significativas en la precisión, en los tiempos de ejecución, en el mantenimiento predictivo y em la reducción de la carga cognitiva. Por último, se formularon un conjunto de recomendaciones orientadas a facilitar la adopción de la RA en entornos reales, abarcando aspectos técnicos, formativos, organizativos y normativos. La tesis demuestra que la RA tiene un impacto significativo en la mejora de procesos industriales, al facilitar la toma de decisiones, incrementar la seguridad y proporcionar formación contextualizada en tiempo real. Los resultados avalan la viabilidad de una arquitectura adaptativa que optimiza la interacción humano-máquina y refuerza la transferencia de conocimiento operativo. No obstante, el estudio también identifica limitaciones, como las carencias estructurales en la digitalización de la industria española, la volatilidad de los dispositivos aumentados y la escasa madurez tecnológica de algunos sectores. Estas barreras justifican la necesidad de seguir investigando en contextos reales, fomentar la interoperabilidad de sistemas y avanzar hacia modelos más escalables e integrables
- PublicationOpen AccessCombinación de modelado y razonamiento espacio-temporal con tecnologías de grafos aplicado a epidemiología de infecciones nosocomiales e infecciones multirresistentes(Universidad de Murcia, 2025-07-21) Pujante Otálora, Lorena; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoEsta tesis doctoral tiene como objetivo demostrar que el uso combinado de técnicas de modelado y razonamiento espacio-temporal con tecnologías basadas en grafos son efectivas para el análisis epidemiológico de infecciones nosocomiales. Las infecciones nosocomiales, especialmente aquellas causadas por bacterias multirresistentes, representan un problema de salud pública global, debido a su rápida propagación y alto índice de mortalidad. En este contexto, planteamos como objetivo principal el diseño y formalización en forma de grafos de un modelo de datos y operacional que sirva de base para futuras investigaciones relacionadas con el análisis epidemiológico espacial y temporal basado en los movimientos y contactos entre pacientes dentro del hospital. Este modelo busca servir de base para tareas epidemiológicas fundamentales como la detección de brotes, de cadenas de transmisión entre pacientes y de potenciales fuentes de contagio (ya sean ubicaciones físicas o áreas dentro del hospital, o servicios o unidades del en los que se organiza el personal sanitario). Hemos desarrollado la investigación como se detalla a continuación. En primer lugar, realizamos un análisis exhaustivo del estado del arte sobre el uso de redes en modelos computacionales aplicados a la propagación de brotes epidémicos, identificando tendencias en escalas espaciales y temporales, tipos de redes utilizadas y fuentes de datos. Posteriormente, proponemos un modelo de datos espacio-temporal que incluye una dimensión espacial jerárquica (estructura física del hospital y organización del personal) y una dimensión temporal basada en los eventos clínicos registrados en el Sistema de Información Hospitalario (SIH) o Historia Clínica Electrónica del paciente (HCE). A partir de este modelo, hemos diseñado y formalizado seis consultas que representan tareas epidemiológicas fundamentales en la vigilancia y detección de brotes nosocomiales. En cuanto a la formalización del modelo y las consultas, hemos evaluado dos tecnologías orientadas a grafos: grafos de propiedades y grafos de conocimiento (formatos RDF y RDF*). Concretamente, hemos evaluado el rendimiento (tiempo ejecución y consumo de memoria principal) de dos bases de datos orientadas a grafos representativas de estas tecnologías: Neo4j y GraphDB. Los resultados muestran diferencias significativas en términos de eficiencia y expresividad según la tecnología empleada, destacando la escalabilidad de GraphDB y la utilidad de RDF* (y su lenguaje de consulta, SPARQL*) en la implementación de relaciones con propiedades y en las ventajas que ofrece el ser estándares. Finalmente, a partir del modelo y consultas propuestas, diseñamos y validamos un nuevo método denominado StESPT (Spatio-Temporal Epidemiological Similarity based on Patient Trajectories), orientado al descubrimiento de grupos de pacientes infectados espacial y temporalmente conectados. Este método consiste en cinco pasos: obtención de los pacientes infectados potenciales de un brote y transformación de sus estancias hospitalarias en trayectorias, cálculo de la similitud espacio-temporal epidemiológica entre puntos y entre trayectorias, y aplicación de técnicas de clustering para identificar posibles brotes y rutas de contagio. Validamos el modelo, consultas y método propuestos utilizando datos clínicos sintéticos. En las conclusiones destacamos que la combinación de tecnologías de grafos y razonamiento espacio-temporal aporta una representación flexible, expresiva y eficiente para el análisis de infecciones nosocomiales causadas por bacterias en entornos hospitalarios. Este enfoque facilita tareas como la búsqueda de casos índice, la reconstrucción de brotes y el descubrimiento de patrones ocultos, contribuyendo así a la toma de decisiones clínicas y al diseño de estrategias preventivas. Además, la tesis ha sido desarrollada bajo principios de ciencia abierta, garantizando la reproducibilidad de los experimentos mediante la publicación de código y datos en repositorios públicos
- PublicationOpen AccessAdvancements towards non-speculative concurrent execution of critical sections(Universidad de Murcia, 2025-06-10) Gómez Hernández, Eduardo José; Ros Bardisa, Alberto; Kaxiras, Stefanos; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoLos programas paralelos requieren, además de la orquestación de la caché, otro mecanismo que garantice la sincronización entre otros hilos del mismo programa. Estos mecanismos de sincronización inducirán sobrecargas, al ralentizar ciertas operaciones, detener hilos, entre muchos otros, para cumplir con los requisitos establecidos por el programador. Un gran problema a la hora de evaluar nuevas propuestas es la falta de líneas de comparación actualizadas y representativas. La más utilizada son las suites de benchmarks, pero la mayoría de ellas fueron creadas hace más de 20 años. Aunque algunas de ellas intentan mantenerse al día con los cambios arquitectónicos de los procesadores, muchas se quedan atrás. Una de las capacidades más tergiversadas son, los ya mencionados, mecanismos de sincronización. Las regiones de código que requieren sincronización se conocen como secciones críticas (o regiones atómicas). Dependiendo de la naturaleza y propiedades de estas secciones, se pueden utilizar diferentes enfoques para protegerlas. Las pequeñas con pocas direcciones, grano fino, tienden a ser más eficientes, pero mucho más difíciles de desarrollar y depurar; mientras que las grandes con varias direcciones, grano grueso, son triviales, incluso automatizadas, menos propensas a errores, pero mucho menos performantes. A lo largo de los años se han desarrollado diferentes métodos para facilitar las secciones críticas de grano grueso de alto rendimiento. La memoria transaccional por hardware y la elisión especulativa de bloqueos son los más conocidos en este contexto. El principal problema es que introducen muchos retos para los diseñadores de hardware, al tiempo que siguen mostrando dudas sobre si son un buen enfoque. El objetivo de la tesis es la ejecución eficiente de secciones críticas, es decir, regiones de código que deben ejecutarse atómicamente. El método más eficiente es la ejecución concurrente y no especulativa de estas secciones. Para lograrlo, presentamos los 3 pasos que hemos dado: 1) se pueden utilizar instrucciones atómicas simples para implementar secciones críticas no especulativas, por lo que desarrollamos una versión actualizada del conocido conjunto de pruebas Splash que utiliza instrucciones atómicas de dirección única para implementar la mayoría de las secciones críticas (Splash-4); 2) un nuevo conjunto de instrucciones atómicas multidirección, y una metodología sobre cómo implementarlas eficientemente, que pueden utilizarse para secciones críticas pequeñas (MADs); 3) sin intervención directa del programador, un método más genérico que limita los reintentos necesarios para ejecutar regiones críticas contendidas (CLEAR). Para una eficiente evaluación de los resultados, hemos utilizado las herramientas mas actualizadas que nos han sido posibles en cada caso, e incluso, cuando ha sido posible, máquinas reales en lugar de simulaciones. Para las simulaciones, hemos usado el simulador gem5, en todo momento realizando multiples ejecuciones. El simulador ha sido configurado para emular, lo más fiablemente posible, procesadores basados en las últimas generaciones de intel. En nuestro primer paso, Splash-4, hemos conseguido reducir el tiempo de ejecución al usar 64-cores en un 50%, manteniendo en todo momento la estructura y algoritmos originales. En el segundo objectivo (MADs), las nuevas instrucciones atomicas implementadas, reducen un 80% el tiempo de ejecución al compararse con el mecanismo de locks clásico, y un 60% al usar una tecnica de memoria transacional similar a intel TSX, añadiendo solo 68 bytes por core. Por último, CLEAR, es capaz de limitar la cantidad de rejecuciones de las secciones criticas ejecutadas bajo métodos especulativos, aumentando en un 35% la cantidad de secciones que se completan en el primer reintento, y reduciendo del 37% al 15% la cantidad de secciones que requieren llegar al fallback. Todo esto mejorando el timepo de ejecución en un 35% contra una implementación tipo Intel TSX y un 23% contra PowerTM.
- PublicationOpen AccessAnálisis y diseño de soluciones para el despliegue de nodos IoT y Edge activos en el Computing Continuum(Universidad de Murcia, 2025-04-01) Robles Enciso, Alberto; Skarmeta Gómez, Antonio Fernando; Escuela Internacional de DoctoradoEl objetivo principal de esta tesis es el análisis y diseño de soluciones para la gestión y el despliegue eficiente de nodos IoT y Edge capaces de administrar tareas de manera inteligente dentro de un ecosistema de Computing Continuum, optimizando los recursos de la mejor manera posible y permitiendo que se adapten dinámicamente a los cambios en la infraestructura. Para lograrlo se analizan los detalles del nuevo paradigma del Computing Continuum, el cual integra los elementos típicos de IoT con una arquitectura unificada de Edge y Cloud Computing. De esta forma toda la red de dispositivos del sistema, desde los mas cercanos al usuario hasta los mas alejados, son capaces de realizar tareas de cómputo de los servicios, proporcionando un diseño de procesamiento distribuido como un continuo por toda la arquitectura. Sin embargo, esta nueva visión dificulta en gran medida el proceso de distribución de trabajo y la gestión de los recursos dada la naturaleza heterogénea y muy diversas de los dispositivos. Además, ahora es necesario considerar características que no suelen ser comunes en los modelos de Cloud Computing, como puede ser la latencia del nodo, el ancho de banda, si tiene batería, la velocidad de su procesador, la disponibilidad de ciertas instrucciones o características hardware, etc. En esta tesis se analiza el problema de optimización que subyace en el proceso de distribución de cargas de trabajo entre los nodos. Este problema se denomina el Problema de Asignación de Tareas (TAP), el cual se define como el proceso de determinar dónde se realiza el cómputo de cada tarea para optimizar ciertos parámetros, como la latencia, el tiempo de ejecución, el coste, el consumo de energía, la posición geográfica, e incluso si el nodo se está moviendo o se alimenta con una batería. El TAP se puede formalizar como un Problema de Asignación Generalizado (GAP) es cual se ha demostrado ampliamente que es un problema NP-Hard. Por ello mismo en algunos casos es difícil para los dispositivos con menor potencia de computo resolver el problema de manera general. Como innovación de esta tesis se propone el uso de Aprendizaje por Refuerzo (RL) para tratar el TAP y que los dispositivos mas livianos sean capaces de resolverlo fácilmente y con precisión. La bondad del aprendizaje por refuerzo es su capacidad de adaptarse e incluso predecir dinámicamente, esto se demostró en uno de los resultados de esta tesis donde se usa RL para la gestión energética inteligente de dispositivos en una Smart House. Igualmente, se han aplicado otras técnicas para resolver el problema de diferente manera dando mayor o menor precisión en pro reducir el tiempo de ejecución. Precisamente se ha considerado de especial valor en el diseño de la solución final incluir la capacidad de elección del método de resolución del problema de manera dinámica en función del tamaño del mismo. Finalmente, durante el desarrollo de las soluciones destaca como plataforma de facto para la gestión y despliegue de servicios en una red de nodos la herramienta Kubernetes. Si bien es una de las herramientas más comunes en la industria, su enfoque puramente basado en el Cloud Computing dificulta su aplicación en entornos del Continuum. Por esta razón, otra de las aportaciones de esta tesis implica la modificación de diversos módulos de K8s para adaptarlo al Continuum y que pueda ser capaz de considerar las características propias de este paradigma en el proceso de distribución de servicios a los nodos (proceso de asignación pod-node).
- PublicationOpen AccessUnfencing atomic operations : optimizations and applications(Universidad de Murcia, 2025-02-05) AsgharzadehDonighi, Ashkan; Ros Bardisa, Alberto; Kaxiras, Stefanos; Escuela Internacional de DoctoradoLas instrucciones de lectura-modificación-escritura atómicas (RMW atómicas) son primitivas de hardware esenciales para garantizar la atomicidad y la sincronización en aplicaciones paralelas. Sin embargo, en los procesadores x86, populares en la informática de alto rendimiento, estas RMW atómicas sufren una gran sobrecarga de rendimiento. Esto se debe a que imponen la serialización en la ejecución de las instrucciones de memoria, deshabilitando el paralelismo a nivel de instrucción (ILP) y de memoria (MLP). Este comportamiento ocurre porque las microoperaciones de las instrucciones atómicas están rodeadas por barreras de memoria. Para mejorar el rendimiento de las aplicaciones paralelas, nuestro objetivo es proporcionar una implementación sin barreras para las RMW atómicas, garantizando al mismo tiempo una ejecución sin deadlock (sin livelock). Sin embargo, al eliminar las barreras, las RMW atómicas pueden enfrentar deadlocks, ya que la línea de caché utilizada por las atómicas queda bloqueada en la caché de datos L1 durante su ejecución. Este fenómeno se conoce como bloqueo de caché en la terminología de los procesadores Intel. Nuestra propuesta, llamada Free atómicos, permite la ejecución concurrente y especulativa de múltiples RMW atómicas. Además, Free atómicos permite el reenvío de almacenamiento a carga para las atómicas. Proponemos una implementación de hardware eficiente para Free atómicos, que respeta el modelo de consistencia de memoria x86-TSO (Total Store Order). En el siguiente paso, estudiamos el rendimiento de las instrucciones RMW no atómicas. Los procesadores x86 proporcionan RMW no atómicos que se utilizan en regiones libres de carreras de datos de un código paralelo para actualizar de manera eficiente una ubicación de memoria al solicitar permiso de escritura al leer la línea de caché. Sin embargo, la línea de caché puede ser robada por otros núcleos mientras que el RMW no atómico en el núcleo local está incompleto. Este escenario ocurre debido a una disputa sobre la línea de caché de los RMW no atómicos y se deriva de false-sharing. El false-sharing impone dos inconvenientes principales: 1) los eventos de vaciado del cauce al invalidar los RMW no atómicos durante su ejecución, y 2) la pérdida de almacenamiento al robar el permiso de escritura de la línea de caché. Para evitar estos problemas, proponemos utilizar el bloqueo de caché de hardware, un concepto familiar para las instrucciones atómicas, para mantener la línea de caché en el núcleo durante la ejecución de RMW no atómicos. Además, aprovechamos la localidad de bloqueo para permitir actualizaciones de memoria consecutivas a una línea de caché sin perderla en el proceso. Finalmente, evaluamos el impacto de la contención sobre la línea de caché utilizada por Free atómicos. A diferencia de la implementación tradicional con barreras, Free atómicos puede ejecutarse tan pronto como sus operandos estén listos (ejecución ansiosa), incluso si hay instrucciones de memoria pendientes por delante de ellos. Sin embargo, observamos que la ejecución ansiosa no es beneficiosa cuando la línea de caché utilizada por las atómicas está en disputa. La razón es que la ejecución ansiosa prolonga el tiempo en que la línea de caché queda bloqueada en un núcleo, aumentando el tiempo de espera de otros núcleos y resultando en una desaceleración. Para resolver este problema, proponemos ejecutar las atómicas en disputa en un momento posterior (ejecución diferida) para reducir el período en que la línea de caché está bloqueada. Incluso en ejecución diferida, las instrucciones de memoria más joven con respecto a los Free atómicos pueden ejecutarse de manera especulativa, ya que no hay barreras de memoria que las rodeen. Para lograr el rendimiento óptimo de Free atómicos en todas las aplicaciones, con y sin contención, es necesario ampliar Free atómicos con un mecanismo para detectar la contención y predecir el momento adecuado para ejecutar las atómicas, ya sea de manera ansiosa o diferida.