Browsing by Subject "Informática"
Now showing 1 - 20 of 95
Results Per Page
Sort Options
- PublicationOpen AccessA Data-centric security architecture for the Integration of constrained devices into IoT scenarios(Universidad de Murcia, 2020-09-10) Pérez Franco, Salvador; Skarmeta Gómez, Antonio Fernando; Hernández Ramos, José Luis; Escuela Internacional de DoctoradoLa expansión del IoT está siendo impulsada con la llegada de recientes tecnologías de comunicación, como el 5G, que posibilitan el intercambio masivo de información entre un elevado número de dispositivos heterogéneos interconectados. Esta evolución de Internet está alentando la aparición de nuevos escenarios, los cuales representan ecosistemas donde diferentes dispositivos físicos desplegados detectan y comparten datos sobre su entorno con el propósito de transformar y mejorar servicios cotidianos, como los sistemas de transporte o sanidad. Sin embargo, la realización de este paradigma de sociedad basada en datos presenta importantes desafíos de seguridad relacionados con el tratamiento de información de carácter personal, pudiéndose vulnerar la privacidad de los participantes. Así, la protección de los datos es considerada como un aspecto clave para incrementar la confianza de las personas y lograr el desarrollo de los escenarios del IoT a gran escala. En esta dirección, importantes cuerpos de estandarización, como el IETF y el ETSI, han ofrecido diferentes propuestas destinadas abordar los desafíos de seguridad y privacidad en escenarios del IoT. Este hecho pone de manifiesto que la seguridad y la privacidad en el IoT es actualmente uno de los principales temas de investigación en el ámbito académico e industrial. Sin embargo, la aplicación de estas propuestas no es trivial debido a las particularidades inherentes a estos escenarios, como la heterogeneidad tecnológica, las limitaciones de recursos de los dispositivos, la presencia de entidades intermedias y las comunicaciones en grupo. Por lo tanto, garantizar la protección de datos de extremo a extremo continúa aún siendo un desafío en escenarios del IoT. En consecuencia, esta tesis tiene como principal objetivo el desarrollo una arquitectura de seguridad centrada en datos para la integración de dispositivos restringidos en escenarios del IoT. En este sentido, se ha seguido una metodología evolutiva típica de los proyectos de investigación. Así, se comenzó realizando un análisis de requisitos de seguridad y privacidad en diferentes escenarios del IoT, el cual permitió identificar la necesidad de soluciones de protección de datos eficientes y efectivas para estos entornos de compartición de datos. Además, se constató que muchos de los estándares y propuestas existentes no se ajustaban adecuadamente a las particularidades inherentes anteriormente mencionadas. Este hecho derivó en la necesidad de diseñar una arquitectura destinada a garantizar la seguridad de la información durante todo su ciclo de vida en el contexto IoT. Para ello, se diseñó y desarrolló un enfoque criptográfico ligero, flexible y escalable basado en el esquema de cifrado CP-ABE, para habilitar la compartición segura de información en grupo. Adicionalmente, dicho enfoque fue extendido con un mecanismo de intercambio de claves basado en un reciente esfuerzo de estandarización del IETF conocido como EDHOC, que permite el establecimiento de asociaciones de seguridad en estos escenarios restringidos. Cabe resaltar que este mecanismo considera la realización de una fase previa de bootstrapping, en la que las entidades obtienen sus correspondientes credenciales y claves para unirse a la red de manera segura. En particular, se ha considerado el servicio de boostrapping LO-CoAP-EA debido a que fue específicamente diseñado para el contexto IoT. Finalmente, se propuso la realización de un análisis de rendimiento de las diferentes soluciones integradas en la arquitectura, para demostrar su viabilidad y ventajas frente a otros enfoques planteados actualmente para escenarios del IoT. En conclusión, la arquitectura de seguridad propuesta representa un excelente punto de partida para abordar las principales preocupaciones de seguridad y privacidad en el contexto IoT, especialmente para la integración de dispositivos con recursos limitados. Además, debe considerarse que esta arquitectura podría ser ampliada con enfoques complementarios, como OSCORE, logrando así escenarios IoT seguros, flexibles y eficientes.
- PublicationEmbargoA framework and case studies for data-driven evaluation of competencies and capabilities across contexts(Universidad de Murcia, 2024-09-10) Strukova, Sofia; Félix Gómez Mármol; José Antonio Ruipérez Valiente; Escuela Internacional de DoctoradoA medida que avanza el siglo XXI, las metodologías de evaluación evolucionan de la evaluación de contenido tradicional a marcos dinámicos basados en competencias. La integración de tecnologías digitales en los entornos de evaluación, como software interactivo de aula, comunidades de aprendizaje en línea, plataformas de contratación profesional y sistemas de recomendación de expertos, impulsa esta transformación. Esta evolución hacia la evaluación mediada por tecnología requiere herramientas que no solo involucren, sino que también midan efectivamente diversas competencias. El objetivo principal de esta tesis fue realizar múltiples estudios de caso en diversos entornos para construir un marco que pudiera generalizarse en varios entornos mediados por la tecnología. En primer lugar, esta tesis examinó diversos entornos mediados por la tecnología que podían generar conjuntos de datos ricos a través de la interacción de los usuarios y donde los datos podían usarse para realizar una evaluación basada en datos de diferentes competencias. La encuesta reveló cuatro entornos multimedia clave que incluían sitios para compartir y consumir contenido, videojuegos, aprendizaje en línea y redes sociales que cumplían con el objetivo principal. El siguiente paso de la tesis fue realizar varios estudios de caso con el fin de explorar diversos entornos, métodos, fuentes de datos y competencias. El primer estudio de caso llevó a cabo una evaluación de habilidades geométricas. El objetivo era adaptar, evaluar y comparar varios algoritmos de trazado de conocimiento en datos de un juego basado en geometría. Los hallazgos indicaron que el algoritmo Elo modelaba más precisamente los niveles de conocimiento real de los estudiantes. El segundo estudio de caso profundizó en identificar la experiencia en ciencia de datos en una plataforma de preguntas y respuestas Reddit. La metodología se basó en la codificación manual de los comentarios por dos especialistas en ciencia de datos. El estudio de caso implementó un método semi-supervisado y demostró la capacidad del modelo para distinguir entre comentarios de expertos, no expertos y fuera de alcance. El modelo aprovechó los datos de actividad del usuario, incorporando NLP, datos de crowdsourcing y características específicas del usuario. El tercer estudio de caso examinó las habilidades fotográficas impulsadas por el hecho de que hoy en día las plataformas para compartir fotos son cada vez más prevalentes. Usando datos multimodales de perfiles de usuarios, metadatos de fotos y atributos de crowdsourcing, el estudio aplicó técnicas de aprendizaje automático para evaluar si los usuarios podían clasificarse con precisión como fotógrafos profesionales basándose en sus ocupaciones declaradas y varias características. El paso final de la tesis fue la propuesta de un marco. Este se generalizó en varios contextos, entornos, tipos de datos y competencias, con el objetivo de deducir estas últimas de los primeros. Este proceso involucró un análisis exhaustivo de las metodologías de los estudios de caso y la literatura científica más amplia. Utilizó diagnósticos basados en computadora para mejorar su capacidad de interpretar conjuntos de datos complejos de manera efectiva. La efectividad de este marco se validó a través de estudios de caso en diferentes entornos, cada uno seleccionado por sus características únicas. Finalmente, la tesis esbozó varias conclusiones. Primero, en entornos multimedia, es urgente contar con marcos flexibles basados en datos para evaluar diversas competencias. Segundo, la incorporación de juegos y el trazado de conocimientos es fundamental para mejorar las metodologías educativas. Tercero, el aprendizaje informal en comunidades virtuales se ha vuelto una vía significativa para adquirir experiencia, aprovechando las plataformas digitales para el intercambio de conocimientos y el desarrollo de habilidades. Por último, la evaluación de habilidades subjetivas como la fotografía introduce desafíos únicos debido a la variabilidad en las percepciones individuales de calidad y habilidad.
- PublicationOpen AccessA proposal for user's privacy management in context-aware systems= Propuesta para la gestión de la privacidad de los usuarios en sistemas sensibles al contexto(2017-03-22) Huertas Celdrán, Alberto; García Clemente, Félix Jesús; Martínez Pérez, Gregorio; Gil Pérez, Manuel; Facultad de InformáticaGestionar y proteger la privacidad de la información de los usuarios en sistemas sensibles al contexto es un reto que aún requiere de esfuerzos para ser resuelto. Sin la protección de la privacidad de la información sensible, como, la localización de los usuarios, identidades, actividades, e información del contexto, usuarios o proveedores de servicios maliciosos podrían obtenerla y hacer un mal uso de ésta. Los sistemas sensibles al contexto deberían permitir a los usuarios controlar qué información quieren revelar, dónde y cuándo esta información será intercambiada, y a quién. Técnicas basadas en Semántica Web son una forma prometedora de llevar a cabo la gestión y protección de las piezas de información previamente comentadas en sistemas sensibles al contexto. El principal objetivo de esta tesis doctoral es la definición, diseño y despliegue de soluciones sensibles al contexto que permitan a los usuarios controlar la privacidad de su información. Concretamente, nosotros: • Estudiar y analizar la evolución de los sistemas de gestión de la información, desde soluciones basadas en la localización hasta sistemas sensibles al contexto, así como también el impacto de la privacidad de los usuarios en estos sistemas. • Estudiar el estado del arte de sistemas que protegen la privacidad de la información y analizar cómo las técnicas basadas en web semántica pueden ayudar en la gestión y protección de la información considerada por los sistemas sensibles al contexto. • Proponer, implementar y validar un sistema basado en la localización y sensible al contexto que intercambia y protege entre usuarios sus localizaciones haciendo uso de técnicas basadas en web semántica. • Diseñar e implementar una solución sensible al contexto capaz de intercambiar entre usuarios y servicios información personal de los usuarios y del contexto en el que están, teniendo en cuenta la privacidad de dicha información. • Estudiar y analizar el estado del arte de los sistemas recomendadores que consideran información sensible al contexto a la hora de mejorar las recomendaciones proporcionadas a los usuarios. • Diseñar, implementar y validar un sistema recomendador sensible al contexto capaz de recomendar objetos localizados en el mismo contexto o entorno donde se encuentra el usuario, además de proporcionar valoraciones automáticas teniendo en cuenta los movimientos del usuario después de recibir las recomendaciones. Para llevar a cabo los objetivos previos se ha empleado la siguiente metodología: • Análisis crítico de los principales retos de los sistemas sensibles al contexto que permiten a los usuarios proteger su información. • Identificación de las limitaciones y oportunidades de las tecnologías basadas en web Semántica existentes para la correcta protección de piezas sensibles de información en sistemas sensibles al contexto. • Definición de sistemas sensibles al contexto que permiten a los usuarios proteger piezas sensibles e importantes de su información a través de políticas, así como la definición de sistemas recomendadores sensibles al contexto, capaces de combinar la localización de los usuarios y objetos junto con otras piezas de información consideradas por otros enfoques para mejorar las recomendaciones. • Evaluación minuciosa de todas las propuestas realizadas mediante intensas simulaciones y pruebas experimentales. A continuación, se enumeran los principales resultados que se han obtenido durante el desarrollo de esta tesis doctoral. • Una solución sensible al contexto que protege la localización de los usuarios. Esta propuesta permite el desarrollo de aplicaciones sensibles al contexto teniendo en cuenta la privacidad de la localización de los usuarios. Los usuarios definen sus políticas de privacidad para controlar dónde, cuándo, cómo y a quién quieren liberar sus localizaciones. Esta información es proporcionada teniendo en cuenta las políticas de privacidad definidas previamente por los usuarios en nuestra plataforma. • Una solución sensible al contexto para proteger la información de los usuarios no solo con respecto a otros usuarios, sino también con respecto a servicios. Consiste en un sistema recomendador capaz de proporcionar recomendaciones a usuarios considerando la información que ellos quieren liberar a los servicios que proporcionan las recomendaciones. Usando esta solución, los usuarios pueden controlar su información ocultando sus identidades a servicios determinados, enmascarando sus localizaciones, o proporcionando posiciones falsas entre otras formas de incrementar la protección de la privacidad de su información personal y sensible al contexto. • Un sistema recomendador que proporciona recomendaciones efectivas. Este sistema recomendador mejora las recomendaciones combinando información proporcionada por las valoraciones de usuarios similares al usuario que va a recibir la recomendación, la información sobre los ítems sugeridos como el precio o el tipo, e información sobre el contexto como la distancia entre usuarios e objetos o su movilidad. Problemas ampliamente conocidos de los sistemas recomendadores como "data sparsity" o "cold-start" son reducidos por nuestra solución. Por otro lado, también hemos propuesto un algoritmo valorador que proporcionan valoraciones automáticas teniendo en cuenta el comportamiento de los usuarios después de recibir las recomendaciones. Managing and preserving the privacy of the users' information in context-aware systems based on location is an open challenge that still requires efforts to be solved. Without controlling the privacy in context-aware systems, sensitive pieces of information, such as, the users’ locations, identities, activities, and contextual information could be obtained by malicious users or service providers and misuse it. Context-aware systems should allow users to control what information they want to reveal, where and when the information will be exchanged, and to whom. Semantic web techniques have been found as a promising way to accomplish the management and protection of the previous pieces of information in context-aware systems. The main objective of this PhD Thesis is the definition, design, and deployment of context-aware solutions that allow users to control the privacy of their information. Specifically, we will: • Study and analyze the evolution of information management systems from location-based solutions to context-aware systems, as well as the impact of the users' privacy in these systems. • Study the state of art of privacy-preserving solutions, and analyze how web semantic techniques can help in managing and protecting the information considered by context-aware systems. • Propose, implement, and validate a location-based and context-aware system in charge of exchanging and protecting the users' location by considering semantic web techniques. • Design and implement a context-aware solution capable of exchanging in a privacy-preserving way personal and contextual information between users and services. • Study and analyze the state of the art of recommender systems that consider context-aware information in order to improve recommendations. • Design, implement, and validate a context-aware recommender system in charge of providing context-aware recommendations about items located close to the target user, as well as providing implicit or automatic ratings taking into account the users' movements after receiving recommendations. To this end, the following methodology has been conducted: • Critical analysis of the major challenges of privacy-preserving and context-aware systems that allow users to protect their information. • Identification of limitations and opportunities in existing semantic web technologies for a proper protection of sensitive pieces of information in context-aware solutions. • Definition of privacy-preserving and context-aware systems that allow users to control important sensitive pieces of their information using policies, as well as the definition of a context-aware recommender system that combines the location of users and items with other approaches to improve the recommendations. • Thorough evaluation of all the proposals made in this PhD Thesis, by conducting a pool of intensive simulations and experimental tests. In the next, we enumerate the main results obtained along the development of this PhD Thesis. • A privacy-preserving and context-aware solution to exchange location information. This proposal allows the development of context-aware applications by considering the privacy of the users' location. Users define their privacy-policies to control where, when, how, and to whom their location information will be revealed to other users. Users do not rely on the context-aware applications. Moreover, our solution has a set of predefined queries that provides information to the context-aware applications. This information is provided by taking into account the privacy-policies defined previously by users in our middleware. • A context-aware solution to protect the users' information not only regarding users, but also services. This is a recommender system capable of providing recommendations to users by considering the information they reveal to the services that provide the recommendations. Using this solution, users can control their information by hiding their identities to services, hiding their locations, and providing fake positions, among others ways to increase the privacy protection of their personal and context-aware information. • A context-aware recommender system to provide effective recommendations. This recommender system improves recommendations by combining information provided by the ratings of users similar to the target user, information about the suggested items like the price or type, and information about the context like the distance between users and items or their mobility. Well-known problems of recommender systems like data sparsity and cold-start are reduced by our solution. On the other hand, we have also proposed a rating algorithm that provides implicit or automatic ratings by taking into account the behavior of users after receiving recommendations.
- PublicationMetadata onlyAbstracción temporal basada en redes de restricciones / Manuel Campos Martínez; directores, Roque Luis Marín Morales, José Tomás Palma Méndez(Murcia : Universidad de Murcia, Departamento de Ingeniería de la Información y las Comunicaciones,, 2007) Campos Martínez, Manuel
- PublicationOpen AccessEl acceso a la documentación. Una posibilidad real y necesaria para el mundo de la Educación Física y el deporte(Universidad de Zaragoza, Asociación Universitaria de Formación del Profesorado (AUFOP), 1992) Aquesolo Vegas, José A.En la actualidad es ya casi habitual utilizar sistemas de información y documentación utilizando equipos informáticos, en cualquier proceso de investigación científica. También en el mundo de la educación física y el deporte. Sin embargo, tanto el usuario como el creador de centros de documentación deben tener en cuenta que lo más importante es tener muy claro qué tipo de documentación se desea encontrar o qué destino se pretende dar al centro. Los conceptos información y documentación se complementan pero responden a actividades diferentes. En todo caso, el objetivo final es trabajar con sistemas y equipos compatibles que permitan el intercambio de datos sin grandes problemas de conversión y el análisis e intercambio de documentos sobre pautas comunes prefijadas.
- PublicationOpen AccessAceleración de algoritmos intervalares de ajuste automático del lazo en QFT(Universidad de Murcia, 2022-07-19) Martínez Forte, Isaac; Cervera López, Joaquín; Escuela Internacional de DoctoradoEn este trabajo se aborda la aceleración de algoritmos del tipo búsqueda global intervalar que tienen por objetivo la resolución, de forma automática, del problema del ajuste del lazo en QFT. Esta técnica de diseño de controladores robustos en el dominio de la frecuencia se plantea como una sucesión de etapas. En cada una de ellas se genera la información necesaria para la siguiente, culminando todo este proceso en la fase más importante, el ajuste del lazo, donde se genera el controlador. Disponer de algoritmos que puedan resolver de forma automática, sin intervención del usuario, el ajuste del lazo en QFT no es una tarea sencilla. Dado que constituye un problema de optimización no lineal y no convexo, las soluciones algorítmicas que se le pueden aplicar tienen dificultades inherentes de difícil solución. A lo largo de la historia se han planteado diferentes propuestas para dar respuesta a esta necesidad, pero hasta ahora no se ha conseguido ninguna solución satisfactoria. Dada la complejidad del proceso, se ha afrontado el problema desde diversas ópticas. Una aproximación interesante son los algoritmos de búsqueda global intervalar. Este tipo de propuestas buscan asegurar el óptimo en la solución utilizando aritmética intervalar, pero tienen la problemática de que, al ser una búsqueda global, tienen un coste computacional muy alto, y con ello, lleva a una curva exponencial del tiempo de ejecución conforme el tamaño del problema aumenta.\ Este trabajo se ha centrado en analizar con detenimiento los algoritmos de este tipo, focalizando el esfuerzo en comprender donde existen más posibilidades de mejora. Una vez concluida esta tarea, se ha trabajado en el planteamiento de alternativas que mejoren las propuestas existentes, culminando en una serie de novedosas estrategias que tienen por objetivo reducir el coste computacional y el tiempo de ejecución. Un primer grupo de estrategias tienen la finalidad de acotar el espacio de búsqueda del algoritmo, y su objetivo es detectar tanto el subrango viable como inviable de cada una de las variables del controlador, utilizando la fase y la magnitud en el plano de Nichols. De esta forma, por un lado se consigue eliminar los subrangos identificados como inviables, y por otro lado, encontrar soluciones en el subrango viable. Dentro de este mismo grupo, se plantea una estrategia que busca encontrar soluciones al problema de forma rápida, su funcionamiento es similar a las acotaciones descritas, pero tiene la capacidad de encontrar mejores soluciones, que podrán ser utilizadas para realizar podas en nodos poco prometedores. Un segundo grupo tienen un carácter más transversal. La primera de ellas contiene varias opciones para realizar la bisección del nodo. Como opción principal se propone una bisección avanzada que utiliza la información generada del nodo actual para tomar la mejor decisión posible. Complementado a ésta, se plantean tres opciones más básicas, realizar la bisección por la variable que más influye en el área, por la que más influye en la magnitud o por la que más influye en la fase, todas ellas en el plano de Nichols, según convenga en cada momento. A continuación, se plantea una segunda estrategia que está centrada en adaptar el funcionamiento del algoritmo a la situación en la que se encuentre a lo largo de su ejecución, es decir, modifica el comportamiento del resto de estrategias y las adapta a las circunstancias concretas del algoritmo en ese momento consiguiendo, de esta forma, mejorar las prestaciones de todas las estrategias desarrolladas. Para terminar, esta tesis propone un nuevo algoritmo de ajuste automático del lazo en QFT del tipo búsqueda global intervalar que engloba todas estas estrategias propuestas. Dicho algoritmo logra reducir el coste computacional de manera importante con respecto a las soluciones previas y, de esta forma, consigue una mejora en el tiempo de ejecución de dos órdenes de magnitud para controladores típicos.
- PublicationOpen AccessActo de bienvenida grado en Informática(2019-04-09) OMEGA, FOTOS; Facultad de Informática
- PublicationOpen AccessLa adquisición de conocimientos y el cambio de actitudes hacia la informática en la formación del profesorado(Universidad de Zaragoza, Asociación Universitaria de Formación del Profesorado (AUFOP), 1989) Gallifa Roca, JosepEste estudio se llevó a cabo para constatar la adquisicion de conocimientos informáticos y los efectos del aprendizaje del uso del ordenador en las actitudes de los maestros hacia la informatica. Este artículo resume los métodos utilizados para medir el cambio de actitud, los resultados obtenidos y su discusión.
- PublicationOpen AccessAdvancements towards non-speculative concurrent execution of critical sections(Universidad de Murcia, 2025-06-10) Gómez Hernández, Eduardo José; Ros Bardisa, Alberto; Kaxiras, Stefanos; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoLos programas paralelos requieren, además de la orquestación de la caché, otro mecanismo que garantice la sincronización entre otros hilos del mismo programa. Estos mecanismos de sincronización inducirán sobrecargas, al ralentizar ciertas operaciones, detener hilos, entre muchos otros, para cumplir con los requisitos establecidos por el programador. Un gran problema a la hora de evaluar nuevas propuestas es la falta de líneas de comparación actualizadas y representativas. La más utilizada son las suites de benchmarks, pero la mayoría de ellas fueron creadas hace más de 20 años. Aunque algunas de ellas intentan mantenerse al día con los cambios arquitectónicos de los procesadores, muchas se quedan atrás. Una de las capacidades más tergiversadas son, los ya mencionados, mecanismos de sincronización. Las regiones de código que requieren sincronización se conocen como secciones críticas (o regiones atómicas). Dependiendo de la naturaleza y propiedades de estas secciones, se pueden utilizar diferentes enfoques para protegerlas. Las pequeñas con pocas direcciones, grano fino, tienden a ser más eficientes, pero mucho más difíciles de desarrollar y depurar; mientras que las grandes con varias direcciones, grano grueso, son triviales, incluso automatizadas, menos propensas a errores, pero mucho menos performantes. A lo largo de los años se han desarrollado diferentes métodos para facilitar las secciones críticas de grano grueso de alto rendimiento. La memoria transaccional por hardware y la elisión especulativa de bloqueos son los más conocidos en este contexto. El principal problema es que introducen muchos retos para los diseñadores de hardware, al tiempo que siguen mostrando dudas sobre si son un buen enfoque. El objetivo de la tesis es la ejecución eficiente de secciones críticas, es decir, regiones de código que deben ejecutarse atómicamente. El método más eficiente es la ejecución concurrente y no especulativa de estas secciones. Para lograrlo, presentamos los 3 pasos que hemos dado: 1) se pueden utilizar instrucciones atómicas simples para implementar secciones críticas no especulativas, por lo que desarrollamos una versión actualizada del conocido conjunto de pruebas Splash que utiliza instrucciones atómicas de dirección única para implementar la mayoría de las secciones críticas (Splash-4); 2) un nuevo conjunto de instrucciones atómicas multidirección, y una metodología sobre cómo implementarlas eficientemente, que pueden utilizarse para secciones críticas pequeñas (MADs); 3) sin intervención directa del programador, un método más genérico que limita los reintentos necesarios para ejecutar regiones críticas contendidas (CLEAR). Para una eficiente evaluación de los resultados, hemos utilizado las herramientas mas actualizadas que nos han sido posibles en cada caso, e incluso, cuando ha sido posible, máquinas reales en lugar de simulaciones. Para las simulaciones, hemos usado el simulador gem5, en todo momento realizando multiples ejecuciones. El simulador ha sido configurado para emular, lo más fiablemente posible, procesadores basados en las últimas generaciones de intel. En nuestro primer paso, Splash-4, hemos conseguido reducir el tiempo de ejecución al usar 64-cores en un 50%, manteniendo en todo momento la estructura y algoritmos originales. En el segundo objectivo (MADs), las nuevas instrucciones atomicas implementadas, reducen un 80% el tiempo de ejecución al compararse con el mecanismo de locks clásico, y un 60% al usar una tecnica de memoria transacional similar a intel TSX, añadiendo solo 68 bytes por core. Por último, CLEAR, es capaz de limitar la cantidad de rejecuciones de las secciones criticas ejecutadas bajo métodos especulativos, aumentando en un 35% la cantidad de secciones que se completan en el primer reintento, y reduciendo del 37% al 15% la cantidad de secciones que requieren llegar al fallback. Todo esto mejorando el timepo de ejecución en un 35% contra una implementación tipo Intel TSX y un 23% contra PowerTM.
- PublicationOpen AccessAgrupamiento y descubrimiento de subgrupos para fenotipado de pacientes(Universidad de Murcia, 2024-01-30) López Martínez-Carrasco, Antonio; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de DoctoradoSegún las principales organizaciones sanitarias, la resistencia antimicrobiana (antimicrobial resistance o AMR, por sus siglas en inglés) es una de las mayores amenazas mundiales para la salud humana y constituye un problema crítico en el ámbito médico. La AMR se produce cuando los microorganismos se vuelven resistentes a los tratamientos antimicrobianos, haciendo que estos últimos no puedan combatir eficazmente las infecciones. Algunas de las principales causas de la AMR son el uso inadecuado de antimicrobianos y la transferencia de microorganismos resistentes entre humanos, animales o el medio ambiente. Esto significa que, a pesar del uso de fármacos antimicrobianos para tratar a pacientes infectados con microorganismos resistentes, su uso excesivo y una regulación inadecuada favorecen la propagación de estos microorganismos resistentes. Por un lado, desde el punto de vista sanitario y hospitalario, es imprescindible disponer de recursos, herramientas y procedimientos con los que monitorizar, detectar y controlar los posibles casos de AMR, además de erradicar todas las amenazas potenciales tanto para los pacientes como para el resto de la sociedad. Por otro lado, en el ámbito de la investigación clínica se han realizado muchos esfuerzos para abordar el problema de la AMR y mitigar los efectos y problemas que causa. En este contexto, la búsqueda de conjuntos de pacientes con características interesantes se ha convertido en una cuestión fundamental. Esta tarea se denomina fenotipado de pacientes y estas características de los pacientes se denominan fenotipos. El aprendizaje computacional (machine learning o ML, por sus siglas en inglés) es un área prometedora en el campo de la informática, ya que proporciona un mecanismo con el que investigar y desarrollar nuevas soluciones a la hora de enfrentarse a determinados problemas como el descrito en este trabajo. Más concretamente, el ML puede utilizarse para la generación automática de fenotipos de pacientes. La hipótesis de esta tesis doctoral es que las técnicas de agrupamiento (clustering) y descubrimiento de subgrupos (subgroup discovery o SD, por sus siglas en inglés), que son dos técnicas de ML, son eficaces para apoyar al proceso de fenotipado de pacientes en el contexto clínico de la resistencia a los antibióticos. Nuestra hipótesis es que las versiones refinadas y adaptadas de dichas técnicas pueden generar fenotipos útiles y legibles para los clínicos. Para probar esta hipótesis, establecemos los siguientes objetivos: (1) utilización de las técnicas de clustering o SD como base para proponer técnicas de ML para el fenotipado cuyos resultados sean útiles y fácilmente legibles por los expertos clínicos, (2) generación de fenotipos de pacientes mediante el diseño de una nueva técnica de ML no supervisada basada en clustering, (3) identificación de fenotipos de pacientes mediante la propuesta de una nueva metodología que permita involucrar a los expertos clínicos en el proceso, (4) extracción de fenotipos mediante la creación de un nuevo y eficiente algoritmo de SD, (5) definición de fenotipos de pacientes con la propuesta del nuevo problema de minado de las top-k listas de subgrupos diversas, (6) facilitación del uso de todos los algoritmos de SD desarrollados en esta investigación, junto con otros ya existentes en la literatura, mediante el desarrollo de una librería Python pública, accesible y de código abierto y (7) garantía de la reproducibilidad de la investigación mediante la extracción y el uso de datos clínicos relacionados con el problema de la resistencia a los antibióticos a partir de un repositorio público. Finalmente, las principales conclusiones de esta tesis doctoral en relación con los objetivos propuestos son que: (1) las nuevas técnicas de ML creadas en este trabajo pueden aplicarse con éxito al problema de la resistencia a los antibióticos y sus resultados son fáciles de interpretar para los clínicos, (2) la técnica de clustering basado en trazas genera fenotipos de pacientes, (3) la nueva metodología de 5 pasos proporciona una guía sencilla con la que identificar y hacer un ranking de los fenotipos de pacientes y permite involucrar a los expertos clínicos en el proceso de descubrimiento, (4) el algoritmo VLSD puede utilizarse tanto para extraer directamente fenotipos de pacientes como formando parte de otras técnicas de fenotipado, (5) el nuevo problema de minado de las top-k listas de subgrupos diversas proporciona un nuevo enfoque para el fenotipado de pacientes, (6) la librería ‘subgroups’ es de fácil acceso, ya que está disponible en GitHub y PyPI y puede ser utilizada por científicos de datos, investigadores de ML y usuarios finales para tareas como el fenotipado y (7) la base de datos MIMIC-III es una excelente fuente de datos que proporciona abundante información relativa al problema de la resistencia a los antibióticos, ayuda a los investigadores en este campo y garantiza la reproducibilidad de la investigación
- PublicationOpen AccessAlgoritmos matriciales paralelos y librería para matrices estructuradas. Antonio M. Vidal Macía. Facultad Informática.(Servicio de Comunicación, 2011-11-28) Urbina, LuisAlgoritmos matriciales paralelos y librería para matrices estructuradas. Antonio M. Vidal Macía. Facultad Informática.
- PublicationOpen AccessAn evidence-based framework for optimizing serious game design in software engineering education(Universidad de Murcia, 2024-12-02) Kharbouch, Manal; Fernández Alemán, José Luis; Escuela Internacional de DoctoradoLos juegos serios (JS) han ganado una atención creciente en la educación como herramientas diseñadas no solo para el entretenimiento, sino también con fines educativos, proporcionando experiencias de aprendizaje interactivas y atractivas. En el contexto de la educación en Ingeniería de Software (IS), los JS tienen un gran potencial para abordar desafíos como la abstracción de conceptos complejos y la aplicación práctica de conocimientos teóricos. Al integrar mecánicas de juego, los JS crean entornos inmersivos donde los estudiantes pueden perfeccionar tanto habilidades técnicas como de toma de decisiones en entornos controlados pero dinámicos. Sin embargo, a pesar de su potencial, el diseño de JS efectivos en la educación de IS sigue siendo inconsistente, sin un marco estandarizado que guíe la creación de juegos alineados con los objetivos educativos. Esta tesis tiene como objetivo llenar ese vacío mediante el desarrollo y la validación de un nuevo marco para el diseño de JS, junto con la creación de recomendaciones basadas en evidencia para los interesados en JS, específicamente adaptadas a la educación en IS. La hipótesis principal de la investigación es que un marco basado en evidencia, respaldado por la retroalimentación de expertos, puede guiar a los educadores y desarrolladores de juegos en la creación de JS que se alineen mejor con los objetivos educativos, optimicen el uso de recursos y, en última instancia, mejoren los resultados de aprendizaje. Los objetivos de la investigación incluyen: 1) Desarrollar una comprensión integral del uso actual de los JS en la educación de IS, 2) Evaluar el impacto de los JS en los resultados de los estudiantes, considerando la influencia de la experiencia de los instructores con los JS, 3) Contribuir con nuevo conocimiento a la educación en IS mediante las mejores prácticas para el diseño de JS, 4) Desarrollar un marco que estandarice el proceso de diseño de JS y promueva la reutilización de componentes, y automatización. 5) Validar el marco a través de la retroalimentación de expertos y el análisis comparativo con marcos de diseño existentes. La metodología empleada en esta tesis sigue el enfoque de Investigación en Ciencias del Diseño (Design Science Research - DSR), que consta de cuatro fases clave: identificación del problema, desarrollo del artefacto, validación del artefacto y contribución al conocimiento. En la primera fase, se realizó un estudio de mapeo sistemático de los JS existentes en la educación de IS, categorizando los juegos según la Taxonomía de Bloom y los dominios de IS descritos en el Cuerpo de Conocimientos de Ingeniería de Software (SWEBOK). Este estudio también identificó los componentes clave de los JS y sus principales factores de éxito. Dentro de esta primera fase, se llevó a cabo un experimento controlado con estudiantes de pregrado en IS que destacó el impacto de la experiencia de los profesores en la implementación de JS como enfoque de aprendizaje sobre los resultados académicos de los estudiantes (calificaciones, asistencia a exámenes y probabilidad de aprobar). En la segunda fase, se desarrolló un nuevo marco para abordar estas deficiencias. Este marco proporciona un enfoque estructurado para diseñar JS que se alineen con los objetivos educativos y optimicen los resultados de aprendizaje. El marco incluye tres componentes principales: (1) facilitar la reutilización de componentes de JS y la automatización de la generación de contenido, (2) adaptación del contenido del juego para ajustarse a los objetivos educativos y perfiles de jugadores de los estudiantes, y (3) facilitar la colaboración entre educadores y desarrolladores de juegos proporcionando un lenguaje común y herramientas. En la fase de validación, se realizaron revisiones de expertos para evaluar la practicidad y efectividad del marco. Expertos en la educación de IS y el diseño de JS evaluaron el marco, proporcionando retroalimentación crítica que fue incorporada en su refinamiento. Además, se realizó un análisis comparativo, evaluando el marco propuesto frente a otros marcos de diseño de JS en términos de usabilidad, alineación pedagógica y adaptabilidad. Los hallazgos demostraron que el marco era efectivo para guiar el diseño de JS que promovían habilidades cognitivas de orden superior y también era lo suficientemente flexible para adaptarse a varios contextos educativos. Además, el marco actualmente está siendo probado en el diseño de un nuevo juego serio, con resultados iniciales prometedores en aplicaciones del mundo real. Las contribuciones de esta tesis incluyen una comprensión refinada del diseño de JS en la educación de IS, el desarrollo de un marco robusto y adaptable, y pautas prácticas para educadores y desarrolladores. Esta investigación avanza en el campo al proporcionar un enfoque sistemático para el diseño de JS que puede ser utilizado no solo en entornos educativos, sino también en entornos de formación profesional. El trabajo futuro explorará estudios longitudinales para evaluar el impacto a largo plazo de los JS e investigará la integración de tecnologías emergentes como la realidad virtual y la inteligencia artificial en el diseño de JS. De esta manera, esta investigación aborda brechas críticas en el diseño de JS para la educación de IS, ofreciendo una herramienta valiosa para educadores y desarrolladores para crear juegos educativos más efectivos y con mayor impacto.
- PublicationOpen AccessAnálisis de datos en entornos inteligentes basados en el Internet de las cosas(Universidad de Murcia, 2020-01-10) González Vidal, Aurora; Skarmeta Gómez, Antonio Fernando; Escuela Internacional de DoctoradoLa investigación e innovación contribuyen de manera decisiva a la lucha contra el cambio climático. Las TIC pueden reducir un 20 % de las emisiones mundiales de CO2 de aquí a 2030. El Aprendizaje Automático es útil para detectar ineficiencias de las ciudades modernas que contribuyen a la inestabilidad climática. Para mitigar el cambio climático, la reducción del consumo energético es crucial y la comodidad de los usuarios de los edificios y la reducción de costes deben garantizarse. Análisis iniciales sugieren que la conversión a edificios inteligentes gracias a la sensorización del Internet de las Cosas (IdC), junto con el análisis de datos, podría ser una opción para abordar estos problemas. Para ello, hemos identificado las siguientes necesidades de los edificios: mejorar las decisiones de gasto, reducir el consumo de energía, mejorar la eficiencia operativa y capacitar a sus usuarios con conocimientos energéticos; y las siguientes necesidades relativas a los análisis: cumplir los requisitos Big Data (volumen, velocidad, variedad, etc.), proporcionar mecanismos de fusión de datos, identificación de patrones de movilidad humana, reducción de información redundante en tiempo real, mejora de la predicción de series temporales mediante la selección de características y la gobernanza de datos. De acuerdo a estas necesidades hemos fijado los siguientes objetivos: O1. Integrar datos para crear conjuntos relativos al consumo de energía en entornos inteligentes y estudiar la naturaleza de los datos. Desarrollar arquitecturas para recopilar y administrar esos conjuntos de datos. O2. Desarrollar técnicas de reducción de datos para flujos de IdC que conserven sus características clave en relación con las aplicaciones Big Data. O3. Crear y comparar metodologías de predicción del consumo de energía con varios horizontes para obtener una predicción precisa y extraer patrones de uso de la energía. O4. Desarrollar una metodología de reducción de características para series temporales multivariantes aplicadas a predecir consumo de energía. O5. Encontrar patrones en el uso del aire acondicionado que puedan ser utilizados para acciones específicas hacia la eficiencia energética. O6. Identificar patrones de movilidad humana utilizando datos de dispositivos portables y redes sociales. O7. Identificar y aplicar arquitecturas analíticas de IdC en problemas de ciudades inteligentes que abarcan desde la recogida de datos hasta la prestación de servicios. O8. Crear mecanismos de IdC para prestar servicios personalizados de gestión y sensibilización en materia de energía mediante el análisis de los aspectos de comportamiento relacionados con la eficiencia energética. Nos centramos en completar algunos de los vacíos que existen en el análisis de datos para mejorar la eficiencia energética. La combinación de la gestión de datos con el aprendizaje automático permite extraer conocimientos para mejorar y crear servicios relacionados con la eficiencia en los edificios. Mediante análisis estadísticos y técnicas de selección de características hemos identificado variables importantes para la predicción del consumo de energía: temperatura, radiación, ocupación y valores previos de consumo. La ocupación rara vez está disponible y su predicción precisa es complicada, por lo que se ha diferenciado entre mañanas y tardes, lunes a jueves y viernes y también entre semanales y festivos. Random Forest es método excepcional en muchos de los escenarios estudiados, y muy apropiado debido a su fácil paralelización. También hemos estudiado los patrones de movilidad utilizando dispositivos portables y redes sociales que podrían ser aplicados en la estimación de la ocupación de los edificios. Se encontraron dos tipos de usuarios de aires acondicionados: los que interactúan mucho con la temperatura de consigna (consumidores más altos) y los que no. Estos resultados se utilizaron para diseñar estrategias de reducción del consumo de energía. Observamos que los datos reales son complicados debido a su volumen y a su naturaleza temporal. En este sentido, hemos desarrollado BEATS, un algoritmo de representación que transforma los datos para que proporcionen cantidades similares de información de forma compacta. Por último, desarrollamos arquitecturas de IdC que integran todos los pasos, desde la recopilación hasta el análisis de los datos y la prestación de servicios personalizados. Esos servicios se diseñaron para mejorar la eficiencia energética en los edificios inteligentes con el fin de lograr un cambio de comportamiento y resultaron útiles para reducir el consumo de
- PublicationOpen AccessAnálisis de sentimientos en español en tuits relacionados con las enfermedades infecciosas(Universidad de Murcia, 2021-11-24) Apolinario Arzube, Oscar Omar; Valencia García, Rafael; Escuela Internacional de DoctoradoLa ingeniería lingüística es la herramienta que, por medio de las computadoras permiten investigar o entender lo expresado en el lenguaje natural sobre las redes sociales. El procesamiento del lenguaje natural es un área de inteligencia artificial enfocada para entender y modelar el cerebro humano. En este entorno, la minería de opiniones o análisis del sentimiento abarca técnicas del procesamiento del lenguaje natural, lingüística computacional y minería de textos que tienen como objetivo la extracción de información subjetiva a partir de contenidos generados en las redes sociales. Del estudio del estado del arte se concluye que, aunque existen estudios relacionados sobre el procesamiento del lenguaje natural en la salud, no son suficientes para verificar las nuevas técnicas de clasificación de información para los corpus propuestos; que permitan maximizar modelos predictivos del análisis de sentimiento tanto por los investigadores como por los profesionales de la salud. La motivación de este estudio es proporcionar nuevos recursos para el análisis de sentimientos en medicina, la creación de dos corpus; uno para las enfermedades infectocontagiosas como el ZIKA y otro para el COVID-19; aplicando así el estudio de distintas tecnologías para ver cómo se pueden clasificar los sentimientos en estos dominios y ampliar el estudio de esas mismas tecnologías para la detección de la SATIRA. Objetivos. El objetivo principal de esta tesis doctoral es la aplicación de técnicas para clasificación de sentimientos en modelos predictivos para el procesamiento del lenguaje de corpus en el dominio de enfermedades infectocontagiosas como ZIKA y COVID-19; extendiendo este mismo análisis sobre un corpus del género literario SATIRA para lograr una mejor precisión en la predicción de sentimiento sobre lo expresado en redes sociales y el entendimiento del lenguaje natural. Para conseguir este objetivo se plantearon los siguientes subobjetivos: • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Zika, dengue y chikungunya. • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Covid-19. • Obtención de un corpus sobre el dominio en el género literario de la sátira. • Obtención de modelos de clasificación para la predicción de sentimientos en cada uno de los corpus. • Obtención del mejor clasificador de precisión en cada uno de los corpus por tipos de clasificadores. Metodología. Esta tesis doctoral se desarrolló mediante 3 fases principalmente: la primera fase fue el estudio del estado del arte que se ha mostrado en este capítulo; la segunda fue la elaboración de métodos y artefactos de clasificación y predicción que permitan el tratamiento de los corpus propuestos; y la tercera la validación de la propuesta. • Estudio del estado del arte: Estudio de los conceptos y términos de la inteligencia artificial en el campo del lenguaje natural, técnicas del aprendizaje automático supervisado y no supervisado, modelos para la predicción de sentimiento y herramientas para la clasificación de texto. Además, se analizaron las distintas investigaciones en el ámbito de la minería de opiniones sobre modelos y su aplicabilidad en distintos dominios. • Elaboración de laboratorios para la obtención de modelos que realicen la predicción de sentimientos sobre los corpus en el contexto de esta tesis doctoral; también se desarrollaron las matrices de confusión para evaluar del sentimiento real vs la predicción obtenida en cada uno de los corpus. Resultados. Validación de los laboratorios: Con el detalle de los hyper-parámetros utilizados y el resultado obtenido de las predicciones para cada una de las ejecuciones realizadas. Aquí encontraremos los resultados del mejor modelo usado para evaluar la partición de validación y test. Cada una tiene el reporte de clasificación con la accuracy, precision, recall y f1 de cada clase.
- PublicationOpen AccessAnálisis del “pensamiento computacional” : una perspectiva educativa(Universidad de Murcia, Servicio de Publicaciones, 2021) Velázquez Iturbide, J. Ángel; Martín Lope, MercedesDesde la aparición del término “pensamiento computacional” hace aproximadamente quince años, se ha consolidado internacionalmente como una tendencia en el mundo educativo preuniversitario. Su imprecisión dificulta la celebración de un debate sobre su papel curricular, algo que se echa especialmente de menos en España. El artículo pretende contribuir a aclarar el significado de “pensamiento computacional” y sus implicaciones educativas. Se ha realizado un análisis cualitativo de contenido, utilizando como materiales primarios las definiciones realizadas por una selección de autores e instituciones destacados. Se han analizado tres aspectos: definición, características y elementos, y ámbito de conocimiento. Se han encontrado dos componentes comunes a las definiciones analizadas: la referencia a una “actividad mental” y la inclusión de habilidades de programación. Sin embargo, difieren en la inclusión de otros elementos, que pueden clasificarse como conocimientos, actitudes o competencias. El artículo debate las consecuencias de una definición basada en una “actividad mental” en lugar de constructos educativos. Se concluye que el debate sobre la educación preuniversitaria de la informática debería basarse en un lenguaje educativo más preciso, así como en los actuales conocimientos de los campos de conocimiento de la pedagogía, la informática y la didáctica de la informática
- PublicationOpen AccessAnálisis temporal de una base de datos de preguntas de autoevaluación para el aprendizaje de un lenguaje de programación(Universidad de Murcia, Servicio de Publicaciones, 2010) García Beltrán, Angel; Martínez, Raquel; Jaén, José Alberto; Tapia, Santiago; Arranz, José MaríaThe AulaWeb platform has being employed as a learning-teaching support system in the Computer Science course of the Industrial Engineering and Chemical Engineering degrees at the ETSII-UPM since 2000-01 academic year. The self-assessment module is one of the most used functionalities, especially in courses with many enrolled students. The system is used as continuous assessment as the academic lectures take place during the course. This activity mark is taken into account to calculate the corresponding course final mark. The self-assessment module is completed with a database of more than 800 questions. The questions database remains constant since 2004-05 course. In this work, the evolution of self-assessment results is analysed in order to detect a possible system efficiency decrease.
- PublicationOpen AccessAnálisis y diseño de soluciones para el despliegue de nodos IoT y Edge activos en el Computing Continuum(Universidad de Murcia, 2025-04-01) Robles Enciso, Alberto; Skarmeta Gómez, Antonio Fernando; Escuela Internacional de DoctoradoEl objetivo principal de esta tesis es el análisis y diseño de soluciones para la gestión y el despliegue eficiente de nodos IoT y Edge capaces de administrar tareas de manera inteligente dentro de un ecosistema de Computing Continuum, optimizando los recursos de la mejor manera posible y permitiendo que se adapten dinámicamente a los cambios en la infraestructura. Para lograrlo se analizan los detalles del nuevo paradigma del Computing Continuum, el cual integra los elementos típicos de IoT con una arquitectura unificada de Edge y Cloud Computing. De esta forma toda la red de dispositivos del sistema, desde los mas cercanos al usuario hasta los mas alejados, son capaces de realizar tareas de cómputo de los servicios, proporcionando un diseño de procesamiento distribuido como un continuo por toda la arquitectura. Sin embargo, esta nueva visión dificulta en gran medida el proceso de distribución de trabajo y la gestión de los recursos dada la naturaleza heterogénea y muy diversas de los dispositivos. Además, ahora es necesario considerar características que no suelen ser comunes en los modelos de Cloud Computing, como puede ser la latencia del nodo, el ancho de banda, si tiene batería, la velocidad de su procesador, la disponibilidad de ciertas instrucciones o características hardware, etc. En esta tesis se analiza el problema de optimización que subyace en el proceso de distribución de cargas de trabajo entre los nodos. Este problema se denomina el Problema de Asignación de Tareas (TAP), el cual se define como el proceso de determinar dónde se realiza el cómputo de cada tarea para optimizar ciertos parámetros, como la latencia, el tiempo de ejecución, el coste, el consumo de energía, la posición geográfica, e incluso si el nodo se está moviendo o se alimenta con una batería. El TAP se puede formalizar como un Problema de Asignación Generalizado (GAP) es cual se ha demostrado ampliamente que es un problema NP-Hard. Por ello mismo en algunos casos es difícil para los dispositivos con menor potencia de computo resolver el problema de manera general. Como innovación de esta tesis se propone el uso de Aprendizaje por Refuerzo (RL) para tratar el TAP y que los dispositivos mas livianos sean capaces de resolverlo fácilmente y con precisión. La bondad del aprendizaje por refuerzo es su capacidad de adaptarse e incluso predecir dinámicamente, esto se demostró en uno de los resultados de esta tesis donde se usa RL para la gestión energética inteligente de dispositivos en una Smart House. Igualmente, se han aplicado otras técnicas para resolver el problema de diferente manera dando mayor o menor precisión en pro reducir el tiempo de ejecución. Precisamente se ha considerado de especial valor en el diseño de la solución final incluir la capacidad de elección del método de resolución del problema de manera dinámica en función del tamaño del mismo. Finalmente, durante el desarrollo de las soluciones destaca como plataforma de facto para la gestión y despliegue de servicios en una red de nodos la herramienta Kubernetes. Si bien es una de las herramientas más comunes en la industria, su enfoque puramente basado en el Cloud Computing dificulta su aplicación en entornos del Continuum. Por esta razón, otra de las aportaciones de esta tesis implica la modificación de diversos módulos de K8s para adaptarlo al Continuum y que pueda ser capaz de considerar las características propias de este paradigma en el proceso de distribución de servicios a los nodos (proceso de asignación pod-node).
- PublicationOpen AccessAplicación de la bioinformática en la descripción y resolución de patologías hematológicas y mecanismos biológicos relacionados(Universidad de Murcia, 2025-03-25) Garrido Rodríguez, Pedro; Corral de la Calle, Javier; Escuela Internacional de DoctoradoLa alta capacidad de generación de datos ómicos en los últimos años ha forzado la implementación de sistemas de análisis automatizados que permitan la gestión e interpretación de grandes cantidades de información. Con todo, la generación de grandes cantidades de datos por cada paciente, la incorporación de diferentes ómicas y el modelado por ordenador en biomedicina hacen necesaria la presencia en los laboratorios experimentales de esta disciplina del bioinformático de cabecera, con la finalidad de poder tratar adecuadamente todo este conocimiento. El presente trabajo sirve como reflejo de estas nuevas necesidades computacionales en grupos experimentales. Concretamente, del grupo de Hematología y Oncología Clínico Experimental de la Universidad de Murcia entre los años 2020 y 2024. En esta Tesis Doctoral se recogen resultados de investigación bioinformática en el área del modelado molecular, la obtención y estudio de variantes germinales, el desarrollo de nuevos programas para el procesado de datos de secuenciación por lecturas largas y su aplicación práctica al estudio de la fisiopatología hepática. Así, se ha podido comprobar que, si bien se han producido avances de gran importancia en los últimos años en la predicción estructural de proteínas en base a su secuencia, quedan aún pendientes avances para comprender realmente los mecanismos que determinan el plegamiento de una secuencia dada, como muestran los resultados de AlphaFold para diferentes conformaciones de serpinas como la antitrombina, que en este estudio fue incapaz de mostrar ninguna estructura de esta que no fuese la nativa, a pesar de existir, incluso para la secuencia silvestre, otras posibles estructuras que AlphaFold no es capaz de considerar a día de hoy. Aunque ya se había descrito la relación entre la agenesia de vena cava y un mayor riesgo trombótico, mediante estudios de exomas se ha podido constatar cómo la agenesia de vena cava está relacionada con la aparición de trombofilias en genes de la hemostasia primaria que causarían un evento trombótico durante el desarrollo embrionario. Esta podría ser la razón de la malformación y justificaría por otro lado los eventos trombóticos que ocurren en la etapa adulta. En esta memoria se recoge igualmente el desarrollo de dos protocolos de análisis para datos de secuenciación por nanoporos, permitiendo un procesado estándar de muestras secuenciadas por esta tecnología, explotando sus capacidades (definición de grandes haplotipos, regiones repetitivas, detección de variantes estructurales), buscando minimizar sus limitaciones, mediante el uso de herramientas de amplio uso en la comunidad científica en torno a estas tecnologías, y facilitando la orquestación de los diferentes pasos en equipos de características muy variables, desde configuraciones modestas a grandes servidores de computación. Este trabajo es también el primero, hasta donde sabemos, que realiza una descripción detallada del perfil epitranscriptómico del hígado en pacientes con obesidad y distinto grado de enfermedad hepática, lo que podría ayudar a comprender nuevos aspectos sobre la evolución de las condiciones hepáticas y sobre las rutas metabólicas que puedan ser de interés desde el punto de vista diagnóstico o terapéutico. Por último, se pudo describir igualmente el proceso de diferenciación hepática desde células pluripotentes inducidas a organoides hepáticos. Se observó en la expresión diferencial la aparición en los organoides de anotaciones relacionadas con la formación de estructuras anatómicas asociadas a órganos internos, así como funciones propias del hígado. Al mismo tiempo, se arrojó algo de luz sobre el perfil y cambios epitranscriptómicos en ambos estadios, encontrando que las modificaciones m6A del ARN tendrían relación tanto con la estabilidad de los transcritos, así como parecen tener conexión con el proceso mismo de especialización celular.
- PublicationMetadata onlyAplicación de tecnologías semánticas para la creación de sistemas inteligentes de diagnóstico diferencial de alta sensibilidad en medicina / Alejandro Rodríguez González; directores, Rafael Valencia García, Angel García Crespo, Juan Miguel Gómez Berbis.(Murcia : Universidad de Murcia, Departamento de Informática y Sistemas,, 2012) Rodríguez González, Alejandro
- PublicationOpen AccessARQUEOMÁTICA: LA INFORMÁTICA AL SERVICIO DE LA ARQUEOLOGÍA(Murcia: Universidad de Murcia, Servicio de Publicaciones, 1999) García Lorca, Santiago; Facultad de Letras