Browsing by Subject "Programas y sistemas de programación"
Now showing 1 - 9 of 9
Results Per Page
Sort Options
- PublicationOpen AccessA unified data metamodel for relational and NoSQL databases : schema extraction and query(Universidad de Murcia, 2022-06-30) Fernández Candel, Carlos Javier; García Molina, Jesús; Sevilla Ruiz, Diego; Escuela Internacional de DoctoradoObjetivos. Esta tesis aborda: (i) la definición de un modelo de datos unificado con el objetivo de integrar el modelo relacional con los modelos de datos de los cuatro paradigmas más comunes de NoSQL: columnar, documento, clave-valor y grafos; (ii) La definición de mappings bidireccionales entre el modelo de datos unificado y cada uno de los modelos de datos de cada sistema de base de datos; (iii) La implementación de una estrategia común para la extracción de esquemas de diferentes tipos de bases de datos implementando los mappings definidos; (iv) El desarrollo de un proceso Model-Driven Engineering de análisis de código de aplicaciones para obtener el esquema de la base de datos y realizar un refactoring de la base de datos; (v) El diseño e implementación de un lenguaje de consultas de esquema genérico, que permite lanzar consultas sobre los esquemas representados en el modelo de datos unificado; (vi) La creación de notación gráfica para visualizar los esquemas; y (vii) la realización de un estudio para explorar el uso del modelo de datos unificado para definir un lenguaje de consulta genérico. Metodología. Para lograr los objetivos de la tesis, se ha seguido la metodología Design Science Research Methodology (DSRM). Esta metodología propone procesos de investigación iterativos organizados en varias etapas o actividades para lograr un objetivo. Las actividades que constituyen estos procesos son: (i) Identificación del problema y motivación, (ii) Definición de los objetivos de la solución, (iii) Diseño y desarrollo, (iv) Demostración, (v) Evaluación, y (vi) Conclusiones y comunicación. En un proceso DSRM el conocimiento producido en cada iteración se utiliza como retroalimentación para mejorar el diseño e implementación del artefacto. Resultados. Esta tesis aborda los principales problemas que surgen en el desarrollo de herramientas genéricas de bases de datos que integran los modelos de datos más relevantes: los modelos relacionales y NoSQL: (i) La definición de un metamodelo unificado que integre modelos de datos relacionales y NoSQL; (ii) La construcción de extractores de esquemas lógicos para cada modelo de datos. Debido a que la mayoría de los enfoques de extracción de esquemas han aplicado análisis de datos, hemos investigado el análisis estático de código como alternativa; (iii) Se ha construido una herramienta genérica de gestión de esquemas que incluye un lenguaje de consulta genérico de esquemas y un visualizador de esquemas. Al abordar estos problemas, nos hemos enfrentado a los desafíos que plantea una propuesta de esquema lógico que incluye variaciones estructurales y las relaciones más comunes entre las entidades de las bases de datos NoSQL. Contribuciones. Esta tesis contribuye con (i) El primer metamodelo lógico unificado que integra los paradigmas de base de datos más utilizados: Relacional y NoSQL. Esto implicó la definición de dos modelos de datos lógicos para sistemas NoSQL: uno para sistemas basados en agregados y otro para grafos; (ii) La especificación formal de mappings bidireccionales entre el modelo unificado y los modelos de datos individuales; (iii) La definición de una arquitectura con componentes reutilizables para crear un extractor de esquemas para cualquier sistema Relacional y NoSQL; (iv) Un enfoque Model-Driven Engineering para extracción de esquemas lógicos y refactoring a partir del análisis de código; (v) Un lenguaje de consulta genérico diseñado que permite a los desarrolladores lanzar consultas sobre los esquemas lógicos; (vi) La creación de una notación gráfica para visualizar los esquemas que incluye variaciones estructurales; (vii) Un estudio sobre la utilidad del modelo unificado para crear un lenguaje genérico para consultar datos de cualquier tipo de sistema de bases de datos; y una comparación de diferentes modelos genéricos.
- PublicationOpen AccessAn evidence-based framework for optimizing serious game design in software engineering education(Universidad de Murcia, 2024-12-02) Kharbouch, Manal; Fernández Alemán, José Luis; Escuela Internacional de DoctoradoLos juegos serios (JS) han ganado una atención creciente en la educación como herramientas diseñadas no solo para el entretenimiento, sino también con fines educativos, proporcionando experiencias de aprendizaje interactivas y atractivas. En el contexto de la educación en Ingeniería de Software (IS), los JS tienen un gran potencial para abordar desafíos como la abstracción de conceptos complejos y la aplicación práctica de conocimientos teóricos. Al integrar mecánicas de juego, los JS crean entornos inmersivos donde los estudiantes pueden perfeccionar tanto habilidades técnicas como de toma de decisiones en entornos controlados pero dinámicos. Sin embargo, a pesar de su potencial, el diseño de JS efectivos en la educación de IS sigue siendo inconsistente, sin un marco estandarizado que guíe la creación de juegos alineados con los objetivos educativos. Esta tesis tiene como objetivo llenar ese vacío mediante el desarrollo y la validación de un nuevo marco para el diseño de JS, junto con la creación de recomendaciones basadas en evidencia para los interesados en JS, específicamente adaptadas a la educación en IS. La hipótesis principal de la investigación es que un marco basado en evidencia, respaldado por la retroalimentación de expertos, puede guiar a los educadores y desarrolladores de juegos en la creación de JS que se alineen mejor con los objetivos educativos, optimicen el uso de recursos y, en última instancia, mejoren los resultados de aprendizaje. Los objetivos de la investigación incluyen: 1) Desarrollar una comprensión integral del uso actual de los JS en la educación de IS, 2) Evaluar el impacto de los JS en los resultados de los estudiantes, considerando la influencia de la experiencia de los instructores con los JS, 3) Contribuir con nuevo conocimiento a la educación en IS mediante las mejores prácticas para el diseño de JS, 4) Desarrollar un marco que estandarice el proceso de diseño de JS y promueva la reutilización de componentes, y automatización. 5) Validar el marco a través de la retroalimentación de expertos y el análisis comparativo con marcos de diseño existentes. La metodología empleada en esta tesis sigue el enfoque de Investigación en Ciencias del Diseño (Design Science Research - DSR), que consta de cuatro fases clave: identificación del problema, desarrollo del artefacto, validación del artefacto y contribución al conocimiento. En la primera fase, se realizó un estudio de mapeo sistemático de los JS existentes en la educación de IS, categorizando los juegos según la Taxonomía de Bloom y los dominios de IS descritos en el Cuerpo de Conocimientos de Ingeniería de Software (SWEBOK). Este estudio también identificó los componentes clave de los JS y sus principales factores de éxito. Dentro de esta primera fase, se llevó a cabo un experimento controlado con estudiantes de pregrado en IS que destacó el impacto de la experiencia de los profesores en la implementación de JS como enfoque de aprendizaje sobre los resultados académicos de los estudiantes (calificaciones, asistencia a exámenes y probabilidad de aprobar). En la segunda fase, se desarrolló un nuevo marco para abordar estas deficiencias. Este marco proporciona un enfoque estructurado para diseñar JS que se alineen con los objetivos educativos y optimicen los resultados de aprendizaje. El marco incluye tres componentes principales: (1) facilitar la reutilización de componentes de JS y la automatización de la generación de contenido, (2) adaptación del contenido del juego para ajustarse a los objetivos educativos y perfiles de jugadores de los estudiantes, y (3) facilitar la colaboración entre educadores y desarrolladores de juegos proporcionando un lenguaje común y herramientas. En la fase de validación, se realizaron revisiones de expertos para evaluar la practicidad y efectividad del marco. Expertos en la educación de IS y el diseño de JS evaluaron el marco, proporcionando retroalimentación crítica que fue incorporada en su refinamiento. Además, se realizó un análisis comparativo, evaluando el marco propuesto frente a otros marcos de diseño de JS en términos de usabilidad, alineación pedagógica y adaptabilidad. Los hallazgos demostraron que el marco era efectivo para guiar el diseño de JS que promovían habilidades cognitivas de orden superior y también era lo suficientemente flexible para adaptarse a varios contextos educativos. Además, el marco actualmente está siendo probado en el diseño de un nuevo juego serio, con resultados iniciales prometedores en aplicaciones del mundo real. Las contribuciones de esta tesis incluyen una comprensión refinada del diseño de JS en la educación de IS, el desarrollo de un marco robusto y adaptable, y pautas prácticas para educadores y desarrolladores. Esta investigación avanza en el campo al proporcionar un enfoque sistemático para el diseño de JS que puede ser utilizado no solo en entornos educativos, sino también en entornos de formación profesional. El trabajo futuro explorará estudios longitudinales para evaluar el impacto a largo plazo de los JS e investigará la integración de tecnologías emergentes como la realidad virtual y la inteligencia artificial en el diseño de JS. De esta manera, esta investigación aborda brechas críticas en el diseño de JS para la educación de IS, ofreciendo una herramienta valiosa para educadores y desarrolladores para crear juegos educativos más efectivos y con mayor impacto.
- PublicationOpen AccessExploring State-of-the-Art Software for Forensic Authorship Identification(Murcia, Universidad de Murcia, Servicio de Publicaciones, 2008) Guillén Nieto, Victoria; Vargas Sierra, Chelo; Pardiño Juan, María; Martínez Barco, Patricio; Suárez Cueto, Armando
- PublicationMetadata onlyUn framework basado en desarrollo dirigido por modelos para la creación de lenguajes específicos del dominio embebidos / Jesús Sánchez Cuadrado; director, Jesús García Molina.(Murcia : Universidad de Murcia, Departamento de Informática y Sistemas,, 2009) Sánchez Cuadrado, Jesús
- PublicationOpen AccessIntegroly : sistema automático de población de un grafo de conocimiento a partir de datos sociales masivos en el dominio de marketing político(Universidad de Murcia, 2022-06-15) Guedea Noriega, Héctor Hiram; García Sánchez, Francisco; Escuela Internacional de DoctoradoLas campañas políticas modernas se sustentan en estrategias formuladas en base a lo que se ha dado en conocer como marketing político. El marketing político abarca desde la definición del producto político, a través de un minucioso análisis de las necesidades del electorado, hasta el desarrollo de campañas y la gestión de la comunicación política. La inteligencia de mercado, esto es, entender las demandas reales del mercado político, supondrá la primera etapa en este complejo proceso. Uno de los principales problemas de la inteligencia de mercado político es el procesamiento de la diversidad de las fuentes de datos como son las encuestas, redes sociales, páginas Web, entre otras más. Las redes sociales se han convertido en una de las principales plataformas de conversación y canales para compartir experiencias y opiniones. Sin embargo, el monitoreo, la extracción, el procesamiento, el almacenamiento y el análisis de los datos masivos sociales en el ámbito político es una tarea complicada por su heterogeneidad propia de la estructura de la fuente de datos. A pesar de los retos, estas tareas son muy importantes para lograr encontrar las demandas de los potenciales votantes, y con ello, crear una estrategia y toma de decisiones ligada a las mismas. Las tecnologías de la Web semántica, y en particular, las ontologías, permiten generar una base de conocimiento homogéneo, compartido y reutilizado, con un formato legible por la máquina y enriquecido para apoyar el descubrimiento, la integración, la representación y la gestión del conocimiento. En los últimos años, las ontologías y los grafos de conocimiento (KG) han demostrado ser eficaces para propiciar una solución de integración de datos y ayudando con la complejidad de encontrar relaciones significativas dentro de los datos heterogéneos. Este trabajo se enfoca en dos principales contribuciones, la primera, generar un modelo ontológico basado en el dominio de marketing político, y la segunda, en una propuesta de sistema para la población automática de un grafo de conocimiento a partir de datos masivos sociales en el dominio del marketing político. Nuestra propuesta de modelo ontológico se realizó basado en los criterios y necesidades del marketing político. La construcción de la ontología fue a través de metodología estándar Ontology 101, donde se definió el dominio y alcance, se consideró la reutilización de ontologías existentes, se enumeraron los términos importantes para la ontología, hasta la definición de clases, propiedades, relaciones e instancias base. La ontología se bautizó como PMont (Political Marketing Ontology) la cual responde preguntas clave del marketing político. La PMont permitió la integración de la información disponible sobre el electorado y candidatos a través de distintas fuentes de datos. La segunda aportación de este trabajo de investigación es una solución automatizada basada en textos en castellano a través de técnicas de Machine Learning y Procesamiento del Lenguaje Natural, recolección datos significativos de fuentes de medios digitales semiestructurados y no estructurados, procesamiento datos masivos y finalmente la población de un grafo de conocimiento previamente definido por un modelo ontológico del dominio de marketing político. La propuesta de sistema de automatización cuenta con las siguientes fases o componentes: (i) conectividad a fuentes y almacenamiento de datos, (ii) procedimiento de extracción de información, (iii) proceso de población y validación de la ontología, y finalmente, (iv) el grafo de conocimiento resultante. Como resultado de esta tesis doctoral se tiene un grafo de conocimiento poblado con información validada, precisa, consistente y confiable. El grafo de conocimiento fue evaluado a través de 18 requisitos de calidad sobre las dimensiones de accesibilidad, contextualidad, intrínseca y representatividad, de los cuales nos brinda una base de conocimiento óptima para la inteligencia de mercado del marketing político.
- PublicationOpen AccessMejora de la calidad del software y de la experiencia del usuario a través de las interfaces humano-máquina(2014-09-12) Mateo Navarro, Pedro Luis; Martínez Pérez, Gregorio; Sevilla Ruiz, Diego; Facultad de InformáticaEsta tesis doctoral plantea dos enfoques diferentes para conseguir la calidad del software a través del análisis de la interacción usuario-sistema. Bloque 1: Por una parte se evalúa la calidad de los componentes de la interacción (i.e., entrada y salida) por separado. Los métodos que siguen este enfoque pueden centrar todo su potencial en conseguir la calidad de uno de los componentes de la interacción, y como consecuencia mejorar la calidad general del software. Bloque 2: Por otra parte evaluamos la calidad de la interacción como un todo. Los métodos que siguen este enfoque se centran en conseguir la calidad de todo el proceso, y no de las partes que lo componen, manteniendo así la “totalidad” del proceso de interacción, lo que nos permite analizar las relaciones causa-efecto que se producen entre las acciones del usuario y las del sistema. Al hilo de estos dos enfoques, esta tesis doctoral plantea cuatro grandes objetivos de investigación divididos en estos dos bloques. El Objetivo G1.1 busca un framework de pruebas que permita el desarrollo de herramientas para validar la respuesta de un software, que permita la automatización de aquellas pruebas GUI que normalmente son realizadas a mano y permitir la simulación de las acciones de un experto humano, implementando así un proceso de pruebas real, fiable y robusto. También se busca facilitar la integración de estas herramientas en desarrollos de diferentes tipos. Como solución se propone OHT, una arquitectura abierta y adaptable para el desarrollo de herramientas de pruebas GUI y que puede ser adaptada a diferentes entornos de ejecución. El Objetivo G1.2 busca una alternativa ligera y de fácil integración para validar las entradas proporcionadas por los usuarios en una GUI. Esos datos deben ajustarse a unos requisitos, los cuales deberían poder ser escritos en diferentes lenguajes de especificación dependiendo de las necesidades de cada proyecto. El proceso de verificación debe ser interactivo para facilitar el trabajo de los desarrolladores durante el desarrollo del software, así como la interacción de los usuarios durante su uso. Como solución se propone S-DAVER, un framework de verificación en tiempo real que permite verificar las entradas al mismo tiempo que el usuario utiliza la aplicación. El Objetivo G2.1 busca una forma de describir la interacción multimodal entre el usuario y el sistema para permitir su instrumentación y evaluación. Esta descripción tiene que ser genérica y debe permitir la comparación entre diferentes registros independientemente del contexto en el que fueron obtenidos. También se debería conservar la naturaleza dinámica del proceso de interacción. Como solución se presenta PALADIN, un modelo runtime que engloba parámetros destinados a describir qué ocurre en el proceso de interacción y así permitir la evaluación de la usabilidad del sistema. El Objetivo G2.2 busca permitir la evaluación de las experiencias de los usuarios (QoE) en entornos móviles. Por una parte debe proporcionarse una forma genérica de describir el contexto que rodea a los usuarios y al sistema. Por otra parte es necesario capturar los juicios subjetivos de los usuarios sobre el proceso de interacción. Se busca un criterio común para evaluar la QoE de los usuarios. Como solución se presenta CARIM, un modelo runtime que describe la interacción usuario-sistema, el contexto en el que ésta se produce y la percepción de calidad de los usuarios. Las herramientas y modelos desarrollados en esta tesis doctoral han sido integrados en los procesos internos de SAES (la empresas de desarrollo software con la que colaboramos) así como en diferentes experimentos con usuarios reales, demostrando por tanto que estos métodos están en la vanguardia de la investigación científica y están preparados para ser aplicados en la industria. This PhD thesis addresses two different approaches to achieve quality of a software through the analysis of user-system interaction. Block 1: On the one hand, the quality of the different components of interaction (i.e., input, output, and context) can be achieved separately. The main advantage of this approach is that proposed tools and methods can focus their efforts on achieving the quality of a single component of interaction and, as a consequence, the quality of the entire software is enhanced. Block 2: On the other hand, interaction can be assessed as a whole, as a single flow of actions from the user to the system and vice versa. In this approach the main advantage is that methods try to achieve the quality of the "whole thing" and not of the parts compounding it. This approach keeps the totality of the interaction process and enables the analysis of those cause-effect relationships between the actions of the user and the system. Four main research goals are outlined and structured into the two aforementioned blocks. Goal 1.1 suggests to find a framework to support the development of testing tools aimed at validating the software response. It involves supporting the automation of GUI testing processes that are often performed manually, as well as allowing the simulation of a human tester to implement testing in a real, reliable, and robust context. Ease the integration of these tools into applications of a different nature was a goal as well. This PhD thesis proposes OHT. The OHT (Open HMI Tester) framework provides an open and adaptable architecture for the development of GUI testing tools. Goal 1.2 aims at finding a lightweight and easy-to-integrate solution for implementing input data verification processes into GUI developments. The user input must be valid and conform to the data requirements, which should be written using a verification language chosen by the developers. This solution should be interactive to ease the work of developers, testers, and users during the whole life-cycle of a software. This PhD thesis proposes S-DAVER (Script-based DAta VERification), a runtime verification framework that validates input data while the user is interacting with the software. Goal 2.1 suggests to find a generic description of multimodal interaction to support its instrumentation and assessment. This description has to capture the dynamic nature of the interaction between the user and the system. Furthermore, the comparison between different interaction records should be allowed, regardless of the execution context from which they were previously recorded. This thesis proposes PALADIN (Practice-oriented Analysis and Description of Multimodal Interaction), a runtime model arranging a set of parameters which are used to quantify the interaction between the user and the system in multimodal systems. Goal 2.2 aims at providing a framework to support the assessment of user experiences in mobile scenarios. Such a framework has to include a generic and dynamic description of the surrounding context of interaction, as well as a set of metrics to capture users impressions about interaction. As a result, this framework should provide unified criteria for the assessment of systems usability and QoE in different mobile and non-mobile scenarios. This thesis proposes CARIM. CARIM (Context-Aware and Ratings Interaction Model) is a runtime model describing the interaction between the user and the system, its context, and the perceived quality of users. The tools and models designed and implemented in this PhD thesis have been used for practical applications within SAES (the software company with which we colaborate) as well as in different experiments conducted with real users, thus demonstrating that the proposed methods are at the forefront of scientific research and ready for industrial application.
- PublicationOpen AccessUn repositorio de modelos para acceso escalable : A model repository for scalable access.(2013-10-23) Espinazo Pagán, Javier; García Molina, Jesús J.; Facultad de InformáticaEl trabajo presentado en esta tesis aborda los problemas de la persistencia y consulta de modelos en el ámbito de la Ingeniería del Software Dirigida por Modelos. La persistencia de modelos es el servicio que proporciona el almacenamiento de modelos residentes en memoria en medios persistentes tales como las bases de datos. La consulta de modelos es el proceso de buscar dentro de un modelo un conjunto de elementos que satisfagan una determinada condición. Los repositorios de modelos son una tecnología emergente para la persistencia de grandes modelos, surgida para superar las limitaciones de la persistencia basada en XMI, que proporcionan acceso remoto a éstos. En esta tesis presentamos Morsa, un repositorio de modelos enfocada a la escalabilidad e integración. Además de la persistencia de modelos, el repositorio Morsa ofrece el lenguaje de consultas MorsaQL, que ha sido diseñado con los objetivos de usabilidad, seguridad y eficiencia. Finalmente, para estudiar el estado del arte en las áreas de la persistencia y consulta de modelos y así poder desarrollar nuestras propias soluciones, hemos realizado un estudio y una comparativa de aproximaciones a ambas áreas. Objetivos El objetivo principal de esta tesis es la creación de un repositorio de modelos con especial énfasis en la escalabilidad para el manejo de grandes modelos y en la integración transparente. Este repositorio ofrece dos servicios básicos: (i) la persistencia de modelos, que permite manejar modelos grandes y (ii) la consulta de modelos, que permite a un cliente obtener elementos de un modelo almacenado en el repositorio. Otro objetivo de esta tesis es el estudio del arte en las áreas de la persistencia y consulta de modelos, realizando una comparativa de las soluciones existentes y definiendo un conjunto de dimensiones para caracterizar ambas áreas. Metodología El desarrollo de Morsa comenzó con un estudio del estado del arte para evaluar las soluciones de persistencia de modelos existentes y definir las dimensiones que caracterizan este área. Una vez completado este estudio, se procedió a elicitar los requisitos, entre los cuales cabe destacar la escalabilidad en el cliente y la integración transparente. Posteriormente se procedió al diseño, implementación y prueba de Morsa; para la evaluación del repositorio, se realizó una comparativa con CDO, el repositorio de modelos más utilizado en la actualidad, en la cual se demostrando la mayor eficiencia de Morsa. Una vez desarrollado Morsa, se procedió a la creación de MorsaQL, un lenguaje de consultas integrado en el repositorio. De nuevo, se realizó un estudio del estado del arte en el área de la consulta de modelos, a partir del cual se elicitaron los requisitos fundamentales de eficiencia, usabilidad y seguridad. Tras el diseño, implementación y prueba de MorsaQL, su evaluación se realizó comparándolo con las principales soluciones de consulta de modelos disponibles actualmente, resultando más eficiente y adecuado que el resto. Conclusiones El desarrollo de Morsa y MorsaQL, junto con el estudio del estado del arte realizado, nos ha proporcionado un conocimiento más profundo de la problemática asociada a la persistencia y consulta de modelos. Por otro lado, la evaluación de Morsa y MorsaQL y su comparación con las principales soluciones existentes aportan un importante valor añadido en forma de recomendaciones para la utilización de unas u otras soluciones en función del uso que se les vaya a dar. Finalmente, el conocimiento adquirido nos ha permitido definir unas líneas generales de investigación que sería beneficioso explorar de cara a conseguir una mayor alineación de las tecnologías de la Ingeniería del Software Dirigida por Modelos. The work presented in this thesis tackles the problems of model persistence and querying in the field of Model-Driven Engineering. Model persistence is the service that provides the storage of in-memory models into persistent media such as data bases. Model querying is the processo of searching a model fro a set of elements that satisfy a given condition. To overcome the limitations of XMI-based persistence, model repositories are emerging as persistence solutions for large models, providing remote access to them. In this thesis, we present Morsa, a model repository focused on scalability and integration. Morever, Morsa provides the MorsaQL model querying language, which has been designed with the goals of usability, safeness and efficiency. Finally, in order to study the state of the art of the areas of model persistence and model querying and gain the knowledge we needed to develop our own solutions, we have studied and compare the different approaches to both areas. Goals The main goal of this thesis is the creation of a model repository for managing large models with a special emphasys on scalability and transparent integration. This repository offers two basic services: (i) model persistence, which provides means to handle large models, and (ii) model querying, which allows a client to obtain elements from a model that is stored in the repository. Another goal of this thesis is the study of the state of art of the areas of model persistence and model querying, comparing the existing solutions and defining a set of dimensions that can be used to characterize both areas. Methodology The development of Morsa began with a stage dedicated to the study of the state of the art of model persistence in order to evaluate the existing approaches and define the dimensions that characterize this area. Once this study was completed, the requirements were elicited, with special focus on client scalability and transparent integration. Afterwards, the design, implementation and test of Morsa were performed; for the evaluation of the repository, a comparison between it and CDO, the most widely used repository, was done, demonstrating the greater efficiency of Morsa. The creation of MorsaQL was tackled once the development of Morsa was finished. To do this, a study of the state of the art of model querying was performed, eliciting the main requirements of efficiency, usability and safeness. After the design, implementation and test of MorsaQL, its evaluation was performed by comparing it against the main model querying approaches currently available, resulting in MorsaQL being the most efficient and suitable. Conclusions The development of Morsa and MorsaQL, as well as the study of the state of the art, have given us a profound knowledge on the problematics of model persistence and querying. Moreover, the evaluation of Morsa and MorsaQL and their comparison against the main existing solutions provide an added value in the form of recommendations for which solutions to use depending on some given needs. Finally, the knowledge we have adquired has allowed us to define some research guidelines that would be beneficial to explore in order to achieve a greater alignment between the different Model Driven Engineering technologies.
- PublicationOpen AccessSoftware requirements for energy efficiency in information systems: catalogue and Applications(Universidad de Murcia, 2021-10-07) García Berná, José Alberto; Fernández Alemán, José Luis; Toval Álvarez, José Ambrosio; Escuela Internacional de DoctoradoLas tecnologías generan riqueza y bienestar en las modernas sociedades actuales. Su uso está muy arraigado y presente en multitud de ámbitos cotidianos como la salud, la banca electrónica y la prensa. A pesar de la gran aportación que hace la tecnología a la comunidad, la concienciación en el gasto energético no está tan extendida entre los usuarios. Además, la ubicuidad que presentan los dispositivos móviles, incrementa su utilización y aumenta la demanda de energía. En general, el uso que se hace de los dispositivos tecnológicos es despreocupado en términos energéticos. La producción de energía tiene un gran impacto en el medio ambiente cuando proviene de fuentes no renovables. Existe la creencia errónea de que el gasto unitario de un dispositivo electrónico supone un nivel de contaminación tan bajo que es despreciable. A nivel local puede ser cierto pero el elevado número de aparatos electrónicos que funcionan actualmente en el planeta hace que el impacto sea significativo. La situación alarmante del medio ambiente acelera la consideración de la eficiencia energética como un atributo de calidad en la tecnología, reduciendo su repercusión en el planeta. Dada la situación actual de deterioro del medio ambiente surge la necesidad de ofrecer soluciones tecnológicas que sean más sostenibles. Tradicionalmente se ha trabajado en producir energía más ecológica, así como en generar dispositivos hardware que requieran de menos energía para funcionar. Sin embargo, el software, que gobierna el funcionamiento del hardware también tiene un papel importante de cara a reducir el consumo energético de la tecnología. En esta tesis doctoral se planteó la siguiente hipótesis: la reducción del consumo de energía que un sistema software genera en un sistema hardware puede alcanzarse mediante la reutilización de un catálogo de requisitos de software. Los requisitos en los proyectos software son fundamentales a la hora de definir la solución tecnológica a un problema determinado. El nivel de detalle de una especificación de requisitos software varía en función del tiempo y esfuerzo que se le dedica en las etapas iniciales del proyecto. Es muy frecuente que la eficiencia energética del software no sea considerada en el ciclo de desarrollo. Ante esta situación surge la necesidad de definir un artefacto que promueva el uso de los requisitos sobre consumo energético de los sistemas de información. Los requisitos en sostenibilidad comprenden el conjunto de características del software que generan un cambio en el consumo energético de un sistema hardware. Las principales contribuciones de la investigación realizada durante la etapa predoctoral son las siguientes: (1) exponer la situación real de la aplicación de medidas y hábitos de sostenibilidad en el software; (2) detectar las lagunas y dificultades que afronta un ingeniero informático a la hora de desarrollar software sostenible; (3) proponer un artefacto que permita facilitar la tarea de generar software con aspectos de eficiencia energética; (4) validar el artefacto. Con los resultados obtenidos en la presente tesis se ha demostrado que a través del software es posible reducir el consumo energético en un determinado hardware. No obstante, se continuará trabajando en esta línea de investigación para ampliar los resultados y proponer además un modelo de auditoría de la sostenibilidad energética en los sistemas software.
- PublicationOpen AccessUna Propuesta de Gestión Integrada de Modelos y Requisitos en Líneas de Productos Software(Universidad de Murcia, 2010-02-09) Nicolás Ros, Joaquín; Toval Álvarez, José Ambrosio; Departamentos y Servicios::Departamentos de la UMU::Informática y SistemasEn esta tesis doctoral se presenta una propuesta de Ingeniería de Requisitos (IR) para líneas de productos que integra modelos de análisis del dominio y requisitos en lenguaje natural: (1) se estudia la reutilización de requisitos textuales, definiendo un método de IR basado en reutilización de requisitos en lenguaje natural, denominado SIREN, validado en entornos industriales; se propone además una extensión de SIREN para desarrollo global de software, junto con un repositorio de amenazas y salvaguardas para la IR que se lleva a cabo en entornos globalizados; (2) se describe una evolución de SIREN con el objetivo de modelar el dominio de una línea de productos, los sistemas teleoperados para mantenimiento de cascos de buques; y (3) se plantea la integración de modelos de ingeniería del software con especificaciones de requisitos en lenguaje natural, en este orden, implicando la generación de requisitos textuales a partir de modelos. Abstract In this doctoral thesis an approach to requirements engineering (RE) for product lines integrating domain analysis models and natural language requirements is formulated: (1) the SIREN method is defined, an RE method based on natural language requirements reuse, which has been validated in industrial environments; furthermore, a method extending SIREN to the global software development is defined based on a risks and safeguards repository concerning RE when performed in distributed environments; (2) an evolution of SIREN is proposed with the intent of modeling the software product line of the teleoperated systems for ship hull maintenance; and (3) the interest of the generation of textual requirements starting from software engineering models is corroborated and a flattening correspondence is defined which maps the domain analysis models to natural language requirements.