Repository logo
  • English
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Latviešu
  • Magyar
  • Nederlands
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Log In
    New user? Click here to register.
Repository logo

Repositorio Institucional de la Universidad de Murcia

Repository logoRepository logo
  • Communities & Collections
  • All of DSpace
  • menu.section.collectors
  • menu.section.acerca
  • English
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Latviešu
  • Magyar
  • Nederlands
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Log In
    New user? Click here to register.
  1. Home
  2. Browse by Subject

Browsing by Subject "Sistemas de información"

Now showing 1 - 20 of 31
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    An evidence-based framework for optimizing serious game design in software engineering education
    (Universidad de Murcia, 2024-12-02) Kharbouch, Manal; Fernández Alemán, José Luis; Escuela Internacional de Doctorado
    Los juegos serios (JS) han ganado una atención creciente en la educación como herramientas diseñadas no solo para el entretenimiento, sino también con fines educativos, proporcionando experiencias de aprendizaje interactivas y atractivas. En el contexto de la educación en Ingeniería de Software (IS), los JS tienen un gran potencial para abordar desafíos como la abstracción de conceptos complejos y la aplicación práctica de conocimientos teóricos. Al integrar mecánicas de juego, los JS crean entornos inmersivos donde los estudiantes pueden perfeccionar tanto habilidades técnicas como de toma de decisiones en entornos controlados pero dinámicos. Sin embargo, a pesar de su potencial, el diseño de JS efectivos en la educación de IS sigue siendo inconsistente, sin un marco estandarizado que guíe la creación de juegos alineados con los objetivos educativos. Esta tesis tiene como objetivo llenar ese vacío mediante el desarrollo y la validación de un nuevo marco para el diseño de JS, junto con la creación de recomendaciones basadas en evidencia para los interesados en JS, específicamente adaptadas a la educación en IS. La hipótesis principal de la investigación es que un marco basado en evidencia, respaldado por la retroalimentación de expertos, puede guiar a los educadores y desarrolladores de juegos en la creación de JS que se alineen mejor con los objetivos educativos, optimicen el uso de recursos y, en última instancia, mejoren los resultados de aprendizaje. Los objetivos de la investigación incluyen: 1) Desarrollar una comprensión integral del uso actual de los JS en la educación de IS, 2) Evaluar el impacto de los JS en los resultados de los estudiantes, considerando la influencia de la experiencia de los instructores con los JS, 3) Contribuir con nuevo conocimiento a la educación en IS mediante las mejores prácticas para el diseño de JS, 4) Desarrollar un marco que estandarice el proceso de diseño de JS y promueva la reutilización de componentes, y automatización. 5) Validar el marco a través de la retroalimentación de expertos y el análisis comparativo con marcos de diseño existentes. La metodología empleada en esta tesis sigue el enfoque de Investigación en Ciencias del Diseño (Design Science Research - DSR), que consta de cuatro fases clave: identificación del problema, desarrollo del artefacto, validación del artefacto y contribución al conocimiento. En la primera fase, se realizó un estudio de mapeo sistemático de los JS existentes en la educación de IS, categorizando los juegos según la Taxonomía de Bloom y los dominios de IS descritos en el Cuerpo de Conocimientos de Ingeniería de Software (SWEBOK). Este estudio también identificó los componentes clave de los JS y sus principales factores de éxito. Dentro de esta primera fase, se llevó a cabo un experimento controlado con estudiantes de pregrado en IS que destacó el impacto de la experiencia de los profesores en la implementación de JS como enfoque de aprendizaje sobre los resultados académicos de los estudiantes (calificaciones, asistencia a exámenes y probabilidad de aprobar). En la segunda fase, se desarrolló un nuevo marco para abordar estas deficiencias. Este marco proporciona un enfoque estructurado para diseñar JS que se alineen con los objetivos educativos y optimicen los resultados de aprendizaje. El marco incluye tres componentes principales: (1) facilitar la reutilización de componentes de JS y la automatización de la generación de contenido, (2) adaptación del contenido del juego para ajustarse a los objetivos educativos y perfiles de jugadores de los estudiantes, y (3) facilitar la colaboración entre educadores y desarrolladores de juegos proporcionando un lenguaje común y herramientas. En la fase de validación, se realizaron revisiones de expertos para evaluar la practicidad y efectividad del marco. Expertos en la educación de IS y el diseño de JS evaluaron el marco, proporcionando retroalimentación crítica que fue incorporada en su refinamiento. Además, se realizó un análisis comparativo, evaluando el marco propuesto frente a otros marcos de diseño de JS en términos de usabilidad, alineación pedagógica y adaptabilidad. Los hallazgos demostraron que el marco era efectivo para guiar el diseño de JS que promovían habilidades cognitivas de orden superior y también era lo suficientemente flexible para adaptarse a varios contextos educativos. Además, el marco actualmente está siendo probado en el diseño de un nuevo juego serio, con resultados iniciales prometedores en aplicaciones del mundo real. Las contribuciones de esta tesis incluyen una comprensión refinada del diseño de JS en la educación de IS, el desarrollo de un marco robusto y adaptable, y pautas prácticas para educadores y desarrolladores. Esta investigación avanza en el campo al proporcionar un enfoque sistemático para el diseño de JS que puede ser utilizado no solo en entornos educativos, sino también en entornos de formación profesional. El trabajo futuro explorará estudios longitudinales para evaluar el impacto a largo plazo de los JS e investigará la integración de tecnologías emergentes como la realidad virtual y la inteligencia artificial en el diseño de JS. De esta manera, esta investigación aborda brechas críticas en el diseño de JS para la educación de IS, ofreciendo una herramienta valiosa para educadores y desarrolladores para crear juegos educativos más efectivos y con mayor impacto.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Análisis de los instrumentos de evaluación de salud utilizados por enfermeros de una unidad básica de atención a la salud de familia.
    (Murcia : Servicio de Publicaciones de la Universidad de Murcia, 2006) Arcanjo Moura, Z.; Moreira Alves, V.; Venicios de Oliveira Lopes, M.
    Se planteó como objetivo analizar los sistemas de información utilizados por enfermeros en una Unidad Básica de Atención a la Salud de Familia. El estudio es de carácter exploratorio y descriptivo realizado en una Unidad Básica de Atención a la Salud de la Familia de Fortaleza - Ceará / Brasil. Fueron analizados los formularios impresos y digitales utilizados por el equipo de enfermería, donde se buscó identificar los datos utilizados por enfermeros y su incidencia en los mismos. Estos formularios son utilizados de forma conjunta en los servicios de la unidad produciendo una repetición de los datos colectados, siendo los más frecuentemente registrados los de identificación del paciente y del examen clínico. Esa repetición de recogida de datos del paciente ocasiona una lentitud en todos los servicios de la unidad ofertados la comunidad. Concluimos que los sistemas utilizados presentan restricciones con repetición de datos demandando mayor tiempo del trabajo de los enfermeros.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Análisis de sentimientos en español en tuits relacionados con las enfermedades infecciosas
    (Universidad de Murcia, 2021-11-24) Apolinario Arzube, Oscar Omar; Valencia García, Rafael; Escuela Internacional de Doctorado
    La ingeniería lingüística es la herramienta que, por medio de las computadoras permiten investigar o entender lo expresado en el lenguaje natural sobre las redes sociales. El procesamiento del lenguaje natural es un área de inteligencia artificial enfocada para entender y modelar el cerebro humano. En este entorno, la minería de opiniones o análisis del sentimiento abarca técnicas del procesamiento del lenguaje natural, lingüística computacional y minería de textos que tienen como objetivo la extracción de información subjetiva a partir de contenidos generados en las redes sociales. Del estudio del estado del arte se concluye que, aunque existen estudios relacionados sobre el procesamiento del lenguaje natural en la salud, no son suficientes para verificar las nuevas técnicas de clasificación de información para los corpus propuestos; que permitan maximizar modelos predictivos del análisis de sentimiento tanto por los investigadores como por los profesionales de la salud. La motivación de este estudio es proporcionar nuevos recursos para el análisis de sentimientos en medicina, la creación de dos corpus; uno para las enfermedades infectocontagiosas como el ZIKA y otro para el COVID-19; aplicando así el estudio de distintas tecnologías para ver cómo se pueden clasificar los sentimientos en estos dominios y ampliar el estudio de esas mismas tecnologías para la detección de la SATIRA. Objetivos. El objetivo principal de esta tesis doctoral es la aplicación de técnicas para clasificación de sentimientos en modelos predictivos para el procesamiento del lenguaje de corpus en el dominio de enfermedades infectocontagiosas como ZIKA y COVID-19; extendiendo este mismo análisis sobre un corpus del género literario SATIRA para lograr una mejor precisión en la predicción de sentimiento sobre lo expresado en redes sociales y el entendimiento del lenguaje natural. Para conseguir este objetivo se plantearon los siguientes subobjetivos: • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Zika, dengue y chikungunya. • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Covid-19. • Obtención de un corpus sobre el dominio en el género literario de la sátira. • Obtención de modelos de clasificación para la predicción de sentimientos en cada uno de los corpus. • Obtención del mejor clasificador de precisión en cada uno de los corpus por tipos de clasificadores. Metodología. Esta tesis doctoral se desarrolló mediante 3 fases principalmente: la primera fase fue el estudio del estado del arte que se ha mostrado en este capítulo; la segunda fue la elaboración de métodos y artefactos de clasificación y predicción que permitan el tratamiento de los corpus propuestos; y la tercera la validación de la propuesta. • Estudio del estado del arte: Estudio de los conceptos y términos de la inteligencia artificial en el campo del lenguaje natural, técnicas del aprendizaje automático supervisado y no supervisado, modelos para la predicción de sentimiento y herramientas para la clasificación de texto. Además, se analizaron las distintas investigaciones en el ámbito de la minería de opiniones sobre modelos y su aplicabilidad en distintos dominios. • Elaboración de laboratorios para la obtención de modelos que realicen la predicción de sentimientos sobre los corpus en el contexto de esta tesis doctoral; también se desarrollaron las matrices de confusión para evaluar del sentimiento real vs la predicción obtenida en cada uno de los corpus. Resultados. Validación de los laboratorios: Con el detalle de los hyper-parámetros utilizados y el resultado obtenido de las predicciones para cada una de las ejecuciones realizadas. Aquí encontraremos los resultados del mejor modelo usado para evaluar la partición de validación y test. Cada una tiene el reporte de clasificación con la accuracy, precision, recall y f1 de cada clase.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Arquitecturas de datos basadas en Internet de las Cosas y su aplicación
    (Universidad de Murcia, 2023-12-20) González Gil, Pedro; Skarmeta Gómez, Antonio F.; Martínez Navarro, Juan Antonio; Escuela Internacional de Doctorado
    El internet de las cosas (IoT por sus siglas en inglés) se presenta como nuevo paradigma de los sistemas de información, capaz de ayudar en numerosos retos a los que se enfrenta nuestra sociedad: desde la lucha contra el cambio climático hasta el progreso por la consecución del derecho a una vida digna y feliz. Este nuevo paradigma plantea no solo posibilidades sino numerosos retos tecnológicos que deberán ser abordados aplicando el método científico, para el beneficio global. La privacidad de los datos y la seguridad de las comunicaciones adquieren nuevas problemáticas en un marco tan dinámico como el IoT, donde los datos fluyen rápidamente de productores a consumidores, son procesados por agentes intermediarios y su valor incrementado gracias a relaciones entre datos de distintos orígenes. Las características intrínsecas de los datos, ligadas frecuentemente a los propios dispositivos que los generan (como la precisión o la frecuencia de actualización), deben acompañar a estos datos en su viaje a través de Internet, aportando un contexto imprescindible para su correcta interpretación y utilización. La búsqueda de dichos datos en las inmensas colecciones donde se almacenan, así como la comprensión de los mismos es un reto, donde el volumen exige la utilización de técnicas de procesado automatizado e incluso la aplicación de técnicas basadas en inteligencia artificial. La distribución y transporte de estos grandes volúmenes de datos pueden suponer problemas para las redes de distribución, lo que unido a posibles exigencias de baja latencia en la respuesta, nos fuerzan a diseñar y aplicar novedosas estrategias para el procesado de dichos datos de forma local o próxima a donde han sido producidos. Finalmente, la capacidad de interconectar plataformas y sistemas de manera fácil, rápida y segura mediante arquitecturas modulares y flexibles, supone una necesidad, más que una ventaja competitiva, en una nueva economía dirigida por los datos. Estos problemas, atacados de forma individual, ofrecen interesantes escenarios de investigación y mejora, pero considerados de forma conjunta revelan una realidad aún más interesante, donde se hace evidente que el total de las partes es más que la suma de las mismas, revelando relaciones y sinergias entre los diseños de arquitecturas e interfaces, el modelado de los datos, la seguridad e incluso la distribución y orquestación de tareas. Este trabajo de tesis doctoral explora estos aspectos de una manera holística, integrando tecnologías y estándares existentes en el diseño y construcción de arquitecturas de datos para IoT seguras e interoperables, considerando modelado y representación ontológica de los datos y explorando también la distribución y orquestación de tareas entre el borde y la nube. Como resultado, se presentan tres contribuciones principales, orientadas a la exploración de las arquitecturas interoperables y seguras, la distribución y orquestación de tareas entre el borde y la nube y finalmente sobre la representación de conceptos de seguridad y privacidad de los datos en este nuevo paradigma. En estas contribuciones se ofrecen diversos escenarios y bancos de prueba de las mismas, demostrando su relevancia y valor de cara al desarrollo y avance de estas tecnologías.  
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    El conocimiento del turismo en el ámbito regional
    (Murcia, Universidad de Murcia, Servicio de Publicaciones, 2011) Valdés, Luis; Valle, Eduardo del; Sustacha Melijosa, Inés
    Este artículo tiene como objetivo analizar la estructura del conocimiento turístico en España, especialmente en el ámbito regional y más particularmente describir el funcionamiento del Sistema de Información Turística de Asturias (SITA) como modelo de sistema de información turística para un espacio socioeconómico.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Design a user interface to support multiple payment systems in web browsers supported by the technology acceptance model
    (Universidad de Murcia, 2022-11-29) Tounekti, Ousama; Ruiz Martínez, Antonio; Skarmeta Gómez, Antonio Fernando; Escuela Internacional de Doctorado
    En las últimas décadas, han aumentado las investigaciones que demuestran la utilización de sistemas de pago electrónico como consecuencia del crecimiento del comercio electrónico (comercio-e). En este contexto, se han desarrollado diversas soluciones para abordar el ofrecer diversas opciones de pago electrónico a través de Internet. Así, el establecimiento de sistemas de pago se ha ampliado, y se han construido marcos de pago electrónico para proporcionar diversos de métodos de pago que faciliten la selección del método de pago durante el proceso de pago. Esta tesis identifica las principales características de los sistemas de pago electrónico (móvil) ((M)EPS), el marco de pago y la aceptación del usuario, y propone el diseño de una nueva interfaz de pago que soporte múltiples sistemas de pago, ayude a los clientes a seleccionar su método de pago preferido y aumente la aceptación del servicio. Para ello, en primer lugar, revisamos los trabajos de investigación acerca de las características del (M)EPS. Este análisis identifica que la seguridad, la confianza, la privacidad, el coste, la autenticación, la confidencialidad, la integridad y el anonimato son las características más importantes que el cliente considera al utilizar un (M)EPS. En segundo lugar, un análisis bibliométrico identificó las lagunas de investigación que prevalecen en el tema de estudio. En tercer lugar, se realizó un estudio empírico sobre la selección de los usuarios de su método de pago preferido y determinar las características que les animan a pagar en línea. A partir de estos análisis y de la interfaz de pago del navegador web Google Chrome (GCWB) y de la extensión del modelo de aceptación tecnológica, se realizó una encuesta con 266 participantes, para conocer los distintos métodos de pago que deberían incluirse para facilitar el proceso de pago, y descubrir experimentalmente los factores que influyen en la decisión de los clientes de realizar pagos en línea. Los resultados determinaron que los métodos de pago más populares en ordenadores y dispositivos móviles eran Mastercard, Visa y PayPal. Las características del método de pago, como la seguridad, la facilidad de uso, la privacidad, la utilidad, el almacenamiento de información, la selección automática de la mejor opción de pago, la comodidad, el tiempo, la precisión y el coste/tasa de la transacción, han recibido una atención especial. En cuarto lugar, esta tesis propone una nueva interfaz de pago que soporta múltiples sistemas de pago, ayuda a los clientes a seleccionar su método de pago preferido y aumenta la aceptación del servicio. Esta nueva interfaz permite a los usuarios personalizar su configuración para admitir varios métodos de pago y facilitar el pago en línea. Los resultados demuestran que los usuarios están satisfechos con esta interfaz de pago y la aprecian más que la de GCWB. Los factores más importantes a la hora de adoptar una nueva interfaz de pago son la facilidad de uso, la utilidad, la seguridad, la confidencialidad, la privacidad, las preferencias sobre el método de pago, el diseño visual de la interfaz y la credibilidad. Asimismo, esta investigación mejora la investigación sobre (M)EPS en el contexto de la aceptación del cliente, y puede ser de interés para el grupo de pagos del W3C. Por último, se requiere que el diseño de la interfaz de pago sea validado con un prototipo que permita a los usuarios interactuar con la interfaz y, así, obtener una mejor retroalimentación para la satisfacción de sus necesidades. Los gobiernos deben adoptar métodos más eficientes y oportunos para gestionar el comercio-e y las normas de pago en línea.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Diseño de un sistema de información para detección precoz y seguimiento de pacientes con sepsis
    (Universidad de Murcia, 2022-03-21) Mónico Castillo, Eva; Luna Maldonado, Aurelio; Gómez Company, Juan Antonio; García Vázquez, Elisa; Escuela Internacional de Doctorado
    Introducción En 2016 se define la sepsis como una disfunción orgánica potencialmente mortal causada por una respuesta desregulada del huésped a la infección, paralelamente surge la Campaña Sobrevivir a la Sepsis donde se establecen las pautas de tratamiento y se destaca la “hora de oro”, siendo ésta la primera hora en la que debemos actuar para reducir la mortalidad. Queda demostrada la importancia de la precocidad en el diagnóstico para iniciar el tratamiento y dado que se trata de un síndrome que se caracteriza por alteraciones hemodinámicas y elevación de biomarcadores decidimos llevar a cabo el diseño de un sistema informático que ayudase en la detección precoz de este síndrome basándose en las variables hemodinámicas y analíticas características para su detección. Objetivos 1. Objetivo principal Evaluar un sistema automatizado de detección precoz de los pacientes con procesos sépticos que acuden a un servicio de urgencias hospitalarias. 2. Objetivos secundarios • Revisar los puntos de corte de las variables clínicas • Revisar los puntos de corte de las variables analíticas • Revisar los puntos de corte de las variables demográficas • Revisar los puntos de corte de los factores de riesgo cardiovascular • Identificar las variables analíticas y hemodinámicas con mayor “peso”. • Determinar las condiciones clínicas del paciente que influyen en el diagnóstico de sepsis y deberían ser tenidas en cuenta en un algoritmo de detección automatizada. Pacientes y método Estudio observacional, descriptivo, transversal y retrospectivo. La población diana son los pacientes mayores de 14 años atendidos en el servicio de urgencias del Hospital Universitario Virgen de La Arrixaca en el periodo comprendido del 1 de enero de 2019 a 31 de julio de 2019 con una muestra total de 19.733 pacientes. Resultados En 2.883 casos del total de atendidos se activó la alarma por posible sepsis. De los 2.883 casos detectados por el sistema, 1.685 (58,4%) fueron confirmados como sepsis por los facultativos mientras que el 41,6% no lo fueron. Por tipo, de las 1.872 sepsis detectadas por el sistema, el 35,4% (n = 662) no resultaron confirmadas por los médicos, un 63,5% (n = 1.118) fueron confirmadas como sepsis mientras que un 1,2% (n = 22) se confirmaron como sepsis graves. Con respecto a las sepsis graves, de las 1.011 detectadas por el sistema no fueron confirmadas por los médicos un 53% (n = 536), un 23,3% (n = 236) sí que los fueron un 23,6% (n = 239) se confirmaron como sepsis. Para la temperatura, la PCR y la procalcitonina las curvas mostraron que se pueden establecer nuevos puntos de corte para la detección. Los puntos de corte óptimo para la detección de sepsis de la temperatura se establecen en 37ºC lo que determina una sensibilidad del 74,3%, una especificidad del 54,9% y un ABC = 0,733 (p < 0,001). Para la PCR, el punto de corte se establece en 6,1 lo que determina una sensibilidad del 70,4%, una especificidad del 69,4% y un ABC = 0,777 (p < 0,001). En la Figura 12 se muestran las curvas ROC para la temperatura y PCR. Para la procalcitonina, el punto de corte se establece en 0,3 lo que determina una sensibilidad del 60,6%, una especificidad del 61,2% y un ABC = 0,674 (p < 0,001). Conclusiones • El sistema de alerta informático creado en base a los criterios SIRS funciona. • Las variables introducidas en el sistema de alerta podrían reducirse en número. • Existen variables que podrían obviarse para la detección precoz. • Modificando los puntos de corte de las principales variables aumentaríamos la sensibilidad y la especificidad en la detección. • La implantación de un programa de alerta ayuda a la identificación precoz.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Entrevista a Ángel Blanco, coordinador de I+D+I MEDICAL SIEMENS
    (Murcia : Servicio de Publicaciones de la Universidad de Murcia, 2006) Enfermería Global (Universidad de Murcia)
  • Repository logo
    Publication
    Metadata only
    Estrategias de informática médica para la ayuda a la decisión en vigilancia antimicrobiana
    (Universidad de Murcia, 2019-03-12) Cánovas Segura, Bernardo; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de Doctorado
    Las organizaciones de salud pública están promoviendo el uso racional de antibióticos, o vigilancia antimicrobiana, con el objetivo de maximizar su efectividad y limitar el aumento de resistencias a los mismos. El Hospital Universitario de Getafe participó en el desarrollo del proyecto Wise Antimicrobial Stewardship Program (WASPSS): un sistema de ayuda a la decisión clínica (CDSS) con el objetivo de apoyar a los equipos multidisciplinares responsables de la vigilancia antimicrobiana en hospitales. El objetivo de esta tesis doctoral es demostrar que las reglas de producción son adecuadas para abordar los problemas de la vigilancia antimicrobiana desde la perspectiva de la informática médica. Nos enfrentamos a los problemas de: i) aumentar la efectividad de tratamientos antibióticos, ii) facilitar el uso de Guías de Práctica Clínica (CPGs) y iii) predecir infecciones causadas por microorganismos resistentes. Usaremos WASPSS como plataforma en la que implementar y probar nuestras estrategias. Primeramente, abordamos el mejorar los resultados de los tests de sensibilidad antimicrobiana (ASTs) para aumentar la efectividad de los tratamientos. Utilizamos reglas expertas para inferir nuevos patrones de resistencia a partir de los obtenidos en laboratorio. El mayor problema es modelar conocimiento basado en reglas y definido sobre taxonomías complejas. Utilizamos ontologías para traducir las taxonomías a jerarquías de conceptos y generamos reglas para relacionar cada término con sus definiciones. Probamos nuestro enfoque con los resultados de AST de un año, obteniendo un 26.4% de patrones nuevos de resistencia. Usando este enfoque, hemos implementado un nuevo módulo en WASPSS que amplía los resultados de AST disponibles y alerta sobre posibles clasificaciones erróneas de microorganismos o tratamientos inadecuados. A continuación, abordamos el problema de la integración de las CPG relacionadas con la administración de antibióticos en los CDSS para facilitar su uso diario. Usamos BPMN y DMN para modelar y visualizar los complejos procesos y decisiones incluidas en estas guías. Además, derivamos reglas de estos modelos para estimar la adherencia de una CPG a un paciente en concreto. Probamos nuestro enfoque modelando una CPG para la administración de vancomicina. Como resultado, hemos implementado un nuevo módulo para WASPSS que proporciona información contextualizada sobre la tarea actual. Esto también facilita la visualización de la CPG y la planificación de tareas. Finalmente, abordamos la predicción de infecciones causadas por enterococos resistentes a vancomicina (VRE). Esta clase de modelos de predicción, también conocidos como Reglas de Predicción Clínica (CPRs), deben abordar varios problemas, como los cambios del objetivo a predecir, los conjuntos de datos desbalanceados y el elevado número de predictores. Combinamos diferentes estrategias para resolver estos problemas y desarrollamos una CPR con la que predecir las infecciones por VRE. Obtuvimos un modelo final con AUC de 0.82, combinando una ventana deslizante de 30 meses, sobremuestreo, filtrado rápido basado en correlación y LASSO. Posteriormente, implementamos un nuevo módulo WASPSS que permite visualizar la predicción para un paciente concreto y alertar sobre pacientes con alto riesgo de infección por VRE. En conclusión, hemos probado nuestra hipótesis de que las reglas de producción son útiles en los CDSS para la vigilancia de antibióticos, sirviendo como base para incorporar diferentes tipos de conocimiento, así como comprobado sus limitaciones. Ontologías y reglas se pueden combinar para incorporar conocimientos basados en taxonomías complejas. BPMN y DMN junto con reglas pueden mejorar la tarea de modelar y visualizar procesos y decisiones complejas. Finalmente, las reglas de producción se pueden utilizar para incorporar modelos de predicción, mientras que es necesario combinar diferentes técnicas de minería para tratar los problemas intrínsecos de este escenario.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Extracción semántica de información basada en evolución de ontologías
    (2014-11-05) Rodríguez García, Miguel Ángel; Valencia García, Rafael; García Sánchez, Francisco; Facultad de Informática
    En la actualidad, a pesar de la relevancia de las anotaciones dentro de la Web Semántica, éste es aún un campo sin estandarizar. Varios enfoques se han desarrollado a lo largo de los últimos años pero, debido a las carencias que algunos de estos enfoques presentan, aún no existe ninguna metodología estándar. La motivación que ha servido de guía en esta tesis doctoral ha sido, por tanto, proponer, en el ámbito de la Web Semántica, una nueva metodología de anotación semántica basada en ontologías que cubra todo el ciclo de vida de las anotaciones así como las posibles actualizaciones de los recursos. Esta metodología está constituida por una serie de fases entre la que se pueden destacar las siguientes: representación y anotación semántica, extracción de términos, indexación semántica y evolución de ontologías. Con objeto de analizar el rendimiento de la metodología desarrollada, se diseñó una estrategia de evaluación del sistema de anotación semántico basado en las métricas de “precisión”, “exhaustividad” y “medida-F”, métricas todas ellas extensamente empleadas en el ámbito científico para la validación de este tipo de sistemas. El experimento consistió en la selección de dos dominios de aplicación y en la utilización de estas métricas sobre algunos de los módulos que componían el sistema propuesto. Los índices obtenidos tras los experimentos en los diferentes módulos fueron muy prometedores y llevaron a conclusiones muy favorables acerca del rendimiento de la metodología y su aplicabilidad en diversos contextos. El desarrollo de esta metodología de anotación dio lugar a la concepción de varias aplicaciones que aprovechan su potencial. Entre las aplicaciones más destacables es posible resaltar la utilización de la metodología de anotación semántica para el cálculo de la similitud entre entidades. La aplicación de esta metodología en el cálculo de la similitud supuso la definición de un método capaz de realizar comparaciones entre cualquier par de entidades almacenadas en un sistema de información. Este método lleva a cabo la comparación entre entidades al nivel de granularidad más fino, esto es, los atributos que caracterizan cada una de las entidades comparadas. Por lo tanto, los atributos de las entidades constituyen la principal fuente de información para realizar tales comparativas. Al igual que ocurría en el caso de la metodología de anotación semántica, la metodología de cálculo de similitud semántica también se encuentra dividida en una serie de fases, a saber, representación y anotación semántica, indexación semántica, cálculo de similitud y motor de inferencia semántica. La evaluación de esta aplicación de la metodología de anotación semántica para el cálculo de la similitud entre entidades se llevó a cabo a través de la aplicación de métricas que proporcionan índices cuantitativos relacionados con la “precisión”, la “exhaustividad” y la “medida-F”. Los resultados obtenidos fueron muy favorables, proporcionando conclusiones muy prometedoras acerca de la aplicación de la metodología de anotación semántica en el cálculo de la similitud entre entidades. Summary The semantic annotation and retrieval of text documents and Web resources is a challenging task and it addresses the general issue of making computers aware of the content of informational resources so as they can be of better assistance for users. In this thesis, a semantic platform for text resources annotation and retrieval from their source documents has been proposed. The system presented here automatically annotates natural language documents, which may be available in a number of formats such as XML, HTML or PDF. The proposed platform has additionally been implemented, considering multi-ontology environments (with OWL 2 ontologies) in order to be able to cope with several domains. It also supports the evolution of the source documents, thus maintaining the coherence between the natural language descriptions and the annotations, which are stored using a semantic Web-based model. A new methodology is presented that comprises three commonly used but enhanced stages in the scope of semantic search processes: information filtering, information retrieval, indexing and relevancy rankings. The proposed platform has been evaluated in two domains, namely, ICT-related cloud computing and R&D management, with very promising results. Using the semantic annotation methodology a new application of similarity calculation has been proposed. The platform keeps track of the semantic-based description of R&D projects, proposals, ideas and worker resumes. Natural language processing tools are used to facilitate the generation of such semantic profiles, annotations and indexes from natural language texts. Once the system has been fed up with the semantic content, the semantic inference engine module leverages such formal content to perform general queries from the available information, producing precise and accurate results that can help managers in the decision-making process.
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Gestión de información en el proceso analítico jerárquico para la toma de decisiones de nuevos productos : metodología de implantación / Elena Font Graupera ; Directores José Vicente Rodríguez Muñoz, Ramón Sabater Sánchez
    (Murcia : Universidad de Murcia, Facultad de Economía y Empresa, Departamento de Métodos Cuantitativos,, 2000) Font Graupera, Elena
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Gestión de la información sanitaria por los médicos de Atención Primaria / Juan Enrique Pereñíguez Barranco ; dirección Mª Dolores Pérez Cárceles y Aurelio Luna Maldonado.
    (Murcia : Universidad de Murcia, Departamento de Ciencias Sociosanitarias,, 2004) Pereñíguez Barranco, Juan Enrique
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Historia clínica informatizada de enfermería en el Departamento de Torrevieja. Salud como instrumento de gestión de calidad
    (Murcia : Servicio de Publicaciones de la Universidad de Murcia, 2009) Cerezo Sanmartín, Margarita.; Gutiérrez Aranda, JM.; Perán Artero, S.; Gómez Gonzálvez, G.; Carrasco Gutiérrez, P.
    En la sociedad de la información del siglo XXI, la historia clínica electrónica (HCE) es un hecho que no está por igual desarrollado en todos los países. En el Departamento de Salud de Torrevieja, Alicante, se trabaja con un modelo de HCE único que engloba a todas las áreas incluida enfermería y en un nivel avanzado de operabilidad en cuanto a manejo de datos. Objetivos: 1.- Desarrollo de los sistemas de información con el fin de facilitar la comunicación e intercambio de datos entre los distintos profesionales de atención especializada y primaria que componen el Departamento de Salud. 2.- Aunar y optimizar los conocimientos propios de los profesionales enfermeros e informáticos, a través del trabajo en conjunto. Metodología: Para llevar a cabo esta mejora en los registros de enfermería se ha utilizado la aplicación informática, “Florence”, modelo de Historia Clinica Electrónica única y global para el Departamento de Salud de Torrevieja que consta de dos entornos: Florence Gestión (área financiera- contable y área de recursos humanos) y Florence clínico (área clínico-asistencial). A través del trabajo en equipo de Informáticos y profesionales de enfermería que conocen el sistema e inquietudes de los profesionales se obtiene un producto doblemente valorado en cuanto a metodología enfermera y suma de los últimos conocimientos tecnológicos. Conclusiones: Los registros de enfermería se consideran un instrumento efectivo para reflejar toda la información necesaria para poder coordinar y proporcionar unos cuidados de enfermería de máxima calidad al estar almacenados de forma integral. Por otro lado se asegura la disponibilidad de toda la información de los procesos salud-enfermedad de un individuo, asegurando la confidencialidad.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Identical IoT device identification via hardware performance fingerprinting and Machine Learning
    (Universidad de Murcia, 2024-03-01) Sánchez Sánchez, Pedro Miguel; Huertas Celdrán, Alberto; Martínez Pérez, Gregorio; Escuela Internacional de Doctorado
    En el panorama actual de la ciberseguridad, la identificación y protección de dispositivos del Internet of Things (IoT) se ha vuelto primordial, particularmente en el contexto de la creciente red de dispositivos interconectados. Aquí es donde el campo del fingerprinting del comportamiento de dispositivos emerge como un área crítica de estudio, con el objetivo de reforzar la seguridad y confiabilidad de dichos dispositivos. El enfoque en dispositivos de placa única (SBCs) y sistemas con recursos limitados es particularmente pertinente, dada su amplia utilización en entornos de alto riesgo como Ciudades Inteligentes, Industria 4.0 y el Internet de las Cosas del Campo de Batalla (IoBT). Abordando las amenazas de ciberseguridad que estos escenarios presentan, la investigación profundiza en el estado actual de las soluciones de fingerprinting del comportamiento de dispositivos, explorando metodologías para la identificación única de dispositivos IoT y la integración efectiva de estas técnicas con soluciones de ciberseguridad basadas en comportamiento. Centrales a esta investigación son varias preguntas clave, que indagan sobre la eficacia de técnicas de Machine Learning (ML) y Deep Learning (DL) en la identificación de dispositivos, la resiliencia de estos sistemas contra ataques adversariales y el potencial de técnicas avanzadas de ML/DL como los transformers para la identificación individual de dispositivos. La metodología empleada en esta investigación es exhaustiva, comenzando con una revisión detallada del paisaje existente en el fingerprinting del comportamiento de dispositivos. Este trabajo fundacional ayuda a identificar las brechas en la investigación actual y establece las bases para exploraciones posteriores. Una parte crucial de la metodología es la recolección de extensos datos de comportamiento de hardware de varios modelos de Raspberry Pi, formando la base para el desarrollo de algoritmos de identificación precisos. Este proceso se ve reforzado por la creación de LwHBench, una herramienta de benchmarking diseñada específicamente para el benchmarking de componentes de hardware de bajo nivel en dispositivos de placa única. LwHBench se enfoca en medir el rendimiento de componentes esenciales como CPU, GPU, Memoria y Almacenamiento, generando así un amplio conjunto de datos para aplicaciones de IA en escenarios de gestión de dispositivos. La investigación se extiende a integrar la identificación de dispositivos con soluciones de ciberseguridad basadas en comportamiento, particularmente en el contexto de IoBT. Esto implica el desarrollo de un marco integral que incorpore la identificación basada en hardware con el monitoreo de comportamiento de nivel superior para detectar malware y ataques de Falsificación de Datos de Detección de Espectro (SSDF). Además, la tesis explora estrategias para mitigar ataques adversariales, centrándose en amenazas conscientes del contexto y centradas en ML/DL para mejorar la resiliencia de los modelos de identificación basados en el comportamiento del hardware. Los resultados de esta investigación son multidimensionales e impactantes en varios aspectos de la ciberseguridad. El análisis del estado del arte revela una amplia gama de fuentes de datos, técnicas y escenarios de aplicación para el fingerprinting de dispositivos, subrayando la necesidad de conjuntos de datos más estandarizados y completos. La metodología desarrollada para identificar dispositivos IoT basada en el comportamiento del hardware es altamente efectiva, destacando la importancia de seleccionar atributos de hardware apropiados y utilizar técnicas avanzadas de ML/DL. La herramienta LwHBench establece un nuevo estándar de calidad de datos en el campo, esencial para aplicaciones efectivas de ML/DL en la identificación de dispositivos. En términos de ciberseguridad, el marco SpecForce integra con éxito la identificación basada en hardware con estrategias de ciberseguridad más amplias, mostrando resultados prometedores en escenarios de IoBT. La investigación también demuestra mejoras en los resultados de identificación utilizando enfoques de series temporales combinados con modelos DL y presenta estrategias efectivas para proteger dispositivos IoT de amenazas adversariales. Además, el desarrollo de un marco de autenticación utilizando modelos autoencoder basados en transformers demuestra su efectividad en la autenticación de dispositivos, mejorando significativamente la seguridad de autenticación en aplicaciones de crowdsensing. En conclusión, la investigación destaca que el fingerprinting del comportamiento de dispositivos es una herramienta esencial para mejorar la ciberseguridad, especialmente para dispositivos IoT y dispositivos de placa única. El análisis detallado y las metodologías desarrolladas proporcionan una comprensión integral y una aplicación robusta del fingerprinting del comportamiento de dispositivos en la ciberseguridad. Esta investigación no solo aborda varias brechas y desafíos identificados, sino que también contribuye con nuevos conocimientos y soluciones prácticas al campo. La integración de técnicas avanzadas de ML/DL con datos de comportamiento de hardware para la identificación y autenticación de dispositivos representa un avance significativo, ofreciendo métodos más confiables y seguros para gestionar el creciente número de dispositivos interconectados. La resiliencia de estos métodos contra ataques adversariales mejora aún más su aplicabilidad en escenarios del mundo real, asegurando la seguridad y fiabilidad de los ecosistemas IoT. Las contribuciones de esta investigación van más allá de los conocimientos académicos, ofreciendo marcos y herramientas prácticas para aplicaciones industriales, particularmente en entornos de alto riesgo como el IoBT, y estableciendo un nuevo precedente para estudios futuros e implementaciones prácticas en el fingerprinting del comportamiento de dispositivos.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Implantación de la metodología enfermera en los sistemas informáticos de atención primaria.
    (Murcia : Servicio de Publicaciones de la Universidad de Murcia, 2005) Igea Moreno, M.; Lozano García, Y.; González Gascón, R.
    La aplicación de la informática ha supuesto un gran desarrollo, ya que facilita la realización de tareas, economiza el tiempo e implica una mayor calidad de vida. En las primeras versiones de la historia informática que se usa en Atención Primaria el trabajo de enfermería usaba el modelo biomédico. En este momento el uso de la historia informatizada está implantado en la mayoría de las Comunidades Autónomas de España. El objetivo de este artículo es obtener una visión global sobre el desarrollo de la metodología enfermera en los sistemas informáticos que existen en Atención Primaria a nivel nacional, para ello se realizó un estudio descriptivo durante el mes de Febrero de 2004, mediante una búsqueda bibliográfica y contactos con las diferentes Comunidades Autónomas. Existen diversos programas informáticos en Atención Primaria, siendo el más utilizado el OMI-AP. Respecto al uso de metodología es desigual y en ocasiones inexistente. Los sistemas de valoración más utilizados son los 11 Patrones funcionales de Marjory Gordon y las 14 Necesidades básicas de Virginia Henderson. Con respecto a la taxonomía utilizada, se trabaja con la taxonomía de diagnósticos de la NANDA. El uso de un único sistema informático resultaría beneficioso para el conjunto del país, ya sea utilizando el OMI-AP u otro programa.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    La información como recurso en el desarrollo de las organizaciones de las administraciones públicas.
    (Murcia, Universidad de Murcia, Servicio de Publicaciones, 2000) Sánchez Vignau, Bárbara Susana; Rodríguez Muñoz, José Vicente; Facultad de Comunicación y Documentación
    En el presente trabajo se analizan a partir de las definiciones, las tendencias y enfoques actuales de desarrollo en las Administraciones Públicas. Se explica, tanto la importancia como los aspectos a tener en cuenta en el enfoque gerencial de la Información: recurso estratégico dentro de estas organizaciones; teniendo en cuenta que son estas quienes se encargan de ejecutar los fines de Gobierno y que al ser de carácter público necesitan, al igual que las demás, información adecuada para poner en acción actuaciones de estado con objeto atender de forma correcta el cumplimiento de su misión
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Mejora de sistemas de gestión de identidades centrados en el usuario mediante modelos de reputación en entornos distribuidos= Enhancing user-centric identity management systems with reputation models in distributed environments
    (2014-11-11) Dólera Tormo, Ginés; Martínez Pérez, Gregorio; Gómez Mármol, Félix; Facultad de Informática
    Objetivos Los sistemas de gestión de identidades establecen relaciones de confianza entre distintas organizaciones, de manera que la información de los usuarios es gestionada por una entidad confiable Cuando los usuarios acceden a un servicio en Internet, las funciones de autenticación y gestión de datos de los usuarios es delegada al proveedor de identidad. Sin embargo, estos sistemas, presentan numerosas carencias aún hoy día, especialmente en lo que se refiere al control que tiene el usuario sobre su propia información. Las soluciones actuales escasamente informan a los usuarios acerca de hacia dónde viaja su información personal. Estas dificultades se ven incrementadas cuando dichos sistemas de gestión de identidades han de ser desplegados en entornos distribuidos. Una alternativa que viene implantándose exitosamente, en los últimos años, para gestionar la confianza en entornos distribuidos viene dada por los sistemas de gestión de reputación. En estos sistemas, la confianza que se puede depositar en una entidad dada está basada en experiencias pasadas que se han tenido con dicha entidad. Aunque se ha avanzado favorablemente tanto en la gestión de identidades como en la gestión de reputación, la integración de ambos conceptos no es inmediata en entornos distribuidos. Por tanto, en esta tesis se pretende: • Analizar el estado del arte en cuanto a los sistemas de gestión de reputación aplicables a escenarios de gestión de identidades. • Diseñar y sugerir soluciones que permitan integrar sistemas de gestión de reputación en sistemas actuales de gestión de identidades centrados en el usuario, de manera que se informe a los usuarios apropiadamente antes de utilizar los servicios, y se gestione la confianza en entornos distribuidos. • Realizar un profundo análisis del comportamiento de dicha soluciones, utilizando distintos mecanismos para agregar las recomendaciones, y considerando usuarios y entidades maliciosas. • Proponer y analizar soluciones para mejorar la capacidad de adaptación de los sistemas de gestión de reputación actuales en entornos dinámicos. • Estudiar y plantear soluciones para aumentar la privacidad de los sistemas de gestión de reputación en el ámbito de los sistemas de gestión de identidades centrados en el usuario. Metodología Esta tesis doctoral tuvo como punto de partida el análisis del estado del arte de los sistemas de gestión de reputación, dentro del ámbito de los sistemas de gestión de identidades, y tomando como referencia las características intrínsecas de los entornos distribuidos. La idea era mejorar los sistemas de gestión de identidades para que estos informen a los usuarios apropiadamente antes de utilizar los servicios a los que dichos usuarios quieren acceder. De este modo, decidimos diseñar y analizar un modelo de gestión de reputación, aplicado en un sistema de gestión de identidades centrado en el usuario, distribuido y ampliamente extendido actualmente, como es el caso de OpenID. Como parte del análisis de la solución anterior, investigamos varios mecanismos para agregar las recomendaciones recolectadas de los usuarios, diferenciándose en su complejidad, requerimientos para hacerlos funcionar y en la capacidad para evitar usuarios malintencionados. Los resultados del análisis fueron positivos para demostrar la viabilidad del modelo. Sin embargo, el análisis de los distintos mecanismos para agregar recomendaciones puso de manifiesto la variabilidad de los resultados dependiendo del mecanismo escogido. Para solventar ese problema, ideamos y analizamos una solución capaz de seleccionar y activar el modelo de reputación más apropiado sobre la marcha, dependiendo de las condiciones del sistema y de las medidas de rendimiento deseadas. De esta manera, se tienen varios modelos de gestión de reputación disponibles, aunque solo uno de ellos permanece activo calculando los valores de reputación. Paralelamente, nos percatamos de la deficiencia de los sistemas de gestión de reputación a la hora de preservar la privacidad de los usuarios. Las recomendaciones que proporcionan los usuarios son consideradas como información privada, y distribuir libremente las mismas contradice uno de los principios de los sistemas de gestión de identidades, que consiste precisamente en proteger la privacidad de los usuarios. Así, tras un análisis del estado del arte en esta dirección, y tras estudiar la aplicabilidad de mecanismos de criptografía avanzada, propusimos un método orientado a la solución de dicha carencia. Utilizando técnicas de encriptación homomórfica, el método propuesto permite el cómputo de las recomendaciones proporcionadas por los usuarios, pero preservando la privacidad de las mismas. Resultados Los resultados de esta tesis han quedado esencialmente reflejados en los artículos que la componen. Así, el artículo titulado ``Towards the integration of reputation management in OpenID'' define un modelo de gestión de reputación y cómo éste puede ser aplicado a una versión extendida del protocolo definido por el estándar OpenID. Dicho modelo está basado en la idea de que los usuarios puedan proporcionar recomendaciones sobre un servicio, de manera que éstas sean agregadas por un proveedor de identidad de OpenID. El resultado de tal agregación puede ser proporcionado a los usuarios que pretendan utilizar el servicio. Estos resultados vienen complementados con los obtenidos en el artículo titulado ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. En ese trabajo presentamos un mecanismo capaz de seleccionar dinámica y automáticamente el modelo de reputación más apropiado. De esta manera, no se trata de desarrollar un modelo configurable, sino de tener varios modelos disponibles en espera, y activar el modelo más apropiado en cada momento (elegido según las reglas definidas), sin necesidad de parar o reconfigurar el sistema. Finalmente, en el artículo titulado ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'' abordamos el problema de la falta de privacidad que presentan los sistemas de gestión de reputación de la literatura actual. Las recomendaciones proporcionadas por los usuarios, o la opinión que tienen las entidades entre sí, podrían ser consideradas como información privada, en el ámbito de la gestión de identidades. En ese artículo planteamos una solución que permite las ventajas que tiene compartir esa información para alimentar los sistemas de gestión de reputación, pero manteniéndola privada. Utilizando encriptación homomórfica, esta solución muestra como las recomendaciones de los usuarios y otros parámetros necesarios para realizar el cálculo de la reputación pueden ser computados, sin necesidad de revelar dichos valores. Motivation and Goals Identity management systems establish trust relationships between different organizations, in such a way that the information of the users is handled by a trusted entity. When users access a service in the Internet, the authentication methods and users' data management is delegated to the identity provider. However, these systems present numerous shortcomings even nowadays, especially in the aspects related to the control that the users have on their own information. Current solutions barely inform the users on where their personal information is going. These difficulties are increased even further when identity management systems have to be deployed in distributed environments. An alternative that is being successfully deployed in recent years in order to manage trust in distributed environments is introduced by reputation management systems. In these systems, the trust that can be placed on a given entity is based on past experiences that others have been having with such an entity. Even though both identity management and reputation management have been positively developed, merging both worlds is not straightforward in distributed environments, since it raises a number of challenges that have to be taken into consideration. Thus, the goals pursued within this thesis are the following: • Analyze the current state of the art regarding reputation management systems applicable to identity management systems scenarios. • Design and suggest solutions allowing the integration of reputation management systems with current user-centric identity management systems, in such a way that the users are properly informed before using the offered services, and the trust is properly managed in distributed environments. • Perform a deep analysis of the behavior of such solutions, making use of different mechanism to aggregate recommendations, and considering malicious users and entities, too. • Propose and analyze solutions aimed to enhance the adaptability of the current reputation management systems in dynamic environments. • Explore and propose solutions to improve the privacy of current reputation management systems within the context of user-centric identity management systems. Methodology This PhD dissertation sets its starting point at analyzing the state of the art on reputation management systems, within the context of identity management systems, and taking the intrinsic characteristics of distributed environments as a reference. The idea was to improve identity management systems in order to properly inform the users before enjoying the services they want to consume, including environments where trust cannot be handled with static agreements. Thus, we decided to design and analyze a reputation management model applied to a user-centric identity management system, distributed and currently widely spread, which is the case of OpenID. As part of the analysis of the aforementioned solution, we proposed a number of mechanisms to aggregate the collected users' recommendations, differing in its complexity, requirements to make them work, and capabilities to prevent ill-intentioned users. The results of such analysis were positive in order to demonstrate the feasibility of the model. However, the analysis of the distinct mechanisms used to aggregate users' recommendations made us realize the variability of the results depending on the chosen mechanism. In order to address that problem, we came up with a solution able to select and activate the most appropriate reputation management model on-the-fly, depending on the system conditions and desired performance measurements. Hence, a number of reputation management models are available, although only one of them remains active computing reputation values. At the same time, we realized the lack of reputation management systems sensitive on preserving users' privacy. Users’ recommendations are considered private information, and freely distributing those recommendations opposes the principles of identity management systems, which aim to protect users' privacy. Therefore, after an analysis of the related work in that direction, and after studying the applicability of advanced cryptographic mechanisms, we proposed a method towards solving that shortcoming. Using homomorphic encryption techniques, the proposed method allows computing recommendations provided by the users, yet preserving the privacy of those recommendations. Results The results of this thesis are essentially exposed in the articles that compose it. Hence, the article entitled ``Towards the integration of reputation management in OpenID'' defines a reputation management method and how it can be applied to an extended version of the protocol defined by the OpenID standard. The solution is based on the idea that the users can provide recommendations about a service, in such a way that those feedbacks can be aggregated by an OpenID Provider. The result of such aggregation can be delivered to the users willing want to use the service. That is complemented with the outcomes of the article entitled ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. In that document, we present a mechanism able to dynamically and automatically select the most suitable reputation model. Hence, it is no longer a matter of having a configurable model, but a pool of idle ones instead, and activate the most appropriate model at each moment (chosen according to the defined rules), without needing to stop or reconfigure the system. Finally, in the article entitled ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'', we address the lack of privacy that reputation system described in the current literature present. Recommendations provided by the users, or the opinion that the entities have among each other, could be considered as private information in the context of identity management. In that document, we propose a solution aimed to have the advantages of sharing that information in order to feed the reputation management systems, while keeping it private. By using homomorphic encryption, that solution shows how users' recommendations and other required parameters to perform the reputation aggregation can be computed, but without revealing those values to potential attackers.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Metasíntesis sobre la aplicación de principios de Ingeniería de Software en el desarrollo de plataformas de tecnología educativa
    (Universidad de Murcia, Servicio de Publicaciones, 2021) Ibarra-Corona, Mauricio Arturo; Escudero-Nahón, Alexandro
    Debido a la creciente presencia de la tecnología digital en los entornos educativos formales, las aplicaciones digitales que apoyan los procesos de enseñanza-aprendizaje son cada día más sofisticados y los docentes están tomando parte activa en el diseño de esas aplicaciones. Uno de los aspectos que más ha evolucionado es el desarrollo de software para el diseño de plataformas de tecnología educativa. Este aspecto ha sido motivo de diversas investigaciones científicas, pero no existen publicaciones que den cuenta de cómo han sido considerados los principios de la Ingeniería de Software por parte de los docentes en el desarrollo de software para el diseño de plataformas de tecnología educativa. Para cumplir con lo anterior, se realizó una revisión sistemática de la literatura especializada publicada en los últimos cinco años con el método de investigación documental propio de la metasíntesis. La obtención de información se realizó en las bases de datos científicos Springer Link, Science Direct, ERIC y CONRICyT con la siguiente fórmula: "Software Engineering" AND ("Instructional Design" OR "Educational Technology"). Fueron analizados en total 69 artículos escritos en inglés o español. Tras una interpretación hermenéutica de los resultados, el hallazgo más relevante sugiere que, aunque los principios de Ingeniería de Software sí son contemplados y aplicados por la mayoría de los docentes, existe una brecha entre la teoría y la práctica referente a la tecnología educativa, misma que deriva de la complejidad de empatar la pedagogía con el desarrollo tecnológico. Finalmente, se sugiere el desarrollo de un modelo que facilite aplicar los principios de la Ingeniería de Software en el proceso de diseño de las plataformas, que a su vez facilitaría el proceso de desarrollo de software educativo
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Modelo de diseño instruccional semipresencial basado en proyectos a partir de un LMS y PLEs - Integrando ambientes organizacionales y personales
    (Universidad de Murcia, Servicio de Publicaciones, 2014) Jiménez Cruz, Joel Ricardo
    En este artículo se describe un modelo de diseño instruccional de un curso híbrido apoyado en la teoría del aprendizaje por proyectos o tareas. El modelo se estructuró con base en sesiones presenciales y virtuales, enmarcado en una visión conectivista que contiene dos núcleos de organización; un medio ambiente de aprendizaje personal (PLE), con base en un blog, desde donde cada uno de los alumnos gestiona su información respecto al avance del curso y el otro, un núcleo de enseñanza; un sistema de gestión del aprendizaje (LMS) en Moodle que utiliza el profesor para dirigir y orientar la organización y desarrollo del curso. Se comentan los aspectos metodológicos, tecno-pedagógicos y sociales que se relacionan e integran en los dos núcleos de organización. Como caso de estudio se expone el desenvolvimiento de un curso en el cual se construye un sistema de información web para un proyecto social. El proyecto pretende mejorar una situación sociocultural problemática de la comunidad donde cada alumno vive. El sistema de información se construye con la finalidad de facilitar la difusión de información, los avances en los objetivos señalados y el aumento en la conciencia de la problemática específica social o cultural que se afronta y de las medidas que se podrían tomar para resarcir esa problemática. En el desarrollo del curso se aprecian las evidencias y tendencias de las affordances del modelo que se propone para cursos semipresenciales
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Modelo para la gestión de la información basado en la capacidad investigadora de grupos de investigación
    (Universidad de Murcia, 2019-11-19) Vásquez Rizo, Fredy Eduardo; Rodríguez-Muñoz, José Vicente; Gómez-Hernández, José-Antonio; Escuela Internacional de Doctorado
    Esta tesis doctoral presenta el diseño, desarrollo e implementación de una metodología y un modelo para la gestión de información de las capacidades investigadoras en una Institución de Educación Superior. Para ello, se elaboran índices e indicadores que permiten caracterizar la Institución, con base en la información de sus grupos de investigación, con la intención de identificar falencias y aciertos y generar valor añadido informacional, que permita responder pronta y efectivamente a las solicitudes de información que se le requieranOBJETIVOS: General: Diseñar y desarrollar una propuesta metodológica que permita recopilar, caracterizar y clasificar la información asociada a la capacidad investigadora de los grupos de investigación de la Universidad Autónoma de Occidente-UAO, con la intención de construir un modelo basado en indicadores que posibilite gestionar la información institucional asociada a este campo y servir como referente para “predecir” su desempeño en la “Convocatoria Nacional para la Medición de Grupos”. Específicos: - Identificar la información institucional relevante asociada a la investigación que debe considerarse dentro de la metodología propuesta, para garantizar que sus indicadores respondan a los intereses de la Institución y sus grupos. - Determinar cuáles son las directrices que en materia de información investigadora establece el Gobierno Colombiano y las reglamentaciones internacionales existentes sobre el tema, para que la metodología propuesta responda a estándares nacionales e internacionales. - Generar un modelo basado en indicadores asociados a la capacidad investigadora que permita cualificar y cuantificar la información proveniente de los grupos, previa ponderación y normalización, en procura de la toma de decisiones. - Presentar la propuesta metodológica construida a las directivas UAO, con la intención de que ésta sea considerada en el marco de las políticas institucionales. METODOLOGÍA: 1. Identificar la posición de la IES y de sus grupos de investigación en torno al tema investigación, mediante análisis de documentos institucionales. 2. Comparar este análisis con los parámetros establecidos por los distintos entes nacionales e internacionales orientadores de la temática investigadora. 3. Aplicar un instrumento cuantitativo que permita una depuración coherente y exhaustiva de la información, facilitando su organización, clasificación y ponderación. 4. Expresar las capacidades investigadoras en términos de indicadores. 5. Recopilar las características específicas de cada capacidad investigadora según su indicador. 6. Realizar entrevistas y grupos focales con los sujetos representativos de la IES. 7. Conformar el modelo. 8. Realizar una prueba piloto para determinar la efectividad de la metodología y del modelo. 9. Presentar la propuesta metodológica y el modelo ante las instancias decisorias institucionales. CONCLUSIONES: Se diseñó y desarrolló un instrumento para recopilar, caracterizar, clasificar y gestionar la información investigadora asociada a la IES, con la intención de “predecir” el desempeño de una Institución y sus grupos de investigación, así como responder pronta y efectivamente a las instancias solicitantes de este tipo de información. Se demostró la importancia de contar en las instituciones con mecanismos válidos, confiables, efectivos, en lo posible objetivos, operables y funcionales, basados en la construcción de indicadores y de un modelo que los contenga sistémica y sistemáticamente, para que dichas entidades puedan cumplir acertadamente con el ciclo de vida de la información, en aras de una correcta gestión de su capital informacional. Se implementaron la metodología y el modelo propuestos, posibilitando la gestión de información, en aras del fortalecimiento de la función sustantiva de la investigación en la IES objeto de estudio, en el marco de lo exigido por el sistema de aseguramiento de la calidad de las IES colombiano. This doctoral thesis presents the design, development and implementation of a methodology and a model for the management of information on research capacities in a Higher Education Institution (HEI). To this end, indices and indicators are developed to characterize the Institution, based on the information of its research groups, with the intention of identifying shortcomings and successes and generating informational added value, which allows to respond promptly and effectively to requests for information that are required.Design and develop a methodological proposal that allows to collect, characterize and classify the information associated with the research capability of the research groups of the Universidad Autónoma de Occidente-UAO, with the intention of building a model based on indicators that make it possible to manage institutional information associated with this field and serve as a reference to "predict" its performance in the "National Call for Measuring Groups". Specific: - Identify the relevant institutional information associated with the research that should be considered within the proposed methodology, to ensure that its indicators respond to the interests of the Institution and its groups. - Determine which are the guidelines that the Colombian Government establishes in terms of research information and the existing international regulations on the subject, so that the proposed methodology responds to national and international standards. - Generate a model based on indicators associated with the research capacity that allows qualifying and quantifying the information coming from the groups, after weighting and normalization, in order to take decisions. - Present the methodological proposal built to UAO directives, with the intention that it be considered within the framework of institutional policies. METHODOLOGY: 1. Identify the position of the HEI and its research groups around the research topic, through analysis of institutional documents. 2. Compare this analysis with the parameters established by the different national and international entities that guide the research topic. 3. Apply a quantitative instrument that allows a coherent and exhaustive filtering of the information, facilitating its organization, classification and weighting. 4. Express the investigative capabilities in terms of indicators. 5. Collect the specific characteristics of each research capability according to its indicator. 6. Carry out interviews and focus groups with the representative subjects of the HEI. 7. Create the model. 8. Carry out a pilot test to determine the effectiveness of the methodology and the model. 9. Present the methodological proposal and the model before the institutional decision-makers. CONCLUSIONS: An instrument was designed and developed to collect, characterize, classify and manage the research information associated with the HEI, with the intention of "predicting" the performance of an Institution and its research groups, as well as responding promptly and effectively to the requesting authorities of this type of information. The importance of having valid, reliable, effective mechanisms, as objective as possible, functional and operable objectives, based on the construction of indicators and a model that contains them systemic and systematically, in order to enable those entities to fulfill correctly with the life cycle of information, in the interest of correct information capital management was demonstrated. The proposed methodology and model were implemented, making possible the management of information, in order to strengthen the substantive function of the research in the HEI object of study, within the framework of what is required by the quality assurance system of Colombian HEI.
  • «
  • 1 (current)
  • 2
  • »

DSpace software copyright © 2002-2025 LYRASIS

  • Cookie settings
  • Accessibility
  • Send Feedback