Browsing by Subject "Inteligencia artificial"
Now showing 1 - 20 of 61
Results Per Page
Sort Options
- PublicationOpen AccessA novel, identity-based network architecture for the future internet= Una arquitectura de red basada en identidad para la internet del futuro(2016-02-08) Martínez Juliá, Pedro; Skarmeta Gómez, Antonio F.; Facultad de InformáticaCon el trabajo realizado en la presente tesis hemos definido una nueva arquitectura de red que presenta un modelo de red diferente para la Internet del Futuro (Future Internet, FI). Hemos abordado los problemas encontrados en el modelo de red actual mediante la introducción del concepto de identidad, entendida como un conjunto de atributos, en las capas intermedias de la red. Nuestra propuesta radica en utilizar una capa de identidad que permita a los objetos de red (network objects) controlar su participación en el mundo digital, creando un panorama, en la esfera de las comunicaciones, que es singular, único y optimizado para cada entidad de red, dando lugar a un plano de identidad que permita a las entidades encontrarse siguiendo un modelo identidad-a-identidad que permite considerar todos los aspectos de las comunicaciones: “con quién estoy hablando”, la confianza que tengo, o incluso la localización donde está teniendo lugar la comunicación. Estos atributos afectan tanto a la seguridad como a la privacidad y están relacionados con la identidad de los participantes. En nuestro trabajo de investigación hemos ahondado también en la discusión acerca de la separación de identificadores y localizadores, extrayendo los requisitos más importantes y generalizando este concepto en la dirección de desacoplar los procesos de identificación y localización. Manteniendo el mismo objetivo, separar la identificación de los elementos del direccionamiento de hosts en la red, la arquitectura propuesta enfatiza el proceso de identificación de forma independiente a los mecanismos subyacentes que se utilizan para direccionar los mensajes en la red. Además, nuestro diseño se ve influenciado por la necesidad de un mecanismo integrado para el descubrimiento de entidades en FI que no requiera la interacción humana, así como la necesidad de una adaptación dinámica de las comunicaciones a los entornos cambiantes en los que tienen lugar. Con el fin de proveer los bloques funcionales apropiados, que incluyan las funcionas necesarias que se han comentado hasta ahora, partiendo de la base de dotar al sistema de la capacidad de evolución y manteniendo desacoplados los procesos de identificación y localización, hemos definido los objetivos principales de la tesis de la siguiente forma: Diseñar, analizar y validar una arquitectura de red altamente modular y evolutiva para la Internet del Futuro, que abstraiga los extremos de comunicación de hosts a objetos de red arbitrarios mediante el uso de sus identidades (conjuntos de atributos) como mecanismo que les permita descubrir, direccionar y comunicarse entre ellos de forma dinámica, inequívoca, segura y privada, en un entorno heterogéneo y cambiante. Para alcanzar estos objetivos hemos diseñado un conjunto de bloques funcionales que trabajan conjuntamente, formando una arquitectura de red completa, o por separado, para proveer cualidades adicionales a otras arquitecturas. Estos componentes son el Domain Trusted Entity Infrastructure (DTEi), el Identity-Based Network Protocol (IBNP), el Ontology-based Distributed Information Network (ODIN), y el Identity-Based Control Plane (IBCP). Aunque estos bloques funcionales están estrechamente relacionados entre sí y acoplados hasta cierto punto, mantienen su independencia para proveer su función de red sin necesidad de desplegar otro componente. Para finalizar, hemos validado las distintas soluciones diseñadas por medio de modelos analíticos y prototipos implementados sobre plataformas reales, evaluando sus funcionalidades, seguridad, factibilidad y rendimiento. Además, hemos integrado las funciones que ofrece nuestra arquitectura con otras arquitecturas de red, particularmente HIMALIS y MOFI, siendo ambas arquitecturas destacadas para FI que a su vez representan dos visiones diferentes de la evolución de la red. Dichas integraciones nos han permitido demostrar la utilidad de nuestros diseños, estableciendo interrelaciones sólidas e identificando tópicos abiertos de investigación para el futuro. A Novel, Identity-Based Network Architecture for the Future Internet Abstract With the work carried out in this thesis we have defined a new network architecture that provides a new network model for the Future Internet (FI). We have addressed the problems found in the network model found in the current Internet by introducing the concept of identity, seen as a set of attributes, to the middle layers of the network. We propose to use an identity layer that enables network entities (objects) to control their involvement in the digital world, creating a view in the communication sphere which is singular, unique, and optimized for every network entity, thus building an identity plane that allows entities to address each other in an identity-to-identity approach that considers all aspects of communications: “to who I am talking to”, the trust I have, or even the location where this is taking place. These attributes affect security and privacy and are related to the identity of the participants. During our research we also delve into the discussion about the separation of identifiers and locators, extracting the crucial requirements behind such approach and generalize the target as decoupling identification and location processes. The objective is the same, to separate node identification from host addressing in the network, but our architecture emphasizes the identification process itself, regardless of the underlying mechanisms to address information among network entities. Moreover, our design is influenced by the need for a better discovery mechanism in the FI that does not require human interaction, as well as the need of a dynamic adaptation of communications to the changing environments where they are taking place. Targeting the provision of proper functional blocks with the necessary functions stated so far, and with the basis established in the ability of evolution as well as the decoupling of identification and location, we define the main objectives of this thesis as follows: To design, analyze, and validate a highly modularized and evolvable network architecture for the Future Internet that abstracts the communication endpoints from hosts to arbitrary network objects by using their identities, seen as attribute sets, as the mechanism to enable them to dynamically discover, address, and communicate each other in an unequivocal, secure, and private way over an heterogeneous and changing environment. In order to achieve such objectives we designed a set of functional blocks that are able to work together, forming a complete network architecture, or separately to provide some additional qualities to other architectures. These components are the Domain Trusted Entity Infrastructure (DTEi), the Identity-Based Network Protocol (IBNP), the Ontology-based Distributed Information Network (ODIN), and the Identity-Based Control Plane (IBCP). Although these functional blocks are closely related to each other, as well as coupled to some extent, they retain their independence so each of them is able to provide its target network function without needing to fully deploy any other. Finally, we validated the designed approaches by means of analytical models and prototype implementations, evaluating their functionality, security, feasibility and performance. Moreover, we have integrated the functions provided by the architecture we designed with other network architectures, particularly HIMALIS and MOFI, which are outstanding architectures for the FI, representing two different visions of the evolution of the network. These integrations allowed us to demonstrate the usefulness of our research results, establishing strong interrelations and identifying open research topics for the future.
- PublicationMetadata onlyAbstracción temporal basada en redes de restricciones / Manuel Campos Martínez; directores, Roque Luis Marín Morales, José Tomás Palma Méndez(Murcia : Universidad de Murcia, Departamento de Ingeniería de la Información y las Comunicaciones,, 2007) Campos Martínez, Manuel
- PublicationOpen AccessAdquisición de competencias clínicas en el grado en medicina : evaluación de un programa formativo(Universidad de Murcia, 2022-07-11) Alemán Belando, Sergio; Botella Martínez, Carmen; Fernández-Villacañas Marín, Miguel Ángel; Marín Silvente, Carmen; Escuela Internacional de DoctoradoObjetivos: evaluar la implementación, ejecución y resultados de un programa formativo centrado en la mejora de competencias en anamnesis y exploración física en el grado en Medicina, así como valorar la percepción de los estudiantes que participaron en dicho programa. Material y métodos: se diseñó un estudio analítico, experimental, prospectivo y longitudinal, de tipo intervención antes-después, que fue aplicado en alumnos de último curso del grado en Medicina de la Universidad de Murcia en la asignatura Rotatorio de Medicina I. De forma previa a su implementación, se realizó el diseño y validación de las acciones formativas y de los instrumentos de evaluación del Programa Formativo. Las acciones formativas empleadas fueron: una rotación clínica, la redacción de un caso clínico, un entorno virtual de aprendizaje web, un seminario de exploración física y un entrenamiento en anamnesis con inteligencia artificial mediante agentes conversacionales o chatbots. La evaluación de competencias, realizada antes y después de aplicar el Programa Formativo, se hizo mediante el uso de tres estaciones clínicas con paciente simulado instructor. Tras completar el Programa Formativo, los alumnos cumplimentaron una encuesta voluntaria de satisfacción realizada mediante una escala semicuantitativa de tipo Likert (1 a 5 puntos) y una valoración global de las actividades (máximo 10 puntos). Resultados: un total de 74 alumnos completaron el Programa Formativo durante el curso académico 2019-2020. Las áreas evaluadas dentro de la competencia profesional de anamnesis y los resultados obtenidos en la primera y segunda evaluación, sobre un máximo de 10 puntos, fueron: antecedentes generales (5,08; 8,89; p<0,001), antecedentes orgánicos (2,71; 8,98; p<00,001), otros antecedentes (5,69; 7,31; p<0,001), situación basal (4,32; 7,67; p<0,001) y enfermedad actual (6,42; 8,3; p<0,001). Los resultados globales en anamnesis mejoraron de 5,12 puntos a 8,49 puntos (p<0,001). Las áreas evaluadas dentro de la competencia profesional de exploración física y los resultados obtenidos fueron: cabeza y cuello (5,95; 9,23; p<0,001), auscultación cardíaca (8,02; 9,23; p<0,001), auscultación pulmonar (7,46; 9,07; p<0,001) y exploración abdominal (6,77; 9,17; p<0,001). Los resultados globales en exploración física mejoraron de 7,09 puntos a 9,13 puntos (p<0,001). En el estudio de percepción todas las acciones formativas obtuvieron resultados medios superiores a 4 puntos en la escala Likert, a excepción de la redacción de un casó clínico (media de 3,8 puntos). Las valoraciones globales de las evaluaciones y acciones formativas fueron: primera evaluación con paciente simulado instructor (9,44 puntos), rotación clínica (8,44 puntos), entrenamiento con inteligencia artificial (8,6 puntos), seminario de exploración física (8,75 puntos), redacción de un caso clínico (7,6 puntos), entorno virtual de aprendizaje web (8,47 puntos), segunda evaluación con paciente simulado instructor (9,3 puntos). Conclusiones: 1. Las competencias profesionales en anamnesis y exploración física de los alumnos de Medicina mejoraron tras aplicar el Programa Formativo propuesto. 2. Se fomentó el aprendizaje activo de los alumnos de Medicina utilizando la evaluación formativa con pacientes simulados instructores. 3. La adquisición de competencias profesionales en Medicina mejoró con el uso de inteligencia artificial. 4. Los alumnos de Medicina muestran elevados niveles de satisfacción frente a la implementación de un programa formativo con uso de nuevas metodologías de aprendizaje y evaluación, otorgando la mejor valoración a la evaluación formativa con pacientes simulados. 5. A pesar de los recursos humanos y materiales que precisa para su desarrollo, es viable la implementación del Programa Formativo propuesto en las facultades de Medicina.
- PublicationOpen AccessAgrupamiento y descubrimiento de subgrupos para fenotipado de pacientes(Universidad de Murcia, 2024-01-30) López Martínez-Carrasco, Antonio; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de DoctoradoSegún las principales organizaciones sanitarias, la resistencia antimicrobiana (antimicrobial resistance o AMR, por sus siglas en inglés) es una de las mayores amenazas mundiales para la salud humana y constituye un problema crítico en el ámbito médico. La AMR se produce cuando los microorganismos se vuelven resistentes a los tratamientos antimicrobianos, haciendo que estos últimos no puedan combatir eficazmente las infecciones. Algunas de las principales causas de la AMR son el uso inadecuado de antimicrobianos y la transferencia de microorganismos resistentes entre humanos, animales o el medio ambiente. Esto significa que, a pesar del uso de fármacos antimicrobianos para tratar a pacientes infectados con microorganismos resistentes, su uso excesivo y una regulación inadecuada favorecen la propagación de estos microorganismos resistentes. Por un lado, desde el punto de vista sanitario y hospitalario, es imprescindible disponer de recursos, herramientas y procedimientos con los que monitorizar, detectar y controlar los posibles casos de AMR, además de erradicar todas las amenazas potenciales tanto para los pacientes como para el resto de la sociedad. Por otro lado, en el ámbito de la investigación clínica se han realizado muchos esfuerzos para abordar el problema de la AMR y mitigar los efectos y problemas que causa. En este contexto, la búsqueda de conjuntos de pacientes con características interesantes se ha convertido en una cuestión fundamental. Esta tarea se denomina fenotipado de pacientes y estas características de los pacientes se denominan fenotipos. El aprendizaje computacional (machine learning o ML, por sus siglas en inglés) es un área prometedora en el campo de la informática, ya que proporciona un mecanismo con el que investigar y desarrollar nuevas soluciones a la hora de enfrentarse a determinados problemas como el descrito en este trabajo. Más concretamente, el ML puede utilizarse para la generación automática de fenotipos de pacientes. La hipótesis de esta tesis doctoral es que las técnicas de agrupamiento (clustering) y descubrimiento de subgrupos (subgroup discovery o SD, por sus siglas en inglés), que son dos técnicas de ML, son eficaces para apoyar al proceso de fenotipado de pacientes en el contexto clínico de la resistencia a los antibióticos. Nuestra hipótesis es que las versiones refinadas y adaptadas de dichas técnicas pueden generar fenotipos útiles y legibles para los clínicos. Para probar esta hipótesis, establecemos los siguientes objetivos: (1) utilización de las técnicas de clustering o SD como base para proponer técnicas de ML para el fenotipado cuyos resultados sean útiles y fácilmente legibles por los expertos clínicos, (2) generación de fenotipos de pacientes mediante el diseño de una nueva técnica de ML no supervisada basada en clustering, (3) identificación de fenotipos de pacientes mediante la propuesta de una nueva metodología que permita involucrar a los expertos clínicos en el proceso, (4) extracción de fenotipos mediante la creación de un nuevo y eficiente algoritmo de SD, (5) definición de fenotipos de pacientes con la propuesta del nuevo problema de minado de las top-k listas de subgrupos diversas, (6) facilitación del uso de todos los algoritmos de SD desarrollados en esta investigación, junto con otros ya existentes en la literatura, mediante el desarrollo de una librería Python pública, accesible y de código abierto y (7) garantía de la reproducibilidad de la investigación mediante la extracción y el uso de datos clínicos relacionados con el problema de la resistencia a los antibióticos a partir de un repositorio público. Finalmente, las principales conclusiones de esta tesis doctoral en relación con los objetivos propuestos son que: (1) las nuevas técnicas de ML creadas en este trabajo pueden aplicarse con éxito al problema de la resistencia a los antibióticos y sus resultados son fáciles de interpretar para los clínicos, (2) la técnica de clustering basado en trazas genera fenotipos de pacientes, (3) la nueva metodología de 5 pasos proporciona una guía sencilla con la que identificar y hacer un ranking de los fenotipos de pacientes y permite involucrar a los expertos clínicos en el proceso de descubrimiento, (4) el algoritmo VLSD puede utilizarse tanto para extraer directamente fenotipos de pacientes como formando parte de otras técnicas de fenotipado, (5) el nuevo problema de minado de las top-k listas de subgrupos diversas proporciona un nuevo enfoque para el fenotipado de pacientes, (6) la librería ‘subgroups’ es de fácil acceso, ya que está disponible en GitHub y PyPI y puede ser utilizada por científicos de datos, investigadores de ML y usuarios finales para tareas como el fenotipado y (7) la base de datos MIMIC-III es una excelente fuente de datos que proporciona abundante información relativa al problema de la resistencia a los antibióticos, ayuda a los investigadores en este campo y garantiza la reproducibilidad de la investigación
- PublicationOpen AccessAnálisis de la desaparición de las declaraciones aduaneras como elemento tributario esencial en el derecho tributario aduanero, en la era digital.(Colex, 2025) Sanz Castaño, José Francisco; Universidad de Murcia. Grupo de investigación: Fiscalidad: Tecnología, Empresa y Sociedad.Si la anunciada reforma aduanera es ejecutada, se llevará a cabo una transformación de gran calado en los procedimientos aduaneros, entre otros, la supresión de las declaraciones aduaneras. En el presente artículo analizaremos los avances tecnológicos en la evolución de la declaración aduanera electrónica. Pero también, cuestionaremos desde la perspectiva del Derecho tributario aduanero la supresión de una institución milenaria como es la declaración aduanera.
- PublicationOpen AccessAnálisis de las tendencias educativas con relación al desarrollo de las competencias digitales(Universidad de Murcia, Servicio de Publicaciones, 2022) Harris Bonet, Paola; Romero Romero, Gladys; Harris Bonet, María Alejandra; Llanos Díaz, RossanaLa crisis ocasionada por el COVID19 trajo consigo un nuevo paradigma en el campo educativo. Se hicieron necesarios planes para aprovechar adecuadamente todas las ventajas que ofrece la tecnología en este campo, pero también puso en evidencia las enormes brechas formativas que limitaron el buen desempeño de algunas actividades académicas. El efecto de esto ha llamado el interés de instituciones públicas y privadas para investigar y promover las competencias digitales de esta generación. En este artículo se analizarán algunas de las principales tendencias educativas que se vienen generando en los últimos años como: la Inteligencia Artificial, los Modelos Educativos Mixtos e Híbridos, los Recursos Educativos Abiertos y la Realidad Extendida. El análisis de cada uno de ellos evidencia cómo, algunos referentes citados en la literatura, permiten resaltar las características esenciales que se deben desarrollar en las competencias digitales que requieren en los profesionales de cara al futuro en cada una de estas tendencias tecnológicas. Los resultados de este análisis describen la incidencia del buen uso de los recursos tecnológicos para la mediación en los procesos de enseñanza aprendizaje, desde la perspectiva de docentes y estudiantes, así como la posibilidad de construir conocimiento a través de la permeabilización de los nuevos recursos tecnológicos.
- PublicationOpen AccessAnálisis de sentimientos en español en tuits relacionados con las enfermedades infecciosas(Universidad de Murcia, 2021-11-24) Apolinario Arzube, Oscar Omar; Valencia García, Rafael; Escuela Internacional de DoctoradoLa ingeniería lingüística es la herramienta que, por medio de las computadoras permiten investigar o entender lo expresado en el lenguaje natural sobre las redes sociales. El procesamiento del lenguaje natural es un área de inteligencia artificial enfocada para entender y modelar el cerebro humano. En este entorno, la minería de opiniones o análisis del sentimiento abarca técnicas del procesamiento del lenguaje natural, lingüística computacional y minería de textos que tienen como objetivo la extracción de información subjetiva a partir de contenidos generados en las redes sociales. Del estudio del estado del arte se concluye que, aunque existen estudios relacionados sobre el procesamiento del lenguaje natural en la salud, no son suficientes para verificar las nuevas técnicas de clasificación de información para los corpus propuestos; que permitan maximizar modelos predictivos del análisis de sentimiento tanto por los investigadores como por los profesionales de la salud. La motivación de este estudio es proporcionar nuevos recursos para el análisis de sentimientos en medicina, la creación de dos corpus; uno para las enfermedades infectocontagiosas como el ZIKA y otro para el COVID-19; aplicando así el estudio de distintas tecnologías para ver cómo se pueden clasificar los sentimientos en estos dominios y ampliar el estudio de esas mismas tecnologías para la detección de la SATIRA. Objetivos. El objetivo principal de esta tesis doctoral es la aplicación de técnicas para clasificación de sentimientos en modelos predictivos para el procesamiento del lenguaje de corpus en el dominio de enfermedades infectocontagiosas como ZIKA y COVID-19; extendiendo este mismo análisis sobre un corpus del género literario SATIRA para lograr una mejor precisión en la predicción de sentimiento sobre lo expresado en redes sociales y el entendimiento del lenguaje natural. Para conseguir este objetivo se plantearon los siguientes subobjetivos: • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Zika, dengue y chikungunya. • Obtención de un corpus sobre el dominio de enfermedades infectocontagiosas Covid-19. • Obtención de un corpus sobre el dominio en el género literario de la sátira. • Obtención de modelos de clasificación para la predicción de sentimientos en cada uno de los corpus. • Obtención del mejor clasificador de precisión en cada uno de los corpus por tipos de clasificadores. Metodología. Esta tesis doctoral se desarrolló mediante 3 fases principalmente: la primera fase fue el estudio del estado del arte que se ha mostrado en este capítulo; la segunda fue la elaboración de métodos y artefactos de clasificación y predicción que permitan el tratamiento de los corpus propuestos; y la tercera la validación de la propuesta. • Estudio del estado del arte: Estudio de los conceptos y términos de la inteligencia artificial en el campo del lenguaje natural, técnicas del aprendizaje automático supervisado y no supervisado, modelos para la predicción de sentimiento y herramientas para la clasificación de texto. Además, se analizaron las distintas investigaciones en el ámbito de la minería de opiniones sobre modelos y su aplicabilidad en distintos dominios. • Elaboración de laboratorios para la obtención de modelos que realicen la predicción de sentimientos sobre los corpus en el contexto de esta tesis doctoral; también se desarrollaron las matrices de confusión para evaluar del sentimiento real vs la predicción obtenida en cada uno de los corpus. Resultados. Validación de los laboratorios: Con el detalle de los hyper-parámetros utilizados y el resultado obtenido de las predicciones para cada una de las ejecuciones realizadas. Aquí encontraremos los resultados del mejor modelo usado para evaluar la partición de validación y test. Cada una tiene el reporte de clasificación con la accuracy, precision, recall y f1 de cada clase.
- PublicationEmbargoApplications of machine learning and sentiment analysis in financial forecasting(Universidad de Murcia, 2024-12-16) Kondratenko, Anna; Baixauli Soler, Juan Samuel; Álvarez Díez, Susana; Escuela Internacional de DoctoradoEl aprendizaje automático ha ganado popularidad por su capacidad para aplicar técnicas estadísticas a grandes conjuntos de datos, permitiendo análisis complejos y mejorando progresivamente los resultados. En el sector financiero, se utiliza para mejorar el rendimiento empresarial en áreas como estudios de mercado, marketing, ventas y automatización de procesos, aunque aún hay áreas en finanzas poco exploradas por estas técnicas. El principal objetivo de esta tesis es investigar las capacidades de las técnicas de aprendizaje automático y el analisis de sentimientos en el campo de las finanzas y aplicarlo a las previsiones financieras. Los eventos, como el anuncio de dividendos, crean una situación en el mercado que puede ser aprovechada para obtener rendimientos anormales. Específicamente, se pretende analizar en qué medida los datos diarios obtenidos de diversas fuentes de noticias ayudan a predecir las reacciones del mercado ante diferentes eventos corporativos. Además, está tesis doctoral pretende llenar el vacío existente en el campo mediante la creación de un sistema de decisión experto que recomiende la estrategia de cobertura de divisas más adecuada para el usuario. El Capítulo 1 plantea la cuestión de la capacidad de un anuncio de dividendos para generar una señal de mercado que conduzca a cambios en los rendimientos de las acciones al día siguiente, generando así rendimientos anormales. Se utiliza un análisis de sentimientos realizado con ChatGPT para identificar el estado de ánimo de noticias y vincularlo con los rendimientos anormales. La muestra incluye 394 empresas que cotizan en el índice S&P 500, de las cuales se recopilaron 1,574 anuncios de dividendos y 7,222 noticias durante los años 2022–2023. El estudio concluye que los sentimientos juegan un papel clave en la identificación de los sentimientos del mercado justo después del anuncio de dividendos. El Capítulo 2 profundiza más en el impacto de los sentimientos en el mercado después del anuncio de dividendos e investiga los rendimientos anormales a escala intradiaria. Para este estudio, se utilizan 4,682 noticias recopiladas de 1,258 anuncios de dividendos realizados por 394 empresas que cotizan en el índice S&P 500, cubriendo el período desde enero de 2023 hasta enero de 2024. Se utiliza un modelo de regresión logística para predecir la tendencia de los rendimientos anormales. Este capítulo concluye que los sentimientos de las noticias financieras tienen un impacto significativo e inmediato en los rendimientos anormales, con un impacto decreciente a medida que avanza el tiempo. Además, la rentabilidad de la estrategia de inversión que utiliza los sentimientos de las noticias financieras supera a la estrategia de referencia de invertir en todas las acciones. Finalmente, el Capítulo 3 se enfoca en minimizar las pérdidas provocadas por fluctuaciones de tipo de cambio. Este estudio utiliza 20 años de datos diarios del tipo de cambio del euro al dólar estadounidense, desde 2002 hasta 2022, lo que comprende 5,044 registros históricos. El estudio emplea el algoritmo de aprendizaje automático de random forest y un conjunto de indicadores técnicos para predecir las fluctuaciones futuras del tipo de cambio. Finalmente, las predicciones se utilizan para crear un sistema de recomendaciones que aconseje al usuario sobre la posibilidad de cobertura. En primer lugar, el modelo de random forest logra un 79% de precisión en la predicción de la tendencia del tipo de cambio para el día siguiente. En segundo lugar, desarrolla un sistema de decisión experto que ayuda a las empresas a reducir los gastos relacionados con la gestión de la exposición a divisas. Esta tesis contribuye a la literatura existente sobre las aplicaciones del aprendizaje automático en finanzas. Los resultados demuestran que los métodos de aprendizaje automático pueden implementarse con éxito en el ámbito financiero.
- PublicationOpen AccessAutenticación continua en dispositivos móviles basada en inteligencia artificial(Universidad de Murcia, 2024-05-03) Espín López, Juan Manuel; Marín-Blázquez Gómez, Javier; Esquembre Martínez, Francisco; Huertas Celdrán, Alberto; Escuela Internacional de DoctoradoLa información almacenada en los dispositivos móviles, como teléfonos inteligentes, tabletas u ordenadores portátiles, ha ido creciendo con el paso de los años. El acceso a dichos dispositivos y a la información que contienen por parte de un atacante, puede suponer un grave riesgo a la privacidad de los datos del usuario y su entorno. La mayoría de los dispositivos móviles cuentan con mecanismos de protección de acceso que, una vez desbloqueados, no vuelven a comprobar la identidad del usuario, por lo que es necesario el uso de técnicas de autenticación que permitan comprobar la identidad del usuario durante todo el tiempo de uso del dispositivo; es decir, sistemas de autenticación continua. Con este objetivo de autenticación continua del usuario, la investigación se centra en la exploración de las diferentes fuentes de datos y algoritmos de machine learning e inteligencia artificial, la idoneidad del enfoque seguido, y la protección de la privacidad de los datos del usuario mediante la aplicación de técnicas de aprendizaje federado. El inicio de esta investigación junto con la revisión de la literatura realizada en el campo de la autenticación continua en dispositivos móviles, suscitó una serie de preguntas de investigación claves que han sido resueltas a lo largo de la tesis. Estas preguntas indagan acerca de la idoneidad de las diferentes fuentes de información, como vectores de autenticación continua disponibles en un dispositivo móvil, y la mejor forma de combinarlas, así como de los diferentes algoritmos de machine learning e inteligencia artificial. También se evalúan las diferencias entre los enfoques supervisados y no supervisados, junto con la mejora en rendimiento y la robustez ante usuarios desconocidos que proporcionan los enfoques supervisados. Finalmente, surgen cuestiones relacionadas con la privacidad de los datos del usuario, como cuál es el coste en precisión al incrementar dicha privacidad utilizando técnicas de aprendizaje federado, la resiliencia del sistema ante ataques adversariales de tipo inyección y perturbación de datos, y la existencia y eficacia de contramedidas ante estos ataques. La metodología empleada en esta investigación comienza con una revisión detallada del estado del arte de la autenticación continua de usuarios, el análisis de los enfoques seguidos en los diferentes trabajos, y la aplicación de técnicas de aprendizaje federado en el campo de la autenticación de usuarios. Tras analizar las fuentes de información disponibles en dispositivos móviles y su estudio en la literatura, se seleccionan la información de sensores, los estadísticos de uso y la voz. Ya escogidas estas fuentes, una parte primordial de la metodología es la elaboración de una base de datos, la cual está disponible para la comunidad científica. La metodología seguida continúa con la experimentación, que permite resolver las preguntas de investigación mencionadas anteriormente y, finalmente, concluye con una exposición de resultados y conclusiones. Así pues, el resultado principal de la investigación ha sido la demostración de la autenticación continua como una solución altamente prometedora para mejorar la seguridad, aportando pruebas sólidas de la eficacia en la protección del usuario, manteniendo la integridad de los datos y su privacidad. Otros resultados parciales e interesantes son la validación de los enfoques supervisados, que mejoran significativamente la precisión de los sistemas y se muestran robustos ante nuevos usuarios no vistos durante el entrenamiento. También se ha demostrado que el coste de aumentar la privacidad de los datos es asumible en términos de rendimiento. Y, finalmente, se ha identificado la necesidad de desarrollar contramedidas efectivas para garantizar la seguridad ante situaciones de ataques. En conjunto, se ha demostrado que estos sistemas son viables en entornos industriales, lo que sugiere que podrían ser desplegados en espacios reales de este tipo en un futuro cercano.
- PublicationEmbargoAvances en sistemas de movilidad personal conectados y aumentados por aprendizaje automático(Universidad de Murcia, 2024-11-22) Bernal Escobedo, Luis; Sánchez Iborra, Ramón Jesús; Skarmeta Gómez, Antonio; Escuela Internacional de DoctoradoLa tesis doctoral titulada "Avances en sistemas de movilidad personal conectados y aumentados por aprendizaje automático", se centra en el desarrollo de las tecnologías necesarias para la integración de los vehículos de movilidad personal (VMP), como patinetes y bicicletas eléctricas, en el ecosistema de las ciudades inteligentes y movilidad conectada. Se argumenta que la creciente popularidad de estos vehículos exige soluciones que permitan su conexión con la infraestructura de las ciudades inteligentes para así mejorar la seguridad vial, la eficiencia del tráfico y la experiencia del usuario. Uno de los principales desafíos abarcados en la tesis es la limitación en cuanto a consumo de energía, capacidad de procesamiento, soporte de dispositivos periféricos que presentan estos vehículos ligeros y reducido coste de los mismo. Para abordarlo, la tesis explora el uso de tecnologías de comunicación de bajo consumo, como LPWAN, y el paradigma de aprendizaje automático embebido "TinyML", que permite la ejecución de algoritmos de aprendizaje automático en dispositivos con recursos muy limitados. La tesis describe el diseño, desarrollo y evaluación de una unidad de a bordo (OBU) ligera y de bajo consumo, equipada con sensores y diferentes opciones de comunicación, incluyendo LoRaWAN y NB-IoT. Esta OBU permite a los VMP conectarse a la infraestructura de la ciudad inteligente y acceder a servicios online, e implementar funcionalidades novedosas e inteligentes, siendo la detección de caídas, la selección dinámica de la interfaz de red inalámbrica y la recopilación de datos ambientales los casos de uso demostrados en el trabajo de esta tesis. Los resultados de la tesis demuestran la viabilidad de integrar VMP en entornos de ciudades inteligentes utilizando tecnologías innovadoras respetando un bajo coste y consumo, puntos importantes para la viabilidad de la adopción de los desarrollos presentados. La OBU desarrollada permite la implementación de servicios que mejoran la seguridad del usuario y se realizan implementaciones durante el trabajo de la tesis, demostrando la viabilidad de las mismas de algunas pruebas de concepto propuestas, como la detección de caídas, y la optimización inteligante del uso de las comunicaciones según consumos y otros parámetros dinámicos. En resumen, la tesis de presentada propone una solución tecnológica innovadora para integrar los VMP en las ciudades inteligentes y el desarrollo de unidades embarcadas embebidas de muy bajo coste y consumo. A través de la combinación de tecnologías de comunicación de bajo consumo y algoritmos de aprendizaje automático, se habilita un nuevo ecosistema de movilidad urbana más seguro, eficiente y sostenible.
- PublicationOpen AccessChallenges of technologizing teaching and learning at university(Universidad Católica de Valencia San Vicente Mártir, 2024-07-31) Monroy Hernández, Fuensanta; Métodos de Investigación y Diagnóstico en EducaciónThis narrative review addresses the challenge posed by the widespread extensive use of digital tools, i.e., technologization, in university education, highlighting three aspects. First, an overuse of digital tools by teachers is discussed, particularly slideware as the most frequently used technology. Concerns are raised as to how effective an extensive use of such a technology is in promoting learning. Additionally, the impact of electronic devices used by students, especially smartphones, is reviewed, and the decrease in comprehension and academic performance associated with reading digital texts and writing on digital media compared to printed format is highlighted. Finally, the impact of artificial intelligence (AI), specifically the ChatGPT language model, in education is discussed, addressing both its potential benefits and ethical and educational challenges. The integration and promotion of AI tools in education pose additional challenges, such as environmental impact, digital distractions, and educa-tional exclusion. A need for a balanced approach which follows the precautionary principle is emphasized, so educational institutions take preventive action to protect individuals and the environment, as well as to avoid potential harm when scientific evidence about an activ-ity or technology is uncertain or incomplete. The text underscores the importance of raising awareness about responsible use of technology in education and advocates for a critical and reflective approach in its application so Sustainable Development Goals may be achieved. -------------------
- PublicationOpen AccessCombinación de clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto(Universidad de Murcia, 2023-10-16) Mackenzie Rivero, Alexander José; Martínez Béjar, Rodrigo; Jiménez Barrionuevo, Fernando; Escuela Internacional de DoctoradoCon el aumento exponencial en la cantidad de datos textuales disponibles en Internet desde fuentes diversas como redes sociales, blogs/foros, sitios web, correos electrónicos, bibliotecas en línea, etc., se ha hecho necesaria la utilización de la Inteligencia Artificial en plataformas digitales, como la aplicación de métodos de aprendizaje profundo y de reconocimiento de patrones, para que esta información pueda ser aprovechada por todo tipo de modelos de negocios, estudios de mercado, planes de marketing, campañas políticas o toma de decisiones estratégicas entre otros, con la finalidad de hacer frente a la competencia y dar respuesta de manera eficiente. El objetivo de esta tesis doctoral fue desarrollar un modelo que combina clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto, que permita estructurar una metodología aplicable en conjuntos de datos textuales y así mejorar la clasificación automática de texto. El modelo propuesto en esta tesis doctoral se realizó siguiendo los siguientes objetivos específicos: redactar el estado del arte relacionado con la temática estudiada; conformación de un conjunto de datos textuales lo suficientemente extenso para la aplicación de las diferentes técnicas de análisis de datos; desarrollo de una metodología para la clasificación semántica de datos textuales y evaluación de los resultados obtenidos. La metodología consistió de 9 etapas, las 5 primeras (preprocesamiento, clustering, se- lección de atributos, clasificación y test estadístico. Posteriormente 4 etapas adicionales correspondientes análisis ontológico (validación del clúster, análisis semántico, interpretación y representación de relaciones). Se pudo determinar que haciendo SToWVector junto con selección de atributos mediante el wrapper MOES (estrategia de búsqueda) y NaiveBayesMultinomial (evaluador) con ACC (métrica), se obtienen mejores resultados con el clasificador NaiveBayesMultinomial que con otros métodos de clasificación evaluados. Además el método de búsqueda ENORA ha sido utilizado y evaluado demostrando ser un método eficaz para la selección de atributos en datos textuales. De igual manera se pudo dar significado a los dos clústeres obtenidos, logrando identificar un concepto para cada clúster. Clúster 1: UE-G20-G77-MEC y clúster 2: Resto del mundo. Ello permitió establecer una relación directa entre los clústers.
- PublicationOpen AccessCombinación de modelado y razonamiento espacio-temporal con tecnologías de grafos aplicado a epidemiología de infecciones nosocomiales e infecciones multirresistentes(Universidad de Murcia, 2025-07-21) Pujante Otálora, Lorena; Campos Martínez, Manuel; Juárez Herrero, José Manuel; Escuela Internacional de Doctorado; Escuela Internacional de DoctoradoEsta tesis doctoral tiene como objetivo demostrar que el uso combinado de técnicas de modelado y razonamiento espacio-temporal con tecnologías basadas en grafos son efectivas para el análisis epidemiológico de infecciones nosocomiales. Las infecciones nosocomiales, especialmente aquellas causadas por bacterias multirresistentes, representan un problema de salud pública global, debido a su rápida propagación y alto índice de mortalidad. En este contexto, planteamos como objetivo principal el diseño y formalización en forma de grafos de un modelo de datos y operacional que sirva de base para futuras investigaciones relacionadas con el análisis epidemiológico espacial y temporal basado en los movimientos y contactos entre pacientes dentro del hospital. Este modelo busca servir de base para tareas epidemiológicas fundamentales como la detección de brotes, de cadenas de transmisión entre pacientes y de potenciales fuentes de contagio (ya sean ubicaciones físicas o áreas dentro del hospital, o servicios o unidades del en los que se organiza el personal sanitario). Hemos desarrollado la investigación como se detalla a continuación. En primer lugar, realizamos un análisis exhaustivo del estado del arte sobre el uso de redes en modelos computacionales aplicados a la propagación de brotes epidémicos, identificando tendencias en escalas espaciales y temporales, tipos de redes utilizadas y fuentes de datos. Posteriormente, proponemos un modelo de datos espacio-temporal que incluye una dimensión espacial jerárquica (estructura física del hospital y organización del personal) y una dimensión temporal basada en los eventos clínicos registrados en el Sistema de Información Hospitalario (SIH) o Historia Clínica Electrónica del paciente (HCE). A partir de este modelo, hemos diseñado y formalizado seis consultas que representan tareas epidemiológicas fundamentales en la vigilancia y detección de brotes nosocomiales. En cuanto a la formalización del modelo y las consultas, hemos evaluado dos tecnologías orientadas a grafos: grafos de propiedades y grafos de conocimiento (formatos RDF y RDF*). Concretamente, hemos evaluado el rendimiento (tiempo ejecución y consumo de memoria principal) de dos bases de datos orientadas a grafos representativas de estas tecnologías: Neo4j y GraphDB. Los resultados muestran diferencias significativas en términos de eficiencia y expresividad según la tecnología empleada, destacando la escalabilidad de GraphDB y la utilidad de RDF* (y su lenguaje de consulta, SPARQL*) en la implementación de relaciones con propiedades y en las ventajas que ofrece el ser estándares. Finalmente, a partir del modelo y consultas propuestas, diseñamos y validamos un nuevo método denominado StESPT (Spatio-Temporal Epidemiological Similarity based on Patient Trajectories), orientado al descubrimiento de grupos de pacientes infectados espacial y temporalmente conectados. Este método consiste en cinco pasos: obtención de los pacientes infectados potenciales de un brote y transformación de sus estancias hospitalarias en trayectorias, cálculo de la similitud espacio-temporal epidemiológica entre puntos y entre trayectorias, y aplicación de técnicas de clustering para identificar posibles brotes y rutas de contagio. Validamos el modelo, consultas y método propuestos utilizando datos clínicos sintéticos. En las conclusiones destacamos que la combinación de tecnologías de grafos y razonamiento espacio-temporal aporta una representación flexible, expresiva y eficiente para el análisis de infecciones nosocomiales causadas por bacterias en entornos hospitalarios. Este enfoque facilita tareas como la búsqueda de casos índice, la reconstrucción de brotes y el descubrimiento de patrones ocultos, contribuyendo así a la toma de decisiones clínicas y al diseño de estrategias preventivas. Además, la tesis ha sido desarrollada bajo principios de ciencia abierta, garantizando la reproducibilidad de los experimentos mediante la publicación de código y datos en repositorios públicos
- PublicationOpen AccessComputación evolutiva multi-objetivo para selección de atributos y clasificación interpretabe(Universidad de Murcia, 2019-11-04) Martínez Cortés, Carlos; Jiménez Barrionuevo, Fernando; Sánchez Carpena, Gracia; Escuela Internacional de DoctoradoEn el contexto del aprendizaje supervisado, en esta Tesis Doctoral se han desarrollado modelos de optimización multi-objetivo para los problemas de selección de atributos y de clasificación interpretable, así como algoritmos evolutivos multi-objetivo para sus resoluciones. El problema de la selección de atributos se enmarca dentro de un proceso más general que es la reducción de la dimensionalidad de los datos. Este proceso es fundamental hoy día debido a la gran cantidad de datos que cada vez más se generan con el desarrollo imparable de las tecnologías de la información. El problema de la clasificación o predicción interpretable juega también un papel crucial hoy día, ya que no siempre es aceptable un modelo automático si éste no es entendible y validable por un experto, sobre todo en contextos donde la ética profesional lo requiere, como por ejemplo, la medicina o los negocios. Por otro lado, la Computación Evolutiva Multi-objetivo se ha mostrado como un metaheurística muy potente para resolver ambos tipos de problemas, y aunque no garantiza soluciones óptimas, éstas pueden resultar más satisfactorias que las proporcionadas con las técnicas clásicas de búsqueda, optimización y aprendizaje. Los algoritmos evolutivos multi-objetivo desarrollados en esta tesis han sido implementados en la plataforma Weka de machine learning con los nombres MultiObjectiveEvolutionarySearch y MultiObjectiveEvolutionaryFuzzyClassifier respectivamente. Para el problema de selección de atributos, la estrategia de búsqueda MultiObjectiveEvolutionarySearch puede combinarse con distintos evaluadores para configurar métodos de selección de atributos tanto filter como wrapper, con diferentes medidas estadísticas, clasificadores y métricas de evaluación, lo que hace que la técnica sea muy flexible y robusta. Los algoritmos ENORA y NSGA-II han sido implementados como estrategia de búsqueda, resolviendo un problema de optimización booleana con los objetivos de precisión y de cardinalidad de los subconjuntos de atributos. Para el problema de clasificación interpretable, el clasificador MultiObjectiveEvolutionaryFuzzyClassifier permite construir clasificadores basados en reglas, tanto fuzzy (gaussianos) como crisp, con datos numéricos y categóricos, en problemas de clasificación multi-clase, permitiendo configurar distintos evaluadores en la fase de aprendizaje. Los algoritmos ENORA y NSGA-II han sido implementados para la construcción de clasificadores basados en reglas, resolviendo un problema de optimización combinatoria mixta con restricciones, con los objetivos de precisión y de complejidad del conjunto de reglas, y restricciones de similaridad de los conjuntos fuzzy gaussianos. Para los experimentos se han utilizado dos campos de fundamentales de aplicación, en el screening virtual para el descubrimiento de fármacos, y en la gestión de las habilidades profesionales de agentes en un centro de contacto con datos extraídos de la empresa GAP S.R.L. en el norte de Italia. También se han utilizado bases de datos públicas del UCI Machine Learning Repository por razones de reproducibilidad. Los resultados han sido analizados siguiendo metodologías propias del análisis inteligente de datos, y las conclusiones están abaladas por tests estadísticos, los cuales muestran un excelente comportamiento de las técnicas propuestas tanto para selección de atributos como para clasificación basada en reglas, en comparación con otras técnicas, algoritmos y clasificadores del estado del arte ampliamente consolidados. Abstract In the context of supervised learning, in this Doctoral Thesis, multi-objective optimization models have been developed for the problems of feature selection and interpretable classification, as well as multi-objective evolutionary algorithms for their resolutions. The problem of feature selection is framed within a more general process that is the dimensionality reduction of data. This process is fundamental today due to the large amount of data that is increasingly generated with the unstoppable development of information technologies. The problem of interpretable classification (or prediction) also plays a crucial role today, since an automatic model is not always acceptable if it is not understandable and validated by an expert, especially in contexts where professional ethics requires it, such as, for example, medicine or business. On the other hand, the Multi-objective Evolutionary Computation has been shown as a very powerful metaheuristic to solve both types of problems, and although it does not guarantee optimal solutions, these can be more satisfactory than those provided with the classic search, optimization and learning techniques. The multi-objective evolutionary algorithms developed in this thesis have been implemented in the Weka platform of machine learning with the names MultiObjectiveEvolutionarySearch and MultiObjectiveEvolutionaryFuzzyClassifier respectively. For the feature selection problem, the search strategy MultiObjectiveEvolutionarySearch can be combined with diferent evaluators to configure feature selection methods both filter and wrapper, with diferent statistical measures, classifiers and evaluation metrics, which makes the technique very exible and robust. The algorithms ENORA and NSGA-II have been implemented as search strategy, solving a boolean optimization problem with objectives of precisión and attribute subset cardinality. For the problem of interpretable classification, the classifier MultiObjectiveEvolutionaryFuzzyClassifier allows to build rule-based classi_ers, both fuzzy (Gaussian) and crisp, with numerical and categorical data, in multi-class classification problems, allowing to configure diferent evaluators in the learning phase. The algorithms ENORA and NSGA-II have been again implemented for the construction of rule-based classifiers, solving a mixed combinatorial constrained optimization problema in this case, with the objectives of precision and rule set complexity, and similarity constraints of Gaussian fuzzy sets. Two fundamental application areas have been used for the experiments, in virtual screening for the discovery of drugs, and for the management of the professional skills of agents in a contact center with data extracted from the company GAP SRL in the north of Italy. Public databases of the UCI Machine Learning Repository have also been used for reproducibility reasons. The results have been analyzed following the methodologies of intelligent analysis of data, and the conclusions are supported by statistical tests, which show an excellent behavior of the proposed techniques both for feature selection and for rule-based classification, in comparison with other techniques, algorithms and classifiers of the state-of-the-art widely consolidated.
- PublicationEmbargoConsideraciones generales sobre los derechos humanos y la inteligencia artificial a la luz del ordenamiento jurídico internacional(Universidad de Varsovia, 2024) Gil Gandía, Carlos; Derecho Financiero, Internacional y Procesal; Facultad de DerechoEn el presente trabajo se analiza de forma general el desafío que la inteligencia artificial provoca en relación con los derechos humanos desde la perspectiva jurídica. En este sentido, este trabajo pone el foco en el derecho internacional en tanto ordenamiento jurídico a fin de poner de relieve el estado actual de la relación entre la inteligencia artificial y los derechos humanos y, en su caso, recomendar propuestas de mejora.
- PublicationOpen AccessEl creativo invisible: inteligencia artificial y creación publicitaria(Universidad Miguel Hernández de Elche, 2023-07-31) Fernández Rincón, Antonio Raúl; ComunicaciónLa aplicación de la inteligencia artificial a la industria publicitaria está experimentando un notable crecimiento. Aunque el uso de grandes volúmenes de datos ya venía experimentándose en publicidad para su aplicación en la fase de investigación y compra de espacios de difusión, el reto que ahora se plantea está relacionado con la posibilidad e incorporar la IA a las fases de creación y producción publicitaria. El objetivo de este trabajo es avanzar en el conocimiento o estado del arte del fenómeno y poner en evidencia mediante un diseño descriptivo algunos de los ejemplos de aplicación que podrían trazar los vectores de actuación en el futuro, del binomio Inteligencia Artificial y Creatividad Publicitaria. Las conclusiones de este trabajo tratan de expresar por una parte la escasez de trabajos que abordan el fenómeno desde una perspectiva científica y por otra parte que la aplicación de la IA a la fase de ideación publicitaria parece limitada a la prestación de una asistencia creativa más que al desarrollo de un trabajo independiente y al margen de la intervención humana. En definitiva, podríamos afirmar que la aplicación de la IA a la creatividad publicitaria se limita aún a lo anecdótico.
- PublicationOpen AccessCyberattacks detection in industrial scenarios using Machine Learning and Deep Learning techniques(Universidad de Murcia, 2021-03-29) Perales Gómez, Ángel Luis; García Clemente, Félix Jesús; Escuela Internacional de DoctoradoEn las últimas décadas, las fábricas han sufrido un gran cambio en la automatización, pasando de sistemas aislados a interconectados. Este cambio ha traído muchas ventajas, como el aumento de la producción o la gestión de fábricas en diferentes áreas geográficas. Sin embargo, la adopción de estándares abiertos y la apertura a Internet han provocado un incremento en el número de ataques que afectan a los Sistemas de Control Industrial. Un enfoque prometedor para proteger las fábricas son los sistemas de detección de intrusiones basados en el paradigma de detección de anomalías, que se basa en modelar el comportamiento normal del sistema y detectar como anormal todo comportamiento fuera de lo normal. Este paradigma está mostrando grandes resultados cuando se implementa mediante técnicas de Machine Learning y Deep Learning. Sin embargo, se necesitan algunos esfuerzos adicionales para implementar estas técnicas en un escenario industrial. La falta de conjuntos de datos industriales para entrenar y validar estos sistemas es un desafío importante. Además, se necesita una metodología común que considere las características específicas de los escenarios industriales para la detección de anomalías utilizando técnicas de Machine Learning y Deep Learning. Por último, las implicaciones que tienen las amenazas de ciberseguridad en la integridad física de los trabajadores y los activos son un aspecto clave que debe tenerse en cuenta. El objetivo principal de esta tesis doctoral consiste en investigar técnicas de Machine Learning y Deep Learning para desarrollar sistemas de detección de anomalías que ayuden a detectar ciberataques en escenarios industriales. Este objetivo se puede dividir en seis subobjectivos: 1) Estudiar la literatura existente en materia de integridad física, ciberseguridad y su integración en escenarios industriales, 2) Diseñar un framework capaz de gestionar la ciberseguridad y la integridad física de forma unificada, 3) Estudiar el trabajo relevante en el campo de la generación de conjuntos de datos industriales, 4) Diseñar una metodología para generar conjuntos de datos industriales 5) Estudio de soluciones de sistemas de detección de intrusiones orientadas a la industria como así como las metodologías disponibles para entrenar y validar modelos de Machine Learning y Deep Learning para la detección de anomalías y 6) Diseñar y validar una metodología para la detección de anomalías en escenarios industriales utilizando técnicas de Machine Learning y Deep Learning. Esta tesis doctoral se ha realizado siguiendo un proceso científico basado en el estudio del estado del arte y el análisis de propuestas de detección de ciberataques en escenarios industriales. Primero, analizamos la literatura relacionada con la integración de la ciberseguridad y la integridad física y concluimos que se encuentra en una etapa temprana impulsada principalmente por la industria. Después, estudiamos la literatura sobre los conjuntos de datos industriales y concluimos que la mayoría de ellos se centran en la inyección de datos falsos, ignorando otros ataques dañinos como los ataques de repetición. Finalmente, después de estudiar la literatura sobre detección de anomalías en escenarios industriales, nos dimos cuenta de que muchos de los trabajos revisados no siguen una metodología común y la mayoría presenta errores metodológicos. Finalmente, la contribución de esta Tesis Doctoral se puede resumir en: 1) Diseño, implementación y validación de un framework unificado de ciberseguridad e integridad física en la industria manufacturera, 2) Diseño y validación de una metodología para generar conjuntos de datos a partir de escenarios industriales así como su implementación para generar Electra, un conjunto de datos obtenido de una subestación de tracción eléctrica, y 3) Diseño y validación de una metodología, denominada MADICS, para desarrollar sistemas de Detección de Anomalías en escenarios industriales, así como su uso con el conjunto de datos SWaT.
- PublicationOpen AccessDefinición de un modelo de gestión de las nociones de confianza y reputación entre agentes. Enfoque basado en la similitud entre tareas.(Universidad de Murcia, 2010-03-09) Caballero Martínez, Alberto; Botía Blaya, Juan Antonio; Gómez Skarmeta, Antonio Fernando; Departamentos y Servicios::Departamentos de la UMU::Ingeniería de la Información y las ComunicacionesLos conceptos de confianza y reputación determinan un campo de investigación relevante para varias disciplinas científicas. Desde el punto de vista de las Ciencias de la Computación, una gran parte de los esfuerzos en esta dirección se ha dedicado a la definición de mecanismos de control adaptativos de las comunidades virtuales tomando como referencia las relaciones que se presentan en las sociedades humanas. El hecho de tener en cuenta elementos asociados a la confianza y la reputación contrarresta el elevado grado de incertidumbre bajo el cual los individuos toman sus decisiones. Así, un modelo de confianza y reputación hace frente a la incertidumbre asociada a las decisiones que toman las partes "inteligentes" de varios tipos de sistemas. En este sentido, resulta importante proporcionar algunos mecanismos de estimación de los valores de confianza y reputación que permitan ofrecer recomendaciones valiosas aun cuando no se disponga de la información suficie nte para hacerlo. También destaca la necesidad de adopción de algún modelo conceptual común y eficaz para la representación de los elementos dependientes del dominio de aplicación. Esta tesis está dedicada a la definición y estudio de un modelo de confianza y reputación que, adoptando un marco de representación ontológica para la definición de los elementos dependientes del dominio de aplicación, utiliza criterios de similitud para estimar el desempeño de las partes del sistema cuando la información relacionada se presenta incompleta. Se estudia el comportamiento del modelo para diferentes alternativas de definición de algunos de sus elementos, y frente a diferentes situaciones experimentales, determinadas por las variaciones del desempeño de los elementos del sistema. Abstract. The concepts of trust and reputation determine an important research field for several scientific disciplines. From the point of view of Computer Sciences, a large amount of efforts in this direction has been devoted to the definition of adaptive control mechanisms for virtual communities based on the relationships that take place in human societies. Taking into account some elements associated with trust and reputation, the high degree of uncertainty, under which individuals make decisions, is reduced. Thus, a trust and reputation model could help to deal with the uncertainty associated with the decisions of "smart" parties, in some types of systems.This way, it is important to provide some mechanism to estimate the trust and reputation values in order to give valuable recommendations, even if there are no sufficient information to do so. It also stands out the necessity to adopt a common and effective conceptual model for the representation of the application doma in elements. This thesis is devoted to the definition and study of a trust and reputation model, based on a common ontological framework for the definition of domain-dependent elements, using similarity criteria for estimating the performance of parts of the system when related information is incomplete. Also it analyzes the behavior of the model to different alternatives for the definition of some of its elements, and in front of different experimental situations, determined by variations in the performance of the system elements.
- PublicationOpen Access¿Demasiados abogados? Postulación y acceso a la justicia civil en la era de la inteligencia artificial(Universidad Nacional de Educación a Distancia (UNED), 2024) Castillo Felipe, Rafael; Derecho Financiero, Internacional y ProcesalThe present paper analyses the artificial intelligence future impact on mandatory representation in spanish civil proceedings. Firstly, the work studies the reasons for mandatory representantion and the constitucional limits to self-representation. Secondly, it analyses if artificial intelligence could condicionate these factors and what would be the adequate procedural acts to allow self-representantion with IA assistance. Finally, the work studies the disadvantages and perils which could create the conjuction between self-represented litigants and IA tools.
- PublicationOpen AccessDesinformación y vacunas en redes. Comportamiento de los bulos en Twitter(Historia de los Sistemas Informativos, 2023-01-02) Noguera-Vivo, José-Manuel; Grandío-Pérez, María del Mar; Villar-Rodríguez, Guillermo; Martín, Alejandro; Camacho, David; ComunicaciónIntroducción: Los bulos antivacunas son un tipo de desinformación sanitaria con gran peligro, dados sus efectos tangibles en la sociedad. Existen investigaciones relevantes sobre tipología de bulos, discursos negacionistas en redes o popularidad de las vacunas, pero este estudio aporta una visión complementaria y pionera, centrada en el discurso antivacunas de COVID-19 en Twitter desde la perspectiva del comportamiento de las cuentas que difunden desinformación. Metodología: A partir del método de FacTeR-Check, compuesto por cinco fases y una primera muestra basada en un centenar de bulos (diciembre de 2020 y septiembre de 2021) se descargaron 220.246 tuits, filtrados para trabajar con inteligencia artificial y técnicas de inferencia de lenguaje natural (NLI) sobre una segunda muestra de más de 36.000 tuits (N=36.292). Resultados: Los resultados ofrecen predominancias de algunos tipos de producción de desinformación, así como la eficacia de crear contenido original falso para agrupar seguidores o la identificación de un periodo (2013-2020) de más dominación de los usuarios que apoyan bulos, frente a los que los niegan. Discusión: El artículo muestra cómo la tipología o morfología de las cuentas puede ser un factor predictivo acerca del comportamiento de dichos usuarios respecto al caso particular de los bulos analizados. Conclusiones: Se ofrecen patrones de comportamiento del discurso antivacunas en Twitter, que pueden ayudar a gestionar futuros fenómenos similares. Dado el significativo tamaño de la muestra y de las técnicas empleadas, se puede concluir que este trabajo establece una base sólida para otros estudios comparativos sobre desinformación y salud en redes sociales.