Repository logo
  • English
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Latviešu
  • Magyar
  • Nederlands
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Log In
    New user? Click here to register.
Repository logo

Repositorio Institucional de la Universidad de Murcia

Repository logoRepository logo
  • Communities & Collections
  • All of DSpace
  • menu.section.collectors
  • menu.section.acerca
  • English
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Latviešu
  • Magyar
  • Nederlands
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Log In
    New user? Click here to register.
  1. Home
  2. Browse by Subject

Browsing by Subject "Algoritmos"

Now showing 1 - 15 of 15
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    A unified data metamodel for relational and NoSQL databases : schema extraction and query
    (Universidad de Murcia, 2022-06-30) Fernández Candel, Carlos Javier; García Molina, Jesús; Sevilla Ruiz, Diego; Escuela Internacional de Doctorado
    Objetivos. Esta tesis aborda: (i) la definición de un modelo de datos unificado con el objetivo de integrar el modelo relacional con los modelos de datos de los cuatro paradigmas más comunes de NoSQL: columnar, documento, clave-valor y grafos; (ii) La definición de mappings bidireccionales entre el modelo de datos unificado y cada uno de los modelos de datos de cada sistema de base de datos; (iii) La implementación de una estrategia común para la extracción de esquemas de diferentes tipos de bases de datos implementando los mappings definidos; (iv) El desarrollo de un proceso Model-Driven Engineering de análisis de código de aplicaciones para obtener el esquema de la base de datos y realizar un refactoring de la base de datos; (v) El diseño e implementación de un lenguaje de consultas de esquema genérico, que permite lanzar consultas sobre los esquemas representados en el modelo de datos unificado; (vi) La creación de notación gráfica para visualizar los esquemas; y (vii) la realización de un estudio para explorar el uso del modelo de datos unificado para definir un lenguaje de consulta genérico. Metodología. Para lograr los objetivos de la tesis, se ha seguido la metodología Design Science Research Methodology (DSRM). Esta metodología propone procesos de investigación iterativos organizados en varias etapas o actividades para lograr un objetivo. Las actividades que constituyen estos procesos son: (i) Identificación del problema y motivación, (ii) Definición de los objetivos de la solución, (iii) Diseño y desarrollo, (iv) Demostración, (v) Evaluación, y (vi) Conclusiones y comunicación. En un proceso DSRM el conocimiento producido en cada iteración se utiliza como retroalimentación para mejorar el diseño e implementación del artefacto. Resultados. Esta tesis aborda los principales problemas que surgen en el desarrollo de herramientas genéricas de bases de datos que integran los modelos de datos más relevantes: los modelos relacionales y NoSQL: (i) La definición de un metamodelo unificado que integre modelos de datos relacionales y NoSQL; (ii) La construcción de extractores de esquemas lógicos para cada modelo de datos. Debido a que la mayoría de los enfoques de extracción de esquemas han aplicado análisis de datos, hemos investigado el análisis estático de código como alternativa; (iii) Se ha construido una herramienta genérica de gestión de esquemas que incluye un lenguaje de consulta genérico de esquemas y un visualizador de esquemas. Al abordar estos problemas, nos hemos enfrentado a los desafíos que plantea una propuesta de esquema lógico que incluye variaciones estructurales y las relaciones más comunes entre las entidades de las bases de datos NoSQL. Contribuciones. Esta tesis contribuye con (i) El primer metamodelo lógico unificado que integra los paradigmas de base de datos más utilizados: Relacional y NoSQL. Esto implicó la definición de dos modelos de datos lógicos para sistemas NoSQL: uno para sistemas basados en agregados y otro para grafos; (ii) La especificación formal de mappings bidireccionales entre el modelo unificado y los modelos de datos individuales; (iii) La definición de una arquitectura con componentes reutilizables para crear un extractor de esquemas para cualquier sistema Relacional y NoSQL; (iv) Un enfoque Model-Driven Engineering para extracción de esquemas lógicos y refactoring a partir del análisis de código; (v) Un lenguaje de consulta genérico diseñado que permite a los desarrolladores lanzar consultas sobre los esquemas lógicos; (vi) La creación de una notación gráfica para visualizar los esquemas que incluye variaciones estructurales; (vii) Un estudio sobre la utilidad del modelo unificado para crear un lenguaje genérico para consultar datos de cualquier tipo de sistema de bases de datos; y una comparación de diferentes modelos genéricos.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Aceleración de algoritmos intervalares de ajuste automático del lazo en QFT
    (Universidad de Murcia, 2022-07-19) Martínez Forte, Isaac; Cervera López, Joaquín; Escuela Internacional de Doctorado
    En este trabajo se aborda la aceleración de algoritmos del tipo búsqueda global intervalar que tienen por objetivo la resolución, de forma automática, del problema del ajuste del lazo en QFT. Esta técnica de diseño de controladores robustos en el dominio de la frecuencia se plantea como una sucesión de etapas. En cada una de ellas se genera la información necesaria para la siguiente, culminando todo este proceso en la fase más importante, el ajuste del lazo, donde se genera el controlador. Disponer de algoritmos que puedan resolver de forma automática, sin intervención del usuario, el ajuste del lazo en QFT no es una tarea sencilla. Dado que constituye un problema de optimización no lineal y no convexo, las soluciones algorítmicas que se le pueden aplicar tienen dificultades inherentes de difícil solución. A lo largo de la historia se han planteado diferentes propuestas para dar respuesta a esta necesidad, pero hasta ahora no se ha conseguido ninguna solución satisfactoria. Dada la complejidad del proceso, se ha afrontado el problema desde diversas ópticas. Una aproximación interesante son los algoritmos de búsqueda global intervalar. Este tipo de propuestas buscan asegurar el óptimo en la solución utilizando aritmética intervalar, pero tienen la problemática de que, al ser una búsqueda global, tienen un coste computacional muy alto, y con ello, lleva a una curva exponencial del tiempo de ejecución conforme el tamaño del problema aumenta.\ Este trabajo se ha centrado en analizar con detenimiento los algoritmos de este tipo, focalizando el esfuerzo en comprender donde existen más posibilidades de mejora. Una vez concluida esta tarea, se ha trabajado en el planteamiento de alternativas que mejoren las propuestas existentes, culminando en una serie de novedosas estrategias que tienen por objetivo reducir el coste computacional y el tiempo de ejecución. Un primer grupo de estrategias tienen la finalidad de acotar el espacio de búsqueda del algoritmo, y su objetivo es detectar tanto el subrango viable como inviable de cada una de las variables del controlador, utilizando la fase y la magnitud en el plano de Nichols. De esta forma, por un lado se consigue eliminar los subrangos identificados como inviables, y por otro lado, encontrar soluciones en el subrango viable. Dentro de este mismo grupo, se plantea una estrategia que busca encontrar soluciones al problema de forma rápida, su funcionamiento es similar a las acotaciones descritas, pero tiene la capacidad de encontrar mejores soluciones, que podrán ser utilizadas para realizar podas en nodos poco prometedores. Un segundo grupo tienen un carácter más transversal. La primera de ellas contiene varias opciones para realizar la bisección del nodo. Como opción principal se propone una bisección avanzada que utiliza la información generada del nodo actual para tomar la mejor decisión posible. Complementado a ésta, se plantean tres opciones más básicas, realizar la bisección por la variable que más influye en el área, por la que más influye en la magnitud o por la que más influye en la fase, todas ellas en el plano de Nichols, según convenga en cada momento. A continuación, se plantea una segunda estrategia que está centrada en adaptar el funcionamiento del algoritmo a la situación en la que se encuentre a lo largo de su ejecución, es decir, modifica el comportamiento del resto de estrategias y las adapta a las circunstancias concretas del algoritmo en ese momento consiguiendo, de esta forma, mejorar las prestaciones de todas las estrategias desarrolladas. Para terminar, esta tesis propone un nuevo algoritmo de ajuste automático del lazo en QFT del tipo búsqueda global intervalar que engloba todas estas estrategias propuestas. Dicho algoritmo logra reducir el coste computacional de manera importante con respecto a las soluciones previas y, de esta forma, consigue una mejora en el tiempo de ejecución de dos órdenes de magnitud para controladores típicos.
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Aspectos computacionales de la resolución y obtención de modelos de ecuaciones simultáneas / José Juan López Espín ; Director, Domingo Giménez Cánovas.
    (Murcia : Universidad de Murcia, Departamento de Informática y Sistemas,, 2009) López Espín, José Juan
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Aspectos computacionales de la resolución y obtención de modelos de ecuaciones simultáneas / José Juan López Espín ; Director, Domingo Giménez Cánovas.
    (Murcia : Universidad de Murcia, Departamento de Informática y Sistemas,, 2009) López Espín, José Juan
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Autooptimización en esquemas algorítmicos paralelos iterativos / Domingo Giménez Cánovas, Francisco Almeida Rodríguez.
    (Murcia : Universidad de Murcia, Departamento de Informática y Sistemas,, 2010) Martínez Gallar, Juan Pedro
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Cerrando una brecha: una reflexión multidisciplinar sobre la discriminación algorítmica
    (Universidad de Murcia. Servicio de Publicaciones, 2023) Dellunde, Pilar; Pujol, Oriol; Vitrià, Jordi
    Este artículo aborda el concepto de discriminación algorítmica desde una perspectiva conjunta de la filosofía y la ciencia de la computación, con el propósito de establecer un marco de discusión común para avanzar en el despliegue de las inteligencias artificiales en las sociedades democráticas. Se presenta una definición no normativa de discriminación y se analiza y contextualiza el concepto de algoritmo de toma de decisiones e identificando las fuentes de discriminación, así como los conceptos detrás de su cuantificación para terminar exponiendo algunos límites y desafíos usando un enfoque intencional, enmarcándolo en el proceso.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Contribuciones a la teoría y a las aplicaciones de los algoritmos de proyección
    (Universidad de Murcia, 2018-12-10) Campoy García, Rubén; Aragón Artacho, Francisco Javier; Escuela Internacional de Doctorado
    Esta tesis contribuye a la familia de los llamados algoritmos de proyección. Estos algoritmos se utilizan para resolver problemas de factibilidad, en los que se busca obtener un punto en la intersección de una familia de conjuntos en un espacio de Hilbert. En muchas ocasiones, abordar esta intersección en sí misma resulta una tarea complicada, mientras que la proyección sobre cada uno de los conjuntos se puede calcular de forma eficiente. Los algoritmos de proyección utilizan estas proyecciones de forma iterativa, definiendo una sucesión que converge a un punto que permite resolver el problema. Dos de los algoritmos de proyección más conocidos son el método de proyecciones alternadas y el algoritmo de Douglas–Rachford. La convergencia débil de estos algoritmos hacia un punto en la intersección está garantizada cuando los conjuntos son convexos. En el caso particular de que dichos conjuntos sean subespacios afines, estos métodos no solo encuentran un punto cualquiera en la intersección, sino que dicho punto es, de hecho, el más cercano al punto inicial. El problema de encontrar el punto en la intersección más próximo a cualquier otro punto dado se conoce como el problema de mejor aproximación. Existen métodos de proyección específicos para resolver este problema. Uno de ellos es el algoritmo de Dykstra, que surge como una modificación apropiada del método de proyecciones alternadas. En esta tesis proponemos una modificación del método de Douglas–Rachford, obteniendo un nuevo algoritmo que permite resolver problemas de mejor aproximación, en lugar de simplemente problemas de factibilidad. El método de Douglas–Rachford también es conocido como el algoritmo de reflexiones alternadas ponderadas, debido a la interpretación geométrica de la iteración que define. Nuestro enfoque consiste en modificar estas reflexiones sobre los conjuntos. Por eso, llamamos al nuevo algoritmo el método de reflexiones modificadas alternadas ponderadas (abreviado AAMR, del inglés averaged alternating modified reflections method). Bajo una cualificación de restricciones en el punto de interés, probamos la convergencia fuerte del algoritmo a la proyección de dicho punto sobre la intersección de los conjuntos. Comparamos el nuevo AAMR con otros métodos de proyección en problemas de mejor aproximación definidos por subespacios lineales de dimensión finita. Cuando los parámetros que definen la iteración del AAMR son elegidos de forma óptima, la tasa obtenida resulta ser la mejor entre las tasas conocidas de otros algoritmos de proyección clásicos. También extendemos el algoritmo a un contexto más general, donde puede aplicarse a operadores en lugar de conjuntos. Esto da lugar a un nuevo método de descomposición, que permite calcular el resolvente de la suma de operadores monótonos maximales, utilizando evaluaciones individuales de los resolventes de cada operador. En los últimos años el algoritmo de Douglas–Rachford ha despertado un gran interés, debido en parte a su buen comportamiento en escenarios no convexos. A pesar de la escasez de resultados teóricos que lo justifiquen, el algoritmo ha sido empleado con éxito en una amplia lista de problemas combinatorios. En esta tesis extendemos dicha lista, incorporando el problema de coloreado de grafos y la construcción de diseños combinatorios de tipo circular. Para el primero de éstos, presentamos dos problemas de factibilidad de naturaleza distinta que reformulan el problema. Además, mostramos mediante varios experimentos numéricos el buen funcionamiento del algoritmo cuando se aplica a estas formulaciones. En el caso de los diseños combinatorios, proponemos una formulación genérica que permite modelar diferentes clases. La aplicabilidad de esta formulación se ilustra con la construcción de matrices circulares de ponderación, matrices D-óptimas y matrices de Hadamard con dos núcleos circulares. Asimismo, construimos de forma explícita dos matrices circulares de ponderación cuya existencia estaba indicada como un problema abierto.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Desarrollo, optimización y autooptimización de algoritmos paralelos para análisis cinemático de sistemas multicuerpo basado en ecuaciones de grupo
    (Universidad de Murcia, 2021-05-17) Cano Lorente, José Carlos; Cuenca Muñoz, Antonio Javier; Giménez Cánovas, Domingo; Saura Sánchez, Mariano; Escuela Internacional de Doctorado
    El modelado es la disciplina que permite analizar y simular el comportamiento de un determinado sistema mediante una representación numérica de sus propiedades. Entre sus áreas de aplicación se encuentran el estudio de sistemas naturales, climáticos, poblacionales o mecánicos. Las técnicas de modelado disponibles en la actualidad permiten abordar el estudio de sistemas cada vez más complejos que requieren del uso eficiente de sistemas computacionales para su resolución en unos tiempos aceptables dentro de los límites de las asignaciones de recursos informáticos. Por este motivo, los científicos plantean los modelos con un enfoque que permite su traducción a algoritmos susceptibles de ser ejecutados por un ordenador. Por ejemplo, en el campo de la ingeniería que estudia los sistemas multicuerpo, una formulación topológica facilita el modelado automático de dichos sistemas y permite una resolución computacional eficiente de su análisis cinemático. La información obtenida de este proceso se puede aplicar al diseño de nuevos mecanismos, y engloba aspectos tales como el análisis de la posición de los elementos que componen el sistema o el rango de desplazamiento de las piezas móviles. Dado el interés por la implementación computacional de numerosos problemas de naturaleza científica, es posible acceder a paquetes de software elaborados por diversos grupos de investigación que resuelven determinados subproblemas y que se pueden reutilizar en la resolución de problemas de mayor complejidad. Un ejemplo de estos paquetes son las librerías de álgebra lineal, muy usadas habitualmente en este tipo de problemas científicos y que son objeto de estudio continuo para su adaptación a la incesante evolución del hardware. Las plataformas de hardware actuales incorporan más de una unidad de procesamiento, bien integrando varios procesadores en sus CPUs, bien añadiendo otras unidades de arquitectura masivamente paralela, como las GPUs, para conformar nodos de computación híbridos. La existencia de este tipo de hardware paralelo motiva el interés en explotar la ejecución simultánea de cálculos, con la consiguiente reducción de los tiempos de resolución de modelos complejos. Ahora bien, una aplicación óptima de técnicas paralelas requiere de un conocimiento profundo del hardware y de las librerías de cómputo disponibles, muchas de las cuales requieren un ajuste mediante parámetros para aprovechar todo su potencial. Por este motivo, no es frecuente que investigadores en áreas científicas concretas sean a la vez expertos conocedores de los diversos paradigmas de programación paralela existentes. Esta tesis investiga un enlace entre la disciplina de la ingeniería mecánica y la computación, ofreciendo a usuarios no expertos en paralelismo un software que incorpora el estudio y optimización de algoritmos mediante una adecuada selección de librerías y su configuración. Partiendo del modelo de un sistema multicuerpo expresado en forma de grafo acíclico de los cálculos (básicamente operaciones de álgebra matricial) y sus dependencias, el software permite a un usuario ajustar los parámetros de paralelismo y librerías, y realizar simulaciones del modelo para analizar la influencia que cada configuración tiene en los tiempos de resolución. Además, una ejecución autooptimizada recomienda al usuario la manera más eficiente de paralelizar los cálculos, la librería a usar y los ajustes teóricos óptimos que se recomiendan para los parámetros algorítmicos en cada etapa de resolución del algoritmo. Por último, esta metodología se puede aplicar a otras disciplinas ajenas a la ingeniería mecánica, en concreto a aquéllas donde los problemas se pueden plantear con un enfoque similar, es decir, como agrupaciones de cálculos que incluyan operaciones matriciales realizadas en una determinada secuencia. Un ejemplo de aplicación en este sentido lo encontramos en algunas rutinas básicas de álgebra lineal, como la multiplicación de matrices.
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Diseño, implementación y optimización de algoritmos criptográficos de generación de aleatorios y factorización de enteros / Pedro María Alcover Garau ; dirigida por José Manuel García Carrasco.
    (Murcia : Universidad de Murcia, Departamento de Ingeniería y Tecnología de los Computadores,, 2003) Alcover Garau, Pedro María
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Estudio e implementación de algoritmos de visión artificial y modelos de color para la determinación de la cobertura vegetal : aplicación a cultivos hortícolas
    (2017-01-04) Hernández Hernández, José Luis; García Mateos, Ginés; Molina Martínez, José Miguel; Facultad de Informática
    En los últimos años, el procesamiento digital de imágenes y la visión artificial han demostrado ser herramientas muy potentes en el área de la agricultura. Cada vez se pueden encontrar más aplicaciones para la supervisión y gestión automática de los procesos hortícolas basadas en imágenes, cuyo objetivo es reducir los costes y aumentar la productividad de los cultivos. La visión por ordenador constituye, junto con otras disciplinas ingenieriles, la denominada agroingeniería. El objetivo principal de esta tesis es el análisis, diseño, desarrollo y validación de técnicas novedosas de análisis de imágenes y modelado de color destinadas a la estimación de la cobertura vegetal de cultivos hortícolas, con el fin último de calcular sus requerimientos hídricos. El cumplimiento de este objetivo general queda cubierto en tres grandes hitos, plasmados en las tres publicaciones que componen la unidad temática de este compendio: • En primer lugar, la realización de un análisis completo y exhaustivo de los espacios de color más habituales aplicados al problema de la segmentación suelo/planta de imágenes de la cubierta vegetal de los cultivos. En este primer hito se estudió la eficacia de los distintos mecanismos de modelado del color, usando una representación no paramétrica de las distribuciones de probabilidad con histogramas en distintas variantes de espacios de color, canales y dimensiones. • En segundo lugar, partiendo de los resultados del anterior análisis, el diseño de una técnica novedosa para el entrenamiento de los modelos de color, que incluye la selección del espacio de color óptimo y su configuración de canales y tamaño. Esta técnica puede ser aplicada en otros problemas genéricos de análisis de color, produciendo unos elevados porcentajes de acierto en la clasificación. • En tercer lugar, la creación y validación de herramientas prácticas que implementan los algoritmos previamente diseñados. Por un lado, se ha desarrollado una herramienta para PC centrada en la creación y gestión de los modelos de color a partir de una entrada parcial del usuario; y, por otro lado, se ha desarrollado una herramienta para dispositivos portátiles que permite realizar un completo análisis de imágenes sobre el terreno. Las imágenes utilizadas para los experimentos de esta investigación corresponden a cultivos de diversas variedades de campos de Cartagena y San Javier, principalmente de lechuga y colirrábano. Se tomaron series de fotos monitorizando el crecimiento de las plantas de varias parcelas diferentes a intervalos de 4 a 7 días, durante varios ciclos de cultivo en diversos años. Las imágenes fueron tomadas con cámaras digitales compactas a alta resolución. Después fueron recortadas respecto a un patrón rectangular, situado físicamente en el suelo, con el fin de garantizar la uniformidad de la zona bajo estudio. Las imágenes fueron segmentadas por un experto en forma supervisada, con un software comercial de análisis de imágenes. Los resultados de dicho proceso fueron tomados como la base para el entrenamiento y prueba de los algoritmos automáticos de procesamiento y modelado de color desarrollados. Para el análisis de las imágenes, se consideraron los espacios de color más utilizados en visión artificial. El método desarrollado calcula para cada color concreto de un píxel las probabilidades de pertenencia a las clases objetivo, planta (cobertura vegetal) o suelo (fondo). Esto se consigue mediante una estimación no paramétrica de las funciones de densidad de probabilidad, modeladas con histogramas normalizados en el espacio y canales de color óptimos para cada escenario. Como conclusión, se ha desarrollado un conjunto de técnicas y herramientas que permiten obtener de forma muy precisa y eficiente el porcentaje de cobertura vegetal de las imágenes. Este parámetro está relacionado con otras variables fundamentales en agronomía como la altura de las plantas, el coeficiente de cultivo y la profundidad de las raíces, que a su vez están relacionadas con la evapotranspiración de las plantas. Así que, en última instancia, esto nos acerca a la meta final de calcular las necesidades hídricas de los cultivos a través de las imágenes. Abstract In recent years, digital image processing and computer vision fields have proven to be very powerful tools in the agricultural domain. Each day, new applications can be found for crop monitoring and automatic management of horticultural processes based on images, which aim to reduce costs and increase crop productivity. Computer vision constitutes, along with other engineering disciplines, the so called agro-engineering field. The main objective of this thesis is the analysis, design, development and validation of new image analysis and color modelling techniques for the estimation of the vegetation cover in horticultural images, with the ultimate aim of calculating their water requirements. The achievement of this objective is accomplished through three major milestones, embodied in the three publications that make up the thematic unity of this compendium: • First, the performance of a complete and comprehensive analysis of the most common color spaces applied to the problem of plant/soil segmentation of crop images. In this first milestone, the effectiveness and accuracy of different alternatives for color modeling was studied, using a non-parametric representation of color distributions with histograms in different color spaces, channels and dimensions. • Secondly, based on the results of the previous analysis, the design of a novel technique for automating training of color models, which includes the selection of the optimum color space, channels configuration and size. This technique can be applied to other generic problems of color analysis, yielding a high accuracy in color classification. • In third place, the development and validation of practical tools that implement the algorithms previously designed. On the one hand, a tool for PCs has been developed focused on creating and managing color models from a partial user input; and, on the other hand, an app for portable devices has been created that allows to perform a complete analysis of crop images on the field. The images used in the experimental validation correspond to horticultural crops of different varieties in fields of Cartagena and San Javier, Spain, mainly of lettuce and Kohlrabi. Many series of photos were taken to monitor the growth of plants in different plots at intervals of 4 and 7 days, during several cropping cycles in diverse years. These images were acquired with compact digital cameras at high resolution. Then they were trimmed with respect to a rectangular pattern, physically located on the ground, in order to ensure uniformity of the area under study. All images were segmented by a human expert, with commercial image analysis software in a supervised way. The results of this process were taken as the basis for training and testing of the developed algorithms for automatic classification and modeling of color. For image processing, the most frequent color spaces used in computer vision were considered. The proposed approach computes for each given pixel value the probabilities of belonging to the target classes, plant (vegetation cover) or soil (background). This is accomplished through a nonparametric estimate of the probability density function of colors, which are modeled using normalized histograms in the optimum color space and channels for each scenario. In conclusion, a set of techniques and tools have been developed that allow obtaining in a very accurate and efficient way the percentage of green cover of crop images. This parameter has been related with other important variables in agronomy such as the height of the plants, the crop coefficient and the depth of the roots, which in turn are linked to plant evapotranspiration. Therefore, the proposed techniques bring us closer to the ultimate goal of calculating the water needs of crops through the images.
  • Loading...
    Thumbnail Image
    Publication
    Metadata only
    Un guía inteligente para entornos visuales con consultas difusas y tratamiento flexible de historias / Jesús Ibáñez Martínez ; dirección Antonio Fernando Gómez Skarmeta, Josep Blat Gimeno.
    (Murcia : Universidad de Murcia, Departamento de Ingeniería de la Información y las Comunicaciones,, 2004) Ibañez Martínez, Jesús
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Modelado y autooptimización de metaheurísticas e hiperheurísticas parametrizadas paralelas aplicadas a problemas de optimización en ciencias e ingeniería
    (2014-10-08) Cutillas Lozano, José Matías; Giménez Cánovas, Domingo; Facultad de Informática
    En este trabajo se estudia la aplicación de esquemas parametrizados paralelos de metaheurísticas e hiperheurísticas a problemas de optimización en ciencias e ingeniería. Un objetivo a conseguir es la aplicación eficiente de estos métodos, por lo que es necesario el uso de modelos que permitan su autooptimización durante la ejecución a través de la selección adecuada de parámetros característicos del sistema computacional y del paradigma de paralelismo empleado. La utilización de un esquema parametrizado de metaheurísticas permite aplicar fácilmente diferentes metaheurísticas a problemas de optimización, simplemente modificando algunos parámetros metaheurísticos. Además, puesto que muchos de estos problemas tienen una elevada carga computacional se hace indispensable la introducción de paralelismo en el esquema. Así, se consideran dos paradigmas que pueden ser complementarios: paralelismo local de memoria compartida y paralelismo global de paso de mensajes. El uso de algoritmos paralelos persigue un objetivo claro: la reducción del tiempo de ejecución, suponiendo un enfoque diferente para la resolución de los problemas de optimización. Debido a que obtener una buena metaheurística para un problema de optimización concreto puede ser un proceso costoso, se aporta también como novedad el desarrollo de hiperheurísticas basadas en esquemas metaheurísticos parametrizados, entendidas como algoritmos de más alto nivel cuya finalidad es la selección automática de la mejor metaheurística para un problema o conjunto de problemas dados. Como la estructura de las hiperheurísticas se basa en el esquema parametrizado de metaheurísticas, se puede considerar en este caso la misma metodología de modelado y autooptimización, pero a un nivel superior de abstracción. La aplicación de las hiperheurísticas basadas en un esquema metaheurístico paralelo con un modelo teórico del tiempo de ejecución permite una selección automática de los parámetros de paralelismo óptimos, dando como resultado algoritmos eficientes tanto en calidad de los resultados como en rapidez en alcanzarlos. PALABRAS CLAVE: minimización de coste eléctrico, optimización de constantantes cinéticas, autooptimización, esquemas metaheurísticos parametrizados, hiperheurísticas, modelado de esquemas metaheurísticos paralelos, esquemas metaheurísticos en memoria compartida, esquemas metaheurísticos de paso de mensajes, computación heterogénea. TÉRMINOS TESAURO: 120300 CIENCIA DE LOS ORDENADORES CLASIFICACIÓN UNESCO: 120300 CIENCIA DE LOS ORDENADORES ABSTRACT In this work the application of parallel parameterized schemes of metaheuristics and hyperheuristics to optimization problems in science and engineering is studied. One goal is the efficient application of these methods, so it is necessary to use models that allow method auto-tuning during the execution through the proper selection of the characteristic parameters of parallelism and of the computer system used. The use of a parameterized metaheuristic scheme allows the easy application of different metaheuristics to optimization problems, simply by modifying some metaheuristic parameters. Furthermore, since many of these problems have a high computational cost, the introduction of parallelism in the scheme is indispensable. Thus, we consider two complementary paradigms: local shared-memory parallelism and global message-passing parallelism. The use of parallel algorithms pursues a clear objective: to reduce the execution time by assuming a different approach for solving the optimization problems. Because getting a good metaheuristic for a specific optimization problem can be a costly process, the development of hyperheuristics based on parameterized metaheuristic schemes is an advance. A hyperheuristic can be understood as an algorithm of higher level whose purpose is the automatic selection of the best metaheuristic for a given problem or set of problems. As the hyperheuristic structure is based on the parameterized metaheuristic scheme, the same modeling and auto-tuning methodology can be considered in this case, but at a higher level of abstraction. Applying the hyperheuristics based on a parallel metaheuristic scheme with a theoretical model of the execution time allows automatic selection of optimal parallelism parameters, resulting in an efficient algorithm both in quality of the results and in speed of achieving them. KEYWORDS: electrical cost minimization, kinetic constants optimization, auto-tuning, parameterized metaheuristic schemes, hyperheuristics, parallel metaheuristic schemes modelling, shared-memory metaheuristic schemes, message-passing metaheuristic schemes, heterogeneous computing.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    La presunción de laboralidad y la gestión algorítmica en la Directiva 2024/2831 relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales.
    (Colex, 2024) Fernández García, Antonio; Universitat Oberta de Catalunya
    Este artículo analiza la nueva Directiva 2024/2831 relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales, especialmente en materia de presunción de laboralidad y gestión algorítmica. Para ello, se analiza previamente la situación de las plataformas digitales en España y se expresan conclusiones sobre la futura efectividad de la Directiva.
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Resolución de un nuevo modelo biobjetivo para la localización de un centro semi-repulsivo mediante algoritmos evolutivos
    (2015-09-24) Antón Sánchez, Laura; Fernández Hernández, José; Estadística e Investigación Operativa; Matemáticas
  • Loading...
    Thumbnail Image
    Publication
    Open Access
    Retórica e inteligencia artificial: homo rhetoricus en tiempos de algoritmos.
    (Universidad de Murcia, Servicio de Publicaciones, 2022) Li, Cheng
    El presente estudio tiene como objetivo analizar brevemente el impacto de la inteligencia artificial en la actualidad y el futuro de la retórica. La comunicación humana tiene una retoricidad inherente y la retórica está estrechamente vinculada con nuestra forma de pensar, actuar y colaborar, por lo que nos definimos como homo rhetoricus. El desarrollo exponencial de la inteligencia artificial está cambiando profundamente la comunicación retórica en todos sus factores constituyentes, destacando sobre todo la hegemonía de las plataformas digitales que funcionan con algoritmos entrenados por el aprendizaje automático. Los avances tecnológicos proyectan distintas visiones del futuro. Junto con los enormes beneficios que se prometen, se presentan serios retos para la supervivencia de la retórica, tanto por la manipulación totalitaria de grupos humanos en posesión de una superinteligencia, como por la pérdida de superioridad cognitiva y de autoridad en toma de decisión de los seres humanos a favor de la inteligencia artificial. Para defender la centralidad del homo rhetoricus en tiempos de algoritmos, se requiere precisamente un debate amplio, decisivo e inteligente.

DSpace software copyright © 2002-2025 LYRASIS

  • Cookie settings
  • Accessibility
  • Send Feedback