25 febrero, 2021
9:00a18:00
4 marzo, 2021
9:00a14:00

Los próximos 25 de febrero y 4 de marzo de 2021 tendrá lugar la II Jornada Científica EOMA, en el cuál todos los alumnos de segundo año tendrán que exponer una charla de 30 minutos sobre la investigación que están realizando, 20 minutos los cuales serán de exposición y 10 minutos para preguntas. A continuación se muestra el programa y los ponentes.

Para lo cual deben enviar un título, autores y el abstract, antes del 15 de febrero de 2021 para con ello poder realizar un horario de cada una de las charlas.

Formulario

Lugar: Online. Facilitado vía email.

Jueves 25 de febrero de 2021

9:00 horas – Presentación 1

Autores: Nuria Mollá-Campello, Alejandro Rabasa, Jesús Javier Rodríguez-Sala, Joaquín Sanchez-Soriano, Antonio Ferrándiz

Título: Algoritmo generador de reglas de clasificación dinámicas para contextos data stream.

Resumen: La llegada constante de datos a un sistema de información complica la toma de decisiones si se trata de entornos cambiantes. El algoritmo planteado en esta tesis utiliza un motor de inferencia adaptativo para compensar estos cambios en los datos de entrada y generar reglas de clasificación con el menor error posible. De esta forma, el algoritmo, a partir de un modelo inicial de reglas o rule set, va evaluando y actualizando el conjunto de reglas que servirán como base de conocimiento para un sistema de apoyo a la decisión.

9:30 horas – Presentación 2

Autores: Miriam Esteve, Juan Aparicio y Jesús J. Rodríguez-Sala

Título: Estimación de las fronteras de producción a través de “random forest”: el tratamiento de la falta de robustez, la determinación de la importancia de las variables y la maldición de la dimensionalidad

Resumen: La medición de la eficiencia técnica de las empresas es un tema de gran interés en la ingeniería de producción y en la microeconomía. Existen métodos para estimar las fronteras de producción a través de perspectivas paramétricas y no paramétricas. Sin embargo, pocos han intentado abordar este problema desde la perspectiva del aprendizaje automático. El objetivo de esta investigación es llenar este vacío adaptando Random Forest (Breiman, 2001) para estimar las fronteras de producción y la eficiencia técnica. Para ello, la adaptación se basa en la técnica denominada Efficiency Analysis Trees (Esteve et al., 2020), que estima conjuntos de posibilidades de producción satisfaciendo el axioma de libre disponibilidad en microeconomía y evitando el sobreajuste del modelo. Las principales aportaciones del desarrollo del nuevo enfoque son tres: 1) las estimaciones derivadas de la eficiencia técnica son robustas al remuestreo de datos y variables de entrada (inputs); 2) se sugiere un método para determinar la importancia de las variables de entrada en el modelo, que permite establecer un listado ordenado de las mismas; y 3) si la relación entre el tamaño de la muestra y el número de variables (entradas y salidas) es baja o moderadamente baja, los modelos de eficiencia estándar pueden discriminar mal las unidades técnicamente eficientes. Este problema, denominado «maldición de la dimensionalidad», puede resolverse en cierta medida con el nuevo enfoque, tal y como mostramos en esta investigación.

10:00 horas – Presentación 3

Autores: Daniel Valero-Carreras, Juan Aparicio, Nadia M. Guerrero

Título: Estimación de fronteras de producción con máquinas de soporte vectorial

Resumen: En microeconomía, una frontera de producción es una función no decreciente que envuelve superiormente a los datos de todas las observaciones en el espacio de las variables de entrada y salida, capturando comportamientos extremos de los datos. En aprendizaje automático, existen técnicas de regresión como las Máquinas de Soporte Vectorial de Regresión (SVR, Support Vector Regression en inglés), donde la función a estimar relaciona la variable respuesta numérica con las variables de entrada en términos de media en lugar de máximos. Además, en esta técnica, la función intenta ajustar los datos lo mejor posible, determinando una función guiada por los datos. En este trabajo, adaptamos SVR con el objetivo de crear una nueva técnica capaz de estimar funciones de producción llamada Support Vector Frontier (SVF). Para ello, y buscando puntos de conexión entre SVR y las técnicas estándar no paramétricas de estimación de fronteras de producción, principalmente Free Disposal Hull (FDH) y Análisis Envolvente de Datos (DEA, Data Envelopment Analysis en inglés), definimos una función de transformación de entrada específica. Con SVF se ha conseguido superar los problemas de sobreajuste a los datos de FDH y DEA y además se ha verificado que estas técnicas se pueden reinterpretar como un caso de SVF. Finalmente, demostramos mediante experiencias simuladas como el rendimiento de esta nueva técnica mejora considerablemente el rendimiento de FDH y DEA reduciendo el error cuadrático medio y el sesgo asociado a la estimación de la frontera real de producción.

10:30 horas – Presentación 4

Autores: Silvia Márquez Megías, Amelia Ramón-López, Patricio Más Serrano, Ricardo Nalda-Molina

Título: Validación de la capacidad predictiva de modelos farmacocinéticos de adalimumab en pacientes con enfermedad inflamatoria intestinal.

Resumen: Adalimumab es uno de los Anticuerpos Monoclonales (AbM) más utilizados y con más experiencia de los que se dispone en el Hospital General Universitario de Alicante para pacientes diagnosticados de Enfermedad Inflamatoria Intestinal (EII) en casos de moderados a graves. Actualmente, la dosificación se realiza según criterios clínicos a todos los pacientes por igual. Sin embargo, dada la alta variabilidad de los pacientes, sería necesario realizar un control farmacocinético periódico para obtener dosis individualizadas, ya que las concentraciones plasmáticas pueden ser muy diferentes en pacientes tratados con la misma dosis. Esta individualización se realiza a partir de modelos farmacocinéticos poblacionales (modelos fármaco-estadísticos) utilizando aproximaciones bayesianas. En la literatura se puede encontrar más de un modelo farmacocinético para un mismo fármaco, sin embargo, estos difieren sustancialmente entre ellos y predicen perfiles de concentraciones distintas para cada paciente, ya que pueden utilizar parámetros diferentes o estar diseñados en poblaciones diferentes. El objetivo principal de este trabajo es demostrar la utilidad de estos modelos fármaco-estadísticos para individualizar la dosis de adalimumab en la práctica clínica. Para ello, se han utilizado aproximaciones bayesianas y simulaciones de distintos escenarios con distintas dosificaciones y se ha calculado la exactitud y la precisión en cada uno de ellos. Se trata de un estudio observacional retrospectivo, en el que se incluyeron pacientes con EII tratados con adalimumab, con al menos dos concentraciones plasmáticas (CP) entre 2014 y 2020. Los modelos fueron implementados en los programas informáticos NONMEM y R. En el estudio se han incluido 134 pacientes, y se han encontrado 6 modelos farmacocinéticos, donde el modelo 2 ha obtenido los mejores resultados de exactitud y precisión en los escenarios establecidos.

11:00 horas

DESCANSO

11:30 horas – Presentación 5

Autores: Rocío Hernández Sanjaime, Martín González, José Juan López Espín.

Título: Estimation of multilevel simultaneous equation models through genetic algorithms

Resumen: Problems in estimating simultaneous equation models when error terms are not intertemporally uncorrelated has motivated the introduction of a new multivariate model referred to as Multilevel Simultaneous Equation Model (MSEM). The maximum likelihood estimation of the parameters of an MSEM has been set forth. Because of the difficulties associated with the solution of the system of likelihood equations, the maximum likelihood estimator cannot be obtained through exhaustive search procedures. A hybrid metaheuristic that combines a genetic algorithm and an optimization method has been developed to overcome both technical and analytical limitations. The behaviour of the hybrid metaheuristic has been discussed by varying different tuning parameters.  A simulation study has been included to evaluate the adequacy of this estimator when error terms are not serially independent. Finally, the performance of this estimation approach has been compared with regard to other alternatives.

12:00 horas – Presentación 6

Autores: Jorge Borrell, Carlos Perez-Vidal, Jose Vicente Segura, and Juan José Pérez-Hernández

Título: Robotic pick-and-place time optimization: application to footwear production

Resumen: The paper considers a problem of optimizing the task sequences carried out by a dual-arm manipulator robot in a footwear production setting. The robot has to identify the pieces of a shoe put in a tray and pick-and-place them in a shoe mould for further processing. The shoe pieces arrive on a tray in random positions (patterns) and can be picked up in different order. In such a setting, a decision tree model is developed to recognize the pattern and predict the optimal sequence for picking the pieces up, thus, the picking and decision-making time is minimized. Two shoe models are considered for training and validating the model and the developed model is applied in the real setting as well. There are not many studies which use the decision trees in sequencing and scheduling problems. The findings of the paper show that the decision tree method could be beneficial in making decisions in a complex environment consisting of multiple trajectories and possible collisions of robot arms.

12:30 horas – Presentación 7

Autores: Adrián Hernández y José M. Amigó

Título: Integrating neuroscience and deep learning with new differentiable graph structures

Resumen: Neuroscience and machine learning are two interrelated fields with obvious synergies. In neuroscience, significant advances have been made in the study of the connectome via network science and graph theory using fast synaptic transmission networks. On the other hand,  the combination of deep neural networks with an increase in computing capabilities has improved machine intelligence. We propose that the combination of classic neural networks with new graph structures in an end-to-end differentiable model allows adding new capabilities such as attention and reasoning. These new graph structures better integrate and relate information in deep learning models and, furthermore, they are an appropriate framework to explain neural processing in which different synaptic and neurochemical layers interact.

DESCANSO

16:00 horas – Presentación 8

Autores: Belén Pérez Sánchez, Martín Espinosa, Mari Carmen Perea y José Juan López Espín.

Título: Análisis de la variabilidad de los datos para la estimación de MES

Resumen: Estudio de la bondad de diversos métodos de estimación según la variabilidad de las variables endógenas y exógenas de un modelo de ecuaciones simultáneas. Realizado el estudio para la selección del mejor método de estimación en función del número de variables y el tamaño de la muestra, se quiere observar si el criterio se mantiene constante o por el contrario presenta algún patrón según la variabilidad introducida en el modelo generado.

16:30 horas – Presentación 9 

Autores: Félix Ramón Castejón Mateos, Antonio Casáñez Ventura, Antonio Gil Ventura y Francisco Javier Gimeno Blanes

Título: Desarrollo de un sistema de análisis de la influencia de las opiniones en las redes sociales sobre la cotización bursátil de las empresas del IBEX 35. Análisis mediante métodos de machine learning y redes neuronales.

Resumen: Las redes sociales y en especial particular, la red Twitter, ha devenido en una más que relevante herramienta de comunicación que ofrece adicionalmente a los medios tradicionales, soporte electrónico accesible para su análisis. Ello ha llevado a un gran número de autores a proponer y valorar su potencial en diversos ámbitos. Por otro lado, parece existir consenso en el relevante papel que esta red juega en la generación influencia sobre la conciencia y conocimiento social. Pudiendo incluso influir agentes externos a los tradicionales stakeholders Hipótesis. En esta dirección, el autor de este trabajo se propone analizar, y en su caso validar, la existencia de una relación intrínseca de la evolución de corto plazo de la cotización de las empresas del IBEX35 (intradía o varios días), y el consolidado de las opiniones vertidas en las redes sociales. Complementariamente y como segunda hipótesis se propone analizar, y en su caso validar, la eventual relación entre la actividad en el ámbito de la responsabilidad social y la cotización de largo plazo (valores medios anuales). Base de Datos. La base de datos utilizada será triple. Por un lado, incorporará la información de las cotizaciones bursátiles tanto instantáneas como consolidadas, diarias, semanales, mensuales y anuales. En segundo lugar, incorporará los Tweets y toda la información de análisis derivada de las entidades analizadas. Junto a dos opinantes de reputada actividad las cuentas de Ramón Forcada y Eduardo Faus. Y para finalizar la información derivada de los informes publicados relativos a la actividad desempeñada por las empresas en el ámbito de la Responsabilidad Social, como son los anuarios del Observatorio de la Responsabilidad Social Corporativa. Metodologías. Para su análisis y validación se propone el uso de métodos de aprendizaje estadístico y en particular de aprendizaje supervisado, como Support Vector Machines y Redes Neuronales. En su caso se valorarán otras técnicas que atendiendo a la literatura publicada pudieran aportar criterio de análisis válido, entre otros, los arboles de decisión, y técnicas estadísticas del tipo ANOVA. Para ello se harán uso de diccionarios específicos, desarrollados al efecto, junto con el análisis semántico requerido de las publicaciones de usuarios, empresas y prescriptores para su análisis automatizado. Resultados y Conclusiones. En sintonía con los estudios previos de otros autores, los resultados deberán ofrecer una nueva herramienta de utilidad a  la hora de predecir, analizar y valorar la evolución de la cotización, y permitir en su caso la correspondiente actuación por parte de los distintos departamentos de comunicación de las empresas para una más ajustada, de menor variabilidad y de mejor sesgo frente a las actuación no justificadas en la cotización que pueden llevar a situaciones de riesgo no motivado para accionistas y sociedades. A su vez nuestro análisis de la influencia de Twitter sobre las acciones de RSC de la empresa, nos pueden resultar interesantes si las comparamos con los informes anuales del observatorio de la Responsabilidad Social corporativa.

17:00 horas – Presentación 10

Autores: Antonio Casañez Ventura, Félix Ramón Castejón Mateos, Francisco Javier Gimeno Blanes, Antonio Gil Izquierdo

Título: Uso de redes sociales para la gestión de emergencia. Caso de estudio de Incendio Forestal en Robledo de Chavela, Madrid

Resumen: Durante los últimos años el análisis de sentimientos en redes sociales se ha consolidado como una herramienta de gestión eficaz en la gestión de crisis reputacionales, pero generalmente se ha utilizado un análisis estadístico simple de las puntuaciones de sentimiento. Recientemente se han publicado varios artículos en los que se estima que los eventos que se analiza la sentimentalidad exhiben propiedades estadísticas y temporales cuyo análisis puede dar lugar a obtención de información relevante más allá del simple dato de sentimiento generado. Tomaremos como caso de estudio el análisis de la dinámica de datos de un evento crítico como es una emergencia, el incendio forestal en Robledo de Chavela, en la Comunidad de Madrid. Este incendio se desarrolló entre el 2 y el 9 de agosto de 2020, dejando más de 1000 hectáreas de terreno calcinada. Fue muy mediático, y generó más de 11.000 mensajes en la red social Twitter. En este caso, identificamos 22 grandes cuentas de más de 100.000 seguidores y más de 2200 mensajes enviados, habiendo generados 11.000 interacciones. Todos estos mensajes se han compilado gracias a una aplicación desarrollada en Python que extrae datos desde la API de Twitter, analiza los sentimientos con varios diccionarios y otros parámetros estadísticos como el histograma, autocorrelación temporal, entropía de Shannon e información mutua. Encontramos que la propia dinámica de la emergencia condiciona mucho la producción de tweets, teniendo periodos pico de alta intensidad de mensajes y de emocionalidad y periodos valle que se transmiten reflexiones sobre la evolución del incidente. También hemos podido comprobar que el uso de diccionarios estándar en español no da resultados ajustados al tratar elementos técnicos que puede llegar a transmitir ambigüedad en el mensaje. Creemos que se podrá solventar generando diccionarios personalizados. La gran cantidad de retweets que se generan pueden distorsionar el análisis de emocionalidad, por lo que requiere un tratamiento específico, si bien el volumen generado nos puede dar información muy exacta del nivel de emocionalidad y atención que está despertando el incidente, así como de las personas que más están contribuyendo. Por último, este tipo de eventos críticos pueden generar muchas noticias falsas que distorsionan la percepción general del mismo e inducen un estado general de negatividad. Se discutirán pautas para detectar las noticias falsas en este tipo de emergencias.

17:30 horas – Presentación 11

Autores: Rick k Acosta-Vega, Encarnación Algaba, Joaquín Sánchez-Soriano.

Título: Problemas de bancarrota con múltiples estados y demandas cruzadas.

Resumen: En este artículo, se introduce un modelo novedoso de problemas de bancarrota de múltiples estados inspirado en un problema real de reducción de emisiones de diferentes familias de contaminantes en los cuales los contaminantes pueden pertenecer a más de una familia. En este modelo, varios bienes, perfectamente divisibles (estados) debe asignarse entre cierto conjunto de agentes (reclamantes) que tienen exactamente un reclamo que se utiliza en todos los estados simultáneamente. En otras palabras, a diferencia de los problemas de bancarrota de múltiples estados ya existentes en la literatura, este modelo estudia situaciones con estados multidimensionales, uno para cada estado y dónde cada agente reclama lo mismo a los diferentes estados en los que participa. En este contexto, se presenta una regla de asignación que generaliza la regla de premios iguales restringidos conocidos (CEA) de un procedimiento derivado de la regla CEA para problemas de bancarrota clásica como la solución una sucesión de problemas de programación lineal. A continuación, se realiza un estudio de sus principales propiedades, y la caracterización utilizando la conocida propiedad de consistencia.

Jueves 04 de marzo de 2021

9:00 horas – Presentación 1

Autores: Rubén Caballero Toro, José Valero Cuadra

Título: Sobre la caracterización y robustez de los atractores de sistemas dinámicos multivaluados

Resumen: El primer objetivo de la tesis se centra en el estudio de la robustez de la estructura de Morse en el caso multivaluado. Este resultado se ha aplicado a una ecuación de reacción-difusión escalar sin unicidad de soluciones. El segundo objetivo se centra en el estudio de la estructura del atractor para la citada ecuación de reacción-difusión cuando se introduce un término no local. Se han obtenido resultados de existencia y unicidad de soluciones bajo ciertas condiciones. Se distinguen varios casos, en función del espacio en el que se toma la condición inicial. El objetivo es caracterizar el atractor en cada caso en términos de las variedades estables e inestables de los puntos de equilibrio. Para ello, hemos obtenido resultados de existencia de atractores y función de Lyapunov. Por último y en lo referente al tercer objetivo, hemos obtenido resultados sobre las propiedades de los puntos de equilibrio, analizado la estabilidad de los mismos y establecido qué conexiones existen entre ellos.

9:30 horas – Presentación 2 

Autores: A. Moya Martínez, Mercedes Landete, Juan Francisco Monge

Título: Close-enough facility location

Resumen: Hoy en día, la logística de muchas empresas pasa por la modelización de diversas situaciones para la reducción de los costes de estas. En especial, el envió y recogida de paquetes es una de las situaciones más comunes en estos tiempos. En nuestro trabajo, proponemos modelizar el problema de la p-mediana, donde además de decidir la localización de las p plantas de servicio debemos decidir la localización de t  puntos  de  distribución, debiendo estar estos puntos de distribución suficientemente cerca de los clientes. Se presentan dos formulaciones de programación lineal entera-mixta para el problema (p,t) Close-Enough Facility Location Problem.  Se proponen para su resolución un método exacto mediante la adición de desigualdades válidas y un algoritmo heurístico Brach and Price.

10:00 horas – Presentación 3

Autores: Teresa Estañ, Natividad Llorca, Ricardo Martínez, Joaquín Sánchez-Soriano

Título: Manipulability in the cost allocation of transport systems

Resumen: In this work we study the allocation of the maintenance cost of a tram line that passes through several cities. Each city may have one or several stations. Information regarding the flow of passengers between any pair of stations is available. We focus particularly on the distribution of the fixed part of the cost (the executive staff salaries, repair facilities, or fixed taxes). As our main finding, we ascertain that the cost should be allocated proportionally to the number of stations, provided that we require some conditions on fairness and nonmanipulability. 

10:30 horas – Presentación 4

Autores: Francisco López-Navarrete, Joaquín Sánchez-Soriano y Oscar Martínez Bonastre.

Título: Dynamic generation and allocation of revenues in a video website system

Resumen: Dado el gran crecimiento en la última década del consumo audiovisual utilizando la Internet como plataforma soporte, a lo largo de esta tesis doctoral, queremos y creemos oportuno buscar a través de la Teoría de Juegos, un método estable de repartir los ingresos del pago por visión, u otros ingresos como podrán ser los asociados a la publicidad, entre los diferentes agentes y generadores de contenidos. Esta ha sido la motivación general a lo largo del estudio realizado y nuestra primera publicación, donde hemos encontrado, a través de la Teoría de Juegos, mecanismos y equilibrios de reparto bajo un esquema económico simplificado de un juego cooperativo resuelto mediante reglas simples y razonables que modelan el negocio de consumo de contenidos y papel de los diferentes agentes que intervienen. Una vez logrado modelizar el rol de cada uno de los agentes y conseguir encontrar patrones y diferentes equilibrios dentro del núcleo del juego cooperativo que modelizamos, como repartos basados en valores conocidos como el valor de Shapley, el valor de Tijs, u otros, consideramos necesario evaluar este sistema desde el punto de vista de un sistema dinámico, es decir, un sistema que puede cambiar a lo largo del tiempo, sus coeficientes de reparto, el núcleo del juego y la gran coalición entre la que se reparten los ingresos. En particular, en este modelo dinámico que presentamos, evaluamos el cambio del reparto de los ingresos a lo largo del tiempo de forma discreta, es decir, serán las transiciones y el consumo de un contenido la causa que generará el ingreso, independientemente del tiempo que trascurra en su consumo. De esta forma, una vez que es visionado un contenido, el ingreso total generado será repartido entre los agentes que han facilitado su consumo. Es precisamente este modelo que presentamos el que dé lugar a nuestro segundo artículo elaborado en la tesis.

11:00 horas

DESCANSO

11:30 horas – Presentación 5

Autores: Y. Orenes, A. Rabasa, J.J. Rodríguez-Sala, J. Sánchez-Soriano.

Título: Método de Selección de Características basado en el Valor de Shapley

Resumen: El valor de Shapley es posiblemente el concepto central en la teoría de juegos cooperativos. Especifica una forma única en que la recompensa de la cooperación se puede dividir justamente entre los jugadores. Tiene una amplia gama de aplicaciones, aunque su uso está en muchos casos obstaculizados por la dureza de su cálculo. Un gran número de investigadores ha abordado este problema bien centrándose en clases de juegos donde el valor de Shapley se puede calcular de manera eficiente, proponiendo representaciones que faciliten su cálculo, o también aproximando el valor de Shapley en ciertas clases de juegos. En este trabajo realizamos un análisis de la selección de características. Para dicha selección utilizamos el valor de Shapley. Estamos desarrollando un método que está basado en la teoría del muestreo y que se puede utilizar para estimar el valor de Shapley. En esta investigación pretendemos realizar un muestreo que obtenga para cada ítem de la muestra, las matrices de confusión que nos sirven para ver la precisión alcanzada con una combinación de las variables antecedentes. En la presentación de este trabajo nos centraremos en el Estado del Arte o revisión de la literatura que hemos realizado y el diseño de nuestro experimento computacional.

12:15 horas – Presentación 6

Autores: Santi García-Cremades, Juan Morales-García, Rocío Hernández-Sanjaime, José Juan López-Espín, José M. Cecilia

Título: Enhancing the prediction of COVID-19 evolution

Resumen: We are witnessing the dramatic consequences of the COVID-19 pandemic which, unfortunately, go beyond the impact on the health system. Until herd immunity is achieved with vaccines, the only available mechanisms for controlling the pandemic are quarantines, perimeter closures and social distancing with the aim of reducing mobility. Governments only apply these measures for a reduced period of time, since they involve the closure of economic activities such as tourism, cultural activities or nightlife. The main criterion for establishing these measures and planning socioeconomic subsidies is the evolution of infections. Early warning systems in all countries monitor the COVID-19 pandemic evolution. However, the collapse of the health system and the unpredictability of human behaviour, among others, make it difficult to predict this evolution in the short to medium term. This article evaluates different models for the early prediction of the evolution of the COVID-19 pandemic in order to create a decision support system for policy-makers. We consider a wide branch of models including artificial neural networks such as LSTM and GRU and statistically-based models such as autoregressive (AR) or ARIMA. Moreover, several consensus strategies to ensemble all models into one system are proposed to obtain better results in this uncertain environment. Our results reveal that the ensemble of different models improves the overall accuracy of the prediction, reaching up to 0.93 R^2, 4.16 RMSE and 3.55 MAE when there is not trend changes in the time-series. Mobility data provided by Google mobility data is also considered as exogenous information for our ensamble model to forecast trend changes, providing a good framework for a complete inference.