Mostra el registre parcial de l'element
dc.contributor.advisor | Lozano Ibáñez, Miguel | |
dc.contributor.advisor | Fernández Rebollo, Fernando | |
dc.contributor.author | Martinez Gil, Francisco Antonio | |
dc.contributor.other | Departament d'Informàtica | es_ES |
dc.date.accessioned | 2014-10-28T07:32:30Z | |
dc.date.available | 2014-10-29T07:10:03Z | |
dc.date.issued | 2014 | |
dc.date.submitted | 24-10-2014 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10550/39399 | |
dc.description.abstract | El objetivo de la tesis consiste en la utilización de Aprendizaje por refuerzo (Reinforcement Learning) para generar simulaciones plausibles de peatones en diferentes entornos. Metodología Se ha desarrollado un marco de trabajo multi-agente donde cada agente virtual que aprende un comportamiento de navegación por interacción con el mundo virtual en el que se encuentra junto con el resto de agentes. El mundo virtual es simulado con un motor físico (ODE) que está calibrado con parámetros de peatones humanos extraídos de la bibliografía de la materia. El marco de trabajo es flexible y permite utilizar diferentes algoritmos de aprendizaje (en concreto Q-Learning y Sarsa(lambda) en combinación con diferentes técnicas de generalización del espacio de estados (en concreto cuantización Vectorial y tile coding). Como herramientas de análisis de los comportamientos aprendidos se utilizan diagramas fundamentales (relación velocidad/densidad), mapas de densidad, cronogramas y rendimientos (en términos del porcentaje de agentes que consiguen llegar al objetivo). Conclusiones: Tras una batería de experimentos en diferentes escenarios (un total de 6 escenarios distintos) y los correspondientes analisis de resultados, las conclusiones son las siguientes: - Se han conseguido comportamientos plausibles de peatones -Los comportamientos son robustos al escalado y presentan capacidades de abstracción (comportamientos a niveles táctico y de planificación) -Los comportamientos aprendidos son capaces de generar comportamientos colectivos emergentes -La comparación con otro modelo de peatones estandar (Modelo de Helbing) y los análisis realizados a nivel de diagramas fundamentales, indican que la dinámica aprendida es coherente y similar a una dinámica de peatones. | es_ES |
dc.format.extent | 264 p. | es_ES |
dc.language.iso | en_US | es_ES |
dc.subject | simulación de peatones | es_ES |
dc.subject | aprendizaje por refuerzo | es_ES |
dc.subject | reinforcement learning | es_ES |
dc.subject | Aprendizaje automático | es_ES |
dc.subject | Q-learning and Sarsa | es_ES |
dc.title | Reinforcement learning in a multi-agent framework for pedestrian simulation | es_ES |
dc.type | doctoral thesis | es_ES |
dc.subject.unesco | UNESCO::CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Otras | es_ES |
dc.subject.unesco | UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Inteligencia artificial | es_ES |
dc.subject.unesco | UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Simulación | es_ES |
dc.embargo.terms | 0 days | es_ES |