NAGIOS: RODERIC FUNCIONANDO

Reinforcement learning in a multi-agent framework for pedestrian simulation

Repositori DSpace/Manakin

IMPORTANT: Aquest repositori està en una versió antiga des del 3/12/2023. La nova instal.lació está en https://roderic.uv.es/

Reinforcement learning in a multi-agent framework for pedestrian simulation

Mostra el registre parcial de l'element

dc.contributor.advisor Lozano Ibáñez, Miguel
dc.contributor.advisor Fernández Rebollo, Fernando
dc.contributor.author Martinez Gil, Francisco Antonio
dc.contributor.other Departament d'Informàtica es_ES
dc.date.accessioned 2014-10-28T07:32:30Z
dc.date.available 2014-10-29T07:10:03Z
dc.date.issued 2014
dc.date.submitted 24-10-2014 es_ES
dc.identifier.uri http://hdl.handle.net/10550/39399
dc.description.abstract El objetivo de la tesis consiste en la utilización de Aprendizaje por refuerzo (Reinforcement Learning) para generar simulaciones plausibles de peatones en diferentes entornos. Metodología Se ha desarrollado un marco de trabajo multi-agente donde cada agente virtual que aprende un comportamiento de navegación por interacción con el mundo virtual en el que se encuentra junto con el resto de agentes. El mundo virtual es simulado con un motor físico (ODE) que está calibrado con parámetros de peatones humanos extraídos de la bibliografía de la materia. El marco de trabajo es flexible y permite utilizar diferentes algoritmos de aprendizaje (en concreto Q-Learning y Sarsa(lambda) en combinación con diferentes técnicas de generalización del espacio de estados (en concreto cuantización Vectorial y tile coding). Como herramientas de análisis de los comportamientos aprendidos se utilizan diagramas fundamentales (relación velocidad/densidad), mapas de densidad, cronogramas y rendimientos (en términos del porcentaje de agentes que consiguen llegar al objetivo). Conclusiones: Tras una batería de experimentos en diferentes escenarios (un total de 6 escenarios distintos) y los correspondientes analisis de resultados, las conclusiones son las siguientes: - Se han conseguido comportamientos plausibles de peatones -Los comportamientos son robustos al escalado y presentan capacidades de abstracción (comportamientos a niveles táctico y de planificación) -Los comportamientos aprendidos son capaces de generar comportamientos colectivos emergentes -La comparación con otro modelo de peatones estandar (Modelo de Helbing) y los análisis realizados a nivel de diagramas fundamentales, indican que la dinámica aprendida es coherente y similar a una dinámica de peatones. es_ES
dc.format.extent 264 p. es_ES
dc.language.iso en_US es_ES
dc.subject simulación de peatones es_ES
dc.subject aprendizaje por refuerzo es_ES
dc.subject reinforcement learning es_ES
dc.subject Aprendizaje automático es_ES
dc.subject Q-learning and Sarsa es_ES
dc.title Reinforcement learning in a multi-agent framework for pedestrian simulation es_ES
dc.type doctoral thesis es_ES
dc.subject.unesco UNESCO::CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Otras es_ES
dc.subject.unesco UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Inteligencia artificial es_ES
dc.subject.unesco UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Simulación es_ES
dc.embargo.terms 0 days es_ES

Visualització       (6.881Mb)

Aquest element apareix en la col·lecció o col·leccions següent(s)

Mostra el registre parcial de l'element

Cerca a RODERIC

Cerca avançada

Visualitza

Estadístiques