quarta-feira, 13 de outubro de 2010

Hierarchical Reinforcement Learning: Learning Sub-goals and State-Abstraction

Ao fim de 1 ano de trabalho este é o resultado final da minha dissertação de Mestrado. Coloquei-a  no SlideShare para que seja possível a sua pré-visualização. Foi escrita em LateX utilizando o TeXShop.


Podem efectuar o download da versão PDF aqui (Dissertação). De seguida um excerto do Resumo.
Neste trabalho, apresentamos um novo método que permite a um agente descobrir e criar abstracções temporais de forma autónoma. Essas abstracções são baseadas na framework das Options. O nosso método é baseado no conceito de que para alcançar o objectivo, o agente deve passar por determinados estados. Ao longo do tempo estes estados vão começar a diferenciar-se dos restantes, e serão identificados como sub-objectivos úteis. Poderão ser utilizados pelo agente para criar novas abstracções temporais, cujo objectivo é ajudar a atingir esses objectivos secundários. Para detectar sub-objectivos, o nosso método cria intersecções entre os vários caminhos que levam ao objectivo principal.

Sem comentários: