Use este identificador para citar ou linkar para este item:
http://repositorio.unesc.net/handle/1/10345| Título: | Aprendizado por reforço aplicado em uma simulação para controle inteligente de semáforos |
| Autor(es): | Rodrigues Junior, Fernando |
| Orientador(es): | Inocencio, Marcel Campos |
| Palavras-chave: | Aprendizado por reforço Cidades inteligentes Controle de semáforos Simulação de tráfego Mobilidade urbana Otimização de Política Proximal |
| Descrição: | Trabalho de Conclusão de Curso, apresentado para obtenção do grau de Bacharel no Curso de Ciência da Computação da Universidade do Extremo Sul Catarinense, UNESC. |
| Resumo: | A mobilidade urbana representa um desafio para os centros urbanos, tendo impactos negativos na qualidade de vida e no meio ambiente. Os semáforos, sozinhos, não são eficientes o bastante para controlar o tráfego de maneira satisfatória. Nesse contexto, o uso da tecnologia desempenha um papel fundamental na criação de soluções inteligentes e no desenvolvimento de cidades inteligentes. A aplicação de algoritmos de inteligência artificial pode otimizar a fluidez e a segurança do trânsito. A utilização de simulações desempenha um papel importante na validação das soluções propostas, permitindo redução de custos e avaliação de eficácia. Nesta pesquisa, foi conduzida uma abordagem exploratória e aplicada com base tecnológica visando otimizar o tráfego urbano em interseções semafóricas. A pesquisa investiga a utilização do aprendizado de máquina por reforço para controlar os semáforos, empregando o algoritmo de Otimização de Política Proximal em conjunto com a realização de uma simulação. A simulação foi desenvolvida de forma a permitir o controle de diversos aspectos, como o número de veículos na simulação, o fluxo de tráfego em cada via e a taxa de geração e remoção de veículos. Foram realizados testes em três cenários distintos, nos quais foi possível explorar as habilidades do agente em se adaptar a diferentes fluxos de tráfego. Os resultados obtidos indicam que o algoritmo de Otimização de Política Proximal pode ser usado para treinar agentes inteligentes e ao ser comparado com o método convencional empregado no Brasil, foi observado resultados positivos, apresentando um aumento de 10,03%, 19,56% e 22,15% nos respectivos testes. |
| Idioma: | Português (Brasil) |
| Tipo: | Trabalho de Conclusão de Curso - TCC |
| Data da publicação: | Jul-2023 |
| URI: | http://repositorio.unesc.net/handle/1/10345 |
| Aparece nas coleções: | Trabalho de Conclusão de Curso (COM) |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Fernando Rodrigues Junior.pdf | TCC | 421,53 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.