Aplicação de aprendizado por reforço profundo em uma atividade de pick and place executada por um manipulador robótico de 6 graus de liberdade.

dc.contributor.advisorFreitas, Gustavo Medeirospt_BR
dc.contributor.advisorPessin, Gustavopt_BR
dc.contributor.authorCampos, Felipe Rigueira
dc.contributor.refereeFreitas, Gustavo Medeirospt_BR
dc.contributor.refereePessin, Gustavopt_BR
dc.contributor.refereeCoelho, Bruno Nazáriopt_BR
dc.contributor.refereePerez Imaz, Héctor Ignacio Azpúruapt_BR
dc.date.accessioned2023-02-16T19:45:46Z
dc.date.available2023-02-16T19:45:46Z
dc.date.issued2022pt_BR
dc.descriptionPrograma de Pós-Graduação em Instrumentação, Controle e Automação de Processos de Mineração. Departamento de Engenharia de Controle e Automação, Escola de Minas, Universidade Federal de Ouro Preto.pt_BR
dc.description.abstractAplicações com robôs autônomos tem desempenhado um papel importante na indústria e na vida cotidiana. Dentre elas, as atividades de manipulação e deslocamento de objetos se destacam pela ampla variedade de possíveis aplicações. Essas atividades em ambientes estáticos conhecidos podem ser implementadas por meio de lógicas previstas pelo desenvolvedor, porém isso pode ser inviável em ambientes dinâmicos. Técnicas de Aprendizado de Máquinas têm procurado substituir a programação pré-definida pelo processo de ensinar o robô como agir, utilizando por exemplo algoritmos de Aprendizado por Reforço (AR). Esta dissertação apresenta a implementação de dois algoritmos de AR, Deep Deterministic Policy Gradient (DDPG) e Proximal Policy Optimization (PPO), para controle de orientação e posição de um manipulador robótico de 6 graus de liberdade (6-DoF). Os resultados foram analisados por meio de gráficos e simulações robóticas no software CoppeliaSim, e demonstram que o DDPG teve uma convergência mais rápida do aprendizado em atividades mais simples, porém se a complexidade do problema aumenta, ele pode não obter um comportamento satisfatório. Já o PPO consegue resolver problemas mais complexos, entretanto limita a taxa de convergência para o melhor resultado a fim de evitar instabilidade no aprendizado.pt_BR
dc.description.abstractenApplications with autonomous robots play an important role in the industry and in ev- eryday life. Among them, the activities of manipulating and moving objects are highlighted by the wide variety of possible applications. These activities in static and known environments can be implemented through logic planned by the developer, but this is not feasible in dynamic environments. Machine learning techniques such as Reinforcement Learning (RL) algorithms have sought to replace the pre-defined programming by teaching the robot how to act. This thesis presents the implementation of two RL algorithms, Deep Deterministic Policy Gradient (DDPG) and Proximal Policy Optimization (PPO), for orientation and position control of a 6- degree-of-freedom (6-DoF) robotic manipulator. The results were analyzed by means of graphs and robotic simulations in the software CoppeliaSim, and demonstrated that the DDPG had a faster learning convergence in simpler activities, but if the complexity of the problem increases, it might not obtain a satisfactory behavior. On the other hand, PPO can solve more complex problems, however, it limits the convergence rate to the best result in order to avoid learning instability.pt_BR
dc.identifier.citationCAMPOS, Felipe Rigueira. Aplicação de aprendizado por reforço profundo em uma atividade de pick and place executada por um manipulador robótico de 6 graus de liberdade. 2022. 44 f. Dissertação (Mestrado Profissional em Instrumentação, Controle e Automação de Processos de Mineração) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.repositorio.ufop.br/jspui/handle/123456789/16214
dc.language.isopt_BRpt_BR
dc.rightsabertopt_BR
dc.rights.licenseAutorização concedida ao Repositório Institucional da UFOP pelo(a) autor(a) em 04/02/2023 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho, desde que sejam citados o autor e o licenciante.pt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-sa/3.0/us/*
dc.subjectRobóticapt_BR
dc.subjectRobótica - mineraçãopt_BR
dc.subjectRobótica - aprendizado de máquinaspt_BR
dc.titleAplicação de aprendizado por reforço profundo em uma atividade de pick and place executada por um manipulador robótico de 6 graus de liberdade.pt_BR
dc.typeDissertacaopt_BR
Files
Original bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
DISSERTAÇÃO_AplicaçãoAprendizadoReforço.pdf
Size:
5.31 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: