Controle por aprendizagem por reforço aplicado aos processos : CSTR e Espessador.
dc.contributor.advisor | Euzébio, Thiago Antônio Melo | pt_BR |
dc.contributor.advisor | Silva, Moisés Tavares da | pt_BR |
dc.contributor.author | Bitarães, Santino Martins | |
dc.contributor.referee | Euzébio, Thiago Antônio Melo | pt_BR |
dc.contributor.referee | Silva, Moisés Tavares da | pt_BR |
dc.contributor.referee | Braga, Marcio Feliciano | pt_BR |
dc.contributor.referee | Cota, Luciano Perdigão | pt_BR |
dc.contributor.referee | Araújo, José Mário | pt_BR |
dc.date.accessioned | 2022-11-04T21:40:12Z | |
dc.date.available | 2022-11-04T21:40:12Z | |
dc.date.issued | 2022 | pt_BR |
dc.description | Programa de Pós-Graduação em Instrumentação, Controle e Automação de Processos de Mineração. Departamento de Engenharia de Controle e Automação, Escola de Minas, Universidade Federal de Ouro Preto. | pt_BR |
dc.description.abstract | O controle por aprendizagem por reforço busca melhorar seu desempenho pelo aprendizado obtido ao interagir com o processo. As ações de controle deste tipo de controlador são norteadas unicamente por uma função de recompensa. O algoritmo Augmented Random Search (ARS) é uma método de aprendizagem por reforço baseado em busca aleatória simples com melhorias no processamento das recompensas e dos estados. As características apresentadas pela aprendizagem por reforço permitirá sua utilização em processos complexos e não lineares, como o tanque com agitação contínua (CSTR) e o espessador. Esses dois processos são complexos e apresentam comportamentos diferentes nos pontos de operação. Para o problema do CSTR, os estados são as referências do processo (referência atual e uma mudança de referência), as ações são os parâmetros do controlador PI e a recompensa foi definida em função do erro entre a referência e variável do processo (temperatura do reator). No caso do espessador os estados são o erro e a concentração do underflow, a ação é o ajuste direto da vazão de underflow e a função de recompensa foi definida em função do erro e da variação da ação de controle. Para o simulador do CSTR foi utilizado o python e para o espessador, utilizamos o Matlab. A sintonia proposta pelo ARS para o problema do CSTR apresenta uma melhoria de 8,3% (IAE), considerando o mesmo ponto de operação, em comparação com o benchmark. Já o o algoritmo ARS foi 19% (IAE) melhor na tarefa de controlar diretamente o espessador. | pt_BR |
dc.description.abstracten | Control by reinforcement learning seeks to improve its performance by learning by interacting with the process. The control actions of this type of controller are guided solely by a reward function. The Augmented Random Search (ARS) algorithm is a reinforcement learning method based on a simple random search with improvements in processing rewards and states. The characteristics of reinforcement learning will allow its use in complex and non-linear processes, such as the continuous agitation tank (CSTR) and the thickener. These two processes are complex and exhibit different behaviors at operating points. For the CSTR problem, the states are the process references (current setpoint and a change of setpoint), the actions are the parameters of the PI controller, and the reward is defined as a function of the error between the reference and the process variable (temperature of the reactor). In the case of the thickener, the states are the error and the underflow concentration, the action is the direct adjustment of the underflow flow, and the reward function is defined as a function of the error and the variation of the control action. For the CSTR simulator, we used python, and for the thickener, we used Matlab. The tuning proposed by the ARS for the CSTR problem presents an improvement of 8.3% (IAE), considering the same operating point, compared to the benchmark. The ARS algorithm was 19% (IAE) better in directly controlling the thickener. | pt_BR |
dc.identifier.citation | BITARÃES, Santino Martins. Controle por aprendizagem por reforço aplicado aos processos: CSTR e Espessador. 2022. 50 f. Dissertação (Mestrado Profissional em Instrumentação, Controle e Automação de Processos de Mineração) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2020. | pt_BR |
dc.identifier.uri | http://www.repositorio.ufop.br/jspui/handle/123456789/15780 | |
dc.language.iso | pt_BR | pt_BR |
dc.rights | aberto | pt_BR |
dc.rights.license | Autorização concedida ao Repositório Institucional da UFOP pelo(a) autor(a) em 07/10/2022 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho, desde que sejam citados o autor e o licenciante. | pt_BR |
dc.rights.uri | http://creativecommons.org/licenses/by/3.0/us/ | * |
dc.subject | Minas e mineração | pt_BR |
dc.subject | Inteligência artificial | pt_BR |
dc.subject | Controle automático - controle avançado | pt_BR |
dc.subject | Aprendizagem por reforço | pt_BR |
dc.subject | Reator de Tanque com Agitação Contínua | pt_BR |
dc.title | Controle por aprendizagem por reforço aplicado aos processos : CSTR e Espessador. | pt_BR |
dc.type | Dissertacao | pt_BR |
Files
Original bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- DISSERTAÇÃO_ControleAprendizagemReforço.pdf
- Size:
- 1.75 MB
- Format:
- Adobe Portable Document Format
- Description:
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed upon to submission
- Description: