한국   대만   중국   일본 
Teoria de controle ? Wikipedia, a enciclopedia livre Saltar para o conteudo

Teoria de controle

Origem: Wikipedia, a enciclopedia livre.
Concepcao de malha de realimentacao usada para controlar o comportamento dinamico de um sistema. Neste caso, a realimentacao e negativa, pois o valor medido da saida e subtraido do valor de referencia almejado, resultando em uma medicao do erro, que e amplificado pelo controlador e aplicado a entrada do mesmo sistema, visando uma atuacao corretiva.

A teoria de controle ou teoria de controlo - dentro da engenharia - trata do comportamento de sistemas dinamicos . A saida desejada de um sistema e chamada referencia . Quando uma ou mais variaveis de saida necessitam seguir uma certa referencia ao longo do tempo, um controlador manipula as entradas do sistema para obter o efeito desejado nas saidas deste sistema. [ 1 ]

Tecnicas de controle [ editar | editar codigo-fonte ]

As tecnicas de controle podem ser classificadas em 2 grandes grupos. O primeiro grupo e o de Controle classico e utilizada os seguintes controladores:

O segundo grupo e composto pelo Controle moderno , o qual engloba os seguintes ramos:

Conceito [ editar | editar codigo-fonte ]

Considere o controle de navegacao do automovel, que e um dispositivo projetado para manter o veiculo em uma velocidade constante. A variavel de saida do sistema e a velocidade do veiculo. A variavel de entrada e o torque de saida do motor, que e regulada pelo acelerador .

Uma maneira simples de projetar um controle de navegacao e bloquear a aceleracao quando o motorista ativa o controle de navegacao. No entanto, em terrenos acidentados, o veiculo frenara quando o carro subir e acelerara quando ele descer. Esse tipo de controlador utiliza um sistema chamado de Controle em malha aberta porque nao ha conexao direta entre a saida do sistema e suas entradas. [ 2 ]

Em um sistema de Controle em malha fechada , um elemento de realimentacao monitora constantemente a velocidade do veiculo e ajusta o acelerador conforme necessario para manter a velocidade desejada. Este sinal de realimentacao compensa as variacoes provocadas por fatores externos como mudanca na inclinacao do solo ou velocidade do vento.

Apesar dos sistemas de controle estarem presentes desde a antiguidade, uma verificacao mais formal da area comecou a ser desenvolvida a partir da analise dinamica do governador centrifugo conduzida pelo fisico James Clerk Maxwell em 1868 atraves da obra intitulada On Governors . Esta descrevia e analisava o fenomeno de "hunting", em que defasagens no sistema podem levar a uma sobrecompensacao e um comportamento instavel. Devido ao grande interesse gerado pelo tema um colega de Maxwell, Edward John Routh , generalizou os resultados de Maxwell para a classe de sistemas lineares gerais, sendo que o resultado e chamado Criterio de Routh-Hurwitz .

Uma aplicacao notavel do controle dinamico e no voo tripulado. Os irmaos Wright fizeram seus primeiros voos de teste bem sucedidos em 17 de dezembro de 1903 onde era percebivel a habilidade deles em controlar seus voos por curtos periodos (alem da habilidade de produzir sustentacao de um aerofolio, que ja era conhecida). O controle realimentado do aviao era necessario para voos seguros.

Na Segunda Guerra Mundial , a teoria de controle era uma parte importante do sistemas de controle de artilharia antiaerea, sistemas de orientacao e eletronica . A corrida espacial dependia tambem do controle preciso de onibus espaciais.

Teoria de controle classica [ editar | editar codigo-fonte ]

Dentre a teoria classica de controle ha dois tipos de sistemas: o de malha aberta e o de malha fechada. Num sistema em malha aberta, o sinal de entrada e um sinal pre-definido e o controlador busca levar o sistema ao sinal de saida desejado. As principais vantagens desse tipo de malha sao a simplicidade e o baixo custo. No entanto, apresentam a desvantagem de serem imprecisos devido a falta de realimentacao. Ja no sistema em malha fechada, o sinal de saida e realimentado (feedback) e o controlador corrige-o, de modo a aproxima-lo do estado desejado. Seu nome e derivado do modo como as informacoes percorrem o sistema: entradas do processo (e.x. tensao aplicada a um Motor eletrico ) tem um efeito sobre as saidas do processo (e.x. velocidade ou torque do motor), que sao medidas com sensores e processadas pelo controlador; o resultado (sinal de controle) e usado como entrada no processo, fechando o loop. As vantagens desse processo e a robustez, a estabilidade e a garantia de melhoria do sistema, mesmo quando os parametros de controle nao estao no seu melhor ajuste.

O controlador Proporcional-Integral-derivativo, ou simplesmente PID, e um tipo de controlador de malha fechada que combina as acoes proporcionais, integrativas e derivativas. O objetivo desse controlador e combinar as vantagens de cada acao para melhorar o desempenho do sistema. A saida do sistema (y(t)) e realimentada ao valor de referencia (r(t)), atraves de um sensor. A diferenca entre esses valores e denominada erro (e(t)). Conforme o erro gerado, o controlador (C) atua sobre o processo (P), ajustando o sinal de controle (u(t)). Se assumirmos que o controlador e o processo nao variam com o tempo, podemos realizar a transformada de Laplace nessas variaveis:

Resolvendo o sistema para Y ( s ) em termos de R ( s ), obtemos:

O termo e conhecido como funcao transferencia do sistema.

Em um sistema PID, o sinal de controle possui a forma:

onde e(t) e a diferenca entre o sinal de saida e o de referencia:

A fim de o controlador funcionar corretamente, devemos ajustar os parametros: , and . Esse ajuste pode ser feito por tentativa e erro ou utilizando metodos de ajuste como o de Ziegler-Nichols. A estabilidade do sistema pode ser garantida ajustando o termo proporcional. Ja o termo integral auxilia a rejeitar disturbios, e o termo derivativo ajusta a velocidade de resposta do controlador.

Ver tambem [ editar | editar codigo-fonte ]

Referencias Bibliograficas [ editar | editar codigo-fonte ]

  • A. Gelb, editor. Applied optimal estimation. MIT Press, 1974.
  • R. E. Kalman, A New Approach to Linear Filtering and Prediction Problems, Transactions of the ASME - Journal of Basic Engineering , Vol. 82: pp. 35-45, 1960.
  • R. E. Kalman e R. S. Bucy, New Results in Linear Filtering and Prediction Theory, Transactions of the ASME - Journal of Basic Engineering , Vol. 83: pp. 95-107, 1961.
  • H. W. Sorenson, Least-squares estimation: from Gauss to Kalman, IEEE Spectrum , Vol. 7: pp. 63-68, 1970.
  • Simon J. Julier e Jeffery K. Uhlmann, A New Extension of the Kalman Filter to nonlinear Systems. In The Proceedings of AeroSense: The 11th International Symposium on Aerospace/Defense Sensing,Simulation and Controls, Multi Sensor Fusion, Tracking and Resource Management II, SPIE, 1997.

Referencias

  1. DORF, R.C. Sistema de Controle Modernos - 13ª edicao. Sao Paulo: LTC, 2018.
  2. OGATA, K. Engenharia de Controle Moderno. 2° Ed. Pearson Prentice Hall, Rio de Janeiro, 1989.