Método Lyapunov

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

UNIVERSIDAD DE COLIMA

FACULTAD DE INGENIERÍA ELECTROMECÁNICA

Campus El Naranjo

Investigación de Estabilidad Lyapunov y Parametrización

sistemas no lineales.

CARRERA:

INGENIERÍA EN MECATRÓNICA

8°C

PRESENTA:

HERNANDEZ SANCHEZ ERICK FERNANDO


Método Lyapunov
Dado el carácter no lineal y variable en el tiempo de los sistemas adaptativos por modelo
de referencia MRAC, no son válidos los criterios de estabilidad de sistemas lineales. Un
método bien conocido es el método directo de Lyapunov. Este método establece que un
sistema tiene un equilibrio x = 0, asintóticamente estable, si existe una función, llamada
de Lyapunov, V (x) que satisface:

Como la función de Lyapunov es similar a una función de energía, esta debe decrecer con
el tiempo. Utilizando este método en el diseño de sistemas adaptativos, se trasladan las
especificaciones de estabilidad directamente en la ley de adaptación, siguiendo los pasos:
1. El primer paso es encontrar la ecuación de error, bien en la salida (yp - ym) o en las
variables de estado (xp - xm).
2. Encontrar una función de Lyapunov como una función del error entre las señales y
del error en los parámetros (φ = θ - θ). ). En su forma más simple esta función
toma la forma:

3. Calcular la derivada de la función de Lyapunov. La derivada debe ser definida


negativa. Generalmente toma la forma:

El primer término garantiza que la derivada es definida negativa, por lo que,


haciendo el resto igual a cero se tiene una posible solución. La matriz Q es definida
positiva. Las matrices P y Q, para un sistema gobernado por una matriz A, están
relacionadas por la ecuación de Lyapunov

4. Haciendo el termino extra igual a cero se obtiene la ley de adaptación.


Normalmente tiene la forma
Ejemplo de sistema de primer orden
Considerando el sistema de la figura 4.2, donde la señal de control está dada por: u = K r,
siendo K la ganancia ajustable que hay que calcular, la deducción de la ley de adaptación
es como sigue:

Figura 4.2: Sistema y modelo de primer orden


Teniendo en cuenta que el termino (bK 1) es proporcional al error en el parámetro, la
función de Lyapunov en este caso puede elegirse como:

Su derivada resulta ser:


El primer término es negativo. Así que haciendo el resto igual a cero se obtiene la ley de
adaptación

En esta ley de adaptacion el parámetro libre es y1, siendo necesario conocer el signo de b
para fijar el y1
En las guras 4.3 y 4.4 se representa una simulación del ejemplo descrito cuando el
parámetro b vale inicialmente 4 y en el instante 20 pasa a valer 2. Pue observarse como la
adaptacion es buena en ambos casos, siendo más rápida en el caso de la gura 4.4, dado
que la ganancia de adaptacion es superior. En línea a trazos se representa la salida del
modelo de referencia y en línea continua la salida del modelo ajustable.
La principal desventaja del método de Lyapunov es que no es un método sistemático,
dado que hay que encontrar la función de Lyapunov V adecuada en cada caso.
Estabilidad en el sentido de Lyapunov
Una de las características más importantes de los sistemas dinámicos es la estabilidad, ya
que sin ella el resto de especificaciones carecen de sentido; para sistemas lineales
invariantes en el tiempo, existe muchos métodos de análisis de estabilidad, como el
criterio de estabilidad de Routh y el criterio de estabilidad de Nyquist, sin embargo,
cuando se tratan sistemas no lineales o variantes en el tiempo, tales criterios de
estabilidad no tienen validez. Entre las técnicas de análisis de estabilidad de sistemas no
lineales, la teoría basada en Lyapunov se destaca claramente, con esta técnica se es capaz
de determinar la estabilidad de sistemas dinámicos descritos por ecuaciones diferenciales
desde dos perspectivas, una basándose en la solución de las ecuaciones diferenciales, y
otra por el contrario, sin necesidad de tener la solución de las ecuaciones diferenciales. En
el primer método de Lyapunov se tiene las siguientes premisas:
Al linealizar un sistema no lineal

 Si el sistema linealizado es asintóticamente estable entonces, el sistema no lineal


es asintóticamente estable.
 Si el sistema linealizado es asintóticamente inestable, entonces el sistema no lineal
es inestable
 • Si el sistema linealizado es críticamente estable entonces, no se puede afirmar si
el sistema no lineal es estable o inestable.
Se dice que el equilibrio en £ = 0 del sistema es localmente estable en el sentido de
Lyapunov, o sencillamente estable, cuando para cada £ > 0 existe un valor s> 0 tal que:
En la figura podemos observar la trayectoria parte del círculo de radio s y no sale del
círculo de radio £. Si el sistema estable, esta trayectoria no debe salir del círculo de radio
£, ni ninguna otra trayectoria que parta de del círculo de radio s.

Control No Lineal
Según Sira, Márquez, Rivas & Llanes (2005) “Se considera un sistema no lineal con una
sola entrada y una salida, al siguiente sistema: 𝑥̇(𝑡) = 𝑓(𝑥(𝑡), 𝑢(𝑡)), 𝑥(𝑡0 ) = 𝑥0 𝑦(𝑡) = ℎ(𝑥(𝑡))
(1) Donde:

 𝑥(𝑡) es una función vectorial del tiempo la cual toma valores en el espacio de n-
dimensiones y representa el estado del sistema, 𝑥(𝑡) ∈ ℝ𝑛 ;

 𝑢(𝑡) es una función escalar de tiempo que representa la entrada del sistema y toma
valores en la recta real, 𝑢(𝑡) ∈ ℝ.

 𝑦(𝑡) es también una funcioón escalar del tiempo y representa la salida de sistema, 𝑦(𝑡) ∈
ℝ.

 Las funciones 𝑓( ) y ℎ( ) son funciones continuas, diferenciables al menos una vez con
respecta a cada uno de sus argumentos, definidas de tal forma que: 𝑓: ℝ𝑛 × ℝ → ℝ𝑛 y ℎ:
ℝ𝑛 → ℝ.  Se recomienda que 𝑥̇ = 𝑑𝑥/𝑑𝑡 representa la tasa de variación de la variable x
respecto al tiempo”

En forma precisa se deseará regular el comportamiento de las variables representativas


del sistema alrededor de valores de referencia deseados (puntos de operación o puntos
de equilibrio). Los o puntos o trayectorias de equilibrio se obtienen al resolver la ecuación
𝑥 ≡ 0, en la expresión 1. Cuando la tasa de variación de 𝑥 respecto a al tiempo es cero, es
decir, cuando 𝑑𝑥/𝑑𝑡 ≡ 0, tenemos:
𝑓(X(𝑈),𝑈) (2)
Donde se reemplaza el estado 𝑥(𝑡) por 𝑥(𝑡) = 𝑋 = 𝑋(𝑈).
De la ecuación (2) resulta claro que para calcular el punto de equilibrio (𝑋,𝑈) debemos
resolver una ecuación implícita que depende de la señal de control en el equilibrio dada
por el valor U.
Consideramos sistema de ecuaciones diferenciales de la forma (1) que poseen puntos de
equilibrio constantes, los cuales están dados por:
𝑢(𝑡) = 𝑈;
𝑥(𝑡) = 𝑋(𝑈);
𝑦(𝑡) = 𝑌(𝑈) = ℎ(𝑋(𝑈)) ∀ t.
En este caso diremos que el punto de equilibrio está parametrizado en función de la señal
del control constante U. Un punto de equilibrio podrá estar parametrizado con respecto a
cualquier otra variable del sistema. De tal forma que en función de un valor constante X
del estado tenemos:
𝑢(𝑡) = 𝑈(𝑋); 𝑥(𝑡) = 𝑋; 𝑦(𝑡) = 𝑌(𝑋) = ℎ(𝑋)

También podría gustarte