Dinámica de sistemas y control

 

CAPITULO II: VARIABLE DE ESTADO

Representación interna, diagramas de simulación, función de transferencia, linealización

 

Bibliografía

 

Representación por variable de estado

 

Sistemas contínuos

Entre las formas de modelar un sistema matemáticamente se encuentra la de describir al sistema mediante la representación de variables de estado. Buscar un modelo matemático es encontrar una relación matemática entre las salidas y las entradas del sistema. En particular la representación interna (representación por variables de estado) relacionarán matemáticamente las salidas con las entradas a través de las variables de estado como paso intermedio.

La forma más general de representación por variable de estado de un sistema contínuo está dada por dos ecuaciones: la primera que define los cambios de las variables de estado en función de estas mismas variables, las entradas y el tiempo; y la segunda que define la salida en función de las variables de estado, las entradas y el tiempo. Así tenemos:

 

                   ecuación de estado              [Ec. 1.a]

                   ecuación de salida               [Ec. 1.b]

 

Aquí consideramos que x, y y u son vectores (columnas) de n, p y m componentes respectivamente. Esta forma de representación es válida para los sistemas contínuos no-lineales y variantes en el tiempo en forma general.

Si el sistema es invariante en el tiempo, las funciones f y g dejan de depender explícitamente del tiempo:

 

                        [Ec. 2.a]

                        [Ec. 2.b]

 

Si el sistema representado por las ecuaciones 1, es un sistema lineal, la dependencia de  e y, pasa a ser lineal:

 

                    [Ec. 3.a]

                   [Ec. 3.b]

 

donde A es una matriz de nxn, B es una matriz de nxm (n filas x m columnas), C es una matriz de pxn, y D una matriz de pxm, que pueden ser dependientes del tiempo.

Si además de lineal, el sistema es invariante en el tiempo, las matrices A, B, C y D dejan de depender del tiempo:

 

                                [Ec. 4.a]

                              [Ec. 4.b]

 

En general la dimensión de los vectores u e y puede ser cualquiera. Si en particular ambos se reducen a un escalar (p = m = 1) el sistema se denomina SISO (single-input single-output). En el caso que ambas dimensiones fuesen mayores a la unidad, el sistema se denomina MIMO (multiple-input multiple-output).

Sistemas propios y estrictamente propios

Para un sistema SISO, que sea lineal, la relación entre la entrada y la salida puede describirse mediante una ecuación diferencial ordinaria, de la siguiente forma:

 

         [Ec.5]

 

donde y(r) es la derivada temporal r-ésima de la salida y con respecto al tiempo, y u(q) es la derivada temporal q-ésima de la entrada u con respecto del tiempo.

En sistemas físicos reales se da siempre que r es mayor o igual que q. Si fuera lo contrario, nunca se podría definir y en función de u pues no sería causal. A los sistemas en que r es mayor o igual a q se los denomina propios. En el caso en que r es mayor que q (no cabe la posibilidad de que sean iguales) se los denomina estrictamente propios.

Se puede demostrar que en los casos que el sistema es estrictamente propio, no existe transmisión directa, y la matriz D se hace nula en esos casos (tanto en la ecuación 3.b como en la ecuación 4.b).

 

Sistemas discretos

De igual manera, podemos describir en forma genérica a un sistema discreto por la siguiente representación por variable de estado:

 

                         ecuación de estado              [Ec. 6.a]

                               ecuación de salida               [Ec. 6.b]

 

donde k, k+1 representan los instantes consecutivos de las series de variables, x(k) es el vector de estados (discreto), u(k) es la serie del vector de entradas, e y(k) es el vector de salida todos en el instante k. Estos vectores nuevamente son de dimensión n, m y p respectivamente.

Esta forma de representación es válida para los sistemas discretos no-lineales e invariantes en el tiempo en forma general.

Si el sistema es invariante en el tiempo, las funciones f y g dejan de depender explícitamente del tiempo:

 

                             [Ec. 7.a]

                                    [Ec. 7.b]

 

Si el sistema representado por las ecuaciones 6, es un sistema lineal, la dependencia del vector de estado en un nuevo tiempo x(k+1) y la saliida y(k) pasa a ser lineal:

 

                        [Ec. 8.a]

                             [Ec. 8.b]

 

donde A es una matriz de nxn, B es una matriz de nxm (n filas x m columnas), C es una matriz de pxn, y D una matriz de pxm, que pueden ser dependientes del instante k.

Si además de lineal, el sistema es invariante en el tiempo, las matrices A, B, C y D dejan de depender del instante de tiempo k:

 

                     [Ec. 9.a]

                           [Ec. 9.b]

 

De manera similar pueden definirse nuevamente aquí, los sistemas propios y los sistemas estrictamente propios, y en éstos últimos consecuentemente la matriz D se hace nula (no hay transmisión directa de ninguna de las entradas a ninguna de las salidas).

Ejemplo:

Considere un sistema multivariable (MIMO) con dos entradas (u1, u2) y dos salidas (y1, y2), expresado mediante las siguientes ecuacianes diferenciales:

 

                            [Ec. 10.a]

                                                                    [Ec. 10.b]

 

Este sistema es linear variante en el tiempo. Para determinar una descripción por variable de estado para el mismo, asignemos nombres a las siguientes variables: , , , , y .

Reescribiendo las ecuaciones 10, las mismas quedan de la siguiente manera:

 

                              [Ec. 11.a]

                                                                    [Ec. 11.b]

 

Reemplazando la ecuación 11.b dentro de 11.a de manera que solo quede la derivada primera de x3 en la primera ecuación, obtenemos las ecuaciones de estado, considerando que , , y , que escrita en forma matricial es:

 

                            [Ec. 12]

 

Y además, como , y , la ecuación de salida es:

 

                                                            [Ec. 13]

Notar que la matriz D es igual a cero en este ejemplo, esto es: las salidas no dependen en forma directa de las entradas (el sistema es estrictamente propio).

 

Ejemplo:

Considere un circuito RLC simple como muestra la siguiente figura. Se desea encontrar para el mismo un modelo descripto por variable de estados.

 

Como regla general, el número de variables de estado es igual al número de almacenadores de energía del sistema, en circuitos eléctricos éstos son la cantidad de inductores o capacitores que tiene el circuito. La elección común de variables de estado en estos casos son la tensión en el capacitor: vc y la corriente eléctrica a través del inductor i2. Entonces, sea x1 = vc, x2 = i2, u = u(t), y1 = i1, e y2 = i2.

Las ecuaciones necesarias para los estados pueden ser obtenidas mediante las leyes de Kirchhoff:

 

               

                                                  [Ec. 14]

               

 

Luego, eliminando i1 de las dos primeras ecuaciones, y utilizando los nombres de las definiciones de variables de entrada, salida y de estados, obtenemos:

 

                                                      [Ec. 15.a]

                                                                                                        [Ec. 15.b]

 

Quedando las ecuaciones de salida definidas como:

 

                                                                [Ec. 16.a]

                                                                     [Ec. 16.b]

 

 

Y en forma matricial:

 

                                     [Ec. 17]

 

                                                         [Ec. 18]

 

Diagramas de simulación

 

Suele resultar muy útil determinar las ecuaciones de estado y de salida de un sistema mediante ecuaciones diferenciales (o en diferencias para el caso discreto) a partir de los llamados diagramas de simulación.

Los diagramas de simulación consisten en diferentes bloques, cada uno describiendo alguna función u operación sobre las variables de entrada, como lo muestra la siguiente figura:

 

 

Los diagramas de simulación nos ayudan a realizar una simulación en un computador digital para los sistemas contínuos, como por ejemplo a través de la herramienta de simulación que ofrece MATLAB, llamado SIMULINK. De ésta última herramienta se han extraído los íconos que muestra la figura. Éste no es el único programa de simulación, y los íconos pueden variar levemente de forma. Los íconos que se muestran no son tampoco los únicos que posee las herramientas gráficas de simulación, hay diversidad de ellos representando cada uno de ellos distintas operaciones o funciones aplicadas a sus respectivas entradas.

Notar que todos los íconos de la figura son para variables contínuas excepto la del retraso unitario que se utiliza solo para variables discretas. Observar que los íconos restantes pueden también transformarse a su equivalente discreto, salvo el integrador. Por ejemplo, un sumador discreto daría como salida: y(k) = ± u1(k) ± u2(k).

 

El modelo externo: Función de transferencia

 

Sistemas contínuos

Definición:

La función de trasferencia de un sistema lineal la  definimos como la razón de la transformada de Laplace de la variable de salida del sistema a la transformada de Laplace de la variable de entrada, con todas las condiciones iniciales asumidas como cero.

La función de transferencia así definida de un sistema o elemento representa la relación que describe la dinámica del sistema o elemento involucrado.

En el caso de la representación en diagramas de bloques, es una práctica habitual en control de colocar las funciones de transferencia de cada elemento dentro del bloque correspondiente.

 

Corolario:

La función de transferencia G(s) es la transformada de Laplace de la respuesta de un impulso unitario; pues la transformada de Laplace del impulso unitario es la constante unidad.

 

Ejemplo:

Supongamos un proceso descripto por la siguiente ecuación diferencial ordinaria, donde u es la señal de entrada, e y la señal de salida:

Apliquemos la transformada de Laplace, llamando U(s) e Y(s) a las transformadas de las señales u e y, respectivamente:

 

Suponiendo las condiciones iniciales nulas, y realizando el cociente Y(s)/U(s), determinamos la función de transferencia G(s):

 

Principio de superposición

El principio de superposición nos dice que si y1(t) es la respuesta del sistema a la entrada u1(t), e y2(t) es la respuesta del sistema a la entrada u2(t), entonces a . y1(t) + b . y2(t) es la respuesta del sistema a la entrada a . u1(t) + b . u2(t), siendo a y b constantes.

Para sistemas lineales este principio de superposición es válido. Mostraremos esto para sistemas SISO, pero lo podemos extender fácilmente a sistemas MIMO.

Sabemos que uno puede representar a un sistema SISO a través de una ecuación diferencial del tipo (sistema lineal variante en el tiempo):

 

                                                        [Ec. 19]

 

o de otra manera:

 

                               [Ec. 20]

 

Entonces si y1(t) es la respuesta del sistema cuando la entrada es u1(t), la siguiente ecuación debe cumplirse para todo tiempo:

 

                                                                    [Ec. 21]

 

y con argumento similar, la siguiente ecuación también debe cumplirse para todo tiempo:

 

                                                                    [Ec. 22]

 

Multiplicando la ecuación 21 por  a, y la 22 por b, y sumándolas luego, obtenemos que también debe cumplirse en todo tiempo la ecuación:

 

          [Ec. 23]

 

Introduciendo las constantes dentro de las sumatorias, y reagrupando, obtenemos:

 

          [Ec. 24]

 

que sigue siendo válida para todo tiempo. Por lo tanto (a . y1(t) + b . y2(t)) es la respuesta del sistema a la entrada (a . u1(t) + b . u2(t)).

 

Respuesta del sistema como convolución

Llamemos h(t,t) a la respuesta del sistema en el tiempo t, de haber intoducido como entrada un impulso en el tiempo t. Entonces podemos pensar por la propiedad de superposición que una señal de entrada u(t) la podemos descomponer como una suma infinita de señales impulso moduladas con la señal de entrada u:

 

                                   [Ec. 25]

 

La salida en el tiempo t habiendo puesto en la entrada del sistema una señal u(q) . d|q será:

 

                                                    [Ec. 26]

 

Y por lo tanto, la sumatoria infinita (la integral) de todas estas respuestas será entonces la salida en el tiempo t (la entrada antes del tiempo 0 se consideran nulas):

 

                                           [Ec. 27]

Si ahora, el sistema además de ser lineal, es también invariante en el tiempo, la respuesta del sistema a un impulso tendrá siempre la misma forma, independientemente del tiempo en que se haya aplicado el impulso. En otras palabras, la función h envés de depender en forma independiente de t y de q, ahora depende de la diferencia de éstos tiempos: h(t,q) = h(t-q).

Por lo tanto, la respuesta temporal del sistema invariante en el tiempo y(t), será:

 

                                        [Ec. 28]

 

Esto es la convolución temporal entre las funciones u y h, que como sabemos su transformada de Laplace es directamente el producto de las transformadas de Laplace de u y h:

 

                                                        [Ec. 29]

 

Y si determinamos entonces, cuanto vale la función de transferencia del sistema lineal e invariante en el tiempo es:

 

                                    [Ec. 30]

 

obteniendo así un resultado que habíamos determinado anteriormente: la función de transferencia es la transformada de Laplace de la respuesta a un impulso unitario. Pero también podemos afirmar que la función transferencia de un sistema lineal e invariante en el tiempo es completamente independiente de la entrada al sistema, y además podemos obtener la transformada de Laplace de la señal de salida del sistema como el producto de las transformadas de Laplace de la entrada al sistema por la función de transferencia del sistema. Notar que para esto necesito que el sistema sea invariante en el tiempo.

 

Además, para los sistemas lineales e invariantes en el tiempo, la función de transferencia del sistema es única: es una ganancia por el cociente de dos polinomios mónicos (queda como ejercicio probarlo).

 

Sistemas discretos

De una manera similar, podemos trasladar la definición de función de transferencia para un sistema lineal discreto:

 

Definición:

La función de transferencia de un sistema lineal discreto  la  definimos como la razón de la transformada Z de la variable de salida del sistema a la transformada Z de la variable de entrada, con todas las condiciones iniciales asumidas como cero.

 

Fácilmente podemos trasladar también las propiedades de la función de transferencia discreta: si el sistema es lineal e invariante en el tiempo, la función de transferencia es única, es un cociente de polinomios y es además la respuesta del sistema a un impulso unitario.

 

Relación entre modelo interno y modelo externo

 

Función de transferencia de un sistema representado por variable de estados

Como hemos visto solamente podemos definir la función de transferencia de un sistema que sea lineal e invariante en el tiempo. Dado entonces un sistema de dichas características, que además sea SISO (por simplicidad, pero puede extenderse a sistemas MIMO), representado por las siguientes ecuaciones de estado:

 

                                [Ec. 31.a]

                              [Ec. 31.b]

 

Busquemos entonces hallar su función de transferencia, desde la entrada u(t) a la salida y(t). Para ello apliquemos la transformada de Laplace a las ecuaciones 31:

 

    [Ec. 32.a]

                        [Ec. 32.b]

 

donde X(s) es el vector de variables de estado transformado por Laplace, y U(s) e Y(s) son respectivamente la entrada y la salida del sistema también transformadas por Laplace.

Como en la función de transferencia se define que las condiciones iniciales son nulas, el vector de estado inicial es el vector nulo: x(0) = 0. Por lo tanto, realizando pasajes de términos, la ecuación 32.a queda:

 

                  [Ec. 33]

 

Sacando factor comun X(s):

 

                       [Ec. 33]

 

donde I es la matriz identidad de nxn, necesaria para que las dimensiones de las matrices y vectores se correspondan. Ahora, premultiplicando por la inversa de la matriz (s.I-A), esta ecuación resulta en:

 

                   [Ec. 34]

 

Reemplazando esta ecuación, en la ecuación 32.b, obtenemos:

 

                       [Ec. 35]

 

Sacando factor común U(s), obtenemos finalmente la función de transferencia:

 

                                [Ec. 35]

 

Esta ecuación sigue siendo válida para los sistemas MIMO, con la salvedad que en ese caso obtendríamos una matriz G(s) de funciones de transferencias de pxm (p la dimensión del vector de salida y m la dimensión del vector de entrada), donde cada elemento Gij(s) de dicha matriz corresponde a la función de transferencia desde la entrada j-ésima uj, a la salida i-ésima yi.

 

Transformación de estados

Un mismo sistema, puede tener diversas formas diferentes de representación por variable de estado (no existe una única representación de estados, sino infinitas representaciones para un mismo sistema). Dicha representación depende de las variables de estado que hayan sido elegidas (y de la forma en que hayan sido ordenadas en el vector de estado). Deberá entonces existir una manera de pasar de una representación de estado a otra.

Consideremos un sistema lineal variante en el tiempo de orden n:

 

                   [Ec. 36.a]

                   [Ec. 36.b]

 

Y sea T(t) una matriz no singular variante en el tiempo de dimensión nxn. Entonces el vector:

 

                                             [Ec. 37]

 

califica como un vector de estados del sistema, puesto que a cada instante t, x(t) puede ser recuperado a partir de z(t) como:

 

                                         [Ec. 38]

 

La matriz T(t) es llamada como la matriz de transformación de estados. Supongamos que la nueva representación de estados sea:

 

                    [Ec. 39.a]

                  [Ec. 39.b]

 

La relación entre éstas matrices y las originales puede ser encontrada en términos de la matriz T(t).

Sacando la variable t fuera de la escritura, de las ecuaciones 37, 36.a, y 38, tenemos:

 

                                             [Ec. 40]

 

De manera semejante, de las ecuaciones 36.b y 38, obtenemos:

 

                                   [Ec. 41]

 

Por comparación de las ecuaciones 40, 41 con 39.a, 39.b, concluímos que:

 

                                                           [Ec. 42]

 

Hacemos notar aca que efectivamente puede haber un número infinito de representaciones por variables de estado para un mismo sistema. Notar que la matriz D no es afectada ante la transformación de estados porque es la relación directa entre la entrada y la salida. En el caso de un sistema lineal e invariante en el tiempo, la transformación de la matriz A pasará a ser:

 

                                                 [Ec. 43]

 

Unicidad de la función de transferencia

Supongamos tener un sistema lineal e invariante en el tiempo, cuya representación por variables de estado es:

 

                              [Ec. 44.a]

                             [Ec. 44.b]

 

Sabemos que dicho sistema tiene por función de transferencia a:

 

                                [Ec. 45]

 

Supongamos que para este mismo sistema, poseemos una nueva representación por variables de estado dada por:

 

                              [Ec. 46.a]

                             [Ec. 46.b]

 

Y por lo tanto de esta nueva representación, la función de transferencia es:

 

                                [Ec. 47]

 

Sabiendo que debe existir la matriz de transformación de estados T que relaciona ambas representaciones, utilizando las ecuaciones 42 y 43 de la sección anterior tenemos:

 

 

Como la matriz pos multiplicada por su inversa reproduce la matriz identidad:

 

 

 

                                                     [Ec. 48]

 

Por lo que concluímos que a partir de dos representaciones de estado diferentes llegamos a la misma función de transferencia, o sea, la función de transferencia es invariante ante transformaciones de estado. Confirmamos aquí también que no puede existir otra función de transferencia para un dado sistema: la función de transferencia es única.

 

Linealización de un sistema no-lineal

 

Como hemos visto ya, no podemos definir una función de transferencia si el sistema no es lineal e invariante en el tiempo. En el transcurso de la materia desarrollaremos muchos temas de análisis y sobre todo de diseño de control que requieren que el sistema sea lineal.

En general, en el mundo real, los sistemas suelen ser generalmente no-lineales y ¿entonces, cómo aplicamos estas técnicas que desarrollaremos en el transcurso de la materia?

Una solución práctica a ésto es tomar el sistema no-lineal, y linealizarlo alrededor del punto de operación.

Supongamos tener un sistema no-lineal representado por las siguientes ecuaciones de estado:

 

                   [Ec. 49.a]

                   [Ec. 49.b]

 

Sea xoper(t), uoper(t), yoper(t) el punto de operación de la planta a partir del cual quiero linealizar el sistema. Por lo tanto este punto de operación debe cumplir con que:

 

                               [Ec. 50.a]

                               [Ec. 50.b]

 

Analicemos las perturbaciones respecto de este punto de operación, y llamemos con d las desviaciones respecto de ese punto de operación:

 

                                   [Ec. 51]

 

Notar entonces por las ecuaciones 49 y 51:

 

               [Ec. 52.a]

                 [Ec. 52.b]

 

Expandiendo las ecuaciones 52 por serie de Taylor tenemos que:

 

      [Ec. 53.a]

        [Ec. 53.b]

 

donde el sufijo oper en las derivadas parciales se refiere a la evaluación de dichas derivadas en el punto de operación.

Utilizando las ecuaciones 50 en 53, y despreciando los términos de orden superior, finalmente obtenemos:

 

                 [Ec. 54.a]

                  [Ec. 54.b]

 

Y estas son las ecuaciones de estado y de salida de un sistema lineal, en general variante en el tiempo, donde ahora la entrada, la salida y los estados son desviaciones respecto del punto de operación de la entrada, la salida y los estados originales del sistema no-lineal.

 

Diagramas de bloque

 

A partir de la definición de función de transferencia de un sistema SISO, resulta ser conveniente una descripción gráfica de los sistemas. Una de dichas representaciones gráficas es la que denominamos diagramas de bloques. En ella las funciones de transferencia se representan mediante un bloque (un  rectángulo en cuyo interior se describe la función de transferencia), del cual ingresa (flecha en el sentido hacia el bloque) la señal de entrada, y sale (flecha en el sentido hacia afuera del bloque) la salida que será el producto de la función de transferencia por la entrada:

 

Para completar los diagramas de bloques de los sistemas hace falta incorporar un nuevo elemento: los sumadores. En el mismo, todas las señales ingresantes son sumadas con su respectivo signo para dar como resultado la salida:

 

 

Así los sistemas pueden ser descriptos gráficamente a través de diagramas de bloques. Estos diagramas de bloques pueden ser reducidos utilizando el algebra de bloques para obtener un solo bloque total en el cual se describa la función de transferencia entre la entrada del sistema a la salida del sistema. A continuación veremos en que consiste este algebra de bloques.

 

En particular, las funciones de transferencia que consisten en directamente multiplicar la entrada por una constante se las llaman directamente ganancias, y suelen dibujarse como triángulos:

 

 

Reducción de los diagramas de bloques

 

Podemos encontrar diversos sistemas de control, representados con diagramas de bloques complejos. Dichos diagramas los podemos reducir a un simple bloque empleando las siguientes reglas:

 

Bloques en serie:

 

Bloques en paralelo:

 

Bloques en realimentación:

 

 

Equivalencias en el algebra de bloques:

 

 

Ejemplo:

Tenemos el diagrama de bloques de la siguiente figura, el cual queremos reducir.

Utilizando la reducción del lazo interno G1-G3 el diagrama queda:

Transladando de lugar la señal entrante al bloque G6:

Finalmente, de la figura que es una retroalimentación en serie con unos bloques en paralelo, obtenemos la función de transferencia G(s) = Y(s)/R(s):

 

Diagramas de Mason

 

Los diagramas de Mason son una forma alternativa a los diagramas de bloques para representar un sistema dinámico. En estos diagramas las funciones de transferencias las representamos a través de líneas con flechas (envés de bloques), y las variables a través de nodos. Con el sentido de la flecha indicamos el sentido en como va la información (como en los diagramas de bloques).

Aquí no existen sumadores. Los mismos están implícitos en los nodos, ya que la variable de salida de un nodo es igual a la suma de todas las señales entrantes al nodo.

Mason generó una regla sistemática para la reducción de dichos diagramas que enumeramos a continuación. Estas reglas incluyen a sistemas con múltiples entradas y salidas, y con varios lazos cerrados.

La regla de Mason dice que la función de transferencia desde la entrada j a la salida k, está dada por:

                                             [Ec. 55]

donde:

Gjki = es la ganancia de un camino directo i que une la entrada j con la salida k; i toma los valores de 1 hasta la cantidad de caminos directos que unen la entrada j con k. En un camino directo, el camino no debe pasar dos veces por un mismo nodo.

D = es el determinante del sistema = 1 - la sumatoria de las ganancias de todos los lazos cerrados + la sumatoria de los productos de las ganancias de lazos cerrados que no se tocan de a pares - la sumatoria de los productos de las ganancias de los lazos que no se tocan tomados por terna (de a tres) + .......y así sucesivamente.

Djki = es el determinante del camino directo i, que une la entrada j con la salida k = es el valor de D pero para la parte del diagrama que no toca el camino i.

Ejemplo:

Tomando el ejemplo de la reducción de diagramas de bloques,  representamos el mismo por un diagrama de Mason:

De la figura observamos dos caminos directos, cuyas ganancias son: C1 = G1.G2.G5; y C2 = G1.G6. Existen dos lazos cerrados en todo el sistema, cuyas ganancias son: L1 = G1.G3, y L2 = -G4.G1.G2. No existen lazos que no se toquen entre sí, por lo tanto el determinante del sistema es: D = 1 - (L1 + L2) = 1 - G1.G3 + G4.G1.G2. Los determinantes de ambos caminos directos son 1 (D1 = D2 = 1), puesto que los dos caminos directos tocan ambos lazos cerrados. Entonces, finalmente la función de transferencia de este sistema queda:

Observemos que es el mismo resultado obtenido en el ejemplo de los diagramas de bloques.

 

Formas canónicas de representación por variables de estado

 

Para los sistemas lineales e invariantes en el tiempo, y que sean SISO, existen de las infinitas formas de representar los sistemas por variables de estado, formas que son de referencia llamadas canónicas (formas normadas o estandarizadas) que nos serán útiles en el momento de analizar y diseñar el control para el sistema.

Lamentablemente no existe solamente una sola forma canónica, sino varias, y cada una útil para el análisis de una determinada característica del sistema, como veremos más adelante en el transcurso de la materia. Las formas canónicas que veremos aquí son tres:

·         Forma canónica de controlabilidad

·         Forma canónica de observabilidad

·         Forma canónica modal

 

Para ver cada una de estas formas es útil partir de la representación gráfica de los sistemas por diagramas de bloques, donde el sistema se encuentre descripto a través de funciones de transferencia de integradores puros (G(s) = 1/s), cuyas respectivas salidas definirán cada una de las variables de estado, y su entrada será la derivada respectiva que será el resultado de sumar las entradas y las variables de estado multiplicadas por constantes. Veamos pues entonces cómo se definen las formas canónicas de representación por variable de estado.

 

Forma canónica de controlabilidad

Obtenagamos la forma canónica de controlabilidad de un sistema genérico de tercer orden (que puede ser extendido sin ningún inconveniente a sistemas de mayor orden). Un sistema de tercer orden (extrictamente propio), puede ser descripto por la siguiente función de transferencia:

 

                          [Ec. 56]

 

Esto es:

 

             [Ec. 57]

 

Llamemos una variable intermedia Z(s) como:

 

                          [Ec. 58]

 

Y por lo tanto, la salida será:

 

                          [Ec. 59]

 

Tomando la ecuación 58, tenemos:

 

              [Ec. 60]

 

Que antitransformándola por Laplace será:

 

                                 [Ec. 61]

 

La cual podemos construir como diagrama de bloques de la siguiente manera con integradores puros:

 

 

Ahora, ¿cómo determinamos la salida del sistema? Usando la ecuación 59 y antitransformándola tenemos:

 

                                               [Ec. 62]

 

Y por lo tanto podemos completar el diagrama de bloques como sigue:

 

Eligiendo ahora como variables de estado la salida de cada integrador: , , y ; obtenemos la representación por variable de estado canónica de controlabilidad:

 

                                     [Ec. 63]

 

Observar que las matrices en la forma canónica de controlabilidad posee las siguientes formas:

·         la matriz A contiene en su primera fila los coeficientes del polinomio denominador de la función de transferencia con los signos cambiados, sigue inmediatamente abajo una matriz identidad de (n-1)x(n-1), siendo n el orden del sistema, completado con un vector columna nulo.

·         el vector columna B es un vector cuyo primer elemento es 1, y los restantes componentes 0.

·         el vector fila C es un vector que contiene los coeficientes del polinomio numerador de la función de transferencia del sistema.

 

Es fácilmente demostrable que estas características de las matrices se mantiene con sistemas de mayor orden.

 

Forma canónica de observabilidad

Partamos nuevamente de la función de transferencia suponiendo aquí también un sistema de tercer orden:

 

                          [Ec. 64]

 

Por lo tanto:

 

   [Ec. 65]

 

Que si antitransformamos por Laplace, tenemos:

 

                  [Ec. 66]

 

En un principio contamos con la señal u en todo momento, y supongamos tener también la señal de salida y (que de alguna forma la obtendremos más adelante). Si a la señal u la multiplicamos por la constante b0 y le restamos la señal y multiplicada por a0, esto deberá ser:

 

                 [Ec. 66]

 

Si esa señal así evaluada la integramos, el resultado será:

 

                            [Ec. 67]

 

a la que nuevamente le podemos sumar la señal u multiplicada por b1 y restar la señal y multiplicada por a1, quedando:

 

                         [Ec. 68]

 

Que nuevamente podemos integrar dando:

 

                        [Ec. 69]

 

A la que podemos sumar la señal u multiplicada por a2 y restar la señal y multiplicada por b2, quedando:

 

                       [Ec. 70]

 

Que integrándola obtenemos y (la salida del sistema) que es la señal que debíamos determinar en un principio.

Todo este proceso descripto desde la ecuación 66 hasta la determinación de y, lo podemos graficar con el siguiente diagrama de bloques:

 

Llamando la salida del último integrador x1, la salida del integrador del medio x2 y la salida del primer integrador x3, obtenemos la representación por variable de estados del sistema en su forma canónica de observabilidad, que es:

 

                                               [Ec. 71]

 

Notar que las matrices en la forma canónica de observabilidad posee una forma con una especie de simetría con el de la forma canónica de controlabilidad. Al problema de observabilidad se lo suele llamar el problema “dual” al de controlabilidad. Podemos decir que en la forma canónica de observabilidad las matrices del sistema poseen las siguientes características:

·         la matriz A contiene en su primera columna los coeficientes del polinomio denominador de la función de transferencia con los signos cambiados, sigue inmediatamente a la derecha una matriz identidad de (n-1)x(n-1), siendo n el orden del sistema, completado hacia abajo con un vector fila nulo.

·         el vector columna B es un vector que contiene los coeficientes del polinomio numerador de la función de transferencia del sistema.

·         el vector fila C es un vector cuyo primer elemento es 1, y los restantes componentes 0.

 

De igual manera que en la forma canónica de controlabilidad, es fácil demostrar que estas características de las matrices se mantienen con sistemas de mayor orden.

 

Forma canónica modal

La forma canónica modal consiste en llevar a la matriz A de la representación por variable de estado a su forma diagonal.

Al igual que en las otras formas canónicas, partamos también como ejemplo de un sistema genérico de tercer orden. Supongamos que su función transferencia lo podemos descomponer en fracciones simples de la siguiente manera:

 

                       [Ec. 72]

 

donde li son las raíces del polinomio denominador y Ci son sus respectivos residuos. Por simplicidad, vamos a suponer que estas raíces son todas distintas entre sí.

Entonces la relación entre la entrada y salida del sistema lo podemos describir como:

 

                  [Ec. 73]

 

Si llamamos:

 

,            ,                         [Ec. 74]

 

Resulta ser:

 

                         [Ec. 75]

 

Antitransformando por Laplace las ecuaciones 74 y 75, obtenemos:

 

                                                                               [Ec. 76]

 

Que ya es la descripción por variable de estado. Podemos describir estas ecuaciones en un diagrama de bloques de la siguiente manera:

 

 

Como puede observarse del diagrama de bloques (y de las mismas ecuaciones), cada variable de estado elegida de esta manera se encuentra aislado de los otros estados, y se mueven en forma independiente unos de otros. Se dice que cada una de las variables de estado está asociado a un modo del sistema: l1, l2, o l3 (que son las raíces del polinomio denominador de la función de transferencia del sistema y que coinciden también con los autovalores de la matriz A). Por esta razón esta forma canónica se la denomina modal.

En esta forma canónica, la representación por variables de estado en forma matricial es:

 

                                 [Ec. 77]

 

Observar en este caso que la forma que posee A es la de una matriz diagonal, el vector B es un vector que posee todos sus elementos iguales a 1, y el vector fila C posee como elementos cada uno de los residuos Ci. Para sistemas de mayor orden la obtención de la forma canónica modal se desarrolla de manera semejante.

 

Cuando la matriz A posee autovalores que se repiten, entonces puede ser que dicha matriz no pueda ser diagonalizable completamente. En esos casos la matriz A se la lleva a su Forma de Jordan.

 

Volver al índice