24
Control y optimizaci´ on de sistemas din´ amicos * Eduardo Cerpa ** y Pedro Gajardo ** Resumen El objetivo de este curso es realizar una introducci´ on a la Teor´ ıa de Control, la que es- tudia c´ omo se puede modificar la conducta de un sistema din´ amico para alcanzar un cierto objetivo. El prop´ osito planteado podr´ ıa ser, por ejemplo, llevar un sistema desde un estado inicial a otro final (controlabilidad) o minimizar alg´ un funcional que dependa de la trayectoria (control ´ optimo). Durante el curso nos concentraremos en sistemas descritos por ecuaciones diferenciales ordinarias lineales, abarcando dos t´ opicos b´ asicos de esta teor´ ıa: controlabilidad y control ´ optimo. El curso es autocontenido, suponiendo conocimientos b´ asicos de ´ Algebra Lineal, Ecuaciones Diferenciales y An´ alisis. ´ Indice 1. Introducci´ on 2 2. Controlabilidad 2 2.1. Definiciones ...................................... 2 2.2. Criterio Integral ................................... 6 2.3. Criterio de Kalman .................................. 10 3. Control ´ Optimo 13 3.1. Definiciones ...................................... 13 3.2. Problema de tiempo m´ ınimo ............................. 14 3.3. Principio del M´ aximo de Pontryagin ........................ 18 4. Ejemplo del carro con dos motores 20 * Notas para un curso de 7.5 horas dictado en la Escuela del Doctorado en Matem´ atica de Valpara´ ıso, realizada desde el 13 al 23 de octubre de 2015. ** Departamento de Matem´ atica, Universidad T´ ecnica Federico Santa Mar´ ıa, Avda. Espa˜ na 1680, Valpara´ ıso, Chile. E-mail: [email protected], [email protected] 1

Control y optimizaci on de sistemas din amicosecerpa.mat.utfsm.cl/archivos/cerpa-gajardo-v-notes.pdf · 2018-06-15 · cursos naturales y m as generalmente, en donde la automatizaci

  • Upload
    dothuan

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Control y optimizacion de sistemas dinamicos*

Eduardo Cerpa∗∗ y Pedro Gajardo**

Resumen

El objetivo de este curso es realizar una introduccion a la Teorıa de Control, la que es-tudia como se puede modificar la conducta de un sistema dinamico para alcanzar un ciertoobjetivo. El proposito planteado podrıa ser, por ejemplo, llevar un sistema desde un estadoinicial a otro final (controlabilidad) o minimizar algun funcional que dependa de la trayectoria(control optimo). Durante el curso nos concentraremos en sistemas descritos por ecuacionesdiferenciales ordinarias lineales, abarcando dos topicos basicos de esta teorıa: controlabilidady control optimo. El curso es autocontenido, suponiendo conocimientos basicos de AlgebraLineal, Ecuaciones Diferenciales y Analisis.

Indice

1. Introduccion 2

2. Controlabilidad 22.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.2. Criterio Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.3. Criterio de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3. Control Optimo 133.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.2. Problema de tiempo mınimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143.3. Principio del Maximo de Pontryagin . . . . . . . . . . . . . . . . . . . . . . . . 18

4. Ejemplo del carro con dos motores 20

*Notas para un curso de 7.5 horas dictado en la Escuela del Doctorado en Matematica de Valparaıso, realizadadesde el 13 al 23 de octubre de 2015.

**Departamento de Matematica, Universidad Tecnica Federico Santa Marıa, Avda. Espana 1680, Valparaıso, Chile.E-mail: [email protected], [email protected]

1

1. Introduccion

La Teorıa de Control surge de necesidades practicas ligadas a solucionar problemas endistintos ambitos, tales como robotica, aeronautica, aeroespacial, electronica, gestion de re-cursos naturales y mas generalmente, en donde la automatizacion de procesos y/o la toma dedecisiones sea necesaria.

Un sistema de control es un sistema dinamico sobre el cual se puede actuar mediante laeleccion de alguno de sus elementos. Este elemento que esta a nuestra disposicion, recibira elnombre de control. Ademas del mencionado control, que tambien recibe el nombre de entradao decision, tenemos una variable de estado que describe el comportamiento del sistema. Lafinalidad de introducir este control es de influenciar el comportamiento del sistema en cuestion,con el fin de alcanzar ciertos objetivos. En muchas aplicaciones tambien hay que considerarun tercer elemento que es la observacion o salida del sistema. Esta es una parte de la variablede estado que es la que se puede observar y utilizar para calcular el control.

La Teorıa de Control analiza las propiedades de este tipo de sistemas. Por ejemplo, lapregunta basica que podemos estudiar es la factibilidad de llevar un sistema desde un estadoinicial a un estado final en un tiempo dado. Ademas, podemos considerar ciertos criterios orestricciones para la funcion de control o el estado. Una vez que sabemos que un sistema puedeser llevado de un estado inicial a otro final, podemos buscar trayectorias que sean optimasbajo ciertos criterios de optimizacion. Tıpicamente, se trata de minimizar una funcion costo oequivalentemente maximizar una funcion beneficio. Dependiendo del criterio a minimizar, lastrayectorias optimas pueden ser muy distintas. Para convencerse de esto, basta pensar en lasdiferentes formas en que conduciremos un vehıculo dependiendo si queremos minimizar ya seael tiempo empleado o el combustible consumido.

Para describir el sistema dinamico sobre el que actua el control, se pueden utilizar, de-pendiendo del problema, ecuaciones diferenciales ordinarias, ecuaciones integrales, ecuacionesen derivadas parciales, sistemas discretos, ecuaciones de diferencias, etc. Esta variedad de ele-mentos matematicos presentes y sus multiples aplicaciones, ubica a la Teorıa de Control en lainterface de diferentes areas del conocimiento.

En este curso, estudiaremos sistemas descritos por ecuaciones diferenciales ordinarias li-neales y nos concentraremos en dos de los principales topicos: la controlabilidad y el controloptimo. Al final de este documento, mencionamos referencias generales para estudiar la Teorıade Control.

2. Controlabilidad

2.1. Definiciones

En este curso trabajaremos con sistemas de ecuaciones diferenciales lineales (EDO) de or-den uno sabiendo que de esta forma incluımos toda EDO lineal de cualquier orden. Para sudescripcion consideraremos, dados T > 0, m,n ∈ N, dos funciones que para cada tiempo, entre-gan matrices con coeficientes reales: A(t) ∈ L∞(0, T ;Mn×n(R)) y B(t) ∈ L∞(0, T ;Mn×m(R)).El sistema de control que estudiaremos es

(1)

x(t) = A(t)x(t) +B(t)u(t), t ∈ [0, T ],x(0) = x0,

donde x0 es el estado inicial y ∀t ∈ [0, T ] tenemos que

2

El estado del sistema esta dado por el vector x(t) ∈ Rn.

El control esta dado por el vector u(t) ∈ Rm.

Definicion 1 (Solucion de EDO) Dada u ∈ L∞(0, T ;Rm), decimos que x : [0, T ] −→ Rnes solucion de (1) si:

(i) x ∈ C([0, T ];Rn)

(ii) x(t) = x0 +∫ t

0 (A(τ)x(τ) +B(τ)u(τ))dτ

Observacion 2 Como x ∈ C([0, T ];Rn) vemos que define una curva o trayectoria en Rn.

Proposicion 3 (Existencia y unicidad de soluciones) Si u ∈ L∞(0, T ;Rm), entonces exis-te una unica solucion del sistema (1).

Notemos que (ii) en Definicion 1 nos da una expresion implıcita para la solucion de (1).Buscaremos ahora una expresion explıcita para la solucion. Para esto, necesitamos recordar lanocion de resolvente.

Definicion 4 (Resolvente) El resolvente R de x = A(t)x es una funcion

R : [0, T ]× [0, T ] −→ Mn×n(R)(t1, t2) −→ R(t1, t2),

tal que la funcion R(·, t2) : [0, T ] −→Mn×n(R) es la solucion de:

∂∂t1R(t1, t2) = A(t1)R(t1, t2)

R(t2, t2) = Id =

1 0 ... 00 1 ... 0...

. . ....

0 .. . 1

Proposicion 5 (Propiedades resolvente) El resolvente cumple lo siguiente:

1. R ∈ C([0, T ]× [0, T ],Mn×n(R))

2. R(t2, t2) = Id

3. R(t1, t2)R(t2, t3) = R(t1, t3)

4. ∂∂t1R(t1, t2) = A(t1)R(t1, t2)

5. ∂∂t2R(t1, t2) = −R(t1, t2)A(t2)

Observacion 6 Tomando t1 = t3 en 3. de Proposicion 5 obtenemos:

R(t1, t2)R(t2, t1) = R(t1, t1) =︸︷︷︸(2)

Id

Es decir R(t1, t2)−1 = R(t2, t1).

3

Observacion 7 Si A no depende de t, entonces el resolvente es la matriz exponencial:

R(t1, t2) = e(t1−t2)A =∞∑k=0

(t1 − t2)kAk

k!

Si la matriz es diagonalizable, es decir

∃P ∈Mn×n(R) invertible∃D ∈Mn×n(R) diagonal

tal que A = PDP−1,

entonces la matriz e(t2−t1)A se calcula facilmente

e(t2−t1)A = P

ed1(t2−t1) ... 0...

. . ....

0 ... edn(t2−t1)

P−1

Cuando A no es diagonalizable, se ocupa la descomposicion de Jordan de la matriz A.

Con el resolvente podemos obtener que la solucion de

x = A(t)x +B(t)u,x(0) = x0,

esta dada por

x(t) = R(t, 0)x0 +

∫ t

0R(t, τ)B(τ)u(τ) dτ.

Hagamos el desarrollo en el caso simple en donde A no depende del tiempo y tenemos untermino F que sı depende del tiempo:

x = Ax+ F

x−Ax = F/

multiplicamos a la izquierda por e−At

e−Atx− e−AtAx = e−AtF/

integramos en∫ t

0

e−Atx(t)− x0 =∫ t

0 e−AτF (τ)dτ

e−Atx(t) = x0 +∫ t

0 e−AτF (τ)dτ

/multiplicamos a la izquierda por eAt

x(t) = eAtx0 +∫ t

0 eA(t−τ)F (τ)dτ.

El caso general se demuestra de igual forma pero aplicando las propiedades del resolvente.

Ejemplo 8 Encontremos la solucion de x = Ax, con A =

(0 11 0

).

Notemos que A es diagonalizable ya que es simetrica. Su polinomio caracterıstico es λ2−1y entonces sus valores propios son λ = 1 y λ = −1.

Con λ = 1, encontramos el vector propio (1, 1)∗.

Con λ = −1, encontramos el vector propio (−1, 1)∗.

Vemos que la solucion general se escribe x(t) = C1(1, 1)∗et + C2(−1, 1)∗e−t.

Las trayectorias caracteısticas son C1(1, 1)∗et, que se aleja del origen, y C2(−1, 1)∗e−t

que converge al origen.

El diagrama de fase esta dado en la Figura 1.

4

-1.0 -0.5 0.0 0.5 1.0

-1.0

-0.5

0.0

0.5

1.0

Figura 1: Diagrama de fase Ejemplo 8.

Ejemplo 9 Notemos que si la matriz A es invertible podemos entonces resolver el sistemax = Ax + F , donde F es un vector constante. Para esto, escribimos x = Ax + AA−1F , yhacemos el cambio de variable z = x + A−1F . Ası, vemos que z satisface el sistema z = Az.Notemos que ası el diagrama de fase de x es igual al de z pero desplazado en A−1F .

Ahora que hemos introducido el tipo de sistemas con que trabajaremos y tenemos la formade sus soluciones, comenzaremos a estudiar los aspectos de control. Para eso, el primer conceptosera la controlabilidad.

Definicion 10 (Controlabilidad) Diremos que el sistema (1) es controlable si ∀x0, xT ∈ Rn,∃u ∈ L∞(0, T ;Rm) tal que x(T ) = xT , donde x = x(t) es la solucion de (1). En este caso,decimos que el control u lleva el sistema (1) de x0 en t = 0 a xT en t = T .

Ejemplo 11 Considere el sistema:

x = u x ∈ Rx(0) = x0 u ∈ R ¿Es controlable?

Tomemos x0, xT ∈ R. Debemos encontrar u tal que el sistema vaya de x0 a xT .

x(t) = u(t)/

Integrando en [0,T],

∫ T

0

x(T )− x0 =

∫ T

0u(t)dt

Tenemos que encontrar u tal que

xT − x0 =

∫ T

0u(t)dt

Vemos que basta con tomar u = xT−x0T . Como esto lo podemos hacer para cualquier par de

estados x0, xT , tenemos que el sistema es controlable.

5

Ejemplo 12 ¿El sistema

x1 = u+ x2

x2 = 1es controlable?

No, no somos capaces de influir en la evolucion de x2. Sin importar que control elijamos,siempre tendremos que x2(t) = t+ x2(0).

2.2. Criterio Integral

Nuestro objetivo ahora es buscar criterios para estudiar la controlabilidad. El primero deellos recibe el nombre de criterio integral, y como veremos, la siguiente matriz juega un rolimportante.

Definicion 13 (Matriz Gramiana) La matriz G, asociada al sistema x = A(t)x + B(t)u,es la matriz simetrica de n× n dada por

G =

∫ T

0R(T, τ)B(τ)B∗(τ)R∗(T, τ)dτ,

donde ∗ denota la traspuesta. Esta matriz G recibe el nombre de matriz Gramiana asociada alsistema (1).

Teorema 14 El sistema x = A(t)x+B(t)u es controlable si y solo si la matriz Gramiana esinvertible.

Demostracion.

⇐=) Supongamos que G es invertible, debemos probar que el sistema es controlable. Seanx0, xT ∈ Rn dos estados. Queremos encontrar u que lleve (1) de x0 a xT .

Sabemos que:

x(t) = R(t, 0)x0 +

∫ t

0R(t, τ)B(τ)u(τ) dτ.

Tenemos que “despejar” u tal que

xT −R(T, 0)x0 =

∫ T

0R(t, τ)B(τ)u(τ) dτ.

Como G es invertible, el siguiente control esta bien definido

u(τ) = B∗(τ)R∗(T, τ)G−1(xT −R(T, 0)x0).

Reemplazando vemos que

x(T ) = R(T, 0)x0 +

∫ T

0R(T, τ)B(τ)B∗(τ)R∗(T, τ)︸ ︷︷ ︸

G

G−1(xT −R(T, 0)x0)

= R(T, 0)x0 + xT −R(T, 0)x0

= xT

Es decir x(T ) = xT . Como esto lo podemos hacer ∀ x0, xT ∈ Rn, hemos demostrado que elsistema es controlable.

6

(=⇒) Supongamos ahora que (1) es controlable. Debemos demostrar que G es invertible. Pro-cederemos por contradiccion. Supongamos que G no es invertible.

Recuerdo: Consideremos una matriz G ∈Mn×n(R).

G invertible ⇔ G : Rn → Rnx 7→ Gx es invertible

⇔ G : Rn → Rn es inyectiva

⇔ Ker(G) = ~0⇔ x ∈ Rn/Gx = 0 = ~0

Si G no es invertible, entonces ∃ y ∈ Rn\~0 tal que Gy = 0, es decir,(∫ T

0R(T, τ)B(τ)B∗(τ)R∗(T, τ)dτ

)y = 0.

Ası, podemos escribir y∗Gy = 0,∫ T

0y∗R(T, τ)B(τ)B∗(τ)R∗(T, τ)ydτ = 0.

Notemos que x∗x = x · x = |x∗|2 = |x|2. Usemos que (AB)∗ = B∗A∗ para obtener∫ T

0|y∗R(T, τ)B(τ)|2dτ = 0.

Esto que implica que para casi todo (c.t.p) τ ∈ [0, T ] se tiene

y∗R(T, τ)B(τ) = 0.

Por otra parte, sabemos que las soluciones del sistema (1),

x = A(t)x+B(t)u,x(0) = x0,

satisfacen

x(T ) = R(T, 0)x0 +

∫ T

0R(T, τ)B(τ)u(τ)dτ.

Multiplicando por y∗, vemos que

y∗x(T ) = y · x(T ) = y∗R(T, 0)x0 +

∫ T

0y∗R(T, τ)B(τ)u(τ)dτ︸ ︷︷ ︸

0

.

Entonces, vemos que sin importar que control u = u(t) tomemos, siempre obtendremos

(2) y · x(T ) = y ·R(T, 0)x0,

es decir no podemos llegar a un estado xT arbitrario. Por ejemplo, tomemos x0 = ~0. De (2),y · x(T ) = 0, es decir, para todo control u, x(T )⊥y. En particular, esto implica que no puedoimponer x(T ) = y. Es decir, el sistema no es controlable.

7

Ejemplo 15 Consideremos el sistema

x1 = ux2 = x1 + tu

en donde el estado es

(x1

x2

)∈ R2 y el control u ∈ R.

Escribamos el sistema en la forma x = A(t)x+B(t)u(x1

x2

)=

(0 01 0

)︸ ︷︷ ︸

A

(x1

x2

)+

(1t

)︸ ︷︷ ︸B(t)

u

Encontremos el resolvente.

R(T, τ) = e(T−τ)A =

∞∑k=0

(T − τ)kAk

k!= Id +

(0 0

T − τ 0

)+ 0 =

(1 0

T − τ 1

)

Encontremos G.

G =

∫ T

0R(T, τ)B(τ)B∗(τ)R∗(T, τ)dτ

=

∫ T

0

(1 0

T − τ 1

)(1τ

)(1 τ

)( 1 T − τ0 1

)dτ

=

∫ T

0

(1 TT T 2

)dτ =

(T T 2

T 2 T 3

)Vemos que det(G) = T 4 − T 4 = 0, es decir G no es invertible, por lo tanto el sistema noes controlable.

Ejemplo 16 Consideremos el sistema

(x1

x2

)=

(0 10 0

)(x1

x2

)+

(01

)u

Encontremos el resolvente

R(T, τ) = e(T−τ)A =

(1 00 1

)+

(0 T − τ0 0

)=

(1 T − τ0 1

)Encontremos la matriz gramiana

G =

∫ T

0

(1 T − τ0 1

)(01

)(0 1

)( 1 0T − τ 1

)dτ

=

∫ T

0

((T − τ)2 T − τT − τ 1

)dτ

=

(13T

3 12T

2

12T

2 T

)Vemos que G es invertible ya que det(G) = 1

3T4 − 1

4T4 = 1

12T4 6= 0. En conclusion, el

sistema es controlable.

8

Veamos ahora que el control dado por el teorema, usando la matriz gramiana, tiene lapropiedad de ser el de menor norma L2. Diremos que el control es de norma mınima. Esto nosdice que control construido es optimo en un sentido preciso.

Proposicion 17 Sea u el control dado por el teorema anterior tal que la solucion dex = A(t)x+B(t)u,x(0) = x0,

satisface x(T ) = x1. Sea u cualquier control que lleva al sistema de x0 a x1. Entonces∫ T

0|u(t)|2dt ≤

∫ T

0|u(t)|2dt,

con igualdad si y solo si u(t) = u(t) para casi todo (c.t.p.) t ∈ [0, T ].

Demostracion. Llamemos x a la solucion con control u y llamemos x a la solucion concontrol u.

Tenemos

x(0) = x(0) = x0,x(T ) = x(T ) = x1,

y ademas

x1 = x(T ) = R(T, 0)x0 +

∫ T0 R(T, τ)B(τ)u(τ)dτ,

x1 = x(T ) = R(T, 0)x0 +∫ T

0 R(T, τ)B(τ)u(τ)dτ.

Observemos que de lo anterior se deduce que

(3)

∫ T

0R(T, τ)B(τ)(u(τ)− u(τ))dτ = 0.

Podemos escribir lo siguiente∫ T0 |u(t)|2dt =

∫ T0 |u(t)− u(t) + u(t)|2dt

=∫ T

0 |u(t)− u(t)|2dt+∫ T

0 |u(t)|2dt+ 2∫ T

0 (u(t)− u(t))∗u(t)dt.

Observemos que si∫ T

0 (u − u)udt = 0, entonces hemos concluido la demostracion. En efecto,en ese caso tendrıamos∫ T

0|u(t)|2 dt =

∫ T

0|u(t)− u(t)|2 dt︸ ︷︷ ︸≥0 (=0 ssi u=u)

+

∫ T

0|u(t)|2 dt.

Hemos reducido la prueba a mostrar que∫ T

0 (u− u)∗u dt = 0.Sabemos, por construccion, que u = B∗R∗G−1(x1 −R(T, 0)x0).

De esta forma,

∫ T0 (u(t)− u(t))∗u(t) dt =

∫ T0 (u− u)∗B∗R∗G−1(x1 −R(T, 0)x0) dt

=

∫ T

0R(T, t)B(t)(u(t)− u(t))dt︸ ︷︷ ︸

=0 (por (3))

G−1(x1 −R(T, 0)x0) = 0,

lo que concluye la demostracion.

9

Ejercicio 18 Considere el sistema

(4)

ϕ(t)− ϕ(t) = u(t),ϕ(0) = ϕ0, ϕ(0) = ω0.

Escriba el sistema en la forma x = Ax+Bu.

Vea que la matriz gramiana esta dada por

G =1

8

(e2T − e−2T − 4T e2T + e−2T − 2e2T + e−2T − 2 e2T − e−2T + 4T

)Vea que det(G) es proporcional a

(cosh(2T ) − 1 − 2T 2

)y que no puede ser 0 si T > 0.

Concluya sobre la controlabilidad del sistema (4).

2.3. Criterio de Kalman

El criterio integral visto anteriormente requiere calcular la matriz G para lo que es necesarioencontrar el resolvente (o matriz exponencial). Esto puede ser muy complicado, incluso parasistemas simples. Veamos ahora un criterio mas facil de verificar, que tambien es una condicionnecesaria y suficiente para tener la controlabilidad cuando las matrices A y B no dependendel tiempo.

Consideramos en esta seccion sistemas definidos por matricesA ∈Mn×n(R) yB ∈Mn×m(R)que no dependen del tiempo. Al igual que antes, el estado vive en Rn y el control en Rm, esdecir,

(5) x(t) = Ax(t) +Bu(t)

Teorema 19 (Condicion de Kalman) El sistema (5) es controlable si y solo si

rang[B |AB |A2B | . . . |A(n−1)B

]= n,

en donde rang es el rango de la matriz, es decir, el numero de filas (o columnas) linealmenteindependientes de la matriz.

Observacion 20 La matriz de n filas y (nm) columnas

[B| AB︸︷︷︸m columnas

| . . . |An−1B]︸ ︷︷ ︸n·m columnas

recibe el nombre de matriz de Kalman. Vemos que mientras mayor sea m, la matriz de Kal-man tiene mas vectores columnas y ası es mas facil encontrar n vectores columnas que seanlinealmente independientes. Esto coincide con la intuicion que dirıa que mientras mas controleshaya, mas posibilidades hay de controlar el sistema.

Observacion 21 La condicion no involucra el tiempo, ası que si (1) es controlable para alguntiempo, lo sera tambien para todo tiempo T > 0.

10

Demostracion. Como A no depende del tiempo, tenemos que R(t1, t2) = e(t1−t2)A y ası

G =

∫ T

0e(T−τ)ABB∗e(T−τ)A∗

dτ.

⇐=) Procederemos por contradiccion. Supongamos que el sistema (5) no es controlable paraT > 0. Del criterio integral, sabemos que G no es invertible por lo que ∃ y ∈ Rn\0 tal que Gy =0.

Como en la demostracion anterior tenemos que y∗Gy = 0, o equivalentemente∫ T

0|y∗e(T−τ)AB|2dτ = 0.

Esto implica que

(6) η(τ) := y∗e(T−τ)AB = 0 ∀τ ∈ [0, T ].

Tomamos τ = T para ver que η(T ) = y∗B = 0. Llamando Bi a las columnas de la matrizB, obtenemos

y∗B = [y∗B1|y∗B2| . . . |y∗Bm] = ~0,

es decir,

y∗B1 = y∗B2 = . . . = y∗Bm = 0

o equivalentementey ⊥ B1, y ⊥ B2, . . . , y ⊥ Bm

Derivamos η en (6) y obtenemos

η′(τ) = y∗(−Ae(T−τ)A)B = 0.

Evaluamos en τ = T y se llega a η′(T ) = −y∗AB = 0.

Con un desarrollo como el anterior, vemos que y es perpendicular a las columnas de AB.Ası sucesivamente, obtenemos despues de derivar k veces

η(k)(T ) = (−1)ky∗AkB = 0.

Conclusion: el vector y es perpendicular a todos los vectores columnas de la matriz deKalman, lo que es una contradiccion ya que asumimos que el rango de esta matriz era n.

=⇒) De nuevo procederemos por contradiccion. Suponemos que el sistema es controlable yque los vectores columnas de [B|AB|...|A(n−1)B] no generan Rn. De esta forma, ∃ y ∈ Rn \~0tal que

y∗AkB = 0 ∀k ∈ 0, ..., n− 1,

lo que implica quey∗AkB = 0 ∀k ∈ N.

11

En efecto, sea P el polinomio caracterıstico de A.

P (z) = zn + αn−1zn−1 + ...+ α1z + α0

Del teorema de Caley-Hamilton sabemos que P (A) = 0, es decir:

An = −αn−1An−1 − ...− α1A− α0

Usando esto, vemos que

y∗AnB =︸︷︷︸C-H

y∗(−αn−1An−1 − ...− α0I)B

= −αn−1 y∗An−1B︸ ︷︷ ︸

0

−αn−2 y∗An−2B︸ ︷︷ ︸

0

−...− α0 y∗B︸︷︷︸0

= 0

Inductivamente obtenemos y∗AkB = 0 ∀k ∈ N.

Con esto llegamos a que la funcion

η(τ) : [0, T ] −→ M1×m(R)

τ −→ y∗e(T−τ)AB

satisface η(k)(T ) = 0 ∀k ∈ N. Como η es analıtica, esta condicion implica que η ≡ 0, es deciry∗e(T−τ)AB = 0.

Por otro lado las soluciones de (5) son tales que

x(T ) = eTAx0 +

∫ T

0e(T−τ)ABu(τ)dτ

Multiplicando por y∗ llegamos a que, sin importar el control u, se tiene y∗x(T ) = y∗eTAx0 + 0.

De donde vemos que no se puede controlar la cantidad y∗x(T ). Esto contradice la contro-labilidad de (5).

Ejemplo 22 ¿Son los siguientes sistemas controlables?

1. ddt

(xy

)=

(1 2−1 4

)(xy

)+

(11

)u

Vemos que

rang

(1 31 3

)= 1 6= 2,

por lo que el sistema no es controlable.

2. ddt

(xy

)=

(1 12 3

)(xy

)+

(10

)u

Vemos que

rang

(1 10 2

)= 2,

por lo que el sistema sı es controlable.

12

Ejercicio 23 Considere el sistema x = Ax+Bu, con A =

(−1

2 α6α −3

4

), y B =

(10

).

¿Para que valores del parametro α, el sistema es controlable?

Ejercicio 24 ¿Para que valores de α el sistema siguiente es controlable?(xy

)=

(2 α− 30 2

)(xy

)+

(1 1

α2 − α 0

)(uv

)

Ejercicio 25 (Sistema de resortes acoplados) Testear la controlabilidad del sistemax = −k1x+ k2(y − x),y = −k2(y − x) + u.

en donde el control esta dado por u = u(t).

Ejercicio 26 Mostrar la controlabilidad del sistema

x = Ax+Bu

con:

A =

−1 8 80 −2 00 −2 −3

, B =

111

.

3. Control Optimo

3.1. Definiciones

Como en la seccion anterior, estudiaremos el sistema

(7) x(t) = A(t)x(t) +B(t)u(t)

en donde ∀t ≥ 0, tenemos x(t) ∈ Rn, u(t) ∈ Rm, A(t) ∈ Mn×n y B(t) ∈ Mn×m con A ∈L∞(0, T ;Mn×n(R)) y B ∈ L∞(0, T ;Mn×m(R)). Una gran diferencia sera que ahora nuestrocontrol solo podra tomar ciertos valores, es decir u ∈ L∞(0, T ; Ω), con Ω ⊆ Rm un subconjuntocompacto. En muchos casos tomaremos m = 1 y consideraremos Ω = [−a, a] para algun a > 0.

Definicion 27 Dados x0 y t definimos el conjunto de estados alcanzables desde x0 como

RΩ(t, x0) =x(t)

/x es solucion de (7) con x(0) = x0 ∧ u ∈ L∞(0, t; Ω)

⊆ Rn.

Observacion 28 Llamaremos M(t) a la resolvente de (7) cuando imponemos una condicioninicial en t = 0. Usando la notacion de la seccion anterior, tendrıamos M(t) = R(t, 0).Notemos que si 0 ∈ Ω, entonces M(t)x0 ∈ RΩ(t, x0) ya que basta tomar u ≡ 0.

Necesitaremos medir distancias entre conjuntos ası que introducimos la siguiente nocion.

13

Definicion 29 (Distancia entre conjuntos) Sean A,B ⊆ Rn, definimos

d(A,B) = max

supy∈A

d(y,B), supy∈B

d(y,A)

donde d(y,B) = ınf

x∈Bd(y, x).

3.2. Problema de tiempo mınimo

Dados x0 y x1 en Rn, queremos encontrar un tiempo t∗ tal que se cumpla:

∃u∗ ∈ L∞(0, t∗; Ω) tal que la solucion de (7) satisfaga x∗(0) = x0 y x∗(t∗) = x1.

Si t < t∗, entonces no existe u ∈ L∞(0, t; Ω) tal que la solucion de (7) satisfaga x(0) = x0

y x(t) = x1.

Es decir, entre todos los controles que llevan (7) de x0 a x1, buscamos el que lo hace en elmenor tiempo posible.

Veamos propiedades utiles del conjunto de estados alcanzables.

Teorema 30 Sean Ω ⊂ Rm un conjunto compacto, T > 0 y x0 ∈ Rn. Entonces ∀ t ∈ [0, T ],tenemos que RΩ(t, x0) es convexo, compacto y varıa continuamente con t.

Demostracion.

Convexidad de RΩ(t, x0)

Caso Ω convexo: Sean x1 y x1 ∈ RΩ(t, x0) y λ ∈ [0, 1]. Queremos demostrar que

λx1 + (1− λ)x1 ∈ RΩ(t, x0).

Sabemos que ∃ u, u tal que

x1 = M(t)x0 +M(t)

∫ t

0M(s)−1B(s)u(s)ds

x1 = M(t)x0 +M(t)

∫ t

0M(s)−1B(s)u(s)ds

(8)

De esta forma,

λx1 + (1− λ)x1 = M(t)x0 +M(t)

∫ t

0M(s)−1B(s)λu(s) + (1− λ)u(s)ds

Como Ω es convexo, λu+(1−λ)u ∈ L∞(0, t; Ω) y vemos que (λx1+(1−λ)x1) ∈ RΩ(t, x0).

Caso Ω general: Sean x1 y x1 ∈ RΩ(t, x0) y λ ∈ [0, 1]. Queremos demostrar que

(λx1 + (1− λ)x1) ∈ RΩ(t, x0).

Como antes, de (8) tenemos que

λx1 + (1− λx1) = M(t)x0 +M(t)

∫ t

0M(s)−1B(s)λu(s) + (1− λ)u(s)ds.

Aca necesitaremos el siguiente lema, cuya demostracion omitimos.

14

Lema 31 (Lyapunov) Sea T > 0 y f ∈ L1(0, T ;Rn) entonces∫ωf(s)ds | ω ⊆ [0, T ] medible

es convexo en Rn.

Volvamos a nuestra demostracion. Definamos

X =

Xω =

( ∫ωM(s)−1B(s)u(s)ds∫ωM(s)−1B(s)u(s)ds

)∣∣∣∣∣ω ⊆ [0, T ] medible

⊆ R2n

y =∫ t

0 M(s)−1B(s)u(s)ds

y =∫ t

0 M(s)−1B(s)u(s)ds.

Vemos que X0 =

(00

), X[0,t] =

(yy

).

Por el Lema de Lyapunov, obtenemos que ∃ ω ⊆ [0, T ] medible tal que Xω =

(λyλy

).

Como Xω +Xωc = X[0,t] =

(yy

)tenemos que Xωc =

((1− λ)y(1− λ)y

).

Para demostrar lo que queremos, nos basta con encontrar un control v tal que∫ t

0M(s)−1B(s)v(s)ds =

∫ωM(s)−1B(s)v(s)ds+

∫ωc

M(s)−1B(s)v(s)ds = λy+(1−λ)y.

Definamos

v(s) =

u(s), si s ∈ ω

u(s), si s ∈ ωc.Luego∫ t

0M−1(s)B(s)v(s)ds =

∫ωM−1(s)B(s)u(s)ds︸ ︷︷ ︸

primera coordenada de Xω

+

∫ωc

M−1(s)B(s)u(s)ds︸ ︷︷ ︸segunda coordenada de Xωc

= λy + (1− λ)y

lo cual prueba la convexidad de RΩ(t, x0).

Compacidad de RΩ(t, x0)

Realizaremos la demostracion para el caso Ω convexo. Sea xk1k∈N ⊆ RΩ(t, x0) una sucesionde estados alcanzables asociados a controles ukk∈N ⊆ L∞(0, t; Ω). De esta forma tenemos

xk(t) = xk1 = M(t)x0 +M(t)

∫ t

0M−1(s)B(s)uk(s)ds.

Como uk ∈ L∞(0, t; Ω) ⊆ L2(0, t; Ω) ⊆ L2(0, t;Rm), vemos que xk(t) ∈ L∞(0, t;Rn) ⊆L2(0, t;Rn). Como Ω es compacto y por las propiedades de la resolvente M(·) (continuidad) yde B(·) (en L∞(0, T ;Mn×m(R))), se tendra que existe C > 0 tal que

‖xk(·)‖L2(0,t;Rn) ≤ C ∀ k ∈ N.

15

Luego, la sucesion de trayectorias xk(·)k∈N es acotada en L2(0, t;Rn).

Como la sucesion de controles ukk∈N esta tambien acotada en L2(0, t;Rm) y xk =A(t)xk +B(t)uk, se concluye que xkk∈N esta acotada en L2(0, t;Rn).

Ası, tenemos que la sucesion de trayectorias xkk∈N esta acotada en H1(0, t;Rn), que seinyecta compactamente en C([0, t];Rn). Esto nos dice que existe una subsucesion (que notare-mos igual) xkk∈N convergente en C([0, t];Rn).

Por otra parte, como unn∈N esta acotada en L2(0, T ; Ω) ⊆ L2(0, T ;Rm), existira u ∈L2(0, T ;Rm) tal que una subsucesion converge a u. Como estamos suponiendo Ω convexo, setendra que u ∈ L2(0, t; Ω).

Podemos de esta forma pasar al lımite,

xk1 = M(t)x0 +∫ t

0 M(t)M(s)−1B(s)uk(s)dsy y yx1 M(t)x0

∫ t0 M(t)M−1(s)B(s)u(s)ds

Conclusion xk1 −→ x1 con x1 ∈ RΩ(t, x0), lo que muestra la compacidad de RΩ(t, x0).

Continuidad de RΩ(t, x0)

Dado ε > 0, queremos encontrar δ > 0 tal que

|t1 − t2| < δ ⇒ d(RΩ(t1, x0),RΩ(t2, x0)) ≤ ε

en donde la distancia es la introducida en Definicion 29.

Basta con demostrar

1. ∀ y ∈ RΩ(t2, x0), d(y,RΩ(t1, x0)) < ε.

2. ∀ y ∈ RΩ(t1, x0), d(y,RΩ(t2, x0)) < ε.

Probemos (1) (propiedad (2) es analoga). Para esto, veamos que

∀ y ∈ RΩ(t2, x0),∃ z ∈ RΩ(t1, x0) tal que ‖y − z‖ < ε.

Tenemos que y = x(t2) para alguna trayectoria x = x(t) asociada a un control u ∈L∞(0, t; Ω). Supongamos que t1 < t2 y veamos que el z buscado es z = x(t1) (utilizandoel mismo control u).

Como ‖y − z‖ = ‖x(t2)− x(t1)‖, nos interesa la diferencia

x(t2)− x(t1) = M(t2)x0 +

∫ t2

0M(t2)M(s)−1B(s)u(s)−M(t1)x0 −

∫ t1

0M(t1)M(s)−1B(s)u(s)ds

= M(t2)

∫ t2

t1

M(s)−1B(s)u(s)ds+ [M(t2)−M(t1)]

x0 +

∫ t1

0M(s)−1B(s)u(s)ds

= I1 + I2

16

I1 es pequeno si t1 ∼ t2 (ya que el intevalo de integracion sera pequeno).

I2 es pequeno si t1 ∼ t2 (ya que M es continuo).

Esto termina la demostracion buscada.

Definicion 32 (Tiempo mınimo) Dado x0 y x1 ∈ Rn tal que ∃ T, x1 ∈ RΩ(T, x0). Sea t∗ elmınimo valor de t tal que x1 ∈ RΩ(t, x0), es decir,

t∗ = ınft > 0 | x1 ∈ RΩ(t, x0)

¿El tiempo mınimo esta bien definido?

La respuesta es sı, ya que el conjunto al cual se le toma ınfimo es no vacıo, acotado inferior-mente y cerrado (esto viene de la continuidad del mapeo t −→ RΩ(t, x0).

Esto nos permite establecer el siguiente resultado.

Teorema 33 Si existe T > 0 y u ∈ L∞(0, T ; Ω) tal que x(0) = x0 y x(T ) = x1, entoncesexiste una trayectoria x∗ asociada a un control u∗ de tiempo optimal que lleva x0 a x1.

Por otro lado, tambien por la continuidad de t −→ RΩ(t, x0), se deduce

x1 ∈ ∂RΩ(t∗, x0) = RΩ(t∗, x0)− int(RΩ(t∗, x0)).

Finalmente, utilizando argumentos similares a los de la demostracion del Teorema 30 (cuandose prueba la convexidad de RΩ(t, x0)), se deduce lo siguiente.

Corolario 34 (Principio del Bang-Bang) Denotemos conv(Ω) a la envoltura convexa deΩ. Entonces

RΩ(t, x0) = x(t) | u ∈ L∞(0, t; Ω)‖

Rconv(Ω)(t, x0) = x(t) | u ∈ L∞(0, t; conv(Ω)).

Como conv(Ω) = conv(∂Ω) se concluye

RΩ(t, x0) = R∂Ω(t, x0).

La anterior igualdad quiere decir que los puntos alcanzables quedan descritos solo porcontroles que toman valores en la frontera del conjunto Ω. Por ejemplo, si Ω = [−a, a] cona > 0, se tendra

RΩ(t, x0) = R−a,a(t, x0).

implicando que un punto es alcanzable por un control u a valores en Ω = [−a, a] si y solo si,es alcanzable por un control que solamente toma valores en −a, a.

Definicion 35 Un control u se dice extremal si la trayectoria asociada satisface x(t) ∈ ∂RΩ(t, x0)para todo t.

Observacion 36 En particular, todo control de tiempo mınimo es extremal.

17

3.3. Principio del Maximo de Pontryagin

Sin perdida de generalidad, supondremos que Ω es convexo (ver Corolario 34). Sea x1 talque ∃ T ∗ con x1 ∈ RΩ(T ∗, x0) y sea u(t) el control de tiempo mınimo cumple que x(T ) = x1.Ası, llamamos T al tiempo optimal.

Como RΩ(T, x0) es convexo y compacto y x(T ) ∈ ∂RΩ(T, x0), existe un vector no nuloPT ∈ Rn tal que

∀ x1 ∈ RΩ(T, x0), 〈PT , x1 − x(T )〉 ≤ 0.

Sea un control u con trayectoria asociada x. Como x(T ) ∈ RΩ(T, x0), se tiene

〈PT , x(T )〉 ≤ 〈PT , x(T )〉

lo que implica∫ T

0P ∗TM(T )M(t)−1B(t)u(t)dt ≤

∫ T

0P ∗TM(T )M(t)−1B(t)u(t) dt.

Definiendo

(9) p(t) = (P ∗TM(T )M(t)−1)∗,

se tiene

(10)

∫ T

0p∗(t)B(t)u(t)dt ≤

∫ T

0p∗(t)B(t)u(t) dt ∀ u.

Observe que si M(·) es la resolvente asociada a A(·), entonces M∗(·) es la resolvente asociadaa A∗(·). De la definicion (9) se tiene

p(t) = (M∗(t))−1M∗(T )PT = M∗(−t)M∗(T )PT .

Derivando p(t) con respecto a t se obtiene

(11)

p = −A∗p

p(T ) = PT .

Probemos que, al ser u extremal, se tiene

(12) p∗(t)B(t)u(t) = maxv∈Ω

p∗(t)B(t)v

c.t.p. en [0, T ].

Demostracion: Si (12) no fuera cierto, entonces

(13) p∗(t)B(t)u(t) < maxv∈Ω

p∗(t)B(t)v

sobre un conjunto I ⊆ [0, T ] de medida positiva.Definamos el siguiente control

u(t) =

u(t) si t /∈ I

Arg maxv∈Ω

p∗(t)B(t)v si t ∈ I

18

De (13) observe que

p∗(t)B(t)u(t) < maxv∈Ω

p∗(t)B(t)v = p∗(t)B(t)u(t) ∀ t ∈ I.

Por lo tanto, ∫ T

0p∗(t)B(t)u(t)dt >

∫ T

0p∗(t)B(t)u(t)dt

lo que contradice (10), concluyendo ası que (12) es cierto.

Supongamos ahora que existe un vector no nulo PT ∈ Rn y una funcion p : [0, T ] −→ Rnsolucion de (11). Si para p(·) se define el control

u(t) = Arg maxv∈Ω

p∗(t)B(t)v,

y x(·) es la trayectoria asociada a u(·), concluiremos (utilizando en el sentido inverso losargumentos anteriores) que

(14) 〈x1 − x(T ), PT 〉 ≤ 0 ∀ x1 ∈ RΩ(T, x0).

Veamos que esto implicax(T ) ∈ ∂RΩ(T, x0).

Supongamos que no. Si x(T ) ∈ intRΩ(T, x0) entonces existe ε > 0 tal que la bola centradaen x(T ) y de radio ε, que notaremos B(x(T ), ε), esta contenida en RΩ(T, x0). Ası, de (14) sededuce

〈z, PT 〉 ≤ 0 ∀ z ∈ B(0, ε),

implicando PT = 0 lo que es una contradiccion.

Conclusion: Acabamos de demostrar el siguiente resultado.

Teorema 37 Para el sistema

x(t) = A(t)x(t) +B(t)u(t),

x(0) = x0,

el control u es extremal si y solo si existe un vector no nulo PT ∈ Rn y p = p(t) solucion dep = −A∗p

p(T ) = PT .

tal quep∗(t)B(t)u(t) = max

v∈Ωp∗(t)B(t)v

c.t.p. en [0, T ]

Observacion 38

1. El vector p(t) ∈ Rn recibe el nombre de vector adjunto.

19

2. p(T ) o p(0) no se conoce explıcitamente, por lo que no se puede usar el teorema anteriorpara construir el control en forma directa.

3. Si m = 1, es decir u(t) ∈ R y Ω = [−a, a] con a > 0 entonces el teorema anterior implicaque

u(t) = a signo[B∗(t)p(t)].

Por lo anterior la funcion B∗(t)p(t) recibe el nombre de funcion de conmutacion. Untiempo t en donde B∗(t)p(t) cambia de signo, recibe el nombre de tiempo de conmutacion.

4. Si u es extremal, entonces de (14) se deduce que p(t) es normal exterior a RΩ(t, x0).

Ejercicio 39 (Ver Ejemplo 8) Considere el sistema

x(t) = y(t), y(t) = x(t) + u(t),

con la restriccion |u(t)| ≤ 1.

Estudiar como son las trayectorias con controles extremales.

Encuentre el conjunto D ⊂ R2 tal que si (x(0), y(0)) ∈ D, entonces el problema de tiempomınimo para llegar a (0, 0) posee una solucion. Bosqueje, en el diagrama de fase, comoson las trayectorias optimas.

4. Ejemplo del carro con dos motores

En este ejemplo consideraremos un carro de masa unitaria, que se mueve sobre un rielrecto. El carro consta de motores propulsores, uno a cada lado. Ver Figura 2. Para describirel estado de este sistema utilizaremos q(t) para la posicion y v(t) = q(t) para la velocidad. Elcontrol vendra dado por una funcion α(t) que satisface −1 ≤ α(t) ≤ 1, y que representa elempuje que recibe el carro producto de la accion de los motores.

Figura 2: Carro a dos motores.

La ecuacion que modela la evolucion de este sistema es

(15) q(t) = α(t),

que tambien podemos escribir como un sistema de primer order como sigue

(16)d

dt

(qv

)=

(0 10 0

)(qv

)+

(01

)α.

20

Dada una condicion inicial q(0) = q0 y v(0) = v0 para este problema, nuestro objetivo es en-contrar el control α∗ que lleva el estado (q, v) al origen y al reposo en el mınimo tiempo posible.

Este sistema es controlable. En efecto, se encuentra que la matriz de Kalman es(1 00 1

).

Observacion 40 Notemos que el criterio integral, aplicado a este sistema en Ejemplo 16, esmucho mas complicado.

Podemos ası aplicar el Teorema 33 para demostrar que el problema de tiempo mınimo tieneuna solucion optima. Para buscarla usamos el Teorema 37, que nos lleva a resolver el sistemaadjunto

d

dt

(p1

p2

)=

(0 0−1 0

)(p1

p2

)Se obtiene que

p1 = 0 ⇒ p1(t) = p1(0)

p2 = −p1 = −p1(0) ⇒ p2(t) = −tp1(0) + p2(0)

de donde la funcion de conmutacion resulta ser

B∗(t)p(t) =(

0 1)( p1

p2

)= p2(t) = −tp1(0) + p2(0).

Esto nos dice que el control α∗ de tiempo mınimo satisface

α∗(t) = signo(−tp1(0) + p2(0))

por lo que concluimos que cambia a lo mas una vez de signo.Debemos encontrar como son las trayectorias con controles extremales α = 1 o α = −1.

Este tipo de controles reciben el nombre de controles bang-bang. Para llevar el carro al reposoprendemos alternadamente el motor derecho a su maxima potencia (α = −1) o el motorizquierdo a su maxima potencia (α = 1). Para hacernos una idea de la trayectoria optimal,veamos como se comportan las soluciones de (16) cuando el control vale 1 o -1.

Supongamos α = 1. En este caso las ecuaciones son

q = v, v = 1,

lo que implica vv = q, es decir,1

2

d

dt(v2) = q.

Integrando de t0 a t obtenemos

v2(t)

2− v2(t0)

2= q(t)− q(t0),

de donde podemos escribir

(17) v2(t) = 2q(t) + b,

con b = v2(t0)− 2q(t0)) una constante. Esto nos dice que la trayectoria permanece en lacurva (17) y como v = 1, se mueve hacia arriba. Ver Figura 3.

21

Figura 3: Curvas asociadas con α = 1.

Supongamos α = −1. En este caso las ecuaciones son

q = v, v = −1,

lo que implica vv = −q, es decir1

2

d

dt(v2) = −q.

Integrando de t0 a t obtenemos

v2(t)

2− v2(t0)

2= −q(t) + q(t0),

de donde podemos escribir

(18) v2(t) = −2q(t) + c,

con c = 2q(t0) − v2(t0) una constante. Esto nos dice que la trayectoria permanece en lacurva (18) y como v = −1, se mueve hacia abajo. Ver Figura 4.

Con este analisis, podemos disenar trayectorias que lleven cualquier estado inicial del carroal reposo en el origen. Como buscamos la trayectoria que cumpla esto en un tiempo mınimo,una posible respuesta viene dada por la estrategia siguiente. Supongamos que partimos de unaposicion positiva con velocidad positiva (q0, v0). La estrategia viene dada por prender el motorderecho a su maxima capacidad (α = −1) y ası desplazarnos hacia abajo por la parabolav2 = −2q + (v2

0 + 2q0), hasta que intersectemos la parabola que pasa por el origen v2 = 2q.Ver Figura 5. En ese momento apagamos el motor derecho y prendemos el izquierdo (α = 1).Ası comenzaremos a movernos hacia arriba en la parabola que pasa por el origen y llevaremosel sistema al origen y al reposo.

Gracias al Principio del Maximo de Pontryagin, podemos estar seguros que la estrategiade la Figura 5 es la optima.

22

Figura 4: Curvas asociadas con α = −1.

Figura 5: Estrategia optima.

23

Referencias

[1] D. Bertsekas, Dynamic programming and optimal control, Vol. I, Third edition. AthenaScientific, Belmont, MA, 2005.

[2] F. Bonnans, P. Rouchon, Commande et optimisation de systemes dynamiques, Edi-tions Ecole Polytechnique, 2005.

[3] J.-M. Coron, Control and Nonlinearity, Mathematical Surveys and Monographs, Ame-rican Mathematical Society, Providence, RI, 2007.

[4] L. C. Evans, An Introduction to Mathematical Optimal Control Theory, Lecture notes(http://math.berkeley.edu/$\sim$evans/control.course.pdf).

[5] H. K. Khalil, Nonlinear Systems, Macmillan Publishing Company, New York, 1992.

[6] H. Nijmeijer, A. van der Schaft, Nonlinear Dynamical Control Systems. Springer-Verlag, New York, 1990.

[7] E. D. Sontag, Mathematical Control Theory, Deterministic finite-dimensional systems,Second edition, Texts in Applied Mathematics, Springer-Verlag, New York, 1998.

[8] E. Trelat, Controle Optimal, Theorie & applications. Mathematiques Concretes, Vui-bert, Paris, 2005.

24