Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
cours de
Francis Clarke
Optimisation II
printemps 2017CM1
Il s’agit d’un cours en optimisation dynamique
CM1 = Calcul des variations : la théorie classique
Détails : chapitre 14 de FC
FC = “Functional analysis, calculus of variations and optimal control” par Francis Clarke Graduate Texts in Mathematics 264 Springer-Verlag 2013
1
2
1
Clarke
Francis ClarkeFunctional Analysis, Calculus of Variations and Optimal Control
Graduate Texts in Mathematics
Functional Analysis, Calculus ofVariations and Optimal Control
Francis Clarke
Mathematics
GTM264
Functional Analysis, Calculus of Variations and Optimal Control
Functional analysis owes much of its early impetus to problems that arise in the calculus of variations. In turn, the methods developed there have been applied to optimal control, an area that also requires new tools, such as nonsmooth analysis. ! is self-contained textbook gives a complete course on all these topics. It is written by a leading specialist who is also a noted expositor.
! is book provides a thorough introduction to functional analysis and includes many novel elements as well as the standard topics. A short course on nonsmooth analysis and geometry completes the " rst half of the book whilst the second half concerns the calculus of variations and optimal control. ! e author provides a comprehensive course on these subjects, from their inception through to the present. A notable feature is the inclusion of recent, unifying developments on regularity, multiplier rules, and the Pon-tryagin maximum principle, which appear here for the " rst time in a textbook. Other major themes include existence and Hamilton-Jacobi methods.
! e many substantial examples, and the more than three hundred exercises, treat such topics as viscosity solutions, nonsmooth Lagrangians, the logarithmic Sobolev inequality, periodic trajectories, and systems theory. ! ey also touch lightly upon several " elds of application: mechanics, economics, resources, " nance, control engineering.
Functional Analysis, Calculus of Variations and Optimal Control is intended to support several di# erent courses at the " rst-year or second-year graduate level, on functional analysis, on the calculus of variations and optimal control, or on some combination. For this reason, it has been organized with customization in mind. ! e text also has considerable value as a reference. Besides its advanced results in the calculus of varia-tions and optimal control, its polished presentation of certain other topics (for example convex analysis, measurable selections, metric regularity, and nonsmooth analysis) will be appreciated by researchers in these and related " elds.
9 7 8 1 4 4 7 1 4 8 1 9 7
ISBN 978-1-4471-4819-7
Nous allons traiter les chapitres 14-16, 19, et 21-24 (pas entièrement) de FC
3
4
FC = “Functional analysis, calculus of variations and optimal control” par Francis Clarke Graduate Texts in Mathematics 264 Springer-Verlag 2013
Achat : http://www.springer.com/gp/book/9781447148197(30! le chapitre (!), 59! le livre élec, 72! le vrai)
Les diapos (et en ce moment le livre) :
Aller sur le site web de la Licence math, choisir "Licence 2ème année", ensuite cliquer sur "page de cours" près du nom Francis Clarke (en haut, Anal III)... ensuite regarder vers le bas de cette page
5
6
optimisation et modélisation :
dimension finie, ou dimension infinie ?
�1�2
�3M
mθ
���
�
H(θ)h(θ)
�
��
�
pivot
A l’equilibre, l’angle θ sera celui qui minimisela fonction f(θ) := MH(θ) + mh(θ)
?
(Euler, d’Alembert, Maupertuis...)
7
8
En 1744 démarre un nouveau sujet :
optimisation continue
optimisation par rapport aux fonctions
optimisation en dimension infinie
optimisation des intégrales
calcul des variations
(c’est une des grandes idées du cours)
Leonhard Euler
1707-1783
9
10
Optimisation
Rien se passe dans l’univers sans qu’un principe de maximum ou de minimum soit concerné.
Leonhard Euler
Cette phrase paraît dans la célèbre monographie de Euler de 1744, concernant l’optimisation dans le cas où les inconnues sont des fonctions (des courbes).
profile x(t)
Un exemple de Euler
aire de la surface
minx(·)
� b
ax(t)
�1 + x�(t)2 dt minimiser
11
12
Méthodus Inveniendi Lineas Curvas Maximi Minimive Proprietate Gaudentes sive Solutio Problematis Isoperimetrici Latissimo Sensu
Monographie de 1744 :
Euler définit le problème, trouve la condition nécessaire de base, introduit la technique des multiplicateurs, formule le principe de moindre action, et donne 100 exemples.
Le problème de base en calcul des variations : min J(x) :=
� b
aL(t, x(t), x�(t))dt : x(a) = A, x(b) = B
{�(1 − cos θ)
pendule (oscillant dans le plan)
Le mouvement observe : θ(t)
K − V =
� t1
t0
�12m (�θ �(t))
2− mg�(1 − cos θ(t))�dt
Il définit l’action :
Alors le mouvement est celui qui minimise l’action : principe du moindre action
Euler invente un nouveau principe dynamique
energie cinetique energie potentielle
θ �
m
13
14
Le problème de base en calcul des variationsMinimiser
� b
aL(t, x(t), x�(t))dt
sous les contraintes
x(a) = A, x(b) = B.
minx(·)
� b
ax(t)
�1 + x�(t)2 dt
K − V =
� t1
t0
�12m (�θ �(t))
2− mg�(1 − cos θ(t))�dt
L(t, x, v) = x�
1 + v2
L(t, x, v) = 12m (�v)2− mg�(1 − cosx)
L = le lagrangien
Un exemple en gestion de la productionOn doit produire entre t = 0 et t = T une quantite
x d’un bien. Le cout unitaire de sa production est
C(x, x�) ; donc il depend de la quantite x deja pro-
duite ainsi que la vitesse x�de production.
En actualisant en t = 0, le cout associe a un profil
x(t) de production sera
� T
0e−δtC(x(t), x�
(t))x�(t)dt
Il s’agit de minimiser cette integrale sous les con-traintes x(0) = 0 et x(T ) = x.
Car produire un autre dx en temps dt coute
C
�x,
dx
dt
�dx = C
�x,
dx
dt
�dx
dtdt = C(x, x�(t)) x�(t)dt
L(t, x, v) = e−δtC(x, v)v
15
16
Les taux d’intérêt sont donnés sur une base nominale (annuelle). L’intérêt est en général composé n fois pendant la période.
Si le taux d’intérêt est de 5% et l’intérêt est simple, et si l’on verse 1! dans son compte, on a, après un an, un solde de 1,05!.
On ouvre une parenthese afin d’expliquer
le facteur e−δt
n = 2 : 1 =⇒�1 +
0, 05
2
�×
�1 +
0, 05
2
�=
�1 +
0, 05
2
�2
= 1, 050625n = 4 : 1 =⇒
�1 +
0, 05
4
�4
•
•
•
n = ∞ : 1 =⇒ lim
�1 +
0, 05
n
�n
= e0,05 = 1.0513
Le taux d’interet nominal δ applique continuellementest appele le taux d’actualisation (discount rate).
Son effet : une somme S recu a l’instant t > 0 equivauta e−δtS en t = 0.
17
18
Le problème de base en calcul des variations
Minimiser
� b
aL(t, x(t), x�(t))dt
sous les contraintes
x(a) = A, x(b) = B.
On prend les fonctions x(·) dans C2[a, b], et
on suppose que L est de classe C3.
(le cadre classique)
Etude du problème de base en calcul des variations
19
20
Le problème de base (P), comme tout problème d’optimisation, se prête à l’approche déductive, et à diverses approches inductives (notamment la convexité)
Le probleme de base (P) en calcul des variations :
minimiser J(x) :=
� b
aL�t, x(t), x�(t)
�dt
s.l.c. x ∈ C2[a, b] , x(a) = A , x(b) = B.
On commence l’étude par la condition nécessaire principale.
Le suivant donne la premiere condition necessaire qu’unesolution x∗ doit satisfaire.
Notation: Les derivees partielles de la fonction L(t, x, v)par rapport a x et v sont notees Lx et Lv .
Theoreme (Euler 1744)
Si x∗ est solution de (P), alors x∗ satisfait l’equationd’Euler :
d
dt
�Lv
�t, x∗(t), x
�∗(t)
��= Lx
�t, x∗(t), x
�∗(t)
�∀ t ∈ [a, b].
Une fonction x∗ ∈ C2[a, b] qui satisfait l’equationd’Euler est appelee une extremale.
21
22
x∗ minimise J(x) :=
� b
aL�t, x(t), x�(t)
�dt
x∗ minimise f(x), x ∈ Rn
∇f(x∗) = 0
(règle de Fermat)
d
dt
�Lv
�t, x∗(t), x
�∗(t)
��= Lx
�t, x∗(t), x
�∗(t)
�∀ t ∈ [a, b].
(équation d’Euler)
La preuve de Euler passe par la discretisation, mais
l’approche de Lagrange utilise les variations (d’ou le
nom du sujet). Ici, une variation veut dire une fonc-
tion y ∈ C2[a, b] telle que y(a) = y(b) = 0.
On fixe une telle variation y , et on considere la fonc-
tion g d’une seule variable suivante :
g(λ) = J(x∗ + λy) =
� b
aL�t, x∗ + λy, x�
∗ + λy �� dt.
(Observer que certains arguments sont omis, pour
alleger la notation.)
Il suit que g est derivable, et que “la derivee de l’integraleest l’integrale de la derivee” :
g �(λ) =
� b
a
�Lx
�t, x∗ + λy, x�
∗ + λy �� y
+ Lv
�t, x∗ + λy, x�
∗ + λy �� y � � dt.
23
24
On remarque pour chaque λ, la fonction x∗ + λy est
admissible pour (P), d’ou
g(λ) = J(x∗ + λy) � J(x∗) = g(0).
Il suit que g atteint un minimum en λ = 0. Par la
regle de Fermat, g �(0) = 0; par consequent :
� b
a[α(t) y(t) + β(t) y �
(t)] dt = 0,
ou nous avons pose
α(t) := Lx
�t, x∗(t), x
�∗(t)
�, β(t) := Lv
�t, x∗(t), x
�∗(t)
�.
On invoque l’integration par parties pour deduire
� b
a[α(t) − β �
(t)] y(t) dt = 0.
Puisque ceci a lieu pour toute variation y , il suit que
la fonction (continue) qui est le coefficient de y doit
s’annuler identiquement sur [a, b]. Mais c’est exacte-
ment la conclusion recherchee.
g �(λ) =
� b
a
�Lx
�t, x∗ + λy, x�
∗ + λy �� y
+ Lv
�t, x∗ + λy, x�
∗ + λy �� y � � dt.
a bc d
Lemme. Supposons que la fonction F satisfait
� b
aF (t)y(t) dt = 0
pour toute variation y. Alors F estidentiquement zero.
Demonstration.
Par l’absurde : si F �≡ 0, il existe un sous-intervalle[c, d] sur lequel F > 0 (disons). Alors on construit
une variation y telle que
� b
aF (t)y(t)dt �= 0 :
y
25
26
Une fonction x∗ ∈ C2[a, b] admissible pour (P) estappelee minimum local ou solution locale de (P) lorsqu’ilexiste δ > 0 tel que, pour toute fonction x admissiblepour (P) et qui satisfait de plus
�x − x∗�∞ < δ , �x� − x�∗�∞ < δ ,
on a J(x) ≥ J(x∗).
Ici, pour deux fonctions continues f(t) et g(t),la notation �f − g�∞ veut dire
maxt∈ [a,b]
|f(t) − g(t)|.
La demonstration ci-dessus est valable lorsque x∗ n’est
qu’un minimum local pour (P). On peut donc dire:
un minimum local pour (P) est forcement une extremale.
Rappel : Une fonction x∗ ∈ C2[a, b] qui satisfaitl’equation d’Euler est appelee une extremale.
Exo en CM : Ecrire l’equation d’Euler
d
dt
�Lv
�t, x∗(t), x
�∗(t)
��= Lx
�t, x∗(t), x
�∗(t)
�
lorsqu’il s’agit de minimiser
� 1
0
�x(t)2 + x�(t)2
�dt s.l.c. x(0) = 0, x(1) = 1.
Resoudre si possible.
L(t, x, v) = x2 + v2 ; Lv = 2v ; Lx = 2x
=⇒d
dt
�2x�� = 2x =⇒ x�� = x
=⇒ x(t) = cet + ke−t
=⇒ x(t) =et − e−t
e1 − e−1
forme initiale
forme développée
27
28
le pendule
Ici on a
L(t, x, v) =m�2
2v2
+mg� cosx−mg� ,
d’ou Lv = m�2v, Lx = −mg� sinx.
L’equation d’Euler devient
d
dt
�m�2θ ��
= −mg� sin θ
=⇒ θ ��(t) + (g/�) sin θ = 0.
On ne sait pas ecrire sa solution.
(Mais si θ est petit, on remplace sin θ par θ,et alors l’equation differentielle est lineaire. . . )
min
� t2
t1
�m�2
2θ �(t)2 − mg�
�1 − cos θ(t)
��dt
θ �
m
Retour a la pellicule savonneuse, ou
L(t, x, v) = x�
1 + v2.
L’equation d’Euler s’ecrit
d
dt
�x(t)x�(t)
�1 + x�(t)2
�=
�1 + x�(t)2.
Sa resolution n’est pas evidente.
29
30
Corollaire (condition de Erdmann) Si x∗ est solution localedu probleme de base, et si L est autonome (ne depend pas de t),alors il existe une constante c telle que
L(x∗(t), x∗�(t)) − x∗
�(t)Lv(x∗(t), x∗�(t)) = c ∀ t ∈ [a, b].
Demonstration.
On derive le cote gauche par rapport a t :
= Lx(∗)x�∗ + Lv(∗)x��
∗ − x��∗Lv(∗) − x�
∗d
dtLv(∗)
= Lx(∗)x�∗ − x�
∗Lx(∗) = 0
Rq : on obtient ainsi une “première intégrale” de l’équation de Euler (dans le cas autonome)
Retour a la pellicule savonneuse, ou L(t, x, v) = x√1 + v2.
Puisque le probleme est autonome, la condition d’Erdmanns’applique :
L − x�Lv = c =⇒ x�
1 + x�2 − x� xx�√1 + x�2 = c
=⇒x
√1 + x�2 = c =⇒ x�2 =
x2
c2− 1
=⇒ cx� =�
x2 − c2
(en supposant x� > 0 pour simplicite).
Cette edo est separable :
cdx
√x2 − c2
= dt =⇒�
cdx
√x2 − c2
=
�dt
On a alors
c cosh−1
(x/c) = t + k =⇒ x∗(t) = c cosh
�t + k
c
�.
Cette courbe porte le nom catenaire (ou chaınette).
31
32
méthodes inductives
Pour le probleme de minimiser
� 1
0
�x(t)2 + x�(t)2
�dt s.l.c. x(0) = 0, x(1) = 1,
on a vu qu’il y a un seul candidat, la fonction
x∗(t) =et − e−t
e1 − e−1
Peut-on dire que x∗ est solution?
Autrement, il y a des methodes inductives. Le pre-mier a œuvrer dans cette direction fut Legendre (1783).
Pour appliquer la methode deductive, il faudrait un
theoreme d’existence a la Weierstrass, ou coercivite. . .
Or l’existence en dimension infinie est un sujet com-
plexe, ou les avancees datent du 20e siecle (analysefonctionnelle).
33
34
Exemple Pour
J(x) =
� 1
0
�x(t)2 + x�(t)2
�dt
on trouve
L(t, x, v) = x2 + v2 =⇒ Lvv = 2,
ce qui est consistent avec l’existence d’un minimumlocal, mais pas un maximum local.
Theoreme (Legendre 1783) Soit x∗ un minimumlocal de (P). Alors x∗ satisfait la condition deLegendre :
Lvv
�t, x∗(t), x
�∗(t)
�≥ 0 ∀t ∈ [ a, b ].
14.1 Necessary conditions 293
We apply the least action principle: it follows that the resulting motion θ(t) satisfiesEuler’s equation for the action functional. The reader may check that this yields thefollowing differential equation governing the pendulum’s movement:
θ ��(t)+(g/�) sinθ(t) = 0.
This equation, which can also be deduced from Newton’s law, is in fact the onewhich describes the movement of the pendulum. But does it really minimize theaction? Perhaps in a local sense?
Consider the analogy with the minimization of a function f (x) (on R, say). TheEuler equation corresponds to the necessary condition f �(x∗) = 0, the stationarityof f at a given point x∗. Further evidence of a local minimum would be the second-order condition f ��(x∗) � 0. And if we knew in addition that f ��(x∗)> 0, then wecould say with certainty that x∗ provides at least a local minimum. In this light, itseems reasonable to pursue second-order conditions in the calculus of variations.The honor of first having done so belongs to Legendre, although, to some extent, hewas scorned for his efforts, for reasons that we shall see. ��
In studying second-order conditions, and for the rest of this chapter, we strengthenthe regularity hypothesis on the Lagrangian by assuming that Λ is C 3.
14.7 Theorem. (Legendre’s necessary condition, 1786) Let x∗ be a weak localminimizer for (P). Then we have
Λvv�t, x∗(t), x∗�(t)
�� 0 ∀ t ∈ [a,b ].
Proof. We consider again the function g defined by (2). We observe that the for-mula (3) for g �(λ ) implies that g � is itself differentiable. We proceed to develop anexpression for g ��(0). Differentiating under the integral in g �(λ ), and then settingλ = 0, we obtain
g ��(0) =� b
a
�Λ xx(t)y2 +2Λ xv(t)yy �+Λvv(t)y � 2
�dt,
where Λ xx(t) (for example) is an abbreviation for Λ xx(t, x∗(t), x∗�(t)), and wherewe have invoked the fact that Λ xv and Λvx coincide. We proceed to define
P(t) = Λvv�t, x∗(t), x∗�(t)
�(4)
Q(t) = Λ xx�t, x∗(t), x∗�(t)
�− d
dtΛ xv
�t, x∗(t), x∗�(t)
�. (5)
(Note that Q is well defined, in part because Λ is C3.) Using this notation, integrationby parts shows that the last expression for g ��(0) may be written
g ��(0) =� b
a
�P(t)y � 2
(t)+Q(t)y2(t)�
dt . (6)
L’idée de la preuve (voir FC p. 293) :
g min local en 0 =⇒ g��(0) � 0 (∀ y) =⇒ P (t) � 0
35
36
Ensuite, dans le meme article, Legendre va plus loin.Inspire sans doute par le fait que, dans R, on a
f �(x∗) = 0 , f ��(x∗) > 0 =⇒f admet un minimum local en x∗ ,
Legendre prouve le theoreme suivant (approche in-ductive):
Mais c’est faux, archi-faux
Theoreme (Legendre 1783) Soit x∗ une extremalequi satisfait la condition renforcee :
Lvv
�t, x∗(t), x
�∗(t)
�> 0 ∀t ∈ [ a, b ].
Alors x∗ est un minimum local pour (P).
L’equation de Euler est x��= −x.
La fonction x∗(t) ≡ 0 est une
extremale admissible
On a Lvv ≡ 2 > 0.
Exemple Prenons
J(x) =
� T
0
�x�(t)2 − x(t)2
�dt
avec x(0) = 0 = x(T ).
Pourtant, quand T est tres grand, il n’est pas optimalde rester en x = 0 :
La fonction x(t) =
�t si 0 ≤ t ≤ 1
� si 1 ≤ t ≤ T − 1
�(T − t) si T − 1 ≤ t ≤ T
donne J(x) < 0 = J(x∗) des que T ≥ 4.
(On peut arrondir un peu les deux coins.)
0 T
�
37
38
Exemple de la riviere
?
Remarque Quelle que soit la separation entre les deuxpoints, se deplacer sur le segment entre eux se defendtoujours comme etant la meilleure strategie a courtterme !
La preuve de Legendre (de son faux théorème) doit avoir un défaut ; celui-ci est intéressant.
39
40
J(x∗ + y) − J(x∗) � 1
2
� b
a
�(P − δ) y � 2 + Qy2
�dt
P (t) := Λ vv
�t, x∗(t), x∗
�(t)�
Q(t) := Λ xx
�t, x∗(t), x∗
�(t)�−
d
dtΛ xv
�t, x∗(t), x∗
�(t)�
où
�
> 0
�
I
La dernière étape : montrer que I " 0
Legendre prouve : pour un certain , pour toutes variations y “proche de 0”, on a
δ > 0
(détails : FC p.296)
Let w be any continuously differentiable function. Then
I =
� b
a
�(P − δ) y � 2 + Qy 2
�dt
=
� b
a
�[(P − δ) y � 2 + Qy 2 +
�wy 2
�� �dt
=
� b
a(P − δ)
�y � 2 +
Q + w �
P − δy 2 + 2
w
P − δyy �
�dt
=
� b
a(P − δ)
�y � +
w
P − δy�2
dt � 0,
The factorization in the last integral expression dependson choosing w to satisfy
Q + w �
P − δ=
�w
P − δ
�2
⇐⇒ w � =w 2
P − δ− Q .
The proof appears to be complete.
41
42
Example: w� = w2 + 1 w(t) = tan(t − c)⇐
π
2−
π
2
w
tc cc +
�
So we must have ... ”short term“ considerationsb − a < π
Definition La fonction x∗ ∈ C2[a, b] est appele min-imum local a court terme pour (P) lorsqu’il existeδ > 0 tel que, pour tout sous-intervalle [c, d] de [a, b]de longueur inferieure a δ, la fonction x∗ restreinte a[c, d] est un minimum local pour le probleme tronquede minimiser
� d
cL�t, x(t), x�(t)
�dt
sous les contraintes x(c) = x∗(c), x(d) = x∗(d).
Il suit que le principe de moindre action est un vrai principe de minimisation, mais localement dans l’espace, et à court terme dans le temps.
Theoreme (Jacobi 1838) Soit x∗ une extremale sur[a, b] qui satisfait la condition renforcee de Legendre:Lvv(t, x∗(t), x�
∗(t)) > 0 ∀ t ∈ [a, b]. Alors x∗ est unminimum local a court terme pour (P).
43
44
En fait, Jacobi arrive à calculer le degré de court terme, en introduisant la notion de point conjugué.
L’equation de Jacobi (par rapport a x∗) est l’equation differentielle(pour une fonction u ∈ C2[a, b]) suivante:
−d
dt
�P (t)u �(t)
�+ Q(t)u(t) = 0.
Le point τ dans (a, b ] est dit conjugue (par rapport a a et x∗) s’ilexiste une solution non triviale u de l’equation de Jacobi qui satisfaitu(a) = u(τ ) = 0.
Rq : Des solutions existent, car l’équation est linéaire. Toutes les solutions u comme ci-dessus donnent les mêmes points conjugués (ou aucun)
Theoreme (Jacobi 1838) Soit x∗ une extremale admissiblepour (P) qui satisfait la condition renforcee de Legendre:
Lvv(t, x∗(t), x�∗(t)) > 0 ∀ t ∈ [a, b].
1. (Condition necessaire) Si x∗ est un minimum local, alorsil n’y a pas de point conjugue dans l’intervalle ]a, b[ .
2. (Condition suffisante) Reciproquement, si aucunpoint conjugue n’existe dans l’intervalle ]a, b], alors x∗ estun minimum local.
Idée de la preuve (de la condition suffisante) :
45
46
1. On a une solution u de l’equation de Jacobi telle que
u(a) = 0 et u(t) �= 0 ∀ t ∈ ]a, b].
(par l’hypothese de la non existence d’un point conjugue dans ]a, b].)
2. On montre (a l’aide de la dependance continue de la solution par
rapport a la condition initiale) que ceci implique l’existence d’une
solution u de l’equation de Jacobi qui ne s’annule nulle part sur
[a, b].
3. La transformation w = 1/u donne alors w qui satisfait
w �(t) =
w(t) 2
P (t)− Q(t) , t ∈ [ a, b ].
4. On en deduit (pour δ > 0 petit) l’existence de w tel que
w �(t) =
w(t) 2
P (t) − δ− Q(t) , t ∈ [ a, b ],
qui est l’ingredient incertain de la preuve de Legendre !
Une autre méthode inductive nous est disponible : la convexité (inconnue de nos illustres ancêtres)
Definition On dira que le probleme de base (P) est
convexe lorsque, pour chaque t ∈ [a, b], la fonction
(x, v) �→ L(t, x, v) est convexe sur R2.
Theoreme Si x∗ est une extremale admissible pour(P), et si la fonction (x, v) �→ L(t, x, v) est convexepour chaque t ∈ [a, b], alors x∗ est solution globalede (P).Exemple Pour
min
� 1
0
�x(t)2 + x�(t)2
�dt s.l.c. x(0) = 0, x(1) = 1,
on a vu qu’il y a un seul candidat, la fonction
x∗(t) =et − e−t
e1 − e−1.
La fonction (x, v) �→ L(x, v) = x2+v2 est visiblementconvexe. Donc ce probleme est convexe, et le candi-dat est l’unique solution, un minimum global.
47
48
Definition Une fonction f : Rn → R est dite convexe si
f�(1 − t)x + ty
�� (1 − t)f(x) + tf(y),
x, y ∈ Rn , t ∈ [0,1].
combinaison convexe dex et y (ou t ∈ [0, 1])
� �� �
rappel
Une fonction convexe: toute chorde reste au dessus du graphe
x y
5
z
z = (1 − t)x + ty
49
50
Definition Une fonction f : Rn → R est dite convexe si
f�(1 − t)x + ty
�� (1 − t)f(x) + tf(y),
x, y ∈ Rn , t ∈ [0,1].
Proposition
1. Une fonction affine x �→ ζ • x + c est convexe.
2. Une norme x �→ �x� definit une fonction convexe.
3. Si g est convexe sur Rp, alors f(x) := g(Lx + w) estconvexe sur Rn (L une matrice p × n, w ∈ Rp).
4. Si la fonction x �→ f(x) est convexe, alors lafonction (x, y) �→ f(x) est convexe.
5. Une combinaison lineaire positive de fonctionsconvexes est convexe.
La fonction (x, y) �→ |2x − y| − 3y est convexe.ExempleRemarque Une fonction continue f est convexe ssi
f(12x + 1
2y) ≤ 1
2f(x) + 1
2f(y) ∀x, y
Attention! La convexité (comme la continuité) ne se vérifie pas une coordonnée à la fois.
La fonction (x, y) �→ xy est convexe parrapport a x, pour chaque y, et vice-versa(chaque fonction partielle est lineaire).
Mais elle n’est pas convexe (conjointement).
Il est utile d’avoir certains critères directes pour vérifier la convexité (ou son absence).
Par exemple, la convexite de la fonctionf(x) = x4 sur R saute aux yeux, mais laverification par la definition est fastidieuse. . .
On peut localiser la notion de convexité, et ces critères.
51
52
Une fonction pas très convexe
5
� �� �
convexeici
� �� �
concavela
On peut définir la convexité par rapport à une partie U dans Rn si celle-ci est convexe...
Une fonction g est concave quand la fonction−g est convexe.
Definition Une fonction f : Rn → R est diteconvexe sur U si
f�(1 − t)x + ty
�� (1 − t)f(x) + tf(y)
∀x, y ∈ U , t ∈ [0,1].
Soit U un convexe dans Rn
53
54
Critères de convexité en termes de dérivées 1. critère de premier ordre
L’inegalite sous-differentielle
Theoreme Soit U une partie convexe dans Rn, et soitf : U → R une fonction continument derivable autourde U .
Alors f est convexe sur U ssi
f(y) − f(x) � ∇f(x) • (y − x) , x, y ∈ U. (∗)
Critères de convexité en termes de dérivées 2. critère de second ordre
sdp
Theoreme Soit U un ouvert convexe dans Rn, etsoit f : U → R une fonction deux fois continumentderivable. Alors f est convexe sur U ssi
∇ 2f(x) ≥ 0 , x ∈ U. (∗∗)
55
56
Exemple
La fonction (x, y) �→ f(x, y) = x2 + y2 + xyest convexe sur R2, car
∇2f(x, y) =
�2 11 2
�.
Exemple
La fonction (x, y) �→ f(x, y) = xyn’est pas convexe sur R2, car
∇2f(x, y) =
�0 11 0
�.
Exemple
(matrice indéfinie)
(matrice définie positive)
La fonction t �→ t4 est convexe sur R,car (t4)�� = 12t2 ≥ 0 ∀t.
Exemple La fonction t �→ t3 est convexe sur ]0,∞[ ,car (t3)�� = 6t > 0, t ∈ ]0,∞[ .
Le rôle de la convexité en optimisation
f est convexe sur U ssi
f(y) − f(x) � ∇f(x) • (y − x) , x, y ∈ U. (∗)
Démonstration:
Proposition Soit U un convexe ouvert, et soit f une fonction
convexe et derivable sur U . On se donne x∗ ∈ U . Alors
f atteint un minimum local en x∗
⇐⇒ f atteint un minimum global en x∗ (par rapport a U)
⇐⇒ ∇f(x∗) = 0
57
58
Theoreme Si x∗ est une extremale admissible pour(P), et si la fonction (x, v) �→ L(t, x, v) est convexepour chaque t ∈ [a, b], alors x∗ est solution globalede (P).
Demonstration On pose (en utilisant le fait que x∗ est une extremale)
p(t) = Lv(t, x∗, x�∗), p�
(t) = Lx(t, x∗, x�∗).
Soit x ∈ C2[a, b] une fonction admissible pour (P). Alors
J(x) − J(x∗) =
� b
a
�L�t, x, x�� − L
�t, x∗, x
�∗��
dt
�� b
a
�p�, p
�•�x − x∗ , x
� − x�∗�dt
(par l’inegalite sous-differentielle, puisque (p�, p) = ∇x,v L(t, x∗ , x�∗))
=
� b
a(d/dt)
�p × (x − x∗)
�dt = 0,
puisque x et x∗ ont les memes valeurs en a et b. �
p = le co-état
conditions suffisantes : résumé
Theoreme (Jacobi 1838) Soit x∗ une extremale sur[a, b] qui satisfait la condition renforcee de Legendre:Lvv(t, x∗(t), x�
∗(t)) > 0 ∀ t ∈ [a, b]. Alors x∗ est unminimum local a court terme pour (P).
Theoreme Si x∗ est une extremale admissible pour(P), et si la fonction (x, v) �→ L(t, x, v) est convexepour chaque t ∈ [a, b], alors x∗ est solution globalede (P).
c’est des approches inductives
59
60
le problème isopérimétrique
le problème de baseMinimiser
J(x) :=
� b
aL(t, x(t), x�(t))dt
sous les contraintes
x(a) = A, x(b) = B.
Theoreme Soit x∗ ∈ C2[a, b] solution du probleme
isoperimetrique. Alors il existe un couple (η,λ) �= 0avec η = 0 ou 1 tel que x∗ soit une extremale dulagrangien ηL + λH.
Le probleme isoperimetrique introduit par Euler estcelui de minimiser la meme fonctionnelle J(x) quepour (P), et sous les memes contraintes au bord, maissous une contrainte supplementaire :
� b
aH(t, x(t), x�(t)) dt = c.
61
62
Theoreme Soit x∗ solution du probleme de minimiserf(x) slc h(x) = 0, ou h : Rn → R et ∇h(x∗) �= 0.Alors il existe λ ∈ R tel que
∇f(x∗) + λ∇h(x∗) = 0.
Un enonce equivalent qui ne mentionnepas l’hypothese ∇h(x∗) �= 0 :
Theoreme Soit x∗ solution du probleme de minimiserf(x) slc h(x) = 0, ou h : Rn → R.Alors il existe η = 0 ou 1 et λ ∈ R tels que
(η,λ) �= (0, 0), η∇f(x∗)+λ∇h(x∗) = 0.
non trivialite� �� �
rappel
Il s’agit d’une condition nécessaire. Elle est due à Euler (1744) et porte le nom : Règle du multiplicateur de Lagrange
le problème de baseMinimiser
J(x) :=
� b
aL(t, x(t), x�(t))dt
sous les contraintes
x(a) = A, x(b) = B.
Theoreme Soit x∗ ∈ C2[a, b] solution du probleme
isoperimetrique. Alors il existe un couple (η,λ) �= 0avec η = 0 ou 1 tel que x∗ soit une extremale dulagrangien ηL + λH.
Le probleme isoperimetrique introduit par Euler estcelui de minimiser la meme fonctionnelle J(x) quepour (P), et sous les memes contraintes au bord, maissous une contrainte supplementaire :
� b
aH(t, x(t), x�(t)) dt = c.
63
64
Le probleme isoperimetrique en calcul des variations est celui de min-imiser la meme fonctionnelle J(x) que pour (P), et sous les memescontraintes au bord, mais sous deux contraintes supplementaires:
� b
aG(t, x(t), x�(t)) dt ≤ 0 ,
� b
aH(t, x(t), x�(t)) dt = 0.
Theoreme (regle du multiplicateur) Soit x∗ ∈ C2[a, b] solution du
probleme isoperimetrique. Alors il existe un triplet (η, γ,λ) �= 0 avecη = 0 ou 1 et γ ≥ 0, tel que
� b
aG(t, x∗(t), x∗
�(t)) dt < 0 =⇒ γ = 0
et tel que x∗ soit une extremale du lagrangien ηL+ γ G+ λH.
un problème isopérimétrique plus général
Rq : Ceci correspond au théorème de Fritz John (dans Rn)
exemple : le problème de Didon
Formulation mathematique :
min
� 1
0−x(t) dt : x(0) = 0, x(1) = 0,
� 1
0
�1 + x�(t)2 dt = �.
Parmi toutes les courbes x(t) sur [0, 1]qui satisfont les conditions au bordx(0) = 0 = x(1), et qui sont de longueurprescrite �, trouver celle qui maximisel’aire sous la courbe. x
t+10
�
65
66
On regarde les extremales de −ηx+λ√
1 + v2 .
Le cas η = 0
L’equation d’Euler du lagrangien λ√
1 + v2
(pour λ �= 0) est
d
dt
�λx�
√1 + x�2
�= 0
=⇒ x� est toujours du signe de c, et
x�2 = c2(1 + x�2)
=⇒ x�2(1 − c2) = c2
=⇒ x� =c
√1 − c2
Donc x est affine, x ≡ 0, possible seulementsi � = b − a, probleme degenere.
On prend alors η = 1
=⇒x�
√1 + x�2 = c
On regarde les extremales de −ηx+λ√
1 + v2 .
Le cas η = 1
L’equation d’Euler du lagrangien −x + λ√
1 + v2
estd
dt
�λx�
√1 + x�2
�= −1 =⇒
λx�√
1 + x�2 = −t + k
=⇒ (en prenant λ > 0)
x� =−t + k
�λ2 − (t − k)2
=⇒ x − c =�
λ2 − (t − k)2
=⇒ (x − c)2 + (t − k)2 = λ2
On invoque la symetrie
pour deviner que k =12
Les cdns au bord sont satisfaitesquand c2 = λ2 − 1
4
Ensuite la condition que la longueurvaut � donne c et λ. A-t-on la réponse ?
x
t+10
�
(k, c)
67
68
On a trouve une extremale admissible de −x+λ√
1 + v2
pour un λ > 0. � �� �convexe en (x, v)
Il suit que pour toute fonction x qui s’annule au bord,on a� 1
0
�−x + λ
�1 + x�2
�dt ≥
� 1
0
�−x∗ dt + λ
�1 + x∗ �2
�dt
= J(x∗) + λ�
Si l’on impose en plus que la longueur de x soit �, ondecouvre
J(x) + λ� ≥� 1
0
�−x∗ dt + λ
�1 + x∗ �2
�dt
= J(x∗) + λ�
=⇒ J(x) ≥ J(x∗).
donc on a vraiment la solution
Rq : on peut ensuite procéder à résoudre le problème isopérimétrique de l’antiquité
Le problème de base en calcul des variations
On prend les fonctions x(·) dans C2[a, b], et
on suppose que L est de classe C3.
Minimiser
� b
aL(t, x(t), x�(t))dt
sous les contraintes
x(a) = A, x(b) = B.
résumé de ce qu’il faut savoir
69
70
Theoreme (Euler 1744)
Si x∗ est solution de (P), alors x∗ satisfait l’equationd’Euler :
d
dt
�Lv
�t, x∗(t), x
�∗(t)
��= Lx
�t, x∗(t), x
�∗(t)
�∀ t ∈ [a, b].
Theoreme (Legendre 1783) Soit x∗ un minimumlocal de (P). Alors x∗ satisfait la condition deLegendre :
Lvv
�t, x∗(t), x
�∗(t)
�≥ 0 ∀t ∈ [ a, b ].
Corollaire (condition de Erdmann) Si x∗ est solution localedu probleme de base, et si L est autonome (ne depend pas de t),alors il existe une constante c telle que
L(x∗(t), x∗�(t)) − x∗
�(t)Lv(x∗(t), x∗�(t)) = c ∀ t ∈ [a, b].
conditions nécessaires
conditions suffisantes
Theoreme (Jacobi 1838) Soit x∗ une extremale sur[a, b] qui satisfait la condition renforcee de Legendre:Lvv(t, x∗(t), x�
∗(t)) > 0 ∀ t ∈ [a, b]. Alors x∗ est unminimum local a court terme pour (P).
Theoreme Si x∗ est une extremale admissible pour(P), et si la fonction (x, v) �→ L(t, x, v) est convexepour chaque t ∈ [a, b], alors x∗ est solution globalede (P).
71
72
point conjuguéL’equation de Jacobi (par rapport a x∗) est l’equation differentielle(pour une fonction u ∈ C2[a, b]) suivante:
−d
dt
�P (t)u �(t)
�+ Q(t)u(t) = 0.
Le point τ dans (a, b ] est dit conjugue (par rapport a a et x∗) s’ilexiste une solution non triviale u de l’equation de Jacobi qui satisfaitu(a) = u(τ ) = 0.
Theoreme (Jacobi 1838) Soit x∗ une extremale admissiblepour (P) qui satisfait la condition renforcee de Legendre:
Lvv(t, x∗(t), x�∗(t)) > 0 ∀ t ∈ [a, b].
1. (Condition necessaire) Si x∗ est un minimum local, alorsil n’y a pas de point conjugue dans l’intervalle ]a, b[ .
2. (Condition suffisante) Reciproquement, si aucunpoint conjugue n’existe dans l’intervalle ]a, b], alors x∗ estun minimum local.
Le probleme isoperimetrique en calcul des variations est celui de min-imiser la meme fonctionnelle J(x) que pour (P), et sous les memescontraintes au bord, mais sous deux contraintes supplementaires:
� b
aG(t, x(t), x�(t)) dt ≤ 0 ,
� b
aH(t, x(t), x�(t)) dt = 0.
Theoreme (regle du multiplicateur) Soit x∗ ∈ C2[a, b] solution du
probleme isoperimetrique. Alors il existe un triplet (η, γ,λ) �= 0 avecη = 0 ou 1 et γ ≥ 0, tel que
� b
aG(t, x∗(t), x∗
�(t)) dt < 0 =⇒ γ = 0
et tel que x∗ soit une extremale du lagrangien ηL+ γ G+ λH.
problème isopérimétrique : règle du multiplicateur
73
74
Les diapos :Aller sur le site web de la Licence math, choisir "Licence 2ème année", ensuite cliquer sur "page de cours" près du nom Francis Clarke (en haut, Anal III)... ensuite regarder vers le bas de cette page
A lire : Chap. 14 de FC
Pour le TD :prendre la feuille 1 maintenant, préparer les exos 1, 2, 3, 4 ...
Fin des diapos du premier cours
75
76