106
Pr´ esentation Introduction au filtrage Estimation bay´ esienne Syst` emes lin´ eaires gaussiens Extensions Syst` emes non–lin´ eaires / non–gaussiens cours OROC–SC–FP (1/5) Filtrage Bay´ esien et Approximation Particulaire Fran¸ cois Le Gland INRIA Rennes et IRMAR http://www.irisa.fr/aspi/legland/ensta/ 22 et 29 septembre 2017 1 / 114

cours OROC–SC–FP (1/5) Filtrage Bay´esien et ...´esentation Introduction au filtrage Estimation bay´esienne Syst`emes lin´eaires gaussiens Extensions Syst`emes non–lin´eaires

Embed Size (px)

Citation preview

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

cours OROC–SC–FP (1/5)

Filtrage Bayesienet Approximation Particulaire

Francois Le GlandINRIA Rennes et IRMAR

http://www.irisa.fr/aspi/legland/ensta/

22 et 29 septembre 2017

1 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentationcourte biographieorganisation pratique du cours

Introduction au filtrage

Estimation bayesienne

Systemes lineaires gaussiens

Extensions

Systemes non–lineaires / non–gaussiens

2 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Francois Le Gland

◮ telephone : 02 99 84 73 62 / 06 95 02 13 16

◮ e–mail : francois.le [email protected]

formation

◮ ingenieur Ecole Centrale Paris (1978)

◮ DEA de Probabilites a Paris 6 (1979)

◮ these en Mathematiques Appliquees a Paris Dauphine (1981)

carriere professionnelle : chercheur a l’INRIA (directeur de recherchedepuis 1991)

◮ a Rocquencourt jusqu’en 1983

◮ a Sophia Antipolis de 1983 a 1993

◮ a Rennes depuis 1993

membre de l’IRMAR depuis 2012

3 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

responsable de l’equipe

ASPI : Applications Statistiques des Systemes de Particules enInteraction

http://www.irisa.fr/aspi/

themes

◮ filtrage particulaire, et applications en

• localisation, navigation et poursuite• assimilation de donnees sequentielle

◮ inference statistique des modeles de Markov caches

◮ simulation d’evenements rares, et extensions en

• simulation moleculaire• optimisation globale

◮ analyse mathematique des methodes particulaires

4 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

contrats industriels

◮ avec France Telecom R&D, sur la localisation de terminaux mobiles

◮ avec Thales, sur la navigation par correlation de terrain

◮ avec DGA / Techniques Navales, sur l’optimisation dupositionnement et de l’activation de capteurs

◮ avec Naval Group (ex-DCNS), sur le pistage TBD multi–cible

projets ANR

◮ FIL, sur la fusion de donnees pour la localisation

◮ PREVASSEMBLE, sur les methodes d’ensemble pour l’assimilationde donnees et la prevision

projets europeens

◮ HYBRIDGE et iFLY, sur les methodes de Monte Carloconditionnelles pour l’evaluation de risque en trafic aerien

collaboration avec ONERA

5 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Organisation pratique du cours

a chaque seance (sauf aujourd’hui)

◮ cours magistral

◮ seance de TP MATLAB en salle informatique

• par binome• rapport ecrit + code source MATLAB, a rendre pour la seance

suivante• en cas de difficulte, e–mail a francois.le [email protected]

support de cours

◮ polycopie (aspects theoriques)

◮ planches presentees en cours magistral

◮ enonce des TP MATLAB

ressources : articles a telecharger, archives, etc.

http://www.irisa.fr/aspi/legland/ensta/

6 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

controle des connaissances

◮ TP MATLAB (29 septembre, 13 et 27 octobre)

◮ examen final (20 octobre)

liste des TP proposes cette annee

◮ recalage altimetrique de navigation inertielle

◮ suivi visuel par histogramme de couleur

◮ navigation en environnement interieur

autres TP proposes les annees precedentes

◮ assimilation de donnees sequentielle pour le modele de Lorenz

◮ poursuite d’une cible furtive (track–before–detect)

◮ valorisation d’options europeennes dans le modele de Black–Scholes

◮ evaluation du risque de collision

7 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

cours 1 (aujourd’hui)

introduction au filtrage, estimation bayesienne, cas gaussiensystemes lineaires gaussiens : filtre de Kalmansystemes non lineaires / non gaussiens : exemples en localisation,navigation et poursuite

cours 2methodes de Monte Carlo : simulation selon une distribution deGibbs–Boltzmann, simulation selon un melange fini

cours 3filtre bayesien optimal : representation probabiliste vs. equationrecurrentedistributions de Feynman–Kac (distributions de Gibbs–Boltzmanntrajectorielles)approximation particulaire

8 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

cours 4methodes de branchement multi–niveaux : calcul de probabilites dedepassement de niveau (statique), simulation d’evenements rares

cours 5theoremes limites pour les approximations particulaires : convergencedans Lp, theoreme central limite

9 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentation

Introduction au filtragenecessite / utilite d’un modele a prioriexploitation du modele a priori

Estimation bayesienne

Systemes lineaires gaussiens

Extensions

Systemes non–lineaires / non–gaussiens

10 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Cadre general

il s’agit d’estimer, si possible de maniere recursive, l’etat Xn d’un systeme(par exemple, position et vitesse d’un mobile) au vu d’observationsbruitees Y0:n = (Y0 · · ·Yn) reliees a l’etat par une relation du genre

Yk = hk(Xk) + Vk

nombreuses applications en localisation, navigation et poursuite demobiles

◮ poursuite de cible (avion, missile, drone, batiment de surface,sous–marin)

◮ suivi d’objets dans des sequences video

◮ navigation en environnement interieur (robot mobile, pieton)

◮ navigation inertielle, recalage avec un modele numerique de terrain

◮ navigation de terminaux mobiles, recalage avec une carte decouverture

11 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

il s’agit dans ce cas de determiner position et vitesse d’un mobile, enutilisant comme observations des mesures partielles issues de capteurs

(i) mesures directes

• distance par rapport a une ou plusieurs stations• angle par rapport a une direction de reference• proximite par rapport a une ou plusieurs stations• altitude par rapport a un niveau de reference ou par rapport au relief

(ii) mesures indirectes, combinees avec une base de mesuresgeo–referencees, disponibles par exemple sous la forme d’une cartenumerique

• altitude du relief + modele numerique de terrain• attenuation de la puissance du signal recu + carte de couverture

exemples (en fin de seance)

12 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Necessite d’un modele a priorisans information supplementaire, observer

Yk = hk(Xk) + Vk

pose un nouveau probleme d’estimation a chaque nouvel instant (pasd’accumulation des observations) + dans chacun de ces problemesd’estimation separement, la dimension m de l’etat cache est (souvent)plus grande que la dimension d de l’observation

estimer l’etat cache Xk au vu de la seule observation Yk et meme sansbruit d’observation Vk , est un probleme mal–pose

◮ la relation possede plus d’inconnues que d’equations

◮ meme dans le cas favorable ou m = d , la relation non–lineaire peutposseder plusieurs solutions distinctes

◮ la suite reconstituee peut etre globalement peu pertinente (en tantque suite), meme si separement chacune des estimations marginalesest pertinente (incoherence temporelle)

13 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

approche variationnelle pour lever l’indetermination ou l’incoherencetemporelle : introduire des informations supplementaires sur la suitecachee, sous la forme de fonctions de cout portant sur l’etat initial et surles transitions entre deux etats successifs

par exemple, le critere a minimiser par rapport a la suitex0:n = (x0, x1, · · · , xn)

J(x0:n) = c0(x0) +

n∑

k=1

ck(xk−1, xk) +

n∑

k=0

dk(xk)

combine des fonctions de cout qui representent◮ une information a priori sur la suite recherchee◮ un terme d’attache aux donnees, par exemple de la forme

dk(x) =12 |Yk − hk(x)|

2

avec l’interpretation que la suite recherchee doit verifier a chaqueinstant l’equation d’observation en un sens approche

ou qui peuvent juste representer une contrainte (ou une propriete) que lasuite recherchee devrait verifier (ou posseder)

14 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

typiquement, l’information a priori est representee par

c0(x) =12 |x − µ|2 et ck(x , x

′) = 12 |x

′ − fk(x)|2

avec l’interpretation que

◮ l’etat initial x0 recherche doit etre proche de µ

◮ et que la transition (xk−1, xk) recherchee doit verifier l’equationxk = fk(xk−1) en un sens approche

cette regularisation (du point de vue de l’optimisation) peut s’interpretercomme l’ajout d’une information a priori (du point de vue de l’estimationstatistique)

15 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

plus generalement, si l’information a priori est representee par

c0(x) = − log p0(x) et ck(x , x′) = − log pk(x

′ | x)

alors minimiser le critere

J(x0:n) = − log p0(x0)−n∑

k=1

log pk(xk | xk−1) +

n∑

k=0

dk(xk)

revient a maximiser (estimateur MAP (maximum a posteriori))

exp{−J(x0:n)} = p0(x0)n∏

k=1

pk(xk | xk−1)

︸ ︷︷ ︸p0:n(x0:n)

exp{−n∑

k=0

dk(xk)}

ou p0:n(x0:n) represente la densite de probabilite conjointe des etatssuccessifs (X0,X1, · · · ,Xn) de la chaıne de Markov caracterisee par

◮ la densite de probabilite initiale p0(x0)

◮ et les densites de probabilite de transition pk(xk | xk−1)

16 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

approche statistique avec un point de vue pragmatique : au lieu derechercher un maximum de la densite a posteriori, on choisitd’echantillonner cette densite, ce qui permet par exemple de calculer desesperances (ou des integrales) du type

E

· · ·

E

f (x0:n) exp{−J(x0:n)} dx0:n

=

E

· · ·

E

f (x0:n) exp{−n∑

k=0

dk(xk)} p0:n(x0:n) dx0:n

= E[f (X0:n) exp{−n∑

k=0

dk(Xk)} ]

on verra comment resoudre ce probleme de maniere approchee, ensimulant des echantillons de variables aleatoires distribuees(approximativement) selon la distribution de Gibbs–Boltzmanntrajectorielle definie ci–dessus

lien entre les deux approches : methode asymptotique de Laplace17 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

resume : necessite / utilite d’un modele a priori

◮ pour completer l’information apportee par les observations

◮ pour faire le lien entre des observations recues a des instantsdifferents (compte tenu que le mobile s’est en principe deplace entreces instants)

ce modele peut etre rustique ou grossier , et il est souvent bruite (onaccepte l’idee que le modele est necessairement faux, et on essaye dequantifier, de maniere statistique, l’erreur de modelisation)

il suffit en pratique de savoir simuler a chaque pas de temps des v.a.independantes selon le modele propose : comme ce modele est bruite(aleatoire) des simulations differentes proposeront des etats possiblesdifferents

effet desire : permettre l’exploration rationnelle de l’espace d’etat pourproposer des solutions realistes, qui seront ensuite confirmees, renforceesou au contraire abandonnees : il suffira pour cela de savoir evaluer lafonction de vraisemblance en chacune des solutions proposees

18 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Modeles

modele (du plus simple au plus general)modele d’etat (espace d’etat continu R

m)

◮ lineaire, bruits gaussiens

◮ non–lineaire, bruits gaussiens

◮ modele d’etat general : non–lineaire, bruits non–gaussiens

modele de Markov cache (HMM), et extensions

◮ modele de Markov cache (etat cache markovien, observationsindependantes / markoviennes conditionnellement aux etats caches)

◮ chaıne de Markov partiellement observee (etats caches etobservations conjointement markoviens)

19 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

espace d’etat general

◮ fini, denombrable

◮ espace euclidien, variete

◮ hybride continu / discret

◮ avec contraintes

◮ graphe (collection de nœuds et d’aretes)

20 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Exploitation du modele a priori

approche bayesienne, fusion d’information : loi a posteriori obtenue encombinant

◮ loi a priori (modele d’etat)

◮ vraisemblance (adequation entre mesures et etats)

mise en œuvre recursive grace a la propriete de Markov

principe general : a l’aide de la formule de Bayes, la loi conditionnelle deX0:n sachant Y0:n s’exprime a partir de

◮ la loi de X0:n

◮ la loi conditionnelle de Y0:n sachant X0:n, souvent facile a evaluerpar exemple dans le modele additif

Yk = hk(Xk) + Vk

21 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

en principe, la loi conditionnelle de Xn sachant Y0:n s’obtient facilementpar marginalisation

en pratique, cette loi conditionnelle n’a d’expression explicite que danscertains cas particuliers

◮ chaıne de Markov a espace d’etat fini

◮ modele lineaire gaussien

d’ou l’interet pour les methodes de simulation de type Monte Carlo dansle cas general : le filtrage particulaire offre une maniere numeriquementefficace de mettre en œuvre les methodes bayesiennes

22 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentation

Introduction au filtrage

Estimation bayesienneestimation bayesienneborne de Cramer–Rao a posterioricadre gaussien

Systemes lineaires gaussiens

Extensions

Systemes non–lineaires / non–gaussiens

23 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Estimation bayesienne

soit Z = (X ,Y ) a valeurs dans E × F (par exemple E = Rm, F = R

d ) deloi jointe connue (pas necessairement donnee par une densite p(x , y))

objectif : exploiter au mieux l’observation de Y pour ameliorer laconnaissance de la composante cachee X

un estimateur ψ de la statistique φ = φ(X ) a valeurs dans Rp est uneapplication definie sur F , a valeurs dans Rp

mesure de l’ecart entre ψ(Y ) et φ(X ) : erreur quadratique moyenne

E|ψ(Y )− φ(X )|2

trace de la matrice de correlation de l’erreur d’estimation

E[ (ψ(Y )− φ(X )) (ψ(Y )− φ(X ))∗ ]

symetrique semi–definie positive, de dimension p × p

24 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

estimateur MMSE (minimum mean square error) : estimateur φ tel que

E[ (φ(Y )−φ(X )) (φ(Y )−φ(X ))∗ ] ≤ E[ (ψ(Y )−φ(X )) (ψ(Y )−φ(X ))∗ ]

pour tout autre estimateur ψ, au sens des matrices symetriquesa fortiori

E|φ(Y )− φ(X )|2 ≤ E|ψ(Y )− φ(X )|2

pour tout autre estimateur ψ

Proposition l’estimateur MMSE de la statistique φ = φ(X ) au vu del’observation Y est la moyenne conditionnelle de φ(X ) sachant Y

φ(Y ) = E[φ(X ) | Y ] =

E

φ(x) P[X ∈ dx | Y ]

25 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve pour un estimateur ψ quelconque, la decomposition

ψ(Y )− φ(X ) = ψ(Y )− φ(Y ) + φ(Y )− φ(X )

entraıne

E[ (ψ(Y )− φ(X )) (ψ(Y )− φ(X ))∗ ]

= E[ (ψ(Y )− φ(Y )) (ψ(Y )− φ(Y ))∗ ]

+ E[ (φ(Y )− φ(X )) (φ(Y )− φ(X ))∗ ]

+ E[ (ψ(Y )− φ(Y )) (φ(Y )− φ(X ))∗ ] + (· · · )∗

si les deux produits croises sont nuls, alors

E[ (ψ(Y )−φ(X )) (ψ(Y )−φ(X ))∗ ] ≥ E[ (φ(Y )−φ(X )) (φ(Y )−φ(X ))∗ ]

au sens des matrices symetriques, avec egalite pour ψ(Y ) = φ(Y )

26 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

il reste a verifier que

E[ (φ(Y )− φ(X )) (ψ(Y )− φ(Y ))∗ ]

= E[E[φ(Y )− φ(X ) | Y ] (ψ(Y )− φ(Y ))∗ ]

= E[ (φ(Y )− E[φ(X ) | Y ]) (ψ(Y )− φ(Y ))∗ ] = 0

par definition deφ(Y ) = E[φ(X ) | Y ] �

pros : solution universelle (la loi conditionnelle de X sachant Y permet deconstruire l’estimateur MMSE de n’importe quelle statistique φ = φ(X ))cons : solution infini–dimensionnelle (distribution ou densite deprobabilite)

27 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Borne de Cramer–Rao a posterioril’erreur quadratique moyenne associee a l’estimateur bayesien fournit uneborne inferieure, atteinte (par l’estimateur bayesien) mais souvent difficilea evaluer

la borne de Cramer–Rao a posteriori (differente de la borne parametrique)est plus facilement calculable mais pas necessairement atteinte

hypothese : la loi jointe de Z = (X ,Y ) possede une densite (assezreguliere) sur Rm × F

P[X ∈ dx ,Y ∈ dy ] = p(x , y) dx λ(dy)

obtenue souvent grace a la factorisation (formule de Bayes)

p(x , y) = p(y | x) p(x) = p(x | y) p(y)

et cette densite verifie∫

Rm

F

∂2

∂x2p(x , y) λ(dy) dx =

Rm

p′′(x) dx = 0

28 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on definit le biais de l’estimateur ψ comme

b(ψ, x) = E[ψ(Y ) | X = x ]− φ(x) =

F

(ψ(y)− φ(x)) p(y | x) λ(dy)

Theoreme si la matrice d’information de Fisher

J = −E[∂2

∂x2log p(X ,Y )] matrice de dimension m ×m

est inversible, alors

E[ (ψ(Y )− φ(X )) (ψ(Y )− φ(X ))∗ ] ≥ M J−1 M∗

avecM = E[φ′(X )] matrice de dimension p ×m

pour tout estimateur ψ tel que∫

Rm

(b(ψ, x) p(x))′ dx = 0

29 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve par definition

b(ψ, x) p(x) =

F

(ψ(y)− φ(x)) p(x , y) λ(dy)

et la matrice jacobienne (de dimension p ×m) associee verifie

(b(ψ, x) p(x))′

= −φ′(x)

F

p(x , y) λ(dy) +

F

(ψ(y)− φ(x))∂

∂xp(x , y) λ(dy)

= −φ′(x) p(x) +

F

(ψ(y)− φ(x))∂

∂xlog p(x , y) p(x , y) λ(dy)

en integrant par rapport a la variable x ∈ Rm et avec l’hypothese, il vient

Rm

φ′(x) p(x) dx +

Rm

F

(ψ(y)− φ(x))∂

∂xlog p(x , y) p(x , y) λ(dy) dx

= −E[φ′(X )] + E[ (ψ(Y )− φ(X ))∂

∂xlog p(X ,Y ) ] = 0

30 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

c’est–a–dire que

E[ (ψ(Y )− φ(X ))∂

∂xlog p(X ,Y ) ] = M

d’autre part, il resulte de l’identite

∂2

∂x2log p(x , y) =

1

p(x , y)

∂2

∂x2p(x , y)− (

∂xlog p(x , y))∗

∂xlog p(x , y)

entre matrices de dimension m ×m, que

E[ (∂

∂xlog p(X ,Y ))∗

∂xlog p(X ,Y ) ]

=

Rm

F

∂2

∂x2p(x , y) λ(dy) dx − E[

∂2

∂x2log p(X ,Y ) ]

et par hypothese

E[ (∂

∂xlog p(X ,Y ))∗

∂xlog p(X ,Y ) ] = J

31 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on introduit ensuite le vecteur aleatoire (de dimension p +m)

ψ(Y )− φ(X )

(∂

∂xlog p(X ,Y ))∗

et sa matrice de covariance

(C MM∗ J

)

compte tenu que cette matrice est symetrique semi–definie positive, onverifie que pour tout vecteur u ∈ R

p

0 ≤

(u∗ −(J−1 M∗ u)∗

) (C MM∗ J

) (u

−J−1 M∗ u

)

=

(u∗ −(J−1 M∗ u)∗

) ((C −M J−1 M∗) u

0

)

= u∗ (C −M J−1 M∗) u

c’est–a–dire que le complement de Schur ∆ = C −M J−1 M∗ estegalement une matrice symetrique semi–definie positive, d’ou

C ≥ M J−1 M∗�

32 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Utilisation pratiquepour evaluer a l’avance la performance d’un estimateur donne ψ(Y ) de lavariable cachee X au vu de l’observation Y , on realise N simulationsindependantes

(X j ,Y j) pour tout j = 1 · · ·N

pour avoir une idee de la performance, on evalue empiriquement lamatrice de correlation des erreurs d’estimation

E[ (ψ(Y )− X ) (ψ(Y )− X )∗ ] ≈1

N

N∑

j=1

(ψ(Y j)− X j) (ψ(Y j)− X j)∗

et pour avoir une idee de la marge d’amelioration possible, on compareavec la borne J−1

pour calculer la matrice d’information de Fisher J intervenant dans laborne, on evalue empiriquement la matrice

−J = E[∂2

∂x2log p(X ,Y )] ≈

1

N

N∑

j=1

∂2

∂x2log p(X j ,Y j)

33 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

borne calculable a l’avance, pas de connaissance necessaire de la “vraie”valeur (qui n’existe d’ailleurs pas dans le cadre bayesien)moyenne sur toutes les realisations possibles

de l’observation et de la composante cachee conjointement

par contraste, dans la borne de Cramer–Rao parametrique (vs. borne deCramer–Rao a posteriori) il n’y a pas de loi a priori sur la composantecachee θ

Theoreme si la matrice d’information de Fisher

J(θ) = −E[∂2

∂θ2log p(Y | θ) | θ] matrice de dimension m ×m

est inversible, alors

E[ (ψ(Y )− φ(θ)) (ψ(Y )− φ(θ))∗ | θ] ≥ φ′(θ) J−1(θ) (φ′(θ))∗

pour tout estimateur ψ sans biais de θ, c–a–d tel que E[ψ(Y ) | θ] = φ(θ)

34 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

decomposition ”loi jointe” = ”loi conditionnelle” × ”loi marginale”

p(x , y) = p(x | y) p(y) = p(y | x) p(x)

d’ou les expressions equivalentes suivantes

J = −E[∂2

∂x2log p(X ,Y )]

= −E[∂2

∂x2log p(X | Y )]

= −E[∂2

∂x2log p(Y | X ) ]− E[

∂2

∂x2log p(X )]

= E[−E[∂2

∂x2log p(Y | X ) | X ]

︸ ︷︷ ︸J(X )

]− E[∂2

∂x2log p(X )]

pour la matrice d’information de Fisher

35 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Exemple soit X et V deux vecteurs aleatoires gaussiens independants demoyenne X et 0, de matrice de covariance QX et QV , et on poseY = h(X ) + Vsi QX et QV sont inversibles, alors

p(y | x) ∝ exp{− 12 (y − h(x))∗ Q−1

V (y − h(x))}

p(x) ∝ exp{− 12 (x − X )∗ Q−1

X (x − X )}

d’ou

− log p(x , y) = 12 (y−h(x))∗ Q−1

V (y−h(x))+ 12 (x−X )∗ Q−1

X (x−X )+cste

−∂2

∂x2log p(x , y) = (h′(x))∗ Q−1

V h′(x)− (y − h(x))∗ Q−1V h′′(x) + Q−1

X

et la matrice d’information de Fisher

J = −E[∂2

∂x2log p(X ,Y )] = E[(h′(X ))∗ Q−1

V h′(X )]−E[V ∗ Q−1V h′′(X )]︸ ︷︷ ︸0

+Q−1X

36 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

dans le cas particulier ou h(x) = H x

J = H∗ Q−1V H+Q−1

X et J−1 = QX−QX H∗ (H QX H∗+QV )−1 H QX

repose sur le lemme d’inversion matricielle suivant

Lemme soit Q et R deux matrices symetriques definies positives, dedimension m et d respectivement, et soit H une matrice d ×m, alors

(H∗ R−1 H + Q−1)−1 = Q − Q H∗ (H Q H∗ + R)−1 H Q

Remarque cette formule d’inversion permet de remplacer l’inversion de lamatrice (H∗ R−1 H + Q−1) de dimension m, par l’inversion de la matrice(H Q H∗ + R) de dimension d , avec en general d ≤ m

37 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve on remarque d’abord que

H Q H∗ + R ≥ R et H∗ R−1 H + Q−1 ≥ Q−1

au sens des matrices symetriques, ce qui prouve que les matrices

(H Q H∗ + R) et (H∗ R−1 H + Q−1)

sont inversibles

38 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on verifie alors que

[Q − Q H∗ (H Q H∗ + R)−1 H Q ] [H∗ R−1 H + Q−1]

= Q H∗ R−1 H + I

− Q H∗ (H Q H∗ + R)−1 (H Q H∗ + R − R)R−1 H

− Q H∗ (H Q H∗ + R)−1 H

= Q H∗ R−1 H + I

− Q H∗ R−1 H + Q H∗ (H Q H∗ + R)−1 H

− Q H∗ (H Q H∗ + R)−1 H

= I �

39 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Cadre gaussien

estimateur MMSE dans le cas gaussiensoit Z = (X ,Y ) vecteur aleatoire gaussien a valeurs dans Rm × R

d de

moyenne Z = (X , Y ), de matrice de covariance QZ =

(QX QXY

QYX QY

)

Proposition la loi conditionnelle de X sachant Y est gaussienne, demoyenne X (Y ) et de matrice de covariance R (ne dependant pas de Y ),et si la matrice de covariance QY est inversible, alors

X (Y ) = X + QXY Q−1Y (Y − Y )

et0 ≤ R = QX − QXY Q−1

Y QYX ≤ QX

complement de Schur de la matrice QY dans la matrice–bloc QZ

40 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque on verifie que0 ≤ R ≤ QX

au sens des matrices symetriques, c’est–a–dire que l’utilisation del’information supplementaire (Y = y), permet de reduire l’incertitude quel’on a sur le vecteur aleatoire Xla majoration R ≤ QX est evidente, et la minoration R ≥ 0 resulte del’identite

0 ≤

(u∗ −(Q−1

Y QYX u)∗)

QX QXY

QYX QY

u

−Q−1Y QYX u

=

(u∗ −(Q−1

Y QYX u)∗)

(QX − QXY Q−1Y QYX ) u

0

= u∗ R u

pour tout vecteur u ∈ Rm, ce qui permet de conclure que R ≥ 0

41 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque la matrice R ne depend pas de y , et peut donc etre calculeeavant meme de disposer de la valeur y prise par l’observation Y

Remarque soit X = X (Y ) l’estimateur MMSE de X sachant Ycompte tenu que

X = X + QXY Q−1Y (Y − Y )

depend de facon affine du vecteur aleatoire Y , on en deduit que(X , X ,Y ) est un vecteur aleatoire gaussien, comme transformation affinedu vecteur aleatoire gaussien Z = (X ,Y )

42 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque si Y = (Y ′,Y ′′) ou les composantes Y ′ et Y ′′ sontindependantes

Z =

X

Y ′

Y ′′

et QZ =

QX QXY ′ QXY ′′

QY ′X QY ′ 0QY ′′X 0 QY ′′

et si les matrices QY ′ et QY ′′ sont inversibles, alors la distribution deprobabilite conditionnelle du vecteur aleatoire X sachant Y = y , avecy = (y ′, y ′′), est une distribution de probabilite gaussienne de moyenne

X (y) = X + QXY Q−1Y (y − Y )

= X +

(QXY ′ QXY ′′

) (QY ′ 00 QY ′′

)−1 (

y ′ − Y ′

y ′′ − Y ′′

)

= X + QXY ′ Q−1Y ′ (y

′ − Y ′) + QXY ′′ Q−1Y ′′ (y

′′ − Y ′′)

43 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

et de matrice de covariance

R = QX − QXY Q−1Y QYX

= QX −

(QXY ′ QXY ′′

) (QY ′ 00 QY ′′

)−1 (

QY ′X

QY ′′X

)

= QX − QXY ′ Q−1Y ′ QY ′X − QXY ′′ Q−1

Y ′′ QY ′′X

44 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve de la Proposition on pose Ξ = X − QXY Q−1Y Y , et on verifie que

le vecteur aleatoire (Ξ,Y ) est gaussien, comme transformation affine duvecteur aleatoire gaussien Z = (X ,Y )on verifie que

Ξ = E[Ξ] = X − QXY Q−1Y Y

et par difference

Ξ− Ξ = (X − X )− QXY Q−1Y (Y − Y )

45 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on en deduit facilement la matrice de covariance

QΞ = E[(Ξ− Ξ) (Ξ− Ξ)∗]

= E[((X − X )− QXY Q−1Y (Y − Y )) ((X − X )− QXY Q−1

Y (Y − Y ))∗]

= E[(X − X ) (X − X )∗]− E[(X − X ) (Y − Y )∗] Q−1Y QYX

− QXY Q−1Y E[(Y − Y ) (X − X )∗]

+ QXY Q−1Y E[(Y − Y ) (Y − Y )∗] Q−1

Y QYX

= QX − QXY Q−1Y QYX = R

et la matrice de correlation

QΞY = E[(Ξ− Ξ) (Y − Y )∗]

= E[((X − X )− QXY Q−1Y (Y − Y )) (Y − Y )∗]

= E[(X − X ) (Y − Y )∗]− QXY Q−1Y E[(Y − Y ) (Y − Y )∗] = 0

46 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

en particulier, les vecteurs aleatoires gaussiens Ξ et Y sont decorreles,donc independants

il suffit alors d’exprimer la fonction caracteristique de la distribution deprobabilite conditionnelle du vecteur aleatoire X = Ξ+ QXY Q−1

Y Ysachant Y , soit

E[ exp{i u∗X} | Y ] = E[ exp{i u∗(Ξ + QXY Q−1Y Y )} | Y ]

= exp{i u∗ QXY Q−1Y Y } E[ exp{i u∗Ξ} ]

= exp{i u∗ QXY Q−1Y Y } exp{i u∗(X − QXY Q−1

Y Y )− 12 u

∗ R u}

= exp{i u∗(X + QXY Q−1Y (Y − Y ))− 1

2 u∗ R u}

= exp{i u∗X (Y )− 12 u

∗ R u}

on reconnait la fonction caracteristique d’un vecteur aleatoire gaussien demoyenne X (Y ) et de matrice de covariance R �

47 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Exemple soit X et V deux vecteurs aleatoires gaussiens independants demoyenne X et 0, de matrice de covariance QX et QV , et on poseY = H X + Valors Z = (X ,Y ) vecteur aleatoire gaussien a valeurs dans Rm × R

d demoyenne Z = (X ,H X ), de matrice de covariance

QZ =

(QX QX H∗

H QX H QX H∗ + QV

)

si QV est inversible, alors a fortiori H QX H∗ + QV est inversible, et

X (Y ) = X + QX H∗ (H QX H∗ + QV )−1 (Y − H X )

et0 ≤ R = QX − QX H∗ (H QX H∗ + QV )

−1 H QX ≤ QX

complement de Schur de la matrice H QX H∗ + QV dans la matrice–blocQZ

si de plus QX est inversible, alors (lemme d’inversion matricielle)

R = (H∗ Q−1X H + Q−1

V )−1 = J−1

48 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

la moyenne conditionnelle X (Y ) est l’estimateur MMSE de X sachant Y ,donc pour tout estimateur ψ on a

E[ (ψ(Y )− X ) (ψ(Y )− X )∗ ] ≥ E[ (X (Y )− X ) (X (Y )− X )∗ ] = R ≥ J−1

i.e. la borne de Cramer–Rao a posteriori J−1 est atteinte dans le casgaussien

Remarque autre demonstration de J−1 = R

p(x | y) ∝ exp{− 12 (x − X (y))∗ R−1 (x − X (y))}

d’ou− log p(x | y) = 1

2 (x − X (y))∗ R−1 (x − X (y)) + cste

−∂2

∂x2log p(x | y) = R−1

et la matrice d’information de Fisher

J = −E[∂2

∂x2log p(X | Y )] = R−1

49 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentation

Introduction au filtrage

Estimation bayesienne

Systemes lineaires gaussienssystemes lineaires gaussiensfiltre de Kalmanlisseur de Kalman

Extensions

Systemes non–lineaires / non–gaussiens

50 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Systemes lineaires gaussiens

suite d’etats caches {Xk} a valeurs dans Rm, verifiant

Xk = Fk Xk−1 + fk +Wk

et suite d’observations {Yk} a valeurs dans Rd , verifiant

Yk = Hk Xk + hk + Vk

hypotheses :

◮ etat initial X0 gaussien, de moyenne X0 et de matrice de covarianceQX

0

◮ bruit d’etat {Wk} blanc gaussien, de matrice de covariance QWk

◮ bruit d’observation {Vk} blanc gaussien, de matrice de covarianceQV

k

◮ suites {Wk} et {Vk} et etat initial X0 mutuellement independants

51 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

interpretation du modele a priori

Xk = Fk Xk−1 + fk +Wk

en terme de propagation des incertitudes

◮ meme si l’etat Xk−1 = x est connu exactement a l’instant (k − 1),on peut seulement dire que l’etat Xk a l’instant k est incertain, etdistribue comme un vecteur aleatoire gaussien, de moyenne Fk x + fket de matrice de covariance QW

k

◮ si l’etat Xk−1 est incertain a l’instant (k − 1), et distribue comme unvecteur aleatoire gaussien, de moyenne Xk−1 et de matrice decovariance QX

k−1, alors cette incertitude se propage a l’instant k :meme en absence de bruit, l’etat Xk a l’instant k est incertain, etdistribue comme un vecteur aleatoire gaussien, de moyenneFk Xk−1 + fk et de matrice de covariance Fk Q

Xk−1 F

k

52 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Proposition la suite {Zk = (Xk ,Yk)} est un processus aleatoire gaussien

Preuve pour tout instant n, le vecteur aleatoire (Z0,Z1, · · · ,Zn) peuts’exprimer comme transformation affine du vecteur aleatoire(X0,W1, · · · ,Wn,V0,V1, · · · ,Vn) qui par hypothese est un vecteuraleatoire gaussien, donc le vecteur aleatoire (Z0,Z1, · · · ,Zn) est gaussien,comme transformation affine d’un vecteur aleatoire gaussien

53 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Resume on rappelle qu’il s’agit d’estimer le vecteur aleatoire Xk a partirde Y0:k = (Y0, · · · ,Yk), de facon optimale et recursive, dans le modele

Xk = Fk Xk−1 + fk +Wk

Yk = Hk Xk + hk + Vk

si on adopte le critere MMSE, alors il s’agit de calculer la distribution deprobabilite conditionnelle du vecteur aleatoire Xk sachant Y0:k , et commele cadre est gaussien, il suffit de calculer la moyenne et la matrice decovariance deterministe

Xk = E[Xk | Y0:k ] et Pk = E[(Xk − Xk) (Xk − Xk)∗]

on definit egalement les quantites suivantes

X−

k = E[Xk | Y0:k−1] et P−

k = E[(Xk − X−

k ) (Xk − X−

k )∗]

54 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

en revanche, le calcul direct a partir des formules de conditionnementdans les vecteurs aleatoires gaussiens est

◮ de taille croissante

◮ non recursif

55 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Filtre de Kalmansupposons connue la distribution de probabilite conditionnelle du vecteuraleatoire Xk−1 sachant Y0:k−1 : pour calculer la distribution deprobabilite conditionnelle du vecteur aleatoire Xk sachant Y0:k , onprocede en deux etapes

◮ dans l’etape de prediction, on calcule la distribution de probabiliteconditionnelle du vecteur aleatoire Xk sachant les observationspassees Y0:k−1, ce qui est facile a partir de l’equation d’etat

◮ dans l’etape de correction, on utilise la nouvelle observation Yk , etparticulierement la composante de l’observation Yk qui apporte uneinformation nouvelle par rapport aux observations passees Y0:k−1,c–a–d

Ik = Yk − E[Yk | Y0:k−1]

d’apres l’equation d’observation, on a

E[Yk | Y0:k−1] = Hk E[Xk | Y0:k−1]+hk+E[Vk | Y0:k−1] = Hk X−

k +hk

ou on a utilise l’independance de Vk et de Y0:k−1

56 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque par definition, toute fonction des variables (Y0, · · · ,Yk−1,Yk)peut s’exprimer en fonction des variables (Y0, · · · ,Yk−1, Ik), etreciproquementon en deduit que (Y0:k−1, Ik) contient exactement la meme informationque Y0:k

Lemme la suite {Ik} est un processus gaussien, appele processusd’innovationen particulier a l’instant k , le vecteur aleatoire Ik est gaussien, demoyenne nulle et de matrice de covariance

Q Ik = Hk P

k H∗

k + QVk

et independant de Y0:k−1

plus generalement, le v.a. (Xk − X−

k , Ik) est gaussien, de moyenne nulleet de matrice de covariance

(P−

k P−

k H∗

k

Hk P−

k Hk P−

k H∗

k + QVk

)

et independant de Y0:k−157 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve d’apres la theorie du conditionnement dans les v.a. gaussiens,l’observation predite E[Yk | Y0:k−1] depend de facon affine desobservations passees (Y0,Y1, · · · ,Yk−1), et donc l’innovation Ik dependde facon affine des observations (Y0,Y1, · · · ,Yk)

on en deduit que le v.a. (I0, I1, · · · , Ik) est gaussien, commetransformation affine du v.a. gaussien (Y0,Y1, · · · ,Yk)

toujours d’apres la theorie du conditionnement dans les v.a. gaussiens,l’etat predit X−

k = E[Xk | Y0:k−1] depend de facon affine des observationspassees (Y0,Y1, · · · ,Yk−1)

on en deduit que le v.a. (Y0,Y1, · · · ,Yk−1,Xk − X−

k , Ik) est gaussien —

et en particulier le v.a. (Xk − X−

k , Ik) est gaussien — commetransformation affine d’un v.a. gaussien, et compte tenu que

E[Xk − X−

k | Y0:k−1] = 0 et E[Ik | Y0:k−1] = 0

par definition, le v.a. (Xk − X−

k , Ik) est independant de Y0:k−1

58 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

d’apres l’equation d’observation, on a

Ik = Yk − (Hk X−

k + hk) = Hk (Xk − X−

k ) + Vk

et on en deduit que

Q Ik = E[Ik I

k ]

= E[(Hk (Xk − X−

k ) + Vk) (Hk (Xk − X−

k ) + Vk)∗]

= Hk E[(Xk − X−

k ) (Xk − X−

k )∗] H∗

k + E[Vk V∗

k ]

+ E[Vk (Xk − X−

k )∗] H∗

k + Hk E[(Xk − X−

k )V ∗

k ]

= Hk P−

k H∗

k + QVk

ou on a utilise dans la derniere egalite, l’independance de (Xk − X−

k ) et

de Vk , donc E[(Xk − X−

k )V ∗

k ] = 0

59 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on a egalement

E[(Xk − X−

k ) I ∗k ] = E[(Xk − X−

k ) (Hk (Xk − X−

k ) + Vk)∗]

= E[(Xk − X−

k ) (Xk − X−

k )∗] H∗

k + E[(Xk − X−

k )V ∗

k ]

= P−

k H∗

k

ou on a utilise dans la derniere egalite, l’independance de (Xk − X−

k ) et

de Vk , donc E[(Xk − X−

k )V ∗

k ] = 0 �

60 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Theoreme [Filtre de Kalman] on suppose que la matrice de covarianceQV

k est inversible, pour tout instant k

alors les suites {Xk} et {Pk} sont definies par les equations suivantes

X−

k = Fk Xk−1 + fk

P−

k = Fk Pk−1 F∗

k + QWk

et

Xk = X−

k + Kk [Yk − (Hk X−

k + hk)]

Pk = [I − Kk Hk ] P−

k

ou la matriceKk = P−

k H∗

k [Hk P−

k H∗

k + QVk ]−1

est appelee gain de Kalman, avec les initialisations

X−

0 = X0 = E[X0] et P−

0 = QX0 = cov(X0)

61 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque la suite {Pk} ne depend pas des observations : elle peut doncetre pre–calculee

Remarque si les coefficients Fk et fk dans l’equation d’etat et lescoefficients Hk et hk dans l’equation d’observation dependent desobservations passees Y0:k−1, alors la suite {Zk = (Xk ,Yk)} n’est plusgaussienne, mais conditionnellement a Y0:k−1 le couple (Xk ,Yk) estgaussienon dit que la suite {Xk} est conditionnellement gaussienne, et on verifieque la distribution de probabilite conditionnelle du v.a. Xk sachant Y0:k

est gaussienne, de moyenne Xk et de matrice de covariance Pk donneesencore par les equations du Theoreme

62 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve on procede en plusieurs etapes, en s’appuyant sur la theorie duconditionnement dans les v.a. gaussiens

◮ initialisation expression de X0 et P0 en fonction de X−

0 et P−

0

le v.a. (X0,Y0) est gaussien, de moyenne et de matrice de covariancedonnees par

X−

0

H0 X−

0 + h0

et

(P−

0 P−

0 H∗

0

H0 P−

0 H0 P−

0 H∗

0 + QV0

)

respectivementon en deduit que la distribution de probabilite conditionnelle du v.a. X0

sachant Y0 est gaussienne, de moyenne

X0 = X−

0 + P−

0 H∗

0 [H0 P−

0 H∗

0 + QV0 ]−1 [Y0 − (H0 X

0 + h0)]

et de matrice de covariance deterministe

P0 = P−

0 − P−

0 H∗

0 [H0 P−

0 H∗

0 + QV0 ]−1 H0 P

0

63 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

◮ etape de prediction expression de X−

k et P−

k en fonction de Xk−1 etPk−1

le v.a. (Xk ,Y0, · · · ,Yk−1) est gaussien, de sorte que la distribution deprobabilite conditionnelle du v.a. Xk sachant Y0:k−1 est gaussienne, de

moyenne X−

k et de matrice de covariance deterministe P−

k

d’apres l’equation d’etat

Xk = Fk Xk−1 + fk +Wk

on a

X−

k = E[Xk | Y0:k−1] = Fk E[Xk−1 | Y0:k−1] + fk + E[Wk | Y0:k−1]

= Fk Xk−1 + fk

compte tenu que Wk et Y0:k−1 sont independantspar difference

Xk − X−

k = Fk (Xk−1 − Xk−1) +Wk

64 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on en deduit que

P−

k = E[(Xk − X−

k ) (Xk − X−

k )∗]

= E[(Fk (Xk−1 − Xk−1) +Wk) (Fk (Xk−1 − Xk−1) +Wk)∗]

= Fk E[(Xk−1 − Xk−1) (Xk−1 − Xk−1)∗] F ∗

k + E[Wk W∗

k ]

+ E[Wk (Xk−1 − Xk−1)∗] F ∗

k + Fk E[(Xk−1 − Xk−1)W∗

k ]

= Fk Pk−1 F∗

k + QWk

ou on a utilise dans la derniere egalite, l’independance de (Xk−1 − Xk−1)

et de Wk , donc E[(Xk−1 − Xk−1)W∗

k ] = 0

65 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

◮ etape de correction expression de Xk et Pk en fonction de X−

k et P−

k

le v.a. (Xk ,Y0, · · · ,Yk) est gaussien, de sorte que la distribution deprobabilite conditionnelle du v.a. Xk sachant Y0:k est gaussienne, demoyenne Xk et de matrice de covariance deterministe Pk

compte tenu de l’independance entre Ik et Y0:k−1, on a

Xk = E[Xk | Y0:k ]

= X−

k + E[Xk − X−

k | Y0:k ]

= X−

k + E[Xk − X−

k | Y0:k−1, Ik ]

= X−

k + E[Xk − X−

k | Ik ]

par difference

Xk − Xk = (Xk − X−

k )− (Xk − X−

k ) = (Xk − X−

k )− E[Xk − X−

k | Ik ]

66 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

de sorte que

Pk = E[ (Xk − Xk) (Xk − Xk)∗ ]

= E[ ((Xk − X−

k )− E[Xk − X−

k | Ik ]) ((Xk − X−

k )− E[Xk − X−

k | Ik ])∗ ]

il suffit donc de calculer la moyenne conditionnelle et la matrice decovariance conditionnelle du v.a. (Xk − X−

k ) sachant Ik , or le v.a.

(Xk − X−

k , Ik) est gaussien, de moyenne nulle et de matrice de covariance(

P−

k P−

k H∗

k

Hk P−

k Hk P−

k H∗

k + QVk

)

si la matrice QVk est inversible, alors a fortiori la matrice

Q Ik = Hk P

k H∗

k + QVk est inversible, et on en deduit que

Xk = X−

k + P−

k H∗

k [Hk P−

k H∗

k + QVk ]−1 Ik

etPk = P−

k − P−

k H∗

k [Hk P−

k H∗

k + QVk ]−1 Hk P

k �

67 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Lisseur de Kalman

il s’agit estimer l’etat cache Xk pour un instant k , intermediaire entrel’instant initial 0 et l’instant final n, au vu de toutes les observationsY0:n = (Y0, · · · ,Yn)si on adopte le critere MMSE, alors il s’agit de calculer la distribution deprobabilite conditionnelle du vecteur aleatoire Xk sachant Y0:n, et commele cadre est gaussien, il suffit de calculer la moyenne et la matrice decovariance deterministe

X nk = E[Xk | Y0:n] et Pn

k = E[(Xk − X nk ) (Xk − X n

k )∗]

clairement, X nn = Xn et Pn

n = Pn pour k = n

68 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Theoreme [Lisseur de Kalman] on suppose que les matrices de covarianceQV

k et QWk sont inversibles, pour tout instant k

alors {X nk } et {Pn

k } sont definis par les equations retrogrades suivantes

X nk−1 = Xk−1 + Lk (X n

k − X−

k )

Pnk−1 = Pk−1 − Lk (P−

k − Pnk ) L

k

avec la matrice de gain

Lk = Pk−1 F∗

k (P−

k )−1

et avec les initialisations

X nn = Xn et Pn

n = Pn

Remarque si la matrice de covariance QWk est inversible, alors a fortiori la

matrice de covariance P−

k = Fk Pk−1 F∗

k + QWk est inversible

69 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Preuve on remarque que le v.a. Yk = Hk Xk + hk + Vk peut s’exprimercomme transformation affine du v.a. (Xk ,Vk), et donc a fortiori comme

transformation affine du v.a. (Y0:k−1,Xk − X−

k ,Vk)

de meme, le v.a. Yk+p = Hk+p Xk+p + hk+p + Vk+p peut s’exprimercomme transformation affine du v.a. (Xk+p,Vk+p), et par transitivitecomme transformation affine du v.a. (Xk ,Wk+1, · · · ,Wk+p,Vk+p), etdonc a fortiori comme transformation affine du v.a.(Y0:k−1,Xk − X−

k ,Wk+1, · · · ,Wk+p,Vk+p)

on en deduit que le v.a. Y0:n = (Y0:k−1,Yk , · · · ,Yn) peut s’exprimer

comme transformation affine du v.a. (Y0:k−1,Xk − X−

k ,Zk+1:n) ouZk+1:n = (Wk+1, · · · ,Wn,Vk ,Vk+1, · · · ,Vn) par definition

et on verifie que les v.a. Y0:k−1, Xk − X−

k et Zk+1:n sont mutuellementindependants

70 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

il en resulte que

Unk−1 = E[Xk−1 | Y0:k−1,Xk − X−

k ,Zk+1:n]

= Xk−1 + E[Xk−1 − Xk−1 | Y0:k−1,Xk − X−

k ,Zk+1:n]

= Xk−1 + E[Xk−1 − Xk−1 | Y0:k−1] + E[Xk−1 − Xk−1 | Xk − X−

k ]

+ E[Xk−1 − Xk−1 | Zk+1:n]

= Xk−1 + E[Xk−1 − Xk−1 | Xk − X−

k ]

compte tenu que E[Xk−1 − Xk−1 | Y0:k−1] = 0 par definition, et ou on a

utilise dans la derniere egalite le fait que (Xk−1 − Xk−1) est independant

de Zk+1:n, donc E[Xk−1 − Xk−1 | Zk+1:n] = 0par difference

Xk−1 − Unk−1 = (Xk−1 − Xk−1)− (Un

k−1 − Xk−1)

= (Xk−1 − Xk−1)− E[Xk−1 − Xk−1 | Xk − X−

k ]

71 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

de sorte que

E[(Xk−1 − Unk−1) (Xk−1 − Un

k−1)∗]

= E[ ((Xk−1 − Xk−1)− E[Xk−1 − Xk−1 | Xk − X−

k ])

((Xk−1 − Xk−1)− E[Xk−1 − Xk−1 | Xk − X−

k ])∗ ]

il suffit donc de calculer la moyenne conditionnelle et la matrice decovariance conditionnelle du v.a. (Xk−1 − Xk−1) sachant (Xk − X−

k )

d’apres la theorie du conditionnement dans les v.a. gaussiens, l’etatestime Xk−1 = E[Xk−1 | Y0:k−1] et l’etat predit X

k = E[Xk | Y0:k−1]dependent de facon affine des observations passees (Y0, · · · ,Yk−1), de

sorte que le v.a. (Xk−1 − Xk−1,Xk − X−

k ) depend de facon affine du v.a.(Y0, · · · ,Yk−1,Xk−1,Xk)

on en deduit que le v.a. (Xk−1 − Xk−1,Xk − X−

k ) est gaussien, commetransformation affine d’un v.a. gaussien

72 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

par difference

Xk − X−

k = Fk (Xk−1 − Xk−1) + Gk Wk

de sorte que

E[(Xk−1 − Xk−1) (Xk − X−

k )∗]

= E[(Xk−1 − Xk−1) (Fk (Xk−1 − Xk−1) + Gk Wk)∗]

= E[(Xk−1 − Xk−1) (Xk−1 − Xk−1)∗] F ∗

k + E[(Xk−1 − Xk−1)W∗

k ] Gk

= Pk−1 F∗

k

dans cette derniere egalite, on a utilise le fait que (Xk−1 − Xk−1) et Wk

sont independants, donc E[(Xk−1 − Xk−1)W∗

k ] = 0

on en deduit que le v.a. gaussien (Xk−1 − Xk−1,Xk − X−

k ) est demoyenne nulle et de matrice de covariance

(Pk−1 Pk−1 F

k

Fk Pk−1 P−

k

)

73 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

par hypothese, la matrice P−

k est inversible, et on en deduit que

Unk−1 = Xk−1 + Pk−1 F

k (P−

k )−1 (Xk − X−

k ) = Xk−1 + Lk (Xk − X−

k )

et

E[(Xk−1 − Unk−1) (Xk−1 − Un

k−1)∗] = Pk−1 − Pk−1 F

k (P−

k )−1 Fk Pk−1

= Pk−1 − Lk P−

k L∗k

on rappelle que (Y0:k−1,Xk − X−

k ,Zk+1:n) contient davantaged’information que Y0:n, de sorte que

X nk−1 = E[Xk−1 | Y0:n] = E[Un

k−1 | Y0:n] = Xk−1 + Lk (X nk − X−

k )

par difference

Xk−1 − X nk−1 = (Xk−1 − Un

k−1) + (Unk−1 − X n

k−1)

etUnk−1 − X n

k−1 = Lk (Xk − X nk )

74 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

de sorte que

Pnk−1 = E[ (Xk−1 − X n

k−1) (Xk−1 − X nk−1)

∗ ]

= E[ ((Xk−1 − Unk−1) + (Un

k−1 − X nk−1)) ((Xk−1 − Un

k−1) + (Unk−1 − X n

k−1))∗ ]

= E[ (Xk−1 − Unk−1) (Xk−1 − Un

k−1)∗ ] + E[ (Un

k−1 − X nk−1) (U

nk−1 − X n

k−1)∗ ]

+ E[ (Unk−1 − X n

k−1) (Xk−1 − Unk−1)

∗ ]

+ E[ (Xk−1 − Unk−1) (U

nk−1 − X n

k−1)∗ ]

= (Pk−1 − Lk P−

k L∗k) + Lk Pnk L

k

dans cette derniere egalite, on a utilise le fait que

◮ (Unk−1 − X n

k−1) depend de (Y0:k−1,Xk − X−

k ,Zk+1:n)

◮ et E[Xk−1 − Unk−1 | Y0:k−1,Xk − X−

k ,Zk+1:n] = 0 par definition

donc E[ (Xk−1 − Unk−1) (U

nk−1 − X n

k−1)∗ ] = 0 �

75 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentation

Introduction au filtrage

Estimation bayesienne

Systemes lineaires gaussiens

Extensionsborne de Cramer–Rao a posteriorifiltre de Kalman etendu (linearisation)

Systemes non–lineaires / non–gaussiens

76 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Borne de Cramer–Rao a posteriori

suite d’etats caches {Xk} a valeurs dans Rm, verifiant

Xk = bk(Xk−1) + σk(Xk−1)Wk

et suite d’observations {Yk} a valeurs dans Rd , verifiant

Yk = hk(Xk) + Vk

hypotheses :

◮ etat initial X0 pas necessairement gaussien

◮ bruit d’etat {Wk} blanc gaussien, de matrice de covariance QWk

◮ bruit d’observation {Vk} blanc gaussien, de matrice de covarianceQV

k

◮ suites {Wk} et {Vk} et etat initial X0 mutuellement independants

◮ fonctions bk , σk et hk derivables

77 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

si les matrices de covariance Σk(x) = σk(x)QWk (σk(x))

∗ sont inversiblespour tout x ∈ R

m, alors il existe des densites de transition definies par

P[Xk ∈ dx ′ | Xk−1 = x ] = pk(x′ | x) dx ′

et si les matrices de covariance QVk sont inversibles, alors il existe des

densites d’emission definies par

P[Yk ∈ dy | Xk = x ] = qk(y | x) dy

clairement

pk(x′ | x) =

1√det(2πΣk(x))

exp{− 12 (x

′−bk(x))∗ (Σk(x))

−1 (x ′−bk(x))}

et

qk(y | x) =1√

det(2πQVk )

exp{− 12 (y − hk(x))

∗ (QVk )−1 (y − hk(x))}

78 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Theoreme pour tout estimateur ψ(Y0:n) de l’etat cache Xn a partir desobservations Y0:n, l’erreur quadratique moyenne est minoree par

E[ (ψ(Y0:n)− Xn) (ψ(Y0:n)− Xn)∗ ] ≥ J−1

n

et la matrice d’information de Fisher Jn peut se calculer de la faconrecursive suivante

Jk = D+k − D∗

k (Jk−1 + D−

k )−1 Dk

avec

D−

k = −E[∂2

∂x2k−1

log pk(Xk | Xk−1) ]

Dk = −E[∂2

∂xk−1 ∂xklog pk(Xk | Xk−1) ]

D+k = −E[

∂2

∂x2klog pk(Xk | Xk−1) ]− E[

∂2

∂x2klog qk(Yk | Xk) ]

79 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Remarque dans le cas particulier ou les coefficients σk(x) = I nedependent pas de x ∈ R

m, et si les matrices de covariance QWk et QV

k

sont inversibles, alors

D−

k = E[ (b′k(Xk−1))∗ (QW

k )−1 b′k(Xk−1) ]

Dk = −E[ (b′k(Xk−1))∗ ] (QW

k )−1

D+k = (QW

k )−1 + E[ (h′k(Xk))∗ (QV

k )−1 h′k(Xk) ]

80 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Utilisation pratique

pour evaluer a l’avance la performance d’un estimateur donne ψ(Y0:n) del’etat cache Xn au vu des observations Y0:n = (Y0, · · · ,Yn), on realise Msimulations independantes

X jn et Y j

0:n = (Y j0 , · · · ,Y

jn) pour tout j = 1 · · ·M

on evalue empiriquement l’erreur quadratique moyenne

E[ (ψ(Y0:n)− Xn) (ψ(Y0:n)− Xn)∗ ]

≈1

M

M∑

j=1

(ψ(Y j0:n)− X j

n) (ψ(Yj0:n)− X j

n)∗

pour avoir une idee de la performance, et on compare avec la borne J−1n

pour avoir une idee de la marge d’amelioration possible

81 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Calcul numerique approchepour calculer la matrice d’information de Fisher Jn intervenant dans laborne, on realise M simulations independantes

X j0:n = (X j

0, · · · ,Xjn) pour tout j = 1 · · ·M

on evalue empiriquement, pour tout instant k = 1 · · · n, les matrices

D−

k = E[ (b′k(Xk−1))∗ (QW

k )−1 b′k(Xk−1) ]

≈1

M

M∑

j=1

(b′k(Xjk−1))

∗ (QWk )−1 b′k(X

jk−1)

Dk = −E[ (b′k(Xk−1))∗ ] (QW

k )−1

≈ −1

M

M∑

j=1

(b′k(Xjk−1))

∗ (QWk )−1

82 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

et

D+k = (QW

k )−1 + E[ (h′k(Xk))∗ (QV

k )−1 h′k(Xk) ]

≈ (QWk )−1 +

1

M

M∑

j=1

(h′k(Xjk))

∗ (QVk )−1 h′k(X

jk)

et on calcule recursivement

Jk = D+k − D∗

k (Jk−1 + D−

k )−1 Dk

en utilisant les approximations empiriques des matrices D−

k , Dk et D+k

83 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Filtre de Kalman etendu (linearisation)

suite d’etats caches {Xk} a valeurs dans Rm, verifiant

Xk = bk(Xk−1) + σk(Xk−1)Wk

et suite d’observations {Yk} a valeurs dans Rd , verifiant

Yk = hk(Xk) + Vk

hypotheses :

◮ etat initial X0 pas necessairement gaussien

◮ bruit d’etat {Wk} blanc gaussien, de matrice de covariance QWk

◮ bruit d’observation {Vk} blanc gaussien, de matrice de covarianceQV

k

◮ suites {Wk} et {Vk} et etat initial X0 mutuellement independants

◮ fonctions bk et hk derivables

84 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

idee : lineariser les fonctions bk et σk autour de Xk−1, c’est–a–dire

bk(x) ≃ bk(Xk−1) + b′k(Xk−1) (x − Xk−1) et σk(x) ≃ σk(Xk−1)

et lineariser la fonction hk autour de X−

k , c’est–a–dire

hk(x) ≃ hk(X−

k ) + h′k(X−

k ) (x − X−

k )

on introduit le systeme conditionnellement lineaire gaussien

Xk = Fk Xk−1 + fk + Gk Wk

Yk = Hk Xk + hk + Vk

avec

Fk = b′k(Xk−1) , fk = −b′k(Xk−1) Xk−1+bk(Xk−1) et Gk = σk(Xk−1)

et avec

Hk = h′k(X−

k ) et hk = −h′k(X−

k ) X−

k + hk(X−

k )

on remarque que

Fk Xk−1 + fk = bk(Xk−1) et Hk X−

k + hk = hk(X−

k )85 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

on applique alors exactement le filtre de Kalman a ce nouveau systeme,d’ou l’algorithme sous–optimal suivant

X−

k = bk(Xk−1)

P−

k = b′k(Xk−1)Pk−1 (b′

k(Xk−1))∗ + σk(Xk−1)Q

Wk (σk(Xk−1))

et

Xk = X−

k + Kk [Yk − hk(X−

k )]

Pk = [I − Kk h′

k(X−

k )] P−

k

avec la matrice de gain

Kk = P−

k (h′k(X−

k ))∗ [h′k(X−

k )P−

k (h′k(X−

k ))∗ + QVk ]−1

on choisit l’initialisation X−

0 et P−

0 de telle sorte que N (X−

0 ,P−

0 ) soitune bonne approximation de la distribution de probabilite du vecteuraleatoire X0

86 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Presentation

Introduction au filtrage

Estimation bayesienne

Systemes lineaires gaussiens

Extensions

Systemes non–lineaires / non–gaussienssystemes non–lineaires / non–gaussiensfiltrage particulaire in a nutshellexemples en localisation, navigation et poursuite

87 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Systemes non–lineaires / non–gaussiensevolution de l’etat cache

Xk = fk(Xk−1,Wk) avec Wk ∼ pk(dw)

il suffit de savoir simuler

X0 ∼ µ0(dx) et Wk ∼ pk(dw)

relation entre observation et etat cache

Yk = hk(Xk) + Vk avec Vk ∼ qk(v) dv

il suffit de connaıtre / savoir evaluer la fonction de vraisemblance

gk(x′) = qk(Yk − hk(x

′))

coherence entre un etat possible et l’observation reelle, e.g.

gk(x′) ∝ exp{− 1

2 |Yk − hk(x′)|2}

88 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

objectif : estimer recursivement l’etat cache Xk

au vu des observations Y0:k = (Y0 · · ·Yk)il s’agira d’approcher numeriquement le filtre bayesien

µk(dx) = P[Xk ∈ dx | Y0:k ]

ou plus generalement une distribution de Feynman–Kac

89 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Filtrage particulaire in a nutshell

approximation numerique du filtre bayesien

µk(dx) = P[Xk ∈ dx | Y0:k ]

par la distribution empirique ponderee

µNk =

N∑

i=1

w ik δξik

avec

N∑

i=1

w ik = 1

associee a un systeme de N particules, caracterise par

◮ les positions (ξ1k · · · ξNk )

◮ et les poids positifs (w1k · · ·w

Nk )

il suffit de decrire comment poids et positions evoluent d’un pas de tempsa l’autre

90 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

algorithme SIR (sampling with importance resampling) : version de base

◮ reechantillonnage (selection) : independamment pour touti = 1 · · ·Non choisit un individu ξ i

k−1 au sein de la population (ξ1k−1, · · · , ξNk−1)

en fonction des poids (w1k−1, · · · ,w

Nk−1)

◮ prediction (mutation) : independamment pour tout i = 1 · · ·N

ξik = fk(ξik−1,W

ik) avec W i

k ∼ pk(dw)

◮ correction (ponderation) : pour tout i = 1 · · ·N

w ik = qk(Yk − hk(ξ

ik)) /

[ N∑

j=1

qk(Yk − hk(ξjk))]

91 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

si on n’effectue pas de reechantillonnagealgorithme SIS (sequential importance sampling)

◮ prediction : independamment pour tout i = 1 · · ·N

ξik = fk(ξik−1,W

ik) avec W i

k ∼ pk(dw)

◮ correction : pour tout i = 1 · · ·N

w ik = w i

k−1 qk(Yk − hk(ξik)) /

[ N∑

j=1

w jk−1 qk(Yk − hk(ξ

jk))]

utilisation differente des poids dans SIR et dans SIS

92 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

1er exemple : recalage altimetrique de navigation inertielledemo originale due a Fabien Campillo (INRIA, Montpellier)financement : DGA, programme d’etude amont NCT (nouveaux conceptspour la navigation par correlation de terrain), coordination ThalesCommunications

◮ mesures inertielles• acceleration lineaire et vitesse angulaire de l’avion (centrale inertielle)

→ par double integration : estimation inertielle de position et vitessede l’avion

◮ modele a priori pour l’evolution de l’erreur d’estimation inertielle

◮ mesures altimetriques bruitees de l’altitude de l’avion• par rapport au niveau de la mer (baro–altimetre)• au–dessus du relief (radio–altimetre)

→ par difference : mesure bruitee de la hauteur du relief a laverticale de l’avion

◮ correlation avec une carte numerique (MNT, modele numerique deterrain) donnant la hauteur du relief en toute position horizontale

93 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

0 10 20 30 40 50 60 70 80 90 1005600

5700

5800

5900

6000

6100

6200

6300

6400

6500

6600

Figure : Trajectoire reelle et trajectoire estimee par integration des mesuresinertielles seules — Profil du relief survole et mesures altimetriques bruitees

94 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

mesures inertielles bruitees : acceleration de l’avion dans le planhorizontal

aINS

k = ak + w INS

k

trajectoire estimee par integration des mesures inertielle seules

r INS

k = r INS

k−1 +∆k vINS

k−1 et v INS

k = v INS

k−1 +∆k aINS

k

variable d’etat Xk = (δrk , δvk) : correction a apporter a l’estimationinertielle de la position et de la vitesse dans le plan horizontal, i.e.

δrk = rk − r INS

k et δvk = vk − v INS

k

modele d’etat : par difference (ou par linearisation, dans un modele plusrealiste)

δrk = rk−1 +∆k vk−1 − (r INS

k−1 +∆k vINS

k−1) = δrk−1 +∆k δvk−1

δvk = vk−1 +∆k ak − (v INS

k−1 +∆k aINS

k ) = δvk−1 −∆k wINS

k

i.e. (δrkδvk

)=

(δrk−1 +∆k δvk−1

δvk−1

)−∆k

(0

w INS

k

)

95 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

observation Yk : hauteur du relief a la verticale de l’avion, obtenue pardifference

◮ entre l’altitude de l’avion mesuree par rapport au niveau de la mer

zBAR

k = zk + wBAR

k

◮ et l’altitude de l’avion mesuree au–dessus du relief

zALT

k = (zk − hk(Xk)) + wALT

k

i.e.

Yk = zBAR

k − zALT

k = hk(Xk) + Vk avec Vk = wBAR

k − wALT

k

relation hk(x) avec l’etat cache x = (δr , δv) : altitude du relief (lu sur lacarte numerique) a la position r INS

k + δr dans le plan horizontalponderation (fonction de vraisemblance) : ecart entre la hauteur du reliefmesuree a la verticale de l’avion, et la hauteur du relief lue sur la cartenumerique

gk(x) ∝ qk(Yk − hk(x))

demo (mise en œuvre au 1er TP)96 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

2eme exemple : suivi visuel par histogramme de couleurdemo due a Elise Arnaud (UJF et INRIA, Grenoble)source : Patrick Perez, Carine Hue, Jako Vermaak and Marc Gangnet,Color-based probabilistic tracking , European Conference on ComputerVision (ECCV’02)l’utilisateur selectionne une zone dans la premiere image de la sequenceobjectif : suivre automatiquement cette meme zone sur l’ensemble de lasequence

. . .initialisation image 2 image 3 image 10

Figure : Suivi d’un visage dans une sequence de 10 images

hypothese : l’histogramme de couleur de la zone a suivre est constant lelong de la sequence

99 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

la zone initiale est caracterisee par un histogramme de couleur(histogramme de reference), construit avec les Nb couleurs les plusrepresentees dans cette zone

nombre normalise q∗(n) de pixels de la zone initiale dont lacouleur est la couleur n = 1, · · · ,Nb

Figure : Zone initiale et histogramme de couleur associe, avec Nb = 64

100 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

pour evaluer la pertinence d’une zone–test dans la k–eme image de lasequence, caracterisee par la position (exprimee en pixels) de son centrex , on calcule son histogramme de couleur

nombre normalise qk(x , n) de pixels de la zone–test centree a laposition x dans la k–eme image de la sequence, dont la couleurest la couleur n = 1 · · ·Nb

et on definit une mesure de distance (distance de Hellinger) entre lesdeux histogrammes de couleur normalises

D(q∗, qk(x)) = 1−Nb∑

n=1

√q∗(n) qk(x , n) =

12

Nb∑

n=1

(√q∗(n)−

√qk(x , n))

2

101 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

variable d’etat Xk = rk : position du centre de la zone suivie dans lak–eme imagemodele d’etat : marche aleatoire simple

rk = rk−1 +Wk

observation Yk : k–eme image de la sequenceponderation : ecart entre l’histogramme de la zone–test et l’histogrammede reference

gk(x) ∝ exp{−λD(q∗, qk(x))}

demo (mise en œuvre au 2eme TP)

102 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

3eme exemple : navigation en environnement interieurfinancement : ANR, projet FIL (fusion d’information pour la localisation),programme Telecommunications, coordination Thales Alenia Space

◮ mesures de navigation (PNS, pedestrian navigation system)

• distance parcourue et changement de direction entre deux instantssuccessifs

→ par integration : estimation PNS de position et orientation del’utilisateur

◮ modele de deplacement a priori pour l’utilisateur, i.e. evolution deposition et orientation, a partir des mesures PNS incrementales

◮ mesures bruitees de

• distance entre un utilisateur et une balise de ranging de positionconnue et de portee limitee

◮ detection (ou non–detection) par une balise de proximite

◮ map–matching : contraintes de deplacement dues a la presenced’obstacles, disponibles a partir d’un plan du batiment

107 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

0 25 50 75 100 125 150

0

25

50

75

100

Figure : Trajectoire admissible et trajectoire estimee par integration desmesures PNS seules

108 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

0 25 50 75 100 125 150

0

25

50

75

100

Figure : Balises de ranging a portee limitee

109 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

Figure : Detection par une balise de ranging

110 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

mesures PNS incrementales bruitee : distance parcourue et changementde direction entre deux instants successifs

dPNS

k = dk + wwalk

k et αPNS

k = αk + w turn

k

trajectoire estimee par integration des mesures PNS seules

rPNS

k = rPNS

k−1 + u(θPNS

k−1 ) dPNS

k et θPNS

k = θPNS

k−1 + αPNS

k

variable d’etat Xk = (rk , θk) : position et orientation de l’utilisateurmodele d’etat : mise a jour incrementale a l’aide des mesures PNS

rk = rk−1+u(θk−1) (dPNS

k − wwalk

k )︸ ︷︷ ︸dk

et θk = θk−1+(αPNS

k − w turn

k )︸ ︷︷ ︸αk

i.e.(

rkθk

)=

(rk−1 + u(θk−1) d

PNS

k

θk−1 + αPNS

k

)−

(u(θk−1) 0

0 1

) (wwalk

k

w turn

k

)

111 / 114

Presentation Introduction au filtrage Estimation bayesienne Systemes lineaires gaussiens Extensions Systemes non–lineaires / non–gaussiens

observation Yk : distance a une balise active situee a la position a et deportee R

Yk = h(Xk) + Vk

relation h(x) avec l’etat cache x = (r , θ) : distance |r − a| a la baliseponderation (fonction de vraisemblance) : ecart entre la distance mesureea la balise, et la distance reelle a la balise

gk(x) ∝ qk(Yk − h(x))

si l’utilisateur est / n’est pas detecte par la balise, alors

gk(x) ∝ 1{h(x) ≤ R} ou bien gk(x) ∝ 1{h(x) ≥ R}

demo (mise en œuvre au 3eme TP)

112 / 114