Upload
lyxuyen
View
219
Download
0
Embed Size (px)
Citation preview
Initiation à la propagation des incertitudes
Pascal [email protected]
Laboratoire de Chimie Physique, OrsayRéseau National �Mesures, Modèles et Incertitudes�
March 24, 2015
P. Pernot Propagation des incertitudes March 24, 2015 1 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 2 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 3 / 118
Mesures et incertitudes
Mesurer,c'est comparer une grandeur physique inconnue
avec une grandeur de même natureprise comme référence,
à l'aide d'une chaîne instrumentalecomportant un ou plusieurs capteurs.
C'est exprimer le résultat de cette comparaisonà l'aide d'une valeur numérique,
associée à une unité qui rappelle la nature de la référence,et assortie d'une incertitude qui dépend à la fois
des qualités de l'expérience e�ectuée,des outils employés et de la connaissance qu'on ade la référence et de ses conditions d'utilisation.
M. Himbert (1993) Bulletin du Bureau National de Métrologie 93:1.
P. Pernot Propagation des incertitudes March 24, 2015 3 / 118
L'incertitude, a quoi bon ?
Comparer un résultat à une limite ou à une consigne
Consigne Resultat
Comparer deux résultats
Resultat 1 Resultat 2
Quanti�er la �délité de mesure
Resultat
P. Pernot Propagation des incertitudes March 24, 2015 4 / 118
La démarche �incertitudes�
Etape préliminaire 1. Dé�nition du mesurande
Etape préliminaire 2. Analyse du processus de mesure(Deux étapes �métier� nécessaires
à la désambiguation du mesurande)
Phase 1. Description du processus et calcul du mesurande
Phase 2. Phase "métrologique" - contribution des données d'entrée
Phase 3. Propagation des incertitudes (Comb. Var. ou Monte Carlo)
Phase 4. Analyse de sensibilité, hiérarchisation des contributions
Phase 5. Incertitude élargie - Présentation du résultat
P. Pernot Propagation des incertitudes March 24, 2015 5 / 118
Etapes préliminaires - Exemple
Mesurer la surface de votre table...
P. Pernot Propagation des incertitudes March 24, 2015 6 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 7 / 118
Incertitude et probabilité
Quanti�cation de l'incertitude (P-S. Laplace, ca. 1800)
on peut attribuer un �degré de con�ance� p(X = x)à chaque valeur possible x d'une quantité incertaine X
cohérence et normalisation ⇒p(X = x) obéit auxrègles de la théorie des probabilités
Cette démarche est adoptée dans le GUM (3.3.1)
l'incertitude de mesure re�ète le manque de connaissancesur la valeur exacte du mesurande.
l'état des connaissance correspondant est décrit au mieux parune distribution sur l'ensemble des valeurs possibles du mesurande.
P. Pernot Propagation des incertitudes March 24, 2015 7 / 118
Les densités de probabilité
Si dx est un nombre réel positif in�niment petit, alors la probabilité que la valeurde la variable X soit incluse dans l'intervalle [x , x + dx ] est égale à p(x)dx , soit
P (x < X < x + dx) = p (x) dx
Pour une variable continue prenant ses valeurs dans l'intervalle [xmin, xmax ], ladensité de probabilité p(x) véri�e les propriétés suivantes :
positivitép(x) ≥ 0
normalisation à l'unité ˆ xmax
xmin
dx p(x) = 1
P. Pernot Propagation des incertitudes March 24, 2015 8 / 118
Les densités de probabilité
Quelques rappels:
probabilité (massique) pour que X se trouve dans un intervalle [a, b]
P(a ≤ X ≤ b) =
ˆ b
a
dx p(x)
valeur moyenne
x = E(X ) =
ˆ xmax
xmin
dx x p(x)
variance
σ2X =
ˆ xmax
xmin
dx (x − x)2 p(x)
entropie de Shannon
H(p) = −ˆ xmax
xmin
dx ln p(x) p(x)
P. Pernot Propagation des incertitudes March 24, 2015 9 / 118
Les densités de probabilité
x
p(x)
x
p(x)
(a) Positivité (b) Normalisation
x
p(x)
a b x
p(x)
b
(c) Probabilité massique (d) Fonction de distribution
P. Pernot Propagation des incertitudes March 24, 2015 10 / 118
Représenter un jeu d'informations par une pdfApproche statistique
Lorsqu'on dispose d'un échantillon représentatif de la variable X , on a plusieurssolutions pour dé�nir une densité de probabilité:
approche directe: construction d'une densité de probabilité approchée à partirde l'échantillon (nécessite un grand nombre de points):
histogrammesméthode des noyaux
approche inverse: inférer la densité de probabilité (en général supposéesimple) ayant permis de générer l'échantillon.
Remarque: pour la mise en oeuvre de la méthode de propagation desdistributions par Monte-Carlo, on a seulement besoin d'un moyen numérique pourgénérer des échantillons représentatifs; il n'est pas nécessaire d'établir uneexpression analytique de la densité de probabilité.
P. Pernot Propagation des incertitudes March 24, 2015 11 / 118
Approche statistique
-3 -2 -1 0 1 2 3
0.0
0.1
0.2
0.3
0.4
0.5
X
Den
sity
density(X)Inferred GaussianTrue pdf
P. Pernot Propagation des incertitudes March 24, 2015 12 / 118
Dé�nir une pdf à partir des informations disponiblesApproche informationnelle
Si on ne dispose que d'informations partielles (p. ex. une valeur moyenne et unécart type), il existe une in�nité de densités de probabilité pouvant les reproduire.
Le Principe du Maximum d'Entropie (Maxent) spéci�e que parmi toute cesdistributions, on doit retenir celle qui maximise l'entropie de Shannon
H(p) = −ˆ
dx ln p(x) p(x)
avec les contraintes imposées par les informations disponibles. C'est la distributionla moins informative (celle qui minimise l'information statistique), compte tenudes contraintes.
Rq: la mise en oeuvre (analytique ou numérique) est hors du propos de laformation, mais nous mentionnerons ce principe à plusieurs occasions.
P. Pernot Propagation des incertitudes March 24, 2015 13 / 118
Variation de l'entropie avec la forme de distribution
-4 -2 0 2 4 6
0.0
0.2
0.4
0.6
0.8
1.0
Distributions avec mean=1 et st. dev. =1
X
Normale; S=1.7
Uniforme; S=1.2
Exponentielle; S=1
0.0 0.5 1.0 1.5
0.0
0.5
1.0
1.5
2.0
2.5
3.0
Quelques PDFs sur [0,1]
X
Uniforme; S= 0
Triangular; S= -0.19
Arcsine; S= -0.24
P. Pernot Propagation des incertitudes March 24, 2015 14 / 118
Quelques distributions d'entropie maximale
P. Pernot Propagation des incertitudes March 24, 2015 15 / 118
Dé�nir une pdf à partir des informations disponiblesDocuments de référence
E.T. Jaynes (1957) Information theory and statistical mechanics. PhysicalReview 106:620�630.http://bayes.wustl.edu/etj/articles/theory.1.pdf
Le père fondateur...
S.Y. Park and A.K. Bera (2009). Maximum entropy autoregressiveconditional heteroskedasticity model. Journal of Econometrics 150:219�230.http://www.wise.xmu.edu.cn/UploadFiles/paper-masterdownload/
2009519932327055475115776.pdf
Contient une table pratique des densités d'entropie maximale les plus utiles.
A. O'Hagan (2014) Eliciting and using expert knowledge in metrology.Metrologia 51:S237-S244.http://dx.doi.org/10.1088/0026-1394/51/4/S237
Critique argumentée de Maxent.
P. Pernot Propagation des incertitudes March 24, 2015 16 / 118
Pdf uniforme/rectangulaire x ∼ Unif (a, b)
Propriétés
x ∈ [a, b] ⇒ p(x |a, b) =1
b − a
x /∈ [a, b] ⇒ p(x |a, b) = 0
x =a + b
2; ux =
1√3
b − a
2; S = ln(b − a)
UtilisationOn ne dispose que des bornes de X ,sans indications sur une valeur préférée.
Unif (a, b) est la distribution d'entropie
maximale parmi toutes les distributions
continues sur [a, b].
a b<x> =(a+b)/2
0
1/(b-a)
b-a
P. Pernot Propagation des incertitudes March 24, 2015 17 / 118
Pdf triangulaire x ∼ Tri(a, b)
Propriétés
x ∈ [a, c] ⇒ p(x |a, b) =(x − a)
(b − a)2
x ∈ [c, b] ⇒ p(x |a, b) =(b − x)
(b − a)2
x /∈ [a, b] ⇒ p(x |a, b) = 0
x = c =a + b
2; ux =
1√6
b − a
2; S =
1
2+ln
„b − a
2
«Utilisation
on dispose des limites de X et d'une
valeur préférée au centre de l'intervallea b
<x>=(a+b)/2
0
2/(b-a)
(b-a)
P. Pernot Propagation des incertitudes March 24, 2015 18 / 118
Pdf triangulaire x ∼ Tri(a, b, c)
Propriétés
x ∈ [a, c] ⇒ p(x |a, b, c) =2(x − a)
(b − a)(c − a)
x ∈ [c, b] ⇒ p(x |a, b, c) =2(b − x)
(b − a)(b − c)
x /∈ [a, b] ⇒ p(x |a, b, c) = 0
x =a + b + c
3; ux =
√a2 + b2 + c2 − ab − ac − bc
3√2
Utilisation
on dispose des limites de X et d'une
valeur préféréea c b
<x>=(a+b+c)/3
0
2/(b-a)
P. Pernot Propagation des incertitudes March 24, 2015 19 / 118
Pdf dérivée d'arc-sinus x ∼ Arcsin(a, b)
Propriétés
x ∈ [a, b] ⇒ p(x |a, b) =1
πp
(x − a)(b − x)
x /∈ [a, b] ⇒ p(x |a, b) = 0
x =a + b
2; ux =
1√2
b − a
2
Utilisationvariation sinusoïdale de X entre deuxlimites a et b.
le nom vient de la densité cumulée
F (x) =2
πarcsin
„rx − a
b − a
« a b<x>=(a+b)/2
P. Pernot Propagation des incertitudes March 24, 2015 20 / 118
Pdf gaussienne/normale x ∼ Norm(µ, σ)
Propriétés
p(x |µ, σ) =1√2πσ
exp
„− 1
2σ2(x − µ)2
«< x >= µ ; ux = σ; S = ln(σ
√2πe)
UtilisationSi on dispose d'une valeur moyenne (µ) etd'une incertitude connue sous la formed'une
incertitude type s, ux = s
incertitude-type relative s/x ,ux = x .(s/x)incertitude élargie à 95% Ux ,ux = Ux/2
Norm(µ, σ) est la distribution d'entropie
maximale sur ]−∞,+∞[, sachant µ et σ
-2s -s 0 s 2s-3s 3sx
67%
95%
99%
P. Pernot Propagation des incertitudes March 24, 2015 21 / 118
Densités de probabilité multivariées
Lorsqu'on a plusieurs variables dépendantes, elles sont en général décrites à l'aidede leurs valeurs moyennes et d'une matrice de variance-covariance. Dans ce cas, ladensité de probabilité utilisée est la distribution normale multivariée, p. ex.
p(x , y |µX1 , µX2 ,Σ) ∝ (detΣ)−1/2 exp
(−12ETΣ−1E
)
E =
(x1 − µX1
x2 − µX2
); Σ =
(σ2X1
σ2X1X2
σ2X2X1σ2X2
)= STRS
S =
(σX1
σX2
); R =
(1 ρρ 1
)
Σ est la matrice de variance-covariance
R est la matrice de corrélation
P. Pernot Propagation des incertitudes March 24, 2015 22 / 118
Distribution normale bivariée
X1
X2
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
-3 -2 -1 0 1 2 3
-3-2
-10
12
3
0.05
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
mu=c(0,0); cor=0.8
mu=c(-1,1); cor=-0.5
P. Pernot Propagation des incertitudes March 24, 2015 23 / 118
Variables incertaines avec contraintes
Introduire le maximum de contraintes pertinentesdans la représentation des variables incertaines
Cas des lois de conservation
N variables telles quePN
i=1Xi = 1 et {Xi ≥ 0; i = 1,N},
on utilise la distribution de Dirichlet (Maxent)
{X1, . . . ,XN} ∼ Diri (γ ∗ (µ1, . . . , µN))
où γ > 0 est un facteur de précision (la variance augmente lorsque γ diminue)
exemples: composition chimique, rapports de branchement...
mots-clés pour la littérature: Compositional Data Analysis
P. Pernot Propagation des incertitudes March 24, 2015 24 / 118
Distribution de Dirichlet
Diri( 3 * (1/3,1/3,1/3) )
x1 x2
x3
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
Diri( 100 * (0.2,0.3,0.5) )
x1 x2
x3
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
P. Pernot Propagation des incertitudes March 24, 2015 25 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 26 / 118
Évaluation des incertitudes par propagation des distributions
Schéma de principe de la méthode de propagation des distributions
P. Pernot Propagation des incertitudes March 24, 2015 26 / 118
Théorie probabiliste de la propagation des incertitudes
(1) Formulation1 identi�cation des variables d'entrée incertaines X = {X1, ...,Xk}
2 dé�nition du modèle Y = f (X)
3 dé�nition de la densité de probabilité jointe des variables d'entréegX1,...,Xk (ξ1, . . . , ξk)
(2) Propagation des distributions (Équation de Markov)1
gY (η) =
ˆdξ1 . . . dξk δ (η − f (ξ1, . . . , ξk)) gX1,...,Xk
(ξ1, . . . , ξk)
1Interprétation: on prend tous les points dans l'espace des ξξξ dont l'image par F vaut η, et onsomme leurs poids donnés par gX (ξξξ). La discrétisation de cette intégrale nous donne une recettepour bâtir un histogramme représentatif de gY .
P. Pernot Propagation des incertitudes March 24, 2015 27 / 118
Théorie probabiliste de la propagation des incertitudes
(1) Formulation1 identi�cation des variables d'entrée incertaines X = {X1, ...,Xk}
2 dé�nition du modèle Y = f (X)
3 dé�nition de la densité de probabilité jointe des variables d'entréegX1,...,Xk (ξ1, . . . , ξk)
(2) Propagation des distributions (Équation de Markov)1
gY (η) =
ˆdξ1 . . . dξk δ (η − f (ξ1, . . . , ξk)) gX1,...,Xk
(ξ1, . . . , ξk)
1Interprétation: on prend tous les points dans l'espace des ξξξ dont l'image par F vaut η, et onsomme leurs poids donnés par gX (ξξξ). La discrétisation de cette intégrale nous donne une recettepour bâtir un histogramme représentatif de gY .
P. Pernot Propagation des incertitudes March 24, 2015 27 / 118
Évaluation des incertitudes par propagation des distributions
(3) Résumés statistiques de gY (η)
1 espérance statistique de Y et son écart type
E(Y ) =
ˆ ∞−∞
dη η gY (η)
u(y) =pV (Y ) ; V (Y ) =
ˆ ∞−∞
dη (η − E(Y ))2 gY (η)
2 et/ou intervalle élargi 100p%, contenant Y avec une probabilité p spéci�éeˆG−1Y (α) ; G−1Y (p + α)
˜; 0 ≤ α ≤ 1− p
où GY (η) est la fonction de distribution de Y
GY (η) =
ˆ η
−∞dz gY (z).
P. Pernot Propagation des incertitudes March 24, 2015 28 / 118
Relation entre les résumés statistiques de gY et le GUM
Pour obtenir des statistiques de Y , il n'est pas nécessaire de calculer explicitementgY . Ainsi, pour l'espérance statistique, on a
E (Y ) =
ˆ ∞−∞
dη η gY (η)
=
ˆdη η
ˆdξξξ δ (η − f (ξξξ)) gX (ξξξ)
=
ˆdξξξ
ˆdη η δ (η − f (ξξξ)) gX (ξξξ)
=
ˆdξξξ f (ξξξ) gX (ξξξ)
où on a appliqué la relation de translation de la distribution δ de Dirac:
ˆ +∞
−∞dx f (x) δ (x0 − x) = f (x0)
P. Pernot Propagation des incertitudes March 24, 2015 31 / 118
Relation entre les résumés statistiques de gY et le GUM
Pour la variance, on applique le même type de développement:
V (Y ) =
ˆ ∞−∞
dη (η − E (Y ))2 gY (η)
=
ˆdη (η − E (Y ))2
ˆdξξξ δ (η − f (ξξξ)) gX (ξξξ)
=
ˆdξξξ
ˆdη (η − E (Y ))2 δ (η − f (ξξξ)) gX (ξξξ)
=
ˆdξξξ (f (ξξξ)− E (Y ))2 gX (ξξξ)
On est donc ramené à des intégrales (multiples) sur les variables incertainesdu modèle.
P. Pernot Propagation des incertitudes March 24, 2015 32 / 118
Le cas des modèles linéaires
Si on considère un modèle linéaire, ou bien le développement en série de Taylor aupremier ordre d'un modèle quelconque autour d'un point xxx0, on peut écrire
f (ξξξ) = f (xxx0) + JJJT .(ξξξ − xxx0) (1)
où les coe�cients de sensibilité Ji sont donnés par les dérivées premières dumodèle au point xxx0
Ji =∂f (ξξξ)
∂ξi
∣∣∣∣ξξξ=xxx0
d'où
E (Y ) =
ˆdξξξ[F (xxx0) + JJJT .(ξξξ − xxx0)
]gX (ξξξ)
= F (xxx0)
ˆdξξξ gX (ξξξ) +
∑i
Ji
ˆdξξξ (ξi − x0,i ) gX (ξξξ)
= F (xxx0) +∑i
Ji (E (Xi )− x0,i )
Si on choisit xxx0 = E (XXX ), on obtient E (Y ) = f (E (X)).P. Pernot Propagation des incertitudes March 24, 2015 33 / 118
Le cas des modèles linéaires
Dans cette hypothèse, on peut dériver la variance
V (Y ) =
ˆdξξξ[f (E (X)) + JJJT .(ξξξ − E (X))− f (E (X))
]2gX (ξξξ)
=
ˆdξξξ[JJJT .(ξξξ − E (X))
]2gX (ξξξ)
=∑i,j
JiJj
ˆdξξξ (ξi − E (Xi )) (ξj − E (Xj)) gX (ξξξ)
=∑i,j
Ji u(Xi ,Xj) Jj
= JJJT .Σ.JJJ
où Σ est la matrice de variance-covariance des variables d'entrée, telle queΣi,j = u(Xi ,Xj).
Ce résultat est la notation matricielle de l'équation de combinaison des variances.
P. Pernot Propagation des incertitudes March 24, 2015 34 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 35 / 118
La méthode GUM de combinaison des variances
Procédure normalisée pour gérer les incertitudes associées à une mesure(Évaluation des données de mesure � Guide pour l'expression de l'incertitude demesure. JCGM 100:2008,http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_F.pdf).
1 Identi�er les sources d'incertitudeÉvaluation de l'ensemble des sources d'incertitudes a�ectant une mesure
2 Caractériser les incertitudesLes incertitudes sont de deux types :
1 Type A : incertitudes obtenues par analyse statistique d'un ensemble demesurages répétés d'un même mesurande
2 Type B : tout le reste
3 Estimer les incertitudes-type4 Propager/combiner les variances
Estimation de l'incertitude sur le résultat de la mesure à partir des sourcesidenti�ées
P. Pernot Propagation des incertitudes March 24, 2015 35 / 118
Identi�er les sources d'incertitudes
Diagramme des 5M ou diagramme des causes/e�ets ou diagramme d'Ishikawaou diagramme en arêtes de poisson...
P. Pernot Propagation des incertitudes March 24, 2015 36 / 118
Modèle de mesure
Mesure directeX = x + C
X : valeur du mesurandex : indication(valeur mesurée)C : corrections (justesse, quanti�cation...)
Propriétés dérivéesY = f (X1, ...,Xk)
f : modèle �de connaissance� ou �de comportement�Y : valeur du mesurandeXi : variable d'in�uence
P. Pernot Propagation des incertitudes March 24, 2015 37 / 118
Modèle de mesure directe
Extrait de: Nombres, Mesures et Incertitudes, Eduscol (2012)
P. Pernot Propagation des incertitudes March 24, 2015 38 / 118
Incertitudes de type A
On caractérise un échantillon de mesures (ensemble de mesurages répétés d'unmême mesurande) par:
la Moyenne arithmétique
x =1n
n∑i=1
xi
l'Incertitude type: écart-type expérimental de x
uX =sX√n
où s2X =∑n
i=1(xi − x)2/(n − 1) est la variance expérimentale des
observations.
Rq:
1 ces estimateurs, notamment l'incertitude-type, ne sont pertinents que si ladistribution des erreurs est raisonnablement symétrique
2 le nombre d'observations n doit être su�samment grand pour garantir que x
fournisse une estimation �able de E(X ), et pour que s2X fournisse une estimation�able de la variance.P. Pernot Propagation des incertitudes March 24, 2015 39 / 118
Incertitude sur l'incertitude
Comment l'estimation de la variance dépend du nombre d'observations
s2X =∑n
i=1(xi − x)2/(n − 1) est un estimateur de la variance de X , σ2X
on veut estimer l'erreur relative sur l'écart type: r = usX /sx
si X suit une loi normale, la variable (n − 1)s2X/σ2
X suit une loi du χ2 à(n − 1) degrés de liberté, dont on tire
r ' 1/√2(n − 1)
n 2 5 10 50 100 5000r = usX /sx 0.70 0.35 0.24 0.10 0.07 0.01
P. Pernot Propagation des incertitudes March 24, 2015 40 / 118
Incertitudes de type B
En absence de mesurages répétés, on est en général contraint d'utiliser desinformations collectées sous des formes diverses, tirées de di�érentes sources :
notice des instruments
certi�cats de calibration
limitations d'a�chage...
Le problème est ici de dé�nir une incertitude-type à partir de ces informationssouvent partielles.
La technique recommandée est de dé�nir une densité de probabilité pourreprésenter la distribution plausible des erreurs, et d'utiliser l'incertitude-typecorrespondant à cette densité.
P. Pernot Propagation des incertitudes March 24, 2015 41 / 118
Exemple: erreur de justesse du mètre à ruban
la précision des mètres ruban est normalisée: la classe de précision(I, II ou III) est indiquée sur le ruban.
les erreurs maximales tolérées sont dé�nies par EMT = ±(a + c + bL) mm
L est la longueur mesurée arrondie en excès au nombre entier de mètres
a, b et c sont dé�nis pour chaque classe de précision (c 6= 0 est pris encompte lorsque le mètre se termine par un crochet, et qu'on l'utilise...)
Classe a c b
I 0.1 0.1 0.1II 0.2 0.2 0.3III 0.6 0.3 0.4
Ex: longueur mesurée L = 1 652mm avec un mètre de classe II + crochet
EMT = ±(0.2 + 0.2 + 0.3 ∗ 2) = ±1.0 mmreprésentation par une distribution uniforme Unif (−1, 1) mml'erreur de justesse est donc caractérisée par une correction nulle Cj = 0 et
une incertitude type sur la correction uCj = 2/2√3
= 0.58 mm
P. Pernot Propagation des incertitudes March 24, 2015 42 / 118
Combinaison des variances
Pour obtenir l'incertitude combinée, on applique les formules établiespar la combinaison des distributions dans le cas d'un modèle linéaire
y = f (x1, ..., xk)
u2Y =∑i
(∂Y
∂Xi
)2
x
u2Xi+∑i 6=j
(∂Y
∂Xi
)x
(∂Y
∂Xj
)x
cov(Xi ,Xj)
= JTΣJ
P. Pernot Propagation des incertitudes March 24, 2015 43 / 118
Rappel notation matricielle
J =
0BBBBBB@
“∂Y∂X1
”x“
∂Y∂X2
”x
...“∂Y∂Xk
”x
1CCCCCCA
Σ =
0BBB@u2X1 cov(X1,X2) · · · cov(X1,Xk)
cov(X1,X2) u2X2 cov(X2,Xk)...
. . ....
cov(X1,Xk) cov(X2,Xk) · · · u2Xk
1CCCA
u2Y = JTΣJ
P. Pernot Propagation des incertitudes March 24, 2015 44 / 118
Exemple: longueur de la table
Mesure d'une longueur avec un mètre à ruban de résolution 1 mm.le mesurande est la moyenne de 5 mesures réparties uniformémentsur un côté de la table. On estime la longueur au mm le plus proche.pour chaque mesure on peut écrire
Li = li + Cq,i + Cj + CT
l : indication (longueur lue sur le mètre)Cq : correction de l'erreur de quanti�cation (lecture)Cj : correction de l'erreur de justesse pour la longueur mesuréeCT = Lnomα∆T : correction de température due à la dilatation éventuelle dumètre. On suppose être dans un environnement controlé à 20± 2 °C−1
le modèle du mesurande est donc
L =1
5
5Xi=1
(li + Cq,i ) + Cj + Lnomα∆T
= l + Cq + Cj + Lnomα∆T
P. Pernot Propagation des incertitudes March 24, 2015 45 / 118
Budget des incertitudes pour la longueur
Source d'incertitude Type Loi x ux
l / mm répétabilité de mesure A - l sl/√5
Cq / mm résolution du mètre (1 mm) B Unif 0 0.5/√3/√5
Cj / mm classe du mètre (II) B Unif 0 1/√3
∆T / °C écart de la température du
mètre à la référence (0± 2)
B Arcsin 0 2/√2
α / °C−1 méconnaissance du coe� de
dilatation (11.5± 1.0)10−6B Norm 11.5 10−6 1.0 10−6
Donc au �nal les corrections ne contribuent pas ici à la valeur estimée,mais elles contribuent aux incertitudes
L = l
u2(L) = u2(l) + u2(Cq) + u2(Cj) + L2nomα2u2(∆T )
P. Pernot Propagation des incertitudes March 24, 2015 46 / 118
Application numérique
Valeur Inc_Std. J J2.U2 Anovalm 1.600e+03 1.59e+00 1.00e+00 2.54e+00 0.86cq 0.000e+00 2.58e-01 1.00e+00 6.67e-02 0.02cj 0.000e+00 5.77e-01 1.00e+00 3.33e-01 0.11a 1.150e-05 1.00e-06 0.00e+00 0.00e+00 0.00dt 0.000e+00 1.41e+00 1.84e-02 6.77e-04 0.00Y 1.600e+03 1.71e+00 <� 2.94e+00
## [1] "l = {1604,1603,1597,1596,1599}"
##
## Y = 1599.8 +/- 1.7
##
## Incertitude élargie, facteur=2.78
##
## Y = 1599.8 +/- 4.8
##
## 95 percent C.I. = [1595.0,1604.6]
P. Pernot Propagation des incertitudes March 24, 2015 47 / 118
Application numérique
Si on augmente le nombre de mesures...
Valeur Inc_Std. J J2.U2 Anovalm 1.600e+03 6.82e-01 1.00e+00 4.65e-01 0.57cq 0.000e+00 1.49e-01 1.00e+00 2.22e-02 0.03cj 0.000e+00 5.77e-01 1.00e+00 3.33e-01 0.41a 1.150e-05 1.00e-06 0.00e+00 0.00e+00 0.00dt 0.000e+00 1.41e+00 1.84e-02 6.77e-04 0.00Y 1.600e+03 9.06e-01 <� 8.22e-01
## [1] "l = {1600,1602,1600,1602,1597,1594,1600,1602,1603,1601,1604,1598,1597,1599,1599}"
##
## Y = (15998.7 +/- 9.1)*10^-1
##
## Incertitude élargie, facteur=2.14
##
## Y = 1599.9 +/- 1.9
##
## 95 percent C.I. = [1597.9,1601.8]
P. Pernot Propagation des incertitudes March 24, 2015 48 / 118
Estimation de la largeur de la table
Dans les même conditions on veut estimer la surface de la table. On estime doncla largeur moyenne, comme pour la longueur, avec 5 mesures.
Valeur Inc_Std. J J2.U2 Anovalm 9.006e+02 9.80e-01 1.00e+00 9.60e-01 0.81cq 0.000e+00 2.58e-01 1.00e+00 6.67e-02 0.06cj 0.000e+00 4.04e-01 1.00e+00 1.63e-01 0.14a 1.150e-05 1.00e-06 0.00e+00 0.00e+00 0.00dt 0.000e+00 1.41e+00 1.03e-02 2.14e-04 0.00Y 9.006e+02 1.09e+00 <� 1.19e+00
## [1] "l = {899,899,903,899,903}"
##
## Y = 900.6 +/- 1.1
P. Pernot Propagation des incertitudes March 24, 2015 49 / 118
Estimation de la surface de la table
S = LA ∗ LBu2(S) = LB
2
u2(LA) + LA2
u2(LB) + 2LALBcov(LA, LB)
= LB2
u2(LA) + LA2
u2(LB) + 2LALBu(CjA)u(CjB)
Valeur Inc_Std. J J2.U2 AnovaLon 1.600e+03 1.71e+00 9.01e+02 2.39e+06 0.39Lar 9.006e+02 1.09e+00 1.60e+03 3.05e+06 0.50Cov 6.72e+05 0.11Y 1.441e+06 2.47e+03 <� 6.10e+06
##
## Y = (1440.8 +/- 2.5)*10^3
##
## Incertitude élargie, facteur= 2.19
##
## Y = (1440.8 +/- 5.4)*10^3
P. Pernot Propagation des incertitudes March 24, 2015 50 / 118
Combinaison des variances vs. combinaison des incertitudes
Pourquoi on n'utilise pas une formule de la forme uY =∑
i
∣∣∣ ∂Y∂Xi
∣∣∣xi
uXipour
combiner des erreurs aléatoires ?
Théorème de la limite centrée : la somme de variables aléatoires indépendanteset de variance �nie converge vers une loi Normale.
Comme illustré ci-dessous, dès qu'on combine quelques variables aléatoires, unetendance centrale se dégage, et les valeurs extrêmes deviennent nonreprésentatives.
X1 X1 + X2 X1 + X2 + X3 X1 + . . .+ X6
Illustration du théorème de la limite centrée : addition de variables uniformes
Xi ∼ Unif (0, 1)
P. Pernot Propagation des incertitudes March 24, 2015 51 / 118
Exemples - variables dépendantes
On s'intéresse ici à la di�érence de deux variables Y = X1 − X2. La formulestandard nous donne
uY =√u2x1 + u2x2 − 2 ∗ cov(X1,X2)
avec cov(X1,X2) = uX1 ∗ uX2 ∗ corr(X1,X2).
Pour illustrer l'e�et de la corrélation supposons que les variables soient de mêmeécart-type (uX1 = uX2). Selon la valeur du coe�cient de corrélation, on obtientdes résultats très di�érents, allant du doublement de l'incertitude standard, à lacompensation totale des erreurs :
corr(X1,X2) -1 0 1uY 2 ∗ uX1
√2 ∗ uX1 0
P. Pernot Propagation des incertitudes March 24, 2015 52 / 118
Exemples - variables dépendantes
On remarquera que, compte tenu des limites du coe�cient de corrélation, onvéri�e toujours
0 ≤ uY =√u2X1
+ u2X2− 2 ∗ uX1 ∗ uX2 ∗ corr(X1,X2) ≤ uX1 + uX2
Plus généralement
0 ≤ uY ≤∑i
∣∣∣∣ ∂Y∂Xi
∣∣∣∣xi
uXi
La combinaison des incertitudes fournit donc seulement une limite supérieureabsolue à l'incertitude-type obtenue par la combinaison des variances, et non uneestimation de cet écart-type.
P. Pernot Propagation des incertitudes March 24, 2015 53 / 118
Application 1: Distance de freinage
L'évaluation de la distance d'arrêt d'une voiture roulant à la vitesse V estcaractérisé par la formule
Da = TR ∗ V +V 2
2 ∗ a ∗ c
TR : temps de réaction, de l'ordre de 1 s
V : vitesse en m.s−1
a: décélération en m.s−2 de l'ordre de 5 m.s−2
c: coe�cient sans dimension tenant compte de l'état de la route ≈0.7 surbitume sec
On roule à 130 km/h sur route sèche. Un obstacle surgit brutalement, quelledistance parcourt-on avant l'arrêt complet ?
P. Pernot Propagation des incertitudes March 24, 2015 54 / 118
Application 1: Distance de freinage, suite
Le temps de réaction TR a été estimé lors d'une étude sur de nombreux casd'accidents : le temps minimum est de 0.5 s, mais que ce temps peut allerjusque 1.5 s pour une personne normalement vigilante. On ne dispose pasd'un ensemble de valeurs analysables. Proposer une modélisation du temps deréaction (choix de la loi de densité de probabilité, moyenne, incertitude-type).
Le coe�cient c peut être compris entre 0.3 et 0.8 selon la nature durevêtement et les circonstances: sur route sèche et propre, c est comprisentre 0.6 et 0.8. Modéliser c sous la forme d'une loi de densité de probabilitégaussienne : calculer l'incertitude-type.
V est caractérisée par une incertitude-type de 4 km/h pour tenir compte à lafois de l'indicateur de vitesse et de la vigilance à maintenir la vitesseconstante.
a est caractérisée par une incertitude- type de 0.5m.s−2, pour tenir comptede l'e�cacité du système de freinage et donc de l'état d'entretien du véhicule.
Déduire l'incertitude-type composée, et l'intervalle contenant probablement ladistance d'arrêt. Faire une étude de sensibilité relative.
P. Pernot Propagation des incertitudes March 24, 2015 55 / 118
Application numérique : distance de freinage
fExpr = expression( T*V + V^2/(2*a*c) )
# Valeurs moyennes + conversions d'unites
V = 130 * 1000 / 3600 # m/s
T = 1; a = 5 ; c = 0.7
# Incertitudes type
V.u = 4 * 1000 / 3600
T.de = 0.5; T.u = T.de / 3^0.5 # distribution rectangulaire
a.u = 0.5; c.u = 0.2/6
for (x in all.vars(fExpr))
cat('\n dY/d',x,'= ', deparse(D(fExpr,x)) )
##
## dY/d T = V
## dY/d V = T + 2 * V/(2 * a * c)
## dY/d a = -(V^2 * (2 * c)/(2 * a * c)^2)
## dY/d c = -(V^2 * (2 * a)/(2 * a * c)^2)
P. Pernot Propagation des incertitudes March 24, 2015 56 / 118
Application numérique : distance de freinage
Valeur Inc_Std. J J2.U2 AnovaT 1.000e+00 2.89e-01 3.61e+01 1.09e+02 0.16V 3.611e+01 1.11e+00 1.13e+01 1.58e+02 0.23a 5.000e+00 5.00e-01 -3.73e+01 3.47e+02 0.50c 7.000e-01 3.33e-02 -2.66e+02 7.87e+01 0.11Y 2.224e+02 2.63e+01 <� 6.93e+02
##
## Incertitude élargie, facteur=1.96
##
## Y = (22.2 +/- 5.2)*10^1
##
## 95 percent C.I. = [17.1,27.4]*10^1
P. Pernot Propagation des incertitudes March 24, 2015 57 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 58 / 118
La méthode GUM de propagation des distributionsDocuments de référence
Évaluation des données de mesure � Supplément 1 du �Guide pourl'expression de l'incertitude de mesure� � Propagation de distributions parune méthode de Monte Carlo. JCGM 101:2008.http://www.bipm.org/fr/publications/guides/gum.html
M. Désenfant, N. Fischer, B. Blanquart, N. Bédiat (2007). Évaluation del'incertitude en utilisant les simulations de Monte Carlo. Actes du 13èmeCongrès de Métrologie, Lille.http://www.lne.fr/publications/13e-congres-metrologie/actes/
117-desenfant-incertitude-simulations-monte-carlo.pdf
P. Pernot Propagation des incertitudes March 24, 2015 58 / 118
Les limites du GUM - Linéarité
Hypothèse de linéarité
La formule de combinaison des variances du GUM est basée sur uneapproximation linéaire du modèle de la mesure au voisinage de la valeur moyennedes variables incertaines
E [f (X )] ' f [E (X )]
qui est valide tant que les écarts à la linéarité sont faibles devant les incertitudes.
Dans le cas de modèles linéaires, il n'y a aucune restriction de validité pour lecalcul des valeurs moyennes E (Y ) et incertitudes standard u(y).
P. Pernot Propagation des incertitudes March 24, 2015 59 / 118
GUM: e�ets des paramètres d'un modèle linéaire
P. Pernot Propagation des incertitudes March 24, 2015 60 / 118
Les limites du GUM - Linéarité
Pour les modèles non-linéaires, le premier ordre du développement de Taylor est su�santsi f est raisonnablement linéaire dans une région à 1 ou 2σ autour de x . Sinon peutalors avoir recours à des ordres supérieurs:
le GUM (5.1.2-Note) spéci�e que pour des entrées normales et indépendantes, leterme le plus important à rajouter est
kXi=1
kXj=1
"1
2
„∂2Y
∂Xi∂Xj
«2
+∂Y
∂Xi
∂3Y
∂Xi∂X 2
j
#u2(xi )u
2(xj )
Plusieurs articles développent des formules pour les ordres supérieurs, mais secantonnent au cas de variables indépendantes, p. ex. C.M. Wang and H.K. Iyer(2005) Metrologia 42:406; M.A.F. Martins et al. (2011) Measurement 44:1526.
En tous cas, plusieurs points doivent être véri�és:
F doit être continûment dérivable jusqu'à un ordre approprié, en toutes les variables auvoisinage de E(X);
les Xi impliqués dans des termes d'ordre supérieur du développement de Taylor de f (X)sont indépendantes et les pfds attribuées à ces variables sont normales/gaussiennes;
les termes ignorés de la série de Taylor de f (X) sont négligeables.
P. Pernot Propagation des incertitudes March 24, 2015 62 / 118
Les limites du GUM - Intervalles élargis
L'estimation des intervalles élargis préconisée par le GUM (multiplication del'incertitude-type par un facteur dépendant d'un nombre de degrés de liberté)présente également des limites:
la connaissance du nombre de degrés de liberté pour chacune des sourcesd'incertitude ;
le facteur d'élargissement implique un intervalle symétrique autour de lavaleur estimée, hypothèse qui peut devenir invalide si les densités deprobabilité attachées aux variables d'entrée in�uentes ne sont pas symétriques(p.ex. à cause de contraintes de positivité)...
P. Pernot Propagation des incertitudes March 24, 2015 63 / 118
Les réponses apportées par la propagation des distributions
La méthode de propagation des distributions permet de s'a�ranchir depratiquement toutes les restrictions liées à la formule de combinaison desvariances:
pas de restrictions sur la linéarité du modèle;
pas de restriction sur la forme des densités de probabilité;
calcul direct des intervalles élargis, même assymétriques...
Même si l'approche GUM reste valide dans une grande majorité de cas pratiques,la méthode de propagation des distributions peut aussi être un outil de validationpour la mise en place d'une démarche GUM pour un nouveau dispositif de mesure.
P. Pernot Propagation des incertitudes March 24, 2015 64 / 118
Le cas des modèles complexes
Ces modèles font en général appel à un ensemble de paramètres qui proviennentde mesures expérimentales (p.ex. simulations mécaniques par éléments �nis,problèmes de chimie-transport...)
Il est primordial d'évaluer l'impact des incertitudes de ces paramètres sur laprécision des prédictions des modèles. Les situations où on a plusieurs centaines,voire milliers de paramètres à gérer ne sont pas rares. La démarche GUM présentaalors deux problèmes:
1 il est pratiquement impossible de déterminer à l'avance les paramètresin�uents; et
2 la formule de propagation des variances devient vite inadaptée si on n'a pasune expression analytique des coe�cients de sensibilité ou si les paramètresincertains sont susceptibles de mettre en évidence les non-linéarités dumodèle.
Dans ce type de situation la méthode de propagation des distributions est un outilprécieux qui doit être combiné avec une étape d'analyse de sensibilité permettantd'identi�er les paramètres in�uents et éventuellement de simpli�er le modèle.
P. Pernot Propagation des incertitudes March 24, 2015 65 / 118
Principe - Rappel
1 Formulation
1 identi�cation des variables d'entrée incertaines X = {X1, ...,Xk}2 dé�nition du modèle Y = f (X)3 dé�nition de la densité de probabilité jointe des variables d'entrée gX (ξξξ)
2 Propagation des distributions (Équation de Markov)
gY (η) =
ˆdξξξ δ (η − f (ξξξ)) gX (ξξξ)
3 Résumés statistiques de gY (η)
P. Pernot Propagation des incertitudes March 24, 2015 66 / 118
L'approche Monte Carlo
on obtient directement les résumés statistiques sur Y à l'aide d'intégrales(multidimensionnelles) impliquant f (X) et gX
le calcul de telles intégrales peut rarement être mené de manière analytique.On a donc recours à des méthodes numériques:
les méthodes d'intégration basées sur une discrétisation des variables d'entrée(p.ex. méthode des trapèzes) sont ingérables dès qu'il y a plus de quelquesvariables: le nombre d'évaluations du modèle augmente comme une puissancedu nombre de variables
l'intégration stochastique par la méthode de Monte Carlo ne présente pas cedésavantage.
P. Pernot Propagation des incertitudes March 24, 2015 67 / 118
Approximation d'intégrales par Monte CarloPrincipe
la pdf gX (ξξξ) est remplacée par un échantillon représentatif{ξξξ(i); i = 1,N
}le calcul d'intégrale est remplacé par une moyenne arithmétique
ˆdξξξ f (ξξξ) gX (ξξξ) ' 1
N
N∑i=1
f(ξξξ(i))
point positif: l'incertitude statistique de l'intégrale calculée ne dépend pas dunombre de dimensions de l'espace des paramètre incertains.
Si les{ξξξ(i); i = 1,N
}résultent de tirages indépendants, l'incertitude sur la
valeur de l'intégrale évolue en N−1/2 (Théorème de la limite centrée).
P. Pernot Propagation des incertitudes March 24, 2015 68 / 118
Application à la propagation des distributions
1 Dé�nir les densités de probabilité pour toutes les variables incertaines(type A et type B) gX (ξξξ)
2 Générer un échantillon représentatif de chacune des variables ou groupes devariables corrélées (à l'aide de générateurs de nombres aléatoires)
3 Calculer le résultat du modèle pour chaque point de l'échantillonη(i) = f (ξξξ(i)); i = 1,N
4 Produire les résumés statistiques adéquats: E (Y ), u(y) et intervalle élargi à100p%
P. Pernot Propagation des incertitudes March 24, 2015 69 / 118
Propagation des distributions par Monte CarloÉtape 1: génération d'un échantillon représentatif des entrées
gX (ξξξ)↓︷ ︸︸ ︷ f
ξ(1)1 ξ
(1)2 ... ξ
(1)k → η(1)
ξ(2)1 ξ
(2)2 ... ξ
(2)k → η(2)
......
......
ξ(m)1 ξ
(m)2 ... ξ
(m)k → η(m)
↓gY (η)
P. Pernot Propagation des incertitudes March 24, 2015 70 / 118
Propagation des distributions par Monte CarloÉtape 2: application du modèle à chacun des points de l'échantillon
gX (ξξξ)↓︷ ︸︸ ︷ f
ξ(1)1 ξ
(1)2 ... ξ
(1)k → η(1)
ξ(2)1 ξ
(2)2 ... ξ
(2)k → η(2)
......
......
ξ(m)1 ξ
(m)2 ... ξ
(m)k → η(m)
↓gY (η)
P. Pernot Propagation des incertitudes March 24, 2015 71 / 118
Propagation des distributions par Monte CarloÉtape 3: analyse statistique de l'échantillon des sorties du modèle
gX (ξξξ)↓︷ ︸︸ ︷ f
ξ(1)1 ξ
(1)2 ... ξ
(1)k → η(1)
ξ(2)1 ξ
(2)2 ... ξ
(2)k → η(2)
......
......
ξ(m)1 ξ
(m)2 ... ξ
(m)k → η(m)
↓gY (η)
P. Pernot Propagation des incertitudes March 24, 2015 72 / 118
Exemple: Distance d'arrêt - GUM-Supp1
# Valeurs des paramètres
V = 130 /3.6 ; V.u = 4/3.6 ; V.pdf = "norm"
T = 1 ; T.u = 0.5 / 3^0.5 ; T.pdf = "unif"
a = 5 ; a.u = 0.5 ; a.pdf = "norm"
c = 0.7 ; c.u = 0.2/6 ; c.pdf = "norm"
# Génération des échantillons
N=10000
V = rnorm(N,mean=V,sd=V.u)
T = runif(N,min=T-T.de,max=T+T.de)
a = rnorm(N,mean=a,sd=a.u)
c = rnorm(N,mean=c,sd=c.u)
# Application du modèle
Y = T*V + V^2/(2*a*c)
P. Pernot Propagation des incertitudes March 24, 2015 73 / 118
Exemple: Distance d'arrêt - GUM-Supp1
##
## Premières lines du tableau(X,Y)
## V T a c Y
## 1 36.28501 1.1986090 4.189136 0.7140617 263.5633
## 2 36.05726 1.1547012 5.245496 0.7536827 206.0651
## 3 36.58835 0.5433771 5.733974 0.7120034 183.8337
## 4 35.11540 1.4989705 5.012517 0.7310477 220.8903
## 5 35.72012 1.4906431 4.995035 0.6869854 239.1590
## 6 36.00515 1.3072525 5.351562 0.6632580 229.6827
##
## Statistiques
##
## Y = (22.5 +/- 2.7)*10^1
##
## 95 percent C.I. = [177,283]
P. Pernot Propagation des incertitudes March 24, 2015 74 / 118
Exemple: Distance d'arrêt - GUM-Supp1
Histogramme de Y vs. GUM
Den
sity
150 200 250 300 350
0.000
0.005
0.010
0.015
0.020
Y
Norm(68.1,1.6)
150 200 250 300 3500.0
0.2
0.4
0.6
0.8
1.0 Fonction de Distribution Empirique
Fn(x)
Y
0.025
176.8
0.5
223.2
0.975
282.6
P. Pernot Propagation des incertitudes March 24, 2015 75 / 118
Limites de la propagation des distribution par Monte Carlo
La seule condition pour pouvoir e�ectuer le calcul de propagation est que lafonction F doit être continue au voisinage de E (X).
Des restrictions plus sévères s'appliquent pour assurer la validité des résumésstatistiques:
pour pouvoir évaluer de manière univoque des intervalles élargis, il estnécessaire que la fonction de distribution GY soit continue et monotonementcroissantepour la détermination de l'intervalle élargi à 100p% le plus court, descontraintes s'appliquent sur la pdf gY : continuité, unimodalitéE (Y ) et V (Y ) doivent existerun nombre de tirages M su�sant doit être réalisé.
Le principe de la méthode de Monte Carlo est donc très simple et elle a un champd'application très large. Il nous laisse cependant avec deux problèmes techniques:
comment générer un échantillon représentatif d'une densité de probabilité ?combien de tirages sont nécessaires pour atteindre une précision spéci�ée surles résumés statistiques ?P. Pernot Propagation des incertitudes March 24, 2015 77 / 118
Limites de la propagation des distribution par Monte Carlo
P. Pernot Propagation des incertitudes March 24, 2015 78 / 118
Générer des nombres aléatoires de distribution prescrite
Dispositifs capables de produire une séquence de nombres dont on ne peut pasfacilement tirer des propriétés déterministes:
Générateurs reposant sur des phénomènes imprévisibles: les dés, laroulette, le tirage au sort (loto et autres), les di�érentes méthodes de mélangedes cartes, le pile ou face... ( souvent biaisés ou insu�samment sûrs)
Générateurs reposant sur des phénomènes physiques: radioactivité ;bruits thermiques ; bruits électromagnétiques ; mécanique quantique (a prioriles meilleurs générateurs, mais ils ne sont pas faciles à mettre en place). Desséquences nombres aléatoires physiques sont téléchargeables à partird'internet : www.random.org, www.randomnumbers.info
Générateurs reposant sur des algorithmes
un algorithme est déterministe, à l'opposé de ce que l'on recherchecertaines opérations sont su�samment imprévisibles pour donner des résultatsqui semblent aléatoiresles nombres ainsi obtenus sont appelés pseudo-aléatoiresplus facile et plus e�cace à produire que par d'autres méthodes
P. Pernot Propagation des incertitudes March 24, 2015 79 / 118
Générateurs de séquences de nombres aléatoires
tous les générateurs ne sont pas égaux entre eux
s'assurer avant tout que les générateurs aléatoires utilisés ont des propriétéssatisfaisantes pour:
la période de récurrence du générateurla corrélation séquentielle
des algorithmes sophistiqués combinant plusieurs générateurs (MersenneTwister, Wichmann-Hill...) sont aujourd'hui la norme. Correctementprogrammés et paramétrés, ils fournissent des séquences avec des périodescouvrant la majorité des besoins en propagation des distribution.
P. Pernot Propagation des incertitudes March 24, 2015 80 / 118
E�cacité statistique
L'utilisation d'une chaîne de Markov, ou d'une dynamique fait que les pointssuccessifs de l'échantillon ne sont plus indépendants. Il faut alors estimerl'e�cacité statistique de l'échantillon:
1 estimer µ = x and σ2 = 1
N−1∑
(xi − x)2
2 calculer la fonction d'autocorrélation
A(l) =1
σ2 (N − l − 1)
N−l∑i=1
(xi − x)(xi+l − x); l ≥ 0
et estimer la longueur de corrélation τ (intégrale de A(l) ou ajustementmonoexponentiel A(l) = exp(−l/τ))
3 on obtient alors ρ = (1 + 2τ)−1, l'e�cacité statistique de la chaîne(0 < ρ < 1) et l'incertitude-type sur l'estimation de la valeur moyenne est
µ = x ± σ√Nρ
.
Certains packages de R (coda) fournissent directement la taille e�ective Nρ del'échantillon et/ou l'incertitude-type corrigée.
P. Pernot Propagation des incertitudes March 24, 2015 81 / 118
Corrélation de variables non-gaussiennes
Comment générer des échantillons de variables corrélées non-normales ?
variables normales:X = mvtnorm::rmvnorm(M,mean=x.mu, sigma=VCov)
variables de distribution Student's:X = mvtnorm::rmvt(M,df=df,sigma=VCov,delta=x.mu)
autres ou variables hétérogènes �> méthode des copules:
générer un échantillon normal multivariée de corrélation prescritetransformer en échantillons de probabilités (par la densité cumulée normale)pour chaque variable, calculer les quantiles à partir des probabilités (inversionde la densité cumulée de distribution prescrite)
Biblio: A. Possolo (2010) Copulas for uncertainty analysis. Metrologia 47:262.doi:10.1088/0026-1394/47/3/017
P. Pernot Propagation des incertitudes March 24, 2015 82 / 118
Exemple de corrélation par copuleX1 ∼ Unif (1, 3) et X2 ∼ Arcsine(−1, 1), avec un coe�cient de corrélation de 0.8.
M=10000
z = mvtnorm::rmvnorm(M, mean=c(0,0), sigma=matrix(c(1,0.8,0.8,1),nrow=2))
z = pnorm(z)
X1=qunif(z[,1],min=1,max=3)
X2=qarcsine(z[,2],a=-1,b=1)
X1
-1.0 -0.5 0.0 0.5 1.0
1.0
1.5
2.0
2.5
3.0
0.78
1.0 1.5 2.0 2.5 3.0
-1.0
-0.5
0.0
0.5
1.0
X2
P. Pernot Propagation des incertitudes March 24, 2015 83 / 118
Convergence des estimateurs
On n'est pas capable de prévoir le nombre de tirages nécessaires pour atteindreune précision prescrite sur tous les estimateurs d'une séquence aléatoire. Onutilise une approche adaptative: augmenter le nombre de tirages jusqu'à lastabilisation statistique des estimateurs.
0 2000 4000 6000 8000 10000-0.10
-0.05
0.00
0.05
0.10
x
Deviationdes
estimateurs
cumulatifs
Moyenne
Limites exactes
Q05
P. Pernot Propagation des incertitudes March 24, 2015 84 / 118
Méthode de Monte Carlo adaptativeVersion originale du GUM Supp1
Cette procédure doit nous fournir pour une variable Y des valeurs véri�ant latolérance prédé�nie: l'espérance statistique y , l'incertitude-type u(y) et les limitesylow et yhigh d'un intervalle élargi de couverture spéci�ée 100p %.
1 dé�nir ndig à une valeur appropriée (typiquement ndig = 1 ou 2)2 calculer le nombre de tirages élémentaire M = max(ceiling(100/(1− p)), 104)3 initialiser le compteur d'itération h = 14 calculer M tirages Monte Carlo de Y = f (X)5 calculer les estimateurs pour ces M valeurs: y (h), u(y (h)), y
(h)low et y
(h)high
6 si h = 1, incrémenter h et aller à l'étape 4.7 calculer l'écart type associé aux valeurs moyennes des di�érents estimateurs sur les
itérations s2y = 1
h(h−1)
Phr=1
“y (r) − y
”2
, avec y = 1
h
Phr=1
y (r). Idem pour u(y),ylow et yhigh.
8 utiliser toutes les M × h valeurs de Y pour estimer u(y)9 calculer la tolérance numérique δ pour u(y)10 si une valeur parmi 2sy , 2su(y), 2sylow et 2syhigh dépasse δ, incrémenter h et aller à
l'étape 4.11 le calcul a convergé : utiliser les M × h valeurs de Y pour les estimations
statistiques �nales
P. Pernot Propagation des incertitudes March 24, 2015 85 / 118
La tolérance numérique
Soit ndig le nombre de chi�res considérés comme signi�catifs pour une valeurnumérique x . La tolérance numérique δ associée à x est dé�nie par:
1 mettre x sous la forme c × 10l , où c est un entier à ndig chi�res et l un entier;2 on a alors δ = 0.5× 10l
Exemple
numtol(12345,ndig=1) = 5000
numtol(12345,ndig=2) = 500
P. Pernot Propagation des incertitudes March 24, 2015 86 / 118
Méthode de Monte Carlo adaptativeVersions améliorées [Wübbeler et al. (2010) Metrologia 47:317]
Problème: la version originale �nit souvent trop tôt
le test de convergence basé sur un facteur 2 (IC95 pour une Normale) est tropoptimiste pour les petits nombres de blocs (au début de la procédure)−→la VO a seulement 80% de succès (à prédire un intervalle à 95%contenant la valeur vraie)le choix de δ à partir de u(y) peut être biaisé si les blocs sont trop petits
Solutions au premier problème1 Remplacer 2 par t0.975(h − 1) −→ 91% de succès
2 Méthode en deux temps de Stein −→ 95% de succès
1 réaliser un petit nombre de blocs h12 estimer le nombre de blocs manquants pour atteindre l'objectif des 95%
h2 = max
$(sy (h1) ∗ t0.975(h1 − 1))2
δ2
%− h1 + 1, 0
!
P. Pernot Propagation des incertitudes March 24, 2015 87 / 118
Le problème des temps de calcul
Le nombre de tirages nécessaire à la convergence des estimateurs peut devenirprohibitif si on utilise un modèle gourmand en temps de calcul.
Ex: distribution sur 1000 essais du nombre de runspour converger IC 95 d'une distribution normale.
P. Pernot Propagation des incertitudes March 24, 2015 88 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 89 / 118
Analyse Globale de Sensibilité
Objectifs
Repérer a posteriori les variables in�uentes en analysant les échantillons de X etY .
Cette partie n'est pas explicitement abordée par le GUM-Supp1, mais on peutconsidérer que c'est un complément pratiquement indispensable à l'approche parMonte Carlo.
Documents de référence
J.C. Helton, J.D. Johnson, C.J. Salaberry, and C.B. Storlie (2006) Survey ofsampling based methods for uncertainty and sensitivity analysis. ReliabilityEngineering and System Safety 91:1175�1209.
A. Saltelli, S. Tarantola, F. Campolongo and M. Ratto (2004). SensitivityAnalysis in Practice: A Guide to Assessing Scienti�c Models. John Wiley andSons.
P. Pernot Propagation des incertitudes March 24, 2015 89 / 118
Corrélation entrées/sortie
Les échantillons générés pour la propagation des distributions peuvent êtredirectement utilisés pour calculer des indices de sensibilité.
une méthode simple à mettre en oeuvre est le calcul des coe�cients decorrélation entre les échantillons de Y et de X.
dans certaines limites, en particulier la variation monotone de Y en fonctionde X, la valeur absolue du coe�cient de corrélation cor(Y ,Xi ) traduitl'importance de l'in�uence de Xi sur Y . Dans l'approximation linéaire, onpeut écrire
cor(Y ,Xi ) =k∑j=1
(∂Y
∂Xj
)x
u(xj)
u(y)cor(Xi ,Xj)
et dans le cas de variables indépendantes, on a
cor2(Y ,Xi ) =
(∂Y∂Xi
)2xu2(xi )
u2(y)≡ ANOVAi
P. Pernot Propagation des incertitudes March 24, 2015 90 / 118
Corrélation entrées/sortie
si Y ne varie pas monotonement en fonction d'un paramètre, même une fortedépendance peut se traduire par un coe�cient de corrélation nul. Ces cas nesont pas forcément aisés à repérer lorsqu'on a des modèles avec des centainesde paramètres...
pour ne pas être trop dépendant d'une hypothèse de linéarité, on utilise engénéral la corrélation de rang (Spearman), plutôt que la corrélation linéaire(Pearson).
P. Pernot Propagation des incertitudes March 24, 2015 91 / 118
Exemple Y = X 21 + X 2
2 en x1 = x2 = 0
X1
-0.3 -0.1 0.1 0.3
-0.0043
-20
24
0.013
-0.3
-0.1
0.1
0.3
X2
-0.05
-2 0 2 4 0 5 10 15
05
10
15
Y
P. Pernot Propagation des incertitudes March 24, 2015 92 / 118
Exemple Y = X 21 + X 2
2 en x1 = 0; x2 = 1
X1
0.7 0.9 1.1 1.3
0.004
-2-1
01
23
4
0.890.7
0.9
1.1
1.3
X2
0.17
-2 -1 0 1 2 3 4 0 5 10 15
05
10
15Y
P. Pernot Propagation des incertitudes March 24, 2015 93 / 118
Au delà des corrélations
comme le montrent ces exemples, il ne faut jamais se contenter desvaleurs, et il est toujours utile de tracer des diagrammes de paires entre lesvariables pour repérer d'éventuelles anomalies.
en cas de doute à propos de la méthode des corrélations, il existe desméthodes plus sophistiquées:
nécessitent souvent la génération d'échantillons spéci�ques, où les variablessont perturbées de façon optimale pour repérer les in�uences (Sobol...)
pour en savoir plus, consulter les ouvrages cités plus haut, ainsi que le packagesensitivity de R, qui fournit la plupart de ces méthodes.
la méthode des �gradients de la variance� utilise un échantillon Monte-Carlostandard [Campanelli et al. (2013) Meas. Sci. Tech. 24:025002]...
P. Pernot Propagation des incertitudes March 24, 2015 95 / 118
Exemple Sobol sur Y = X 21 + X 2
2 en x1 = x2 = 0
z=sensitivity::soboljansen(model=sq.fun,X1=X1,X2=X2,nboot=100)
print(z)
##
## Call:
## sensitivity::soboljansen(model = sq.fun, X1 = X1, X2 = X2, nboot = 100)
##
## Model runs: 200000
##
## First order indices:
## original bias std. error min. c.i. max. c.i.
## x1 0.999898979 -1.710840e-08 2.024607e-06 0.99989470 0.9999031
## x2 -0.007589635 2.186313e-03 1.220271e-02 -0.03623502 0.0115787
##
## Total indices:
## original bias std. error min. c.i.
## x1 1.0075896347 -2.186313e-03 1.220271e-02 9.884213e-01
## x2 0.0001010212 1.710840e-08 2.024607e-06 9.693665e-05
## max. c.i.
## x1 1.0362350227
## x2 0.0001052998
P. Pernot Propagation des incertitudes March 24, 2015 96 / 118
Gradients de la Variance
On calcule pour chaque variable l'indice suivant:
Gi =E(
(Y − y) ∂Y∂Xi
(Xi − x i ))
u2(y)
Interprétation: une variation de p% de la variance de Xi résulte en unevariation de Gip% de la variance de Y
Rq:
Gi peut être négatifrecyclage de l'échantillon MC existantcalcul des gradients en chaque pointvalide pour des variables indépendantes
Ref: Campanelli et al. (2013) Meas. Sci. Tech. 24:025002
P. Pernot Propagation des incertitudes March 24, 2015 97 / 118
Exemple GV sur Y = X 21 + X 2
2 en x1 = x2 = 0
attach(params, warn.conflicts = FALSE)
G= gumCV(fExpr=fExpr,x.mu=x.mu, x.u=x.u)
## Valeur Inc_Std. J J2.U2 Anova
## x1 0.000e+00 1.00e+00 0.00e+00 0.00e+00 NA
## x2 0.000e+00 1.00e-01 0.00e+00 0.00e+00 NA
## Y 0.000e+00 0.00e+00 <-- 0.00e+00
d= vgSA(fExpr=fExpr,x.mu=x.mu, x.u=x.u, X=S$X, Y=S$Y)
##
## *** Variance Gradients Sensitivity Analysis
## Valeur Inc_Std. VG
## x1 0.000e+00 1.00e+00 2.00e+00
## x2 0.000e+00 1.00e-01 -3.05e-04
## Y 9.881e-01 1.36e+00
detach(params)
P. Pernot Propagation des incertitudes March 24, 2015 98 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 99 / 118
Combien de chi�res signi�catifs?
Cela dépend de l'incertitude sur le résultat, mais aussi de la destination de cerésultat:
résultats intermédiaires d'un calcul : en garder le maximum pour éviterl'accumulation d'erreurs d'arrondi;résultat �nal: conserver 2 chi�res signi�catifs pour l'incertitude et tronquer
le résultat au même niveau. p. ex., si y = 1.23456789U et uY = 0.0045U,on reportera Y /U = 1.2345± 0.0045.
d'une manière générale, il vaut mieux reporter trop de chi�res que trop peu.Dans ce dernier cas, on causerait une dégradation préjudiciable del'information. Cependant, ne pas exagérer, et avoir toujours en tête un ordrede grandeur des incertitudes associées à la mesure ou à la méthode de calculutilisée.
NB: pour la matrice de variance/covariance, choisir un nombre de chi�resigni�catifs assurant que la matrice tronquée est bien dé�nie positive.
P. Pernot Propagation des incertitudes March 24, 2015 99 / 118
Comment reporter un résultat
notation standardY /U = y ± uY
où Y est le mesurande, U l'unité, y le résultat de mesure et uY l'incertitudetype associée. Il faut alors préciser qu'il s'agit d'une incertitude-type et nonétendue...p. ex., si on a mesuré y = 1.2345 kg avec uY = 0.0011 kg, on notera
Y /kg = 1.2345± 0.0011
on trouvera aussi souvent la notation condensée (recommandée)
Y /kg = 1.2345(11)
où l'ordre de grandeur des 2 chi�res entre parenthèses correspond à celui des2 derniers chi�res signi�catifs du résultat.
NB: dans le cas de plusieurs résultats avec des incertitudes corrélées, il fautégalement fournir la matrice de variance/covariance, ou la matrice decorrélation.P. Pernot Propagation des incertitudes March 24, 2015 100 / 118
Incertitude élargie
Déterminer k tel que si Y est estimé par y avec une incertitude (élargie)U(y) = ku(y), on peut a�rmer que
y − U(y) ≤ Y ≤ y + U(y)
avec une probabilité p proche de 1. [y −U(y), y + U(y)] est alors un intervalle decouverture à p %.
On écrit alors: Y /U = y ± U(y); k = x .
Il faut connaître la pdf, ce qui peut poser des problèmes avec la méthode decombinaison des variances
dans le cas idéal (modèle raisonnablement linéaire, plusieurs sourcesd'incertitude avec des in�uences comparables...) la pdf de Y est Normale, eton peut utiliser les propriétés correspondantes ( k = 2 pour p ' 0.95 ouk = 3 pour p ' 0.99...)
P. Pernot Propagation des incertitudes March 24, 2015 101 / 118
Incertitude élargie
sinon, il faut identi�er les sources principales d'incertitude (hyp: modèleapprox. linéaire)
type A avec peu (moins de 10) de répétitions: utiliser les coe�cients deStudent (k = tp)
n 3 4 5 10 30 50 ∞t95% 4.30 3.18 2.78 2.26 2.04 2.01 1.96t99% 9.93 5.84 4.60 3.25 2.75 2.68 2.58
Ex: mesure de la surface de la table
type B non Normal: se baser sur les propriétés de la pdf
sinon, Monte Carlo....
P. Pernot Propagation des incertitudes March 24, 2015 102 / 118
Couverture des intervalles élargis à nσ
Distribution 1σ 2σ 3σ Rq
Normale 68.2 95.4 99.7
Triangle 40.1 81.2 100.0 max : 2.45σ
Uniforme 57.7 100.0 100.0 max : 1.73σ
Arcsine 50.0 100.0 100.0 max : 1.41σ
Student's (ν = 4) 81.8 95.9 98.6
Student's (ν = 5) 77.0 95.3 98.7
Student's (ν = 10) 71.4 95.0 99.2
P. Pernot Propagation des incertitudes March 24, 2015 103 / 118
Degrés de liberté (e�ectifs)
Formule de Welch�Satterthwaite (GUM-G.4)
νe� ≈u4(y)
k∑i=1
(Jiu(xi))4
νi
=1
k∑i=1
a2iνi
ai = J2i u2(xi )/u2(y) est la part de la variance combinée due à xi (ANOVA)
nombre de degrès de liberté = incertitude sur l'incertitude ∆u(xi )u(xi )
' 1√2νi
Si on a une idée de cette incertitude, on peut en déduire νi = 1
2
[∆u(xi )u(xi )
]−2Si pas d'incertitude νi =∞
P. Pernot Propagation des incertitudes March 24, 2015 104 / 118
Comparaison des couvertures par lois Normale et Student
Statistique sur M = 10000 répétitions de la moyennede n = 5 nombres tirés d'une distribution Normale standard.
M=10000
n=5
X=matrix(rnorm(n*M,mean=0,sd=1),ncol=n,nrow=M)
Xm=apply(X,1,mean)
Xv=apply(X,1,var)
Histogram of Xm
Xm
Density
-2 -1 0 1 2
0.0
0.2
0.4
0.6
0.8
1.0
Histogram of Xv
Xv
Den
sity
0 1 2 3 4
0.0
0.2
0.4
0.6
0.8
P. Pernot Propagation des incertitudes March 24, 2015 105 / 118
Comparaison des couvertures par lois Normale et Student
Estimation de la fréquence de succès des calculsd'intervalles de couverture à 95 % (IC_95)
freqNor = apply(X,1,function(x) {
inter=mean(x)+sd(x)/n^0.5*qnorm(p=c(0.025,0.975))
prod(inter)<=0 } )
freqStu = apply(X,1,function(x) {
inter=mean(x)+sd(x)/n^0.5*qt(p=c(0.025,0.975),df=n-1)
prod(inter)<=0 } )
print(c(paste0('%Nor = ',100*sum(freqNor)/M),
paste0('%Stu = ',100*sum(freqStu)/M)))
## [1] "%Nor = 87.59" "%Stu = 94.71"
P. Pernot Propagation des incertitudes March 24, 2015 106 / 118
Comparaison des couvertures par lois Normale et Student
P. Pernot Propagation des incertitudes March 24, 2015 107 / 118
Comparaison des couvertures par lois Normale et Student
P. Pernot Propagation des incertitudes March 24, 2015 107 / 118
Sommaire
1 Mesures et incertitudes
2 Représentation probabiliste des incertitudes
3 Bases théoriques de la propagation des incertitudes
4 Combinaison des variances
5 Propagation des distributions
6 Analyse Globale de Sensibilité
7 Présentation des résultats
8 Compléments
P. Pernot Propagation des incertitudes March 24, 2015 108 / 118
Retour sur les covariances
On peut exprimer la covariance entre deux mesurandes Y1, Y2 dans le cadre GUM
(GUM-F.1.2.3; hypothèse des entrées indépendentes)
u(y1, y2) =k∑
i=1
(∂Y1
∂Xi
)x
(∂Y2
∂Xi
)x
u2(xi)
On voit alors que seules les souces d'incertitude communes aux deux mesurescontribuent (dérivée non-nulle)
Cf. exemple mesure de longueur et largeur d'une table avec le même mètre àruban.
P. Pernot Propagation des incertitudes March 24, 2015 108 / 118
Covariance des mesurandes multiples
Plus généralement, pour un modèle à p sorties et des entrées éventuellement
corrélées (GUM-Supp2)
ΣY = JTΣXJ
avec
J =
(∂Y1∂X1
)x
. . .(∂Yp
∂X1
)x(
∂Y1∂X2
)x
. . .(∂Yp
∂X2
)x
... . . ....(
∂Y1∂Xk
)x
. . .(∂Yp
∂Xk
)x
P. Pernot Propagation des incertitudes March 24, 2015 109 / 118
Application: calibration-prédiction
Propagation des incertitudes lors de la calibration d'une droite (régression)et de son utilisation en prédiction
on dispose de N triplets de valeurs {xi , yi , uyi } (on suppose uxi négligeableou nul)
modèle de mesure: yi = a + b ∗ xi + εi , avec εi ∼ N(µ = 0, σ = uyi )
�> régression linéaire par la méthode des �moindres carrés pondérés�
(a, b) = argmina,bχ2(a, b)
χ2(a, b) =N∑i=1
(yi − a− bxi )2
u2yi
P. Pernot Propagation des incertitudes March 24, 2015 110 / 118
Calibration des paramètres
Résolution :
1 calculer les moyennes pondérées x =P
w2i xiPw2i
et y =P
w2i yiPw2i, avec les poids
wi = 1/uyi2 recentrer les données: xi = xi − x et yi = yi − y
3 alors
b =
∑i w
2i xi yi∑
i w2i x
2i
=
∑i w
2i xiyi∑
i w2i x
2i
et
a = y − bx
cette dernière équation montre bien que a et b sont corrélés
P. Pernot Propagation des incertitudes March 24, 2015 111 / 118
Variance/covariance des paramètres
Le calcul des incertitudes-type sur les coe�cients de régression peut être mené
analytiquement en appliquant le GUM:
u2b =
∑i (w
2i xi)
2u2yi
(∑
i w2i x
2i )
2 =1∑
i w2i x
2i
u2a = var(y) + x2u2b =u2b∑w 2i
+x2∑i w
2i x
2i
cov(a, b) = cov(y , b)− x ∗ cov(b, b) = − x∑i w
2i x
2i
P. Pernot Propagation des incertitudes March 24, 2015 112 / 118
Exemple calibration
2 4 6 8
510
15
20
x
y
Regression lineaire
donnees
P. Pernot Propagation des incertitudes March 24, 2015 113 / 118
Exemple calibration
## [1] "*** Régression linéaire par moindres carrés pondérés ***"
## [1] ""
## [1] "model: y=a+b*x"
## [1] ""
## [1] "*** Analyse du chi2 ***"
## [1] "chi2_obs= 8.56"
## [1] "ndf= 6"
## [1] "P(chi2>chi2_obs)= 0.2"
## [1] "Q05= 1.64 , Q95= 12.6"
## [1] ""
## [1] "*** Analyse de variance ***"
## [1] "Variance totale (VT)= 25.6"
## [1] "Variance expliquée (VE)= 24.4"
## [1] "Variance résiduelle (VR)= 1.22"
## [1] "R2=1-VR/VT=VE/VT= 0.952"
## [1] ""
## [1] "*** Coefficients de régression ***"
## [1] "b= 2.02 +/- 0.154"
## [1] "a= 0.628 +/- 0.779"
## [1] "cov(a,b)= -0.107"
## [1] "cor(a,b)= -0.891"
P. Pernot Propagation des incertitudes March 24, 2015 114 / 118
Prédiction directe
Connaissant les paramètres de la droite de régression et lesincertitudes/covariance associées, on veut déterminer l'incertitude liée au calculd'une valeur de Y en un point x quelconque à l'aide du modèle linéaire.
Modèle statistique
Y = a + bX + ε
a et b représentent les paramètres incertains de la droite de régression;
X représente l'ordonnée pour laquelle on veut une prédiction de Y ;X est éventuellement incertaine x = x0 ± ux ; et
ε représente une erreur aléatoire sur la mesure d'une valeur de Y ;ε est de moyenne nulle et d'amplitude dépendant éventuellement de X ,σε(X ).
P. Pernot Propagation des incertitudes March 24, 2015 115 / 118
Prédiction directe
On applique (encore) la loi de combinaison des variances (GUM):
y = a + bx0 + ε
u2y = u2a + x20u2b + 2x0cov(a, b) + b2u2x + σ2ε (x0)
=1∑w 2i
+(x0 − x)2∑
i w2i x
2i
+ b2u2x + σ2ε (x0).
En remplaçant w2
i par 1/σ2, et dans l'hypothèse d'une incertitude uniforme sur Y(σε(X ) ≡ σ), on dérive l'expression pour la régression par moindres carrés�ordinaire�
u2y =σ2
N+σ2 (x0 − x)2∑
i x2
i
+ b2u2x + σ2.
P. Pernot Propagation des incertitudes March 24, 2015 116 / 118
Prédiction directe
Selon les scenarii, plusieurs simpli�cations sont possibles et on retrouve desexpressions d'usage courant:
X sans incertitude et on veut l'incertitude sur l'estimation de la valeur
moyenne de Y (�con�ance�)
uy = σ
√1
N+
(x0 − x)2∑i x
2i
X sans incertitude et on veut l'incertitude sur l'estimation d'une valeurunique de Y (�prediction�)
uy = σ
√1 +
1
N+
(x0 − x)2∑i x
2i
Autre exemple: Possolo, A. (2013), Five examples of assessment and expressionof measurement uncertainty. Appl. Stochastic Models Bus. Ind. 29:1�18. doi:10.1002/asmb.1947
P. Pernot Propagation des incertitudes March 24, 2015 117 / 118