Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
RAPPORT DE STAGE DE FIN D’ETUDE
CHOIX ET IMPLANTATION D'UNE METHODE D'EXTRACTION DE POLES DE MELANGE DANS UNE IMAGE HYPERSPECTRALE
Présenté par
NICOLAS DOBIGEON
Stage effectué à l’ONERA – Centre de Toulouse
Sous la direction de Mme Véronique ACHARD
Juin 2004
Office National d’Etudes et de Recherches Aérospatiales
CENTRE DE TOULOUSE
INP – ENSEEIHT Toulouse
Département Informatique et Mathématiques Appliquées
Spécialité Technologies et Applications du Multimédia
1
REMERCIEMENTS
Je ne peux débuter le présent rapport sans adresser mes plus sincères remerciements à Mme
Véronique Achard, responsable de mon travail pendant ces cinq mois. Ce fut, au quotidien, un
réel plaisir d’effectuer ce stage sous sa direction.
Je tiens également à exprimer toute ma reconnaissance à Monsieur Jean-Claude Fort, professeur
à l’Université Paul Sabatier – Toulouse III, pour sa disponibilité et ses bons conseils dans les
moments de doute.
Enfin, je conclurai cette partie consacrée par une pensée amicale pour tous les permanents,
doctorants et stagiaires que j’ai pu croiser dans les couloirs du DOTA et qui m’ont témoigné de
leur sympathie…
2
TABLE DES MATIERES
I. LA STRUCTURE D’ACCUEIL...................................................................................................................6
1.1. L’ONERA................................................................................................................................................6
1.2. LE CENTRE D’ETUDE ET DE RECHERCHE DE TOULOUSE ...........................................................................7
1.3. LE DEPARTEMENT D’OPTIQUE THEORIQUE ET APPLIQUEE .......................................................................8
II. CONTEXTE DE L’ETUDE........................................................................................................................10
2.1. L’IMAGERIE HYPERSPECTRALE ...............................................................................................................10
2.1.1. Description.....................................................................................................................................10
2.1.2. Applications ...................................................................................................................................11
2.2. LE MODELE DE MELANGE LINEAIRE ET LE PROBLEME DE « SPECTRAL UNMIXING » ................................12
2.3. PRE-TRAITEMENT DES DONNEES .............................................................................................................13
2.3.1. Objectif...........................................................................................................................................13
2.3.2. Sphérisation des données par Analyse en Composantes Principales.............................................13
III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES...................................16
3.1. PRINCIPES THEORIQUES ..........................................................................................................................16
3.1.1. La séparation aveugle de sources ..................................................................................................16
3.1.2. L’Analyse en Composantes Indépendantes pour la séparation aveugle de sources ......................16
3.1.3. Un exemple trivial..........................................................................................................................17
3.2. ALGORITHME DE L’INFOMAX..................................................................................................................18
3.2.1. L’information mutuelle : une mesure d’indépendance...................................................................18
3.2.2. Une solution historique..................................................................................................................19
3.2.3. Séparation de sources sub-gaussiennes et super-gaussiennes .......................................................21 3.2.3.1. Notion de kurtosis ................................................................................................................................. 21
3.2.3.2. Algorithme de l’infomax étendu............................................................................................................ 22
3.2.4. Vers un modèle paramétrique de la fonction de distribution… .....................................................22
3.3. LA SEPARATION DE SOURCES COMME SOLUTION AU PROBLEME DE « SPECTRAL UNMIXING ».................24
3.3.1. Une première approche intuitive ...................................................................................................24 3.3.1.1. Nomenclature ........................................................................................................................................ 24
3.3.1.2. Critiques du modèle............................................................................................................................... 25
3.3.1.3. L’algorithme.......................................................................................................................................... 29
3.3.2. Une alternative intéressante ..........................................................................................................30 3.3.2.1. Nomenclature ........................................................................................................................................ 30
3.3.2.2. Limitations et résolution........................................................................................................................ 31
3.3.2.3. L’algorithme pour deux composants purs.............................................................................................. 33
IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES......................................................34
4.1. « SPECTRAL UNMIXING » : UN PROBLEME DE GEOMETRIE CONVEXE.......................................................34
4.2. L’ALGORITHME DU N-FINDR ................................................................................................................36
4.2.1. Principe..........................................................................................................................................36
4.2.2. L’algorithme ..................................................................................................................................37
4.3. LA TRANSFORMEE DU VOLUME MINIMAL (MVT)..................................................................................38
4.3.1. Principe..........................................................................................................................................38
4.3.2. L’algorithme ..................................................................................................................................39
4.4. UNE ESTIMATION SOUS CONTRAINTES (ICE) ..........................................................................................40
4.4.1. Principe..........................................................................................................................................40
4.4.2. L’algorithme ..................................................................................................................................41
4.5. PROBLEME DE TEMPS CALCULATOIRE.....................................................................................................42
V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES ....................................43
5.1. METHODOLOGIE .....................................................................................................................................43
5.1.1. Nature des images..........................................................................................................................43
5.1.2. Evaluation des performances.........................................................................................................45 5.1.2.1. Un critère de qualité pour la séparation de sources................................................................................ 45
5.1.2.2. Le « spectral angle mapper »................................................................................................................. 46
3
5.2. RESULTATS .............................................................................................................................................47
5.2.1. Mélange de deux composants.........................................................................................................47 5.2.1.1. Algorithme « ACI 1 »............................................................................................................................ 47
5.2.1.2. Algorithme « ACI 2 »............................................................................................................................ 50
5.2.1.3. Algorithme « N-FINDR »...................................................................................................................... 51
5.2.1.4. Algorithme « MVT »............................................................................................................................. 51
5.2.1.5. Algorithme « ICE » ............................................................................................................................... 52
5.2.2. Mélange de trois composants.........................................................................................................52 5.2.2.1. Algorithme « ACI 1 »............................................................................................................................ 52
5.2.2.2. Algorithme « ACI 2 »............................................................................................................................ 53
5.2.2.3. Algorithme « N-FINDR »...................................................................................................................... 54
5.2.2.4. Algorithme « ICE » ............................................................................................................................... 54
5.2.3. Mélange de quatre composants......................................................................................................55 5.2.3.1. Algorithme « N-FINDR »...................................................................................................................... 55
5.2.3.2. Algorithme « ICE » ............................................................................................................................... 55
5.3. SYNTHESE DES RESULTATS .....................................................................................................................56
VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN ...............................................................57
6.1. SPECIFICATIONS DES IMAGES UTILISEES .................................................................................................57
6.1.1. Caractéristiques techniques ...........................................................................................................57
6.1.2. Description.....................................................................................................................................57
6.2. RESULTATS .............................................................................................................................................59
6.2.1. Image de Colmar............................................................................................................................60 6.2.1.1. Algorithme « N-FINDR »...................................................................................................................... 60
6.2.1.2. Algorithme « ICE » ............................................................................................................................... 61
6.2.2. Image de Hartheim.........................................................................................................................62 6.2.2.1. Algorithme « N-FINDR »...................................................................................................................... 62
6.2.2.2. Algorithme « ICE » .............................................................................................................................. 63
6.3. SYNTHESE DES RESULTATS .....................................................................................................................64
CONCLUSION ....................................................................................................................................................65
REFERENCES BIBLIOGRAPHIQUES...........................................................................................................66
4
INTRODUCTION
Les avancées techniques en matière de capteurs et autres imageurs satellitaires ou aéroportés ont
permis l’essor croissant de l’imagerie hyperspectrale. Celle-ci consiste à acquérir des images sur
un grand nombre de bandes spectrales fines – typiquement un centième de la longueur d’onde –
et généralement adjacentes. Comparée à l’imagerie multispectrale, elle offre une information plus
riche, permettant ainsi une analyse plus fine des observations, en vue de la classification
thématique d’une scène ou encore de la détection d’une cible dans un environnement plus ou
moins hétérogène. Pour pouvoir tirer un réel bénéfice de cette grande quantité de données, de
nouvelles méthodes d’analyse doivent être développées. L’une des principales étapes dans le
traitement de ces images consiste notamment à rechercher les signatures spectrales des
composants purs, appelés pôles de mélange, caractéristiques d’éléments présents dans la scène au
niveau macroscopique (végétation, construction humaine, minéraux…).
Après avoir énoncé dans la seconde partie du présent rapport les hypothèses qui définissent le
modèle de l’étude, les deux approches envisagées pour rechercher ces pôles de mélange sont
présentées. La première, de nature statistique, et exposée dans la troisième partie, s’appuie sur
des principes de séparation de sources par analyse en composantes indépendantes, principes qui
ont démontré par ailleurs leur utilité dans des domaines aussi variés que l’acoustique ou
l’imagerie biomédicale. La seconde approche, dont plusieurs méthodes ont été détaillées dans une
quatrième partie, est basée sur des principes de géométrie convexe auxquels répond le problème.
Chacun des algorithmes implémentés a été testé sur des images synthétiques de natures
différentes (cinquième partie) puis, pour les plus performants, sur des images réelles avec vérité
terrain (sixième partie).
CHAPITRE I. LA STRUCTURE D’ACCUEIL 6
I. LA STRUCTURE D’ACCUEIL
1.1. L’ONERA
Créé en 1946, l’Office National d’Etude et de Recherche Aérospatiales (ONERA) est un
établissement public, scientifique et technique à caractère industriel et commercial, doté de
l’autonomie financière. Il est chargé de développer et orienter les recherches dans le domaine
aérospatial, de concevoir, réaliser et mettre en œuvre les moyens nécessaires à l’exécution de ces
recherches, d’assurer la diffusion des résultats de recherche et en favoriser la valorisation par
l’industrie, y compris hors du domaine aérospatial.
Etablissement pluridisciplinaire, aujourd’hui placé sous la tutelle du ministère de la défense, il
représente le premier acteur national de la recherche aérospatiale. Ses activités reposent sur 17
départements et un laboratoire mixte regroupés dans les quatre branches de la Direction
Scientifique Générale :
• branche Mécanique des Fluides et Energétiques (MFE), composée de 6 départements,
• branche Matériaux et Structures (MAS), composée de 4 départements et d’un
laboratoire,
• branche Physique (PHY), composée de 4 départements :
� DEMR : ElectroMagnétisme et Radar,
� DESP : Environnement Spatial,
� DMPH : Mesures physiques,
� DOTA : Optique théorique et appliquée,
• branche Traitement de l’information et Systèmes (TIS), composée de 3 départements.
L’ONERA se distingue aussi par son potentiel humain, 2000 personnes dont plus de 1000
personnels scientifiques répartis dans plus de huit centres en France (fig. 1). Il gère par ailleurs
le premier parc européen de souffleries.
CHAPITRE I. LA STRUCTURE D’ACCUEIL 7
Figure 1 : Répartition géographique des centres ONERA
Grâce aux multiples contrats de partenariat passés avec l’industrie (Thalès, Dassault, EADS,
DGA, CNES), permettant d’assurer son développement, il a pu promouvoir son savoir-faire en
inventant le monde aéronautique de demain et fédérant les différentes activités de recherche.
Toutes ces qualités associées à des coopérations internationales de longues dates (Russie, Japon,
USA, Singapour,…) en ont fait un acteur de poids au niveau mondial.
1.2. Le Centre d’Etude et de Recherche de Toulouse
L’ONERA – Centre d’Etude et de Recherche de Toulouse (ONERA-CERT) a été créé en 1968 lors
du transfert vers Toulouse de l’Ecole Nationale Supérieure de l’Aéronautique et de l’Espace
(SupAéro). Au sein de l'ONERA, le Centre de Toulouse effectue des recherches orientées par et
vers les industries aéronautiques, spatiales et de défense... des secteurs de pointe où les exigences
sont les plus hautes.
Son programme est assuré principalement par des contrats extérieurs. Ses partenaires privilégiés
sont les services de l'Etat, les organismes publics, les industriels et l'Union Européenne.
S'appuyant sur les études amont effectuées en interne ou en partenariat avec les laboratoires de
recherche fondamentale, le Centre de Toulouse de l'ONERA mène des études appliquées orientées
par les grands programmes aérospatiaux et de défense ; il coopère avec les entreprises maîtres
d’œuvre au-delà des simples transferts de technologie, pour déboucher sur les applications. Il
assure par ailleurs un rôle d'expert auprès des services officiels.
CHAPITRE I. LA STRUCTURE D’ACCUEIL 8
Ce centre représente un budget annuel d’environ 30 Millions d’euros et un potentiel humain de
420 personnes dont 280 ingénieurs et techniciens de recherche permanents qui disposent de
29000 m2 de laboratoire (plates-formes de recherches, installations expérimentales) et de bureaux.
Il accueille des départements dont l'activité scientifique répond aux besoins de l'aéronautique, de
l'espace et de la défense. L'ambition du site de Toulouse est, en outre, de permettre la
collaboration dans le même établissement et sur un même thème, de spécialistes de disciplines
différentes. Certains de ces départements sont naturellement multi-sites, et ont donc des
personnels dans d'autres centres de l'ONERA. Ils sont au nombre de sept :
� DMAE : Modèles pour l’Aéronautique et l’Energétique,
� DEMR : ElectroMagnétisme et Radar,
� DTIM : Traitement de l’Information et Modélisation,
� DCSD : Commande des Systèmes et Dynamique en vol,
� DESP : Environnement SPatial,
� DPRS : PRospective et Synthèse,
� DOTA : Optique Théorique et Appliquée.
1.3. Le Département d’Optique Théorique et Appliquée
Le Département d'Optique Théorique et Appliquée (DOTA) a pour mission de mener des
recherches dans le domaine de l'optique (de l'ultraviolet à l'infrarouge) intéressant l'aéronautique,
l'espace et les systèmes militaires. Il prend en charge une recherche prospective et finalisée, en
amont des industriels et au service des grands donneurs d'ordres militaires (DGA) et civils (CNES
notamment). Il a la maîtrise de l'ensemble de la chaîne instrumentale optique, depuis la source
jusqu'aux post-traitements.
Les grands thèmes d'études au DOTA sont :
� la caractérisation des signatures optiques dans l'ultraviolet, le visible et l'infrarouge
par la modélisation numérique et l'expérimentation,
� le développement et la qualification de nouveaux instruments d'observation,
� l'imagerie à haute résolution par optique adaptative et synthèse d'ouverture,
� la restauration des images,
� les radars lasers,
� la transmission optique d'informations.
CHAPITRE I. LA STRUCTURE D’ACCUEIL 9
Le DOTA couvre l'ensemble des besoins concernant la spécification, la conception, la réalisation et
la qualification des instruments optiques au sol et en vol. Précisément, ces différents domaines
sont étudiés dans quatre centres de l'ONERA, répartis dans 10 unités de recherche qui, fort de
120 personnels scientifiques, font du DOTA le plus grand département de l’ONERA :
• ASO : Analyse de Surface d’Ondes, restauration d’images, imagerie haute-résolution,
• CIO : Conception d’Instruments Optiques,
• ELO : Electronique de L’Optoélectronique,
• MPSO : Modélisation Physique de la Scène Optoélectronique,
• OASO : Optique Adaptative et Synthèse d’Ouverture,
• CRIMO : Calibration et Réalisation d’Instruments de Mesures,
• MVA : Modélisation de dispositifs optoélectroniques et Validations Associées,
• ILDD : Instrumentation Laser à Détection Directe.
• QDO : Qualification d’instruments opérationnels et Données thermoOptiques,
Cette dernière unité est composée de trois groupes de travail : fonds terrestres, cibles, imageurs.
Le travail effectué au cours de ce stage entre dans l’axe de recherche « cibles ».
CHAPITRE II. CONTEXTE DE L’ETUDE 10
II. CONTEXTE DE L’ETUDE
2.1. L’imagerie hyperspectrale
2.1.1. Description
Une image de télédétection est une image échantillonnée spatialement, prise par un capteur fixe
ou survolant une scène au moyen d’un avion ou d’un satellite. Un échantillon spatial est appelé
pixel et sa taille dépend de la résolution de l’appareil.
Les images classiquement utilisées sont dites monospectrales ou multispectrales. Elles associent
à chaque pixel une ou plusieurs valeurs scalaires qui correspondent à la mesure de rayonnement
électromagnétique incident sur le capteur dans une ou quelques bandes de longueur d’onde
déterminées.
On parle d’images hyperspectrales lorsque l’acquisition de ce rayonnement est faite
simultanément dans un grand nombre de bandes spectrales étroites et contiguës. Les données
hyperspectrales fournissent une information plus détaillée des propriétés spectrales d’une scène
que les données de télédétection plus conventionnelles acquises en bandes plus larges et souvent
non contiguës (imagerie monospectrale ou multispectrale). A chaque pixel d’une image
hyperspectrale est alors associée un vecteur de mesures formant un spectre : on parle de « pavé »
hyperspectral ou d’ « hypercube » pour décrire l’ensemble des données échantillonnées
spatialement et spectralement (fig. 2).
Figure 2 : Représentation du pavé hyperspectral
CHAPITRE II. CONTEXTE DE L’ETUDE 11
Un imageur hyperspectral (ou spectromètre imageur) réalise le meilleur compromis entre haute
résolution spatiale et haute résolution spectrale. La résolution spatiale des systèmes aéroportés
existants est de l’ordre du mètre ou du décamètre pour une résolution spectrale de l’ordre de :
01,0=∆= λλη .
Résolution (nm)
Nombre de bandes
spectrales
Résolution
spectrale (η ) Visible –
Proche Infrarouge Bande 3-5µm Bande 12µm
Multispectral 5-10 0,1 100-200 100-200 1000-2000
Hyperspectrale 100-200 0,01 10-50 10-50 100-500
Ultraspectrale - 0,001 0,2-10 0,2-10 20-100
Tableau A : Caractéristiques moyennes des imageurs spectraux [8]
On peut citer, parmi les imageurs hyperspectraux les plus performants, le capteur en 224 bandes
AVIRIS (Airborne Visible/Infrared Imaging Spectrometer) du laboratoire Jet Propulsion de la
NASA, le capteur en 210 bandes HYDICE (HYperspectral Digital Imagery Collection Experiment)
du laboratoire Naval Research et le capteur HYMAP (HYperspectral MAPping) mis au point par
l’entreprise australienne Integrated Spectronics.
2.1.2. Applications
L’imagerie hyperspectrale est utilisée dans des domaines divers, pour les applications civiles et
militaires. Parmi les applications civiles, on peut citer entre autres la géologie, l’exploration
minière, la surveillance et l’évaluation de l’environnement, l’agriculture de précision, l’hydrologie,
la volcanologie, l’étude de l’atmosphère et la phytogéographie.
L’exploitation des données hyperspectrales permet d’effectuer des classifications d’une finesse
jusqu’alors inégalée en télédétection. On peut par exemple déterminer avec une grande précision
les zones riches en un minéral particulier dans l’analyse d’un sol. Les géologues utilisent depuis
longtemps les outils spectraux dans leurs travaux de mesures. Ils font partie des premiers à avoir
exploité les possibilités de l’imagerie hyperspectrale. Les raies d’absorptions de certains minéraux
étant très fines, la résolution de l’outil hyperspectral est nécessaire pour les analyser. A partir des
images hyperspectrales, on peut effectuer de grandes classifications de manière beaucoup plus
rapide que par le biais des campagnes de prélèvements au sol.
En matière d’agriculture ou de surveillance de l’environnement, on peut mesurer des paramètres
macroscopiques qui permettent un contrôle efficace des plantations ou des milieux naturels.
Notamment, les bandes d’absorptions de la chlorophylle et de l’eau liquide fournissent des
informations sur la qualité de la photosynthèse et l’état hydrique des végétaux (fig. 3).
CHAPITRE II. CONTEXTE DE L’ETUDE 12
absorption
de la
chlorophylle
absorption de l'eau liquide
Figure 3 : Spectres en réflectance du séquoia sec et vert.
2.2. Le modèle de mélange linéaire et le problème de « spectral unmixing »
Généralement, les images sont acquises sur des scènes non homogènes dans lesquelles plusieurs
matériaux sont présents. En d’autres termes, dans chaque pixel de l’image, se trouve un petit
nombre d’éléments unitaires appelés composants purs ou pôles de mélange dont les spectres
respectifs contribuent chacun au spectre observé. Le « spectral unmixing » est la procédure par
laquelle le spectre mesuré au niveau de chaque pixel de l’image est décomposé en une série de
« spectres purs » et d’abondances respectives [6]. Classiquement, ces composants purs
correspondent à des objets macroscopiques présents dans la scène comme, par exemple, de l’eau,
différents types de végétation, le sol, des matériaux artificiels…
Le modèle analytique choisi pour décrire le mélange spectral détermine de manière intrinsèque
les techniques à mettre en œuvre pour réaliser la recherche des pôles de mélange et le « spectral
unmixing ». Le modèle le plus couramment utilisé pour des mesures effectuées dans le domaine
réflectif est de type linéaire. Ce modèle constitue une bonne approximation si l’on considère que
l’effet de l’environnement du pixel sur le signal mesuré pour ce pixel est faible (luminance diffuse,
effets de couplage Terre/atmosphère, réflexion sur le terrain environnant, etc.). Il définit le
spectre pX observé dans L bandes au niveau d’un pixel p comme la somme pondérée des
spectres iS des M composants purs présents dans la scène. Nous écrivons :
∑=
=M
i
ipip SaX1
avec
� )](),...,1([ LxxX ppp = est le vecteur-ligne L×1 du spectre observé au niveau du
pixel p ( )Np ,..1= ,
� )](),...,1([ LssS iii = est le vecteur-ligne L×1 du spectre du ième
composant pur
( )Mi ,..1= ,
CHAPITRE II. CONTEXTE DE L’ETUDE 13
� pia est l’abondance du iième
composant dans le pième
pixel.
Lorsque N pixels sont considérés, nous utilisons une notation matricielle par bloc :
ASX =
où [ ])()1(
1
LXX
X
X
X
N
LM =
= , [ ])()1(
1
LSS
S
S
S
M
LM =
= , et MiNppiaA
≤≤≤≤=
11)( :
↓↓
↑↑
=
↓↓
↑↑
→←
→←
=
→←
→←
=
)()1()()1(
)()1(
)()1(
)()1(
)()1(
1
111
1
1
1111
11
1
11111
LSS
aa
aa
LXX
S
S
aa
aa
X
X
Lss
Lss
aa
aa
Lxx
Lxx
NMN
M
MNMN
M
N
MMNMN
M
NN
L
L
MM
L
L
M
L
MM
L
M
L
MM
L
L
MM
L
L
MM
L
Les coefficients de pondération pia représentent les abondances de chaque composant pur dans le
pixel considéré. Il découle donc du Modèle de Mélange Linéaire deux contraintes de positivité et
d’additivité :
Npa
MiaM
i
pi
pi
,..11
,..1,0
1
=
=
=≥
∑=
2.3. Pré-traitement des données
2.3.1. Objectif
Quelle que soit la méthode utilisée pour résoudre le problème de « spectral unmixing », nous
verrons qu’une phase de pré-traitement est toujours nécessaire. Souvent, ce pré-traitement
permet à la fois d’augmenter la rapidité de convergence des algorithmes proposés, de réduire
l’espace de travail, et de filtrer une partie du bruit.
2.3.2. Sphérisation des données par Analyse en Composantes Principales
Une opération classique de pré-traitement est l’Analyse en Composantes Principales (ACP). Elle
s’attache à projeter les vecteurs de données dans l’espace dit des composantes principales.
Lorsqu’aucune réduction d’espace n’est opérée, la dimension de l’espace de projection est
strictement égale à la dimension de l’espace d’origine.
CHAPITRE II. CONTEXTE DE L’ETUDE 14
Les composantes principales, combinaisons linéaires des vecteurs d’origine, ont les propriétés
suivantes :
• elles forment une base orthogonale de l’espace de départ,
• l’espérance empirique des individus est nulle sur chaque axe principal (données
centrées),
• la corrélation entre deux composantes principales est nulle,
• elles sont ordonnées de façon décroissante selon la variance du nuage des données
représenté sur chaque axe principal.
Soit X la matrice nm× des données dont chaque colonne i contient les m réalisations (ou
composantes) des n variables iX . Avant de réaliser l’ACP, on centre les données en construisant
la matrice Y dont les colonnes sont définies par :
iii XXY −=
où ∑=
=m
k
iki Xm
X1
,
1 est la moyenne des réalisations de chaque variable.
La matrice de variance-covariance s’écrit alors :
T
Y YYC =
On calcule la matrice diagonale Λ des valeurs propres de YC :
=Λ
mλ
λ
0
01
O avec mλλ ≥≥K1 .
Soit V la matrice mm× des vecteurs propres iV (vecteurs lignes) associés aux valeurs propres
iλ :
→←
→←=
mV
V
V M
1
La matrice des données sphérisées Z est obtenue par :
VYZ 21−Λ= .
La sphérisation des données permet de s’affranchir des moments statistiques d’ordre 1 et 2. Les
moments d’ordre supérieur prennent alors toute leur importance pour décrire les données. Il est à
noter que la variance sur chaque composante principale est égale à sa valeur propre iλ associée.
CHAPITRE II. CONTEXTE DE L’ETUDE 15
On peut opérer une réduction d’espace, c’est-à-dire représenter les variables dans un espace plus
petit (moins de composantes) en ne conservant que les axes de plus grandes variances. Il suffit de
ne conserver que mp < valeurs propres et les p vecteurs propres associés.
On écrit :
=Λ
p
p
λ
λ
0
01
)(O et
→←
→←=
p
p
V
V
V M
1
)(.
Les données sphérisées sont alors :
[ ] YVZ ppp )()()( 21−Λ= .
Un bruit additif de variance faible va donc est représenté par les dernières composantes. La
réduction d’espace permet donc aussi de « débruiter » les observations.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 16
III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES
3.1. Principes théoriques
3.1.1. La séparation aveugle de sources
Le problème de séparation de sources peut se formuler de la manière suivante [4].
Nous disposons de N processus aléatoires ou observations, notées ( )Niix ..1= , qui proviennent d’un
mélange linéaire de M processus aléatoires ou sources, ( )Miis ..0= . Nous notons A la
transformation linéaire liant sources et observations. Pour L réalisations de ces processus,
A étant linéaire par hypothèse, nous écrirons matriciellement :
=
)()1(
)()1(
)()1(
)()1( 11
1
11111
Lss
Lss
aa
aa
Lxx
Lxx
MMNMN
M
NN L
MM
L
L
MM
L
L
MM
L
En appelant provisoirement t la variable de réalisation, variable qu’il conviendra d’identifier par
la suite, nous pouvons écrire :
)()( tAStX = ,
où [ ]TN txtxtX )(),...,()( 1= et [ ]TM tststS )(),...,()( 1= , ou plus généralement ASX = .
L’objectif de la séparation aveugle de sources est de déterminer, à partir des observations
connues, M processus aléatoires ( )Miiu ..1= représentant une estimation des sources. Si A est une
fonction connue, le problème peut simplement être résolu par inversion du système précédent par
minimisation des moindres carrés ou utilisation de la matrice pseudo-inverse. Cependant, dans le
cadre de notre étude, la complexité du problème résulte de la non connaissance a priori de la
transformation linéaire A , appelée fonction de mélange, et des sources ( )Miis ..1= . D’où la
terminologie de séparation aveugle.
3.1.2. L’Analyse en Composantes Indépendantes pour la séparation aveugle de
sources
Il apparaît clairement que, sans hypothèses supplémentaires, la résolution du problème resterait
délicate. Celles nécessaires à l’application des méthodes d’analyse en composantes indépendantes
(ACI) sont énoncées ci-après.
- Tout d’abord, l’ACI exploite le caractère indépendant des sources ( )Miis ..0= .
- D’autre part, dans le cas où MN < (i.e. il y a strictement moins d’observations que
de sources) , le système est dit sous-déterminé : par la suite, nous supposerons
MN ≥ .
- Enfin, nous postulerons la présence d’au plus une source gaussienne.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 17
Sous ces trois hypothèses, l’ACI s’attache à rechercher une transformation linéaire W , appelée
fonction de démélange, telle que la structure de séparation s’écrive :
)()( tWXtU = ,
où [ ]TM tututU )(),...,()( 1= est une estimation des sources à retrouver )(tS .
Malheureusement, nous pourrons rarement écrire )()( tStU = , ce qui supposerait que :
MIWA = ou 1−= AW
Les sources estimées seront les sources initiales, à une permutation près, et à un facteur d’échelle
près. Ainsi, on pourrait évaluer la qualité de séparation de l’algorithme en vérifiant que :
DPWA =
où P est une matrice de permutation et D est une matrice diagonale.
3.1.3. Un exemple trivial
Afin d’illustrer notre propos, prenons un exemple [4] dans le cas où 2=N observations,
2=M sources, 600=L réalisations. Soient 2 processus aléatoires )(1 ts et )(2 ts uniformément
distribués sur [ ]1;1− , linéairement mélangés de la manière suivante :
=
)(
)(
11
21
)(
)(
2
1
2
1
ts
ts
tx
tx.
Les sources )(1 ts et )(2 ts sont indépendantes ; nous le vérifions en observant le tracé de
dispersion (fig. 4). En revanche, naturellement, il existe une dépendance linéaire entre les
observations.
Figure 4 : Distributions jointes des sources, observations et sources estimées
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 18
3.2. Algorithme de l’Infomax
Plusieurs approches conduisent à la résolution du problème par Analyse en Composantes
Indépendantes. Il existe notamment celles exploitant le caractère indépendant des sources, et
celles exploitant leur caractère non gaussien. On trouvera par ailleurs dans la littérature une
présentation unifiée de ces deux approches [4].
3.2.1. L’information mutuelle : une mesure d’indépendance
Nous cherchons ici à exploiter le caractère indépendant des sources. Il convient alors de définir un
critère mesurant cette indépendance. Une nouvelle fois, de nombreuses approches sont possibles.
Celle qui a été choisie ici entre dans le cadre probabiliste de la théorie de l’information. Rappelons
que l’on cherche à rendre les sources estimées ( )Miiu ..0= les plus indépendantes possibles
statistiquement.
On définit l’information mutuelle de ces processus aléatoires par :
),...,()(),...,( 1
1
1 M
M
i
iM uuHuHuuI −
= ∑=
où )( iuH sont les entropies marginales des variables Miiu ,..1)( = , et ),...,( 1 MuuH est leur entropie
jointe. Si )( iup est la fonction densité de probabilité de la source iu , chaque entropie marginale
s’écrit :
[ ])(log)( ii upEuH −=
où [ ].E désigne classiquement l’espérance mathématique. De même, l’entropie jointe est :
[ ]),...,(log),...,( 11 MM uupEuuH −=
d’où
[ ] [ ]),...,(log)(log),...,( 1
1
1 M
M
i
iM uupEupEuuI +
−= ∑=
Dans le cas de processus indépendants, on a
∏=
=M
i
iM upuup1
1 )(),...,( .
D’où,
[ ] 0)(log)(log),...,(11
1 =
+
−= ∏∑==
M
i
i
M
i
iM upEupEuuI .
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 19
L’information mutuelle, quantité positive, s’annule lorsque les processus sont indépendants.
Maximiser l’indépendance entre les sources estimées revient donc à minimiser leur information
mutuelle. L’on recherche alors la matrice W telle que :
0),...,( 1 =
∂∂
W
uuI M
Si la fonction densité de probabilité )( iup de la source estimée iu est approchée par la fonction
if , alors on montre que :
T
iii
iiTM Xuf
ufW
W
uuI
+=
∂∂ −
)(
)(')(
),...,( 11
On en déduit une règle de mise à jour de W basée sur une méthode de gradient naturel :
( )[ ] WUuIW T
ii )(ϕ−∝∆
où [ ]TMuuU L1= et ( )iiu )(ϕ est le vecteur-colonne tel que
)(
)(')(
ii
iiii
uf
ufu −=ϕ .
Bien entendu, généralement, les if sont des fonctions inconnues. Ces fonctions jouent un rôle
essentiel dans le succès de la règle d’apprentissage. Nous présentons ici plusieurs définitions de
ces fonctions.
3.2.2. Une solution historique
Historiquement, if a été choisie comme la dérivée d’une fonction logistique )(ξG , solution de
l’équation « épidémique » suivante :
( ))(1)()( ξξ
ξξ
GGd
dG −= .
On a alors :
ξξ −+=
eG
1
1)( .
Remarquons que )(ξG est bien une fonction de répartition puisque :
• 0)(lim =−∞→
ξξ
G et 1)(lim =+∞→
ξξ
G ,
• )(ξG est strictement croissante sur ℜ .
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 20
Figure 5 : Fonction logistique et sa dérivée
Si
i
iii
du
udGuf
)()( = , il vient :
)tanh(2)( iii uu =ϕ
La règle de mise à jour énoncée précédemment devient :
[ ] Wuu
u
u
IW M
M
−∝∆ LM 1
1
)tanh(2
)tanh(2
Nous écrirons cette règle de mise à jour sous la forme vectorielle :
[ ] WUUIW T)tanh(2−∝∆
Bien sûr, ce choix fait pour définir if est tout à fait arbitraire. Aussi, des règles plus « souples »,
tenant compte de la nature des sources ou d’autres informations, peuvent-elles être énoncées.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 21
3.2.3. Séparation de sources sub-gaussiennes et super-gaussiennes
3.2.3.1. Notion de kurtosis
Un critère simple qui peut caractériser une source est la qualité sub-gaussienne ou super-
gaussienne de sa fonction de distribution [9]. Le kurtosis d’une distribution permet de mesurer ce
caractère gaussien. Il est défini par :
2
2
4
µµβ =
où kµ est le moment centré d’ordre k : ])[( k
k XXE −=µ .
Le kurtosis dit « en excès » est alors :
3−= βκ .
Communément, dans la littérature, une confusion est faite entre ces deux définitions. Tout en
étant conscient de l’abus de langage commis, nous appellerons kurtosis d’une distribution la
quantité :
32
2
4 −=µµκ
Lorsque le kurtosis est négatif 0<κ , la distribution est dite platykurtique, ou sub-gaussienne.
Typiquement, la fonction densité de probabilité qui est associée est plus plate que celle des
distributions gaussiennes, et ayant une queue faible, comme par exemple la distribution uniforme
(fig. 6). Inversement, lorsque le kurtosis est positif 0>κ , la distribution est dite leptokurtique,
ou super-gaussienne (fig. 7). Typiquement, la fonction densité de probabilité associée présente un
pic plus pointu que les distributions gaussiennes, avec une queue lourde, comme la distribution
de Laplace.
≤=
sinon
aysiaypa
02
1
)(
Figure 6 : Densité de probabilité d’une
distribution sub-gaussienne
)0(2
1)( >=
−ae
ayp a
y
a
Figure 7 : Densité de probabilité d’une
distribution super-gaussienne
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 22
Dans le cas de variable aléatoire discrète iix )( dont on dispose de L réalisations, le kurtosis est
approché par la quantité :
( )
( )3ˆ
2
1
2
1
4
−
−
−⋅=
∑
∑
=
=
L
i
i
L
i
i
xx
xxL
κ où ∑=
==L
i
ii xL
xEx1
1][ .
3.2.3.2. Algorithme de l’infomax étendu
Selon le caractère super-gaussien ou sub-gaussien des sources, la règle d’apprentissage diffère par
le choix des fonctions jf et donc iϕ :
−−−+
=gaussienne- subest sourcei la siuu
gaussienne- superest sourcei la siuuu
ème
ii
ème
ii
ii)tanh(
)tanh()(ϕ
La règle de mise à jour devient :
( )[ ]WUUUKIW T+−∝∆ )tanh(
où )( ijkK = est une matrice diagonale MM × permettant de faire, à chaque itération, le choix
entre des sources estimées sub-gaussiennes et super-gaussiennes :
−+
=gaussienne- subest sourcej la si
gaussienne- superest sourcej la sik
ème
ème
jj1
1
3.2.4. Vers un modèle paramétrique de la fonction de distribution…
L’Analyse en Composantes Indépendantes Contextuelle (ACIc) envisagée par B.A. Pearlmutter et
L.C. Parra [10] et implémentée par J. Bayliss [1] dans le cadre du « spectral unmixing » repose
sur un modèle paramétrique des fonctions inconnues if .
Notant qu’a priori, il n’y a aucune restriction quant à la forme de cette fonction, ils proposent de
complexifier son écriture. Dans le cas qui nous intéresse, une approche envisagée peut être de
postuler que chaque fonction if est un mélange de fonctions logistiques dérivées.
∑=
−=max
1
)())((
k
k ik
iki
ik
jk
ii
utug
mtuf
σσ
où :
• ξξξ
d
dGg
)()( = où )(ξG est la fonction logistique précédemment introduite,
• les ikσ sont des paramètres d’échelle,
• les ikm sont des paramètres de mélange,
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 23
• les composantes moyennes iku sont des combinaisons affines du passé récent de chaque
source, passé de profondeur maxτ :
{ }∑=
+−=max
1
)()(τ
τττ ikiikik btuau
• les )(τika sont des coefficients de prédiction linéaire,
• les ikb introduisent une notion de biais.
Dans un soucis de simplification d’écriture, nous noterons que chaque « noyau » s’écrit :
−=ik
ikiik
utugtg
σ)(
)(
L’algorithme repose toujours sur une descente de gradient. Les règles de mises à jour des
paramètres précédemment introduits s’écrivent :
• iik
ikik
f
gm
σ−∝∆ ,
• ( )
iik
ikikikiikikik
f
mtgutug3
)())((
σσσ ′−+−∝∆ où ))(21)(()( tGtgtg ikik −=′ ,
• iik
iikikik
f
tutgma
2
)()()(
σττ −′
∝∆ ,
• iik
ikikik
f
tgmb
2
)(
σ′
∝∆ .
Nous rappelons la règle de mise à jour du gradient :
( )[ ] WUuIW T
ii )(ϕ−∝∆ avec )(
)(')(
ii
iiii
uf
ufu =ϕ
où, d’après ce qui précède :
∑=
=max
1
)())((k
k
ik
ik
ikii tg
mtuf
σ et ∑
=
′=′
max
12
)())((
k
k ik
ikikii
tgmtuf
σ
Notons qu’après chaque mise à jour, une opération de normalisation doit être effectuée sur les
paramètres de mélange :
∑=′
′
←max
1
k
k
ki
ikik
m
mm .
Une implémentation Matlab de cette approche, disponible sur l’Internet1, a été testée avec des
sources autres que celles présentées [1]. Trop souvent, les paramètres ikm∆ ne restent pas bornés.
Comme l’algorithme diverge, l’étude de cette méthode n’a pas été approfondie.
1 Url au 01/03/04 : http://www.cs.rochester.edu/u/bayliss/spectral/spectral.html
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 24
3.3. La séparation de sources comme solution au problème de « spectral unmixing »
Il s’agit à présent d’envisager un moyen d’utiliser la technique de séparation de sources afin
d’extraire les pôles de mélange dans une image hyperspectrale. Le problème majeur qui se pose
est précisément de répondre à la question suivante : conformément à la terminologie d’Analyse en
Composantes Indépendantes, qu’appelle-t-on « observations » et qu’appelle-t-on « sources » ? Très
vite, il est possible d’identifier deux interprétations différentes des données accessibles, à savoir
une image hyperspectrale, interprétations qui nous amènent à répondre de deux manières
différentes aux précédentes interrogations. Nous présentons dans les paragraphes qui suivent la
résolution du problème posé selon ces deux approches ainsi que leurs limitations respectives.
3.3.1. Une première approche intuitive
3.3.1.1. Nomenclature
Nous avons vu que le Modèle de Mélange Linéaire permet d’écrire que les réflectances dans la
bande j des N pixels de l’image s’écrit comme la somme pondérée des réflectances des M
composants purs dans la même bande j :
=
)(
)(
)(
)( 1
1
1111
js
js
aa
aa
jx
jx
MNMN
M
N
M
L
MM
L
M .
Lorsque les réflectances sont acquises dans L bandes :
→←
→←
=
→←
→←
=
MNMN
M
N
MMNMN
M
NN
S
S
aa
aa
X
X
Lss
Lss
aa
aa
Lxx
Lxx
M
L
MM
L
M
L
MM
L
L
MM
L
L
MM
L
1
1
1111
11
1
11111
)()1(
)()1(
)()1(
)()1(
Nous remarquerons que :
• )( jxp désigne la ièmej composante spectrale du
ièmep pixel,
• )( jsi désigne la ièmej composante spectrale du
ièmei composant,
• pia désigne l’abondance du ièmei composant dans le
ièmep pixel ; la somme des coefficients
sur chaque ligne est égale à 1.
Avec des conventions d’écriture évidentes, on a :
ASX =
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 25
Alors, intrinsèquement :
- nous appelons « sources » les réflectances des composants purs : chaque ligne de la
matrice S correspond au spectre d’un composant,
- nous appelons « observations » les réflectances des pixels de l’image : chaque ligne de
la matrice X correspond au spectre d’un pixel.
Prenons l’exemple d’un mélange de deux composants purs ( 2=M ) dont les spectres sont acquis
dans un grand nombre de bandes ( 211=L ) , mélange observé dans deux pixels ( 2=N ) avec la
matrice de mélange suivante :
=
64,036,0
3,07,0A .
Nous représentons les sources et les observations ci-dessous (fig. 8).
Figure 8 : Spectres de deux sources et de deux observations après mélange linéaire
3.3.1.2. Critiques du modèle
A ce stade de la réflexion, il convient d’émettre quelques réserves quant à la modélisation du
problème. Tout d’abord, il nous faut rappeler que l’une des hypothèses nécessaires pour tenter
une séparation de sources par analyse en composantes indépendantes est précisément le
caractère d’indépendance statistique de ces sources.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 26
Or, cette hypothèse n’est malheureusement pas toujours vérifiée puisque les spectres de
matériaux différents peuvent avoir de grandes similitudes, notamment lorsque ils appartiennent
à la même « classe » de composants purs : végétation (fig. 9), sol, construction humaine...
Figure 9 : Spectres en réflectance de deux végétaux (chêne et saule)
De plus, d’un point de vue algorithmique, l’ACI est habituellement utilisée pour un petit nombre
d’observations2, typiquement moins de 10. Dans le cadre de notre présent modèle, le nombre
d’observations est égal au nombre de pixels et est souvent très important (plusieurs centaines).
Inversement, le nombre d’échantillons (relatif à la variable de la réalisation dans la terminologie
de l’ACI) est parfois faible lorsque les senseurs hyperspectraux acquièrent les réflectances dans
un petit nombre de bandes spectrales (moins d’une centaine).
Notons enfin que l’Analyse en Composantes Indépendantes est une technique se basant sur la
statistique des sources et ce, quelle que soit l’approche choisie pour l’introduire. Or, peut-on
réellement dire que le spectre d’un composant suit une quelconque loi de probabilité ? Cela
semble ne pas être évident lorsque l’on considère les histogrammes respectifs des deux spectres
précédents (fig. 10).
2En utilisant le vocable « habituellement », nous renvoyons aux applications qui ont consacré les méthodes de séparations de
sources : biomédical, acoustique…
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 27
Figure 10 : Histogrammes des spectres de deux végétaux (saule et chêne)
Plusieurs solutions peuvent être envisagées pour dépasser ces difficultés. En premier lieu,
concernant le grand nombre d’observations, l’étape de prétraitement qui consiste à réaliser une
Analyse en Composantes Principales (cf. paragraphe 2.3.) peut être suivie d’une étape de
réduction d’espace par sélection des valeurs propres les plus grandes.
On se ramène alors à un espace de travail dans lequel seule une dizaine d’observations contient
toute l’information nécessaire à la bonne convergence de l’algorithme. Il faut remarquer que la
matrice de variance/covariance à diagonaliser est alors de taille NN × (où N est le nombre de
pixels dans l’image) : ce prétraitement entraîne donc des coûts calculatoires non négligeables. Il
aurait peut-être été intéressant de travailler seulement sur quelques pixels prélevés dans l’image
(sous-échantillonnage).
Quant au problème majeur de non indépendance évidente entre les sources, problème auquel
s’ajoute parfois le faible nombre de réalisations, des travaux récents menés par des membres de la
« communauté ACI » ont montré qu’il est intéressant de décomposer le signal dans une base de
fonctions (typiquement paquets d’ondelettes) [10]. L’Analyse en Composantes Indépendantes est
alors appliquée non plus aux observations elles-mêmes mais aux coefficients de décomposition.
Les calculs qui suivent montrent en effet que la matrice de mélange dans l’espace de
décomposition est identique à celle dans l’espace de départ.
Nous rappelons l’équation matricielle de mélange :
=
)(
)(
)(
)( 1
1
1111
js
js
aa
aa
jx
jx
MNMN
M
N
M
L
MM
L
M
Pour chaque pixel p , dans chaque bande j , on a :
∑=
=M
i
ipip jsajx1
)()(
En décomposant les spectres de chaque composants purs dans une base de fonctions
( )max,..1
)(Kkk j =ϕ :
∑=
=max
1
)()(K
k
kiki jcjs ϕ
alors :
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 28
)(
)(
,..1)()(
max
max
max
1 1
1 1
1 1
jca
jca
Npjcajx
k
K
k
M
i
ikpi
M
i
K
k
kikpi
M
i
K
k
kikpip
ϕ
ϕ
ϕ
∑ ∑
∑∑
∑ ∑
= =
= =
= =
=
=
==
d’où
max
11
,..1,..1)()(max
KketNpcayavecjyjxM
i
ikpipk
K
k
kpkp ==== ∑∑==
ϕ
Cette dernière équation s’écrit matriciellement :
=
max
max
max
max
1
111
1
111
1
111
MKM
K
NMN
M
NKN
K
cc
cc
aa
aa
yy
yy
L
MM
L
L
MM
L
L
MM
L
Ainsi sommes-nous amenés à réaliser une analyse en composantes indépendantes à partir des
coefficients ( )pky obtenus par décomposition des observations dans la base des ( ))( jkϕ , les
sources étant alors les ( )mkc . Le point essentiel est que la matrice de mélange reste la même. Si
la décomposition est réalisée de manière pertinente (i.e. la base de décomposition est bien
choisie), alors la séparation de sources peut être plus efficace. Par manque de temps, cette
solution n’a pas été implémentée.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 29
3.3.1.3. L’algorithme
Figure 11 : Diagramme de l’algorithme “ACI 1”
Entrée :
pavé hyperspectral
Ecriture matricielle des observations x
(ligne i = spectre du ième
pixel)
Analyse en Composantes Principales :
sphérisation et réduction des observations
Initialisation aléatoire
de la matrice de démélange W
Choix aléatoire L de la réalisation
servant à l’apprentissage )(Luv =
Calcul des sources estimées :
Wxu =
Pour chaque source estimée iu ,
calcul du caractère gaussien :
−=+=
gaussienne- subu sik
gaussienne- superu sik
ii
ii
1
1
Calcul du gradient :
( )WvvvvKIW TT
M −−=∆ )tanh(
Descente de gradient : WWW ∆+← µ
Convergence ? non
oui
Sortie : spectres estimées
WxS =
An
aly
se e
n C
om
po
san
tes
Ind
épen
da
nte
s
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 30
3.3.2. Une alternative intéressante
3.3.2.1. Nomenclature
Nous trouvons dans la littérature une conception quelque peu différente du problème [7]. La
manière la plus aisée de l’introduire est de reprendre les propos de la section précédente. Celle-ci
est basée sur l’égalité de mélange, lorsque les réflectances sont acquises dans L bandes :
=
)()1(
)()1(
)()1(
)()1( 11
1
11111
Lss
Lss
aa
aa
Lxx
Lxx
MMNMN
M
NN L
MM
L
L
MM
L
L
MM
L
Nous rappelons que :
• )( jxp désigne la ièmej composante spectrale du
ièmep pixel,
• )( jsi désigne la ièmej composante spectrale du
ièmei composant,
• pia désigne l’abondance du ièmei composant dans le
ièmep pixel ; la somme des coefficients
sur chaque ligne est égale à 1.
Simplement, transposons l’égalité précédente :
=
NMM
N
M
M
N
N
aa
aa
LsLs
ss
LxLx
xx
L
MM
L
L
MM
L
L
MM
L
1
111
1
1
1
1
)()(
)1()1(
)()(
)1()1(
ou TTT ASX =
Pour des raisons de simplifications d’écriture, nous poserons TXX =ˆ ,
TSS =ˆ et TAA =ˆ . Il
vient :
=
)(ˆ)1(ˆ
)(ˆ)1(ˆ
ˆˆ
ˆˆ
)(ˆ)1(ˆ
)(ˆ)1(ˆ 11
1
11111
Naa
Naa
ss
ss
Nxx
Nxx
MMLML
M
LL L
MM
L
L
MM
L
L
MM
L
• A présent :
• )(ˆ px j désigne la ièmej composante spectrale du
ièmep pixel,
• jis désigne la ièmej composante spectrale du
ièmei composant,
• )(ˆ pai désigne l’abondance du ièmei composant dans le
ièmep pixel ; la somme des
coefficients sur chaque colonne est égale à 1.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 31
Dès lors :
- nous appelons « sources » les abondances des composants dans les pixels : chaque
ligne de la matrice A correspond à l’abondance d’un élément dans les N pixels,
- nous appelons « observations » les réflectances des pixels de l’image : chaque ligne de
la matrice X correspond à la réflectance dans une bande mesurée pour tous les
pixels.
3.3.2.2. Limitations et résolution
Nous avons à présent à formuler quelques remarques quant à la pertinence et l’intérêt de ce
modèle.
Tout d’abord, comme ce qui a été présenté plus haut (paragraphe 3.2.1.), le nombre de sources
reste ici assez faible puisqu’égal au nombre de composants purs dans l’image (moins de 10).
En outre, il semble plus aisé de parler de statistique lorsque les sources sont des répartitions
spatiales dans une image.
En revanche, le nombre de bandes spectrales demeure un des problèmes majeurs. Dans le
paragraphe précédent (paragraphe 3.2.1.), le nombre de bandes utilisées (une centaine), alors
associé au nombre de réalisations, semblait parfois trop faible pour assurer une convergence
efficace de l’algorithme. Ici, ce même nombre, associé au nombre d’observations, devient trop
important : appliquer une Analyse en Composantes Indépendantes à partir d’une centaine
d’observations peut entraîner des coûts de calculs non négligeables. Une des solutions à envisager
est une nouvelle fois une réduction d'espace par analyse en composantes principales.
D’autre part, à première vue, le caractère indépendant des sources n’est clairement pas assuré.
En effet, la contrainte d’additivité imposée par le modèle de mélange linéaire implique, nous
l’avons vu précédemment, que la somme des lignes de la matrice des sources A doit être égale à
1. Il existe donc une équation linéaire qui lie les M sources. Nous proposons ci-dessous une
méthode de nous affranchir de ce problème.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 32
Nous adoptons les conventions d’écriture suivantes :
↓↓
↑↑=
=
=
↓↓
↑↑=
=
M
LMLM
M
M
LL
SS
ss
ss
S
Naa
Naa
A
NXX
Nxx
Nxx
X
ˆˆ
ˆˆ
ˆˆ
ˆ
)(ˆ)1(ˆ
)(ˆ)1(ˆ
ˆ
)(ˆ)1(ˆ
)(ˆ)1(ˆ
)(ˆ)1(ˆ
ˆ
1
111
1
11
11
L
L
MM
L
L
MM
L
L
L
MM
L
Reprenons le cas de deux composants purs. Alors le spectre de chaque pixel p s’écrit :
( ) 2111ˆ)(ˆ1ˆ)(ˆ)(ˆ SpaSpapX −+=
Réalisons sur les pixels une moyenne de l’égalité précédente :
( ) 2111ˆˆ1ˆˆˆ SaSaX −+=
où [ ]θθ E= désigne l’opérateur classique d’espérance mathématique ou son estimateur
empirique.
La différence des deux égalités précédentes permet alors d’écrire :
( )( )2111ˆˆˆ)(ˆˆ)(ˆ SSapaXpX −−=− .
Ainsi, la dimension de l’espace de travail est-elle réduite à 1 après avoir retiré la moyenne des
observations. La procédure peut être renouvelée lorsque le nombre de composants purs
augmente :
( )( )( ) ( )( )32223111
3212211
ˆˆˆ)(ˆˆˆˆ)(ˆˆ)(ˆ
ˆ)(ˆ)(ˆ1ˆ)(ˆˆ)(ˆ)(ˆ
SSapaSSapaXpX
SpapaSpaSpapX
−−+−−=−
−−−+=
L’équation matricielle que l’on cherche à résoudre par l’ACI devient :
−−
−−
−−
−−=
−−
−−
−−−−−
−
1111
1111
,1,,1
,1,,111
11
ˆ)(ˆˆ)1(ˆ
ˆ)(ˆˆ)1(ˆ
ˆˆˆˆ
ˆˆˆˆ
ˆ)(ˆˆ)1(ˆ
ˆ)(ˆˆ)1(ˆ
MMMMMLMLMLL
MLMLM
LL
aNaaa
aNaaa
ssss
ssss
XNxXx
XNxXx
L
MM
L
L
MM
L
L
MM
L
Les lignes de la matrice A ne sont alors plus liées par une relation linéaire.
CHAPITRE III. RESOLUTION PAR ANALYSE EN COMPOSANTES INDEPENDANTES 33
La concession qui nous est imposée par un tel modèle est que la notion de « sources » renvoie non
plus à des abondances, mais à l’écart des abondances par rapport à une abondance moyenne.
Donc, une fois ces quantités calculées par ACI, l’inversion du système précédent (par problème
aux moindres carrés par exemple) permet seulement de déterminer les différences entre les
spectres, différences multipliées bien sûr par une constante quelconque (cf. principe de l’ACI,
paragraphe 3.1.2.). En revanche, les pixels les plus purs peuvent être repérés par les valeurs
minimales et maximales des coefficients ia générés par l’ACI. Ainsi, une telle approche ne
permet-elle de retrouver seulement que deux pôles de mélange, en supposant bien sûr qu’il existe
au moins deux pixels purs dans l’image.
3.3.2.3. L’algorithme pour deux composants purs
Figure 12 : Diagramme de l’algorithme “ACI 2” pour deux composants purs
Entrée :
pavé hyperspectral
Ecriture matricielle des observations X
(ligne i = réflectance dans la ième
bande)
Analyse en Composantes Principales :
sphérisation et réduction des observations
Analyse en Composantes Indépendantes
Abondances estimées
XWA ˆˆ =
Recherche de l’indice des pixels
d’abondance maximale et minimale
Sortie :
spectres estimés de deux composants purs
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 34
IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES
4.1. « Spectral unmixing » : un problème de géométrie convexe
Nous avons vu que le Modèle de Mélange Linéaire (MML) permet d’écrire que, pour chaque pixel
p de l’image, le spectre reçu dans L bandes s’écrit comme la somme pondérée des spectres des
M composants purs :
( ) ( )
=)()1(
)()1(
)()1(
11
1
Lss
Lss
aaLxx
MM
pMppp
L
MM
L
LL .
On remarquera que )( jsi désigne la ièmej composante spectrale du
ièmei composant et que pka
désigne l’abondance du ièmek composant dans le
ièmep pixel. On peut alors écrire dans chaque
bande spectrale :
∑=
=M
i
ipip jsajx1
)()( .
Lorsque N pixels sont considérés :
=
)()1(
)()1(
)()1(
)()1( 11
1
11111
Lss
Lss
aa
aa
Lxx
Lxx
MMNMN
M
NN L
MM
L
L
MM
L
L
MM
L
.
Pour que cette écriture ait un sens physique, il faut bien entendu rappeler les deux contraintes
qui portent sur les abondances :
Npa
MiaM
i
pi
pi
,..11
,..1,0
1
=
=
=≥
∑=
que nous pouvons traduire comme respectivement une positivité et une additivité de ces
abondances. D’un point de vue géométrique, ce système de contraintes n’est pas sans rappeler
celui qui définit en dimension 1−M un espace convexe de M sommets. Pour illustrer ce propos,
plaçons nous en dimension 2 afin d’y prendre un exemple. Soient 3 points ),( AA yxA , ),( BB yxB ,
),( CC yxC représentés dans le plan cartésien associé à 2ℜ . Soit l’ensemble ∆ des points
),( yxM dont les coordonnées sont définies par
( ) ( )
=
CC
BB
AA
yx
yx
yx
aaayx 321 avec
=
=≥
∑=
3
1
1
3,...1,0
i
i
i
a
ia
Alors on montre que ∆ est la surface contenue dans le triangle dont les sommets sont
précisément les points A , B , C (fig. 13).
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 35
Figure 13 : Représentation d’un simplex en dimension 2
Ce qui a été vu en dimension 2 peut bien entendu être généralisé à des espaces d’autres
dimensions : en dimension 1, l’on choisira 2 points définissant un segment, en dimension 3, l’on
choisira 4 points définissant un tétraèdre, etc. Réciproquement, on appelle alors simplex la forme
géométrique convexe la plus simple qui est défini par M points et dans un espace de dimension
1−M .
Dans le cadre de l’imagerie hyperspectrale, si le modèle MML introduit précédemment est valide,
les observations )(pxi (i.e. les valeurs des réflectances de N pixels dans L bandes) forment un
nuage de points inscrits dans un simplex dont les 1+= LM sommets sont les valeurs des
réflectances des endmembers dans ces mêmes L bandes. L’approche géométrique proposée ici
afin de retrouver les constituants purs consiste alors à calculer ce simplex (fig. 14).
Figure 14 : Représentation dans deux bandes du simplex défini par trois composants purs
La dimension du sous-espace spectral réellement occupé par le nuage de points peut être estimée
par Analyse en Composantes Principales. Pour cela, on introduit, à partir des valeurs propres iλ
de la matrice de variance/covariance (cf. paragraphe 2.3.2.), la quantité η définie par :
totalL
L
λλλλη
++++=
L
L
1
1
où totalL est la dimension de l’espace d’origine.
A
B
C
∆B
Réflectance dans la bande L1
Réf
lect
an
ce d
an
s la
ba
nd
e L
2
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 36
La dimension recherchée L du sous-espace est alors déterminée en fixant un seuil de qualité
choisi telle que η soit suffisamment proche de 1 ( %90=η ou %99=η …). Cette dimension
définira ensuite le nombre de composants purs à rechercher dans l’image 1+= LM .
Plusieurs méthodes non supervisées d’extraction sont proposées :
• la première détermine le plus grand “ volume ” porté par le nuage de points,
• la seconde, “ miroir ” de la première, retrouve le plus petit “ volume ” contenant tous les
points du nuage,
• la troisième, à caractère plus statistique, est une estimation paramétrique de S et de A
sous les contraintes d’additivité et de positivité définies précédemment.
4.2. L’algorithme du N-FINDR
4.2.1. Principe
Le premier algorithme proposé recherche le plus grand volume porté par le nuage de points. Il
suppose que les constituants purs eux-mêmes sont présents parmi les pixels mélangés [12].
Soit +S la matrice augmentée des constituants purs :
↓↓↓
↑↑↑
=+
111
ˆˆˆˆ 21
L
L MSSSS
où [ ] [ ]Tii
T
Lii
T
ii LssssSS )(),...,1(ˆ,...,ˆˆ1 === est le vecteur colonne contenant le spectre dans
1−= ML bandes du iième
composant (conformément aux notations du paragraphe 3.3.2.2.).
Notons que +S est bien une matrice carrée.
Le volume (V) du simplex formé par ces constituants purs est proportionnel au déterminant
de +S :
( ) ( )++
−= S
MSV ˆdet
)!1(
1ˆ
L’implémentation numérique ne pose pas de réelles difficultés. Il suffit de calculer les volumes de
tous les simplexes formés par tous les M-uplets du nuage de points et de conserver le M-uplets
donnant lieu à un simplex de volume maximal. La complexité d’un tel algorithme est donc finie
puisque le nombre d’itérations à effectuer est dénombrable et égal au nombre combinatoire N
MC
où N est le nombre de points du nuage et M le nombre de composants purs à estimer.
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 37
4.2.2. L’algorithme
Figure 15 : Diagramme de l’algorithme “N-FINDR”
Génération d’un simplex candidat +cS :
choix de M pixels
Calcul du volume cV du simplex +
cS
Reste-t-il un
simplex candidat ?
non
Ecriture des spectres retenus S issus de +S
dans l’espace initial (« ACP inverse »)
Alg
ori
thm
e d
u N
-FIN
DR
Entrée :
pavé hyperspectral
Ecriture matricielle des observations x
(colonne i = spectre du ième
pixel)
Analyse en Composantes Principales :
sphérisation et réduction des observations
à L=M-1 bandes
Initialisation du volume du simplex
0=V
VVc > ?
oui
cVV ← et ++ ← cSS ˆˆ
non
oui
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 38
4.3. La Transformée du Volume Minimal (MVT)
4.3.1. Principe
Soient +S et
+X les matrices augmentée des spectres des composants purs et des observations :
↓↓↓
↑↑↑
=+
111
ˆˆˆˆ 21
L
L MSSSS
↓↓↓
↑↑↑
=+
111
ˆˆˆˆ 21
L
L MXXXX .
La Transformée du Volume Minimal recherche le plus petit simplex contenant tous les points du
nuage [3]. Elle procède itérativement en déterminant les lignes d’une matrice :
( ) ( )MjiijqSQ
,..1,
1ˆ
=
−+ == .
M.D. Craig montre que le problème se ramène pour chaque ligne de Q à maximiser le produit de
2−M variables positives ia sous un système de N inéquations linéaires.
Après initialisation de la matrice Q , itérativement, on est amené à procéder comme suit :
• élimination de la ligne k de Q : construction de la matrice −Q ,
• écriture de la matrice des contraintes C :
+− ⋅= XQC ˆ
• résolution du problème de minimisation de f sous N contraintes d’inégalités :
{ }( )
∈≤
=
∑
∏
≠=
≠=
NpaC
aaf
M
ki
iiip
M
kii
ii
,..11
)(
1
1
• mise à jour de la matrice Q :
� pour chaque ligne ki ≠ : iii aQQ ⋅← ,.,.
� puis, pour la ligne k :
- pour chaque colonne Mj ≠ : ∑≠
−←ki
ijkj QQ
- pour la colonne M : ∑≠
−←ki
iMkM QQ 1
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 39
4.3.2. L’algorithme
Figure 16 : Diagramme de l’algorithme “MVT”
non
Inversion de la matrice Q : 1−= QP
Alg
ori
thm
e d
u M
inim
um
-Vo
lum
e T
ran
sfo
rm
Entrée : pavé hyperspectral
Ecriture matricielle des n observations X
(colonne i = spectre du ième
pixel)
Analyse en Composantes Principales :
sphérisation et réduction
des observations à L=M-1 bandes
Initialisation de la matrice Q )( MM ×
Pour chaque ligne k de Q…
Suppression la ligne k de Q :
génération de la matrice −Q
Génération de la matrice )( NL× des
contraintes : +− ⋅= XQC ˆ
Génération de la matrice augmentée
des observations : +X
Minimisation de
∏≠=
=M
kii
ii aaf1
)( sous les contraintes NpaCM
kii
iip ≤≤≤∑≠=
1,11
Mise à jour de la matrice Q :
MjkiaQQ iijij ≤≤≠← 1,,*
puis
−←
≠−←
∑
∑
≠
≠
ki
iMkM
ki
ijkj
MjQQ
1
,
oui
Fin ?
Ecriture des spectres retenus S issus de += SP ˆ dans l’espace initial (« ACP inverse »)
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 40
4.4. Une estimation sous contraintes (ICE)
4.4.1. Principe
Rappelons que le système caractérisant le Modèle de Mélange Linéaire (LMM) s’écrit pour chaque
pixel p :
∑=
=M
i
ipip SaX1
où )](),...,1([ LxxX ppp = et )](),...,1([ LssS iii = sous les contraintes :
Npa
MiaM
i
pi
pi
,..11
,..1,0
1
=
=
=≥
∑=
La méthode proposée [2] repose sur une estimation iS~
et pia~ des paramètres iS et pia . Une idée
naturelle consisterait alors à minimiser un critère d’erreur définie par :
∑∑==
−==N
p
pp
N
p
p XXJJ1
2
1
22 ~
où naturellement ∑=
=M
i
ipip SaX1
~~~ et ( )∑
=−=−=
L
j
ppppp jXjXXXJ1
222
)()(~~
.
Il s’agit d’un problème de minimisation aux moindres carrés. La solution, non unique d’un tel
problème est tout M-simplex qui englobe le nuage de points formé par les observations. Nous
avons alors besoin de considérer un terme dit de régularisation, c’est-à-dire qui tient compte de la
taille du simplex. Une possibilité serait, comme dans les méthodes précédentes, de considérer le
volume du simplex. Une telle approche donnerait lieu à un algorithme très coûteux en opérations
et donc en temps de calcul. Berman et al. [2] préfèrent introduire une autre mesure de la taille du
simplex : la somme des carrés des distances entre chaque sommet, quantité proportionnelle à la
somme des variances des sommets du simplex dans les L bandes. On est alors ramené à
minimiser :
( ) ( ){ }∑=
××+×−×−=L
j
TT
reg jSDjSjSAjXjSAjXRSS1
)()()()()()( λ
où )( jS est le vecteur des réflectances des M endmembers dans la ièmej bande spectrale.
↓↓
↑↑=
= )()1(
)()1(
)()1( 11
LSS
Lss
Lss
S
MM
L
L
MM
L
avec D et λ des paramètres constants définis par :
MID
T
M
11−= et )1)(1( µ
µλ−−
=M
N ( )10 << µ
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 41
Itérativement, on est conduit à procéder comme suit :
• pour chaque pixel, calcul d’une estimation )(~ pai par minimisation numérique de
( )∑=
−=L
j
ppp jXjXJ1
22)()(
~, où les kS
~ sont fixés,
• pour des )(~ pai donnés, calcul d’une estimation S~
par minimisation de RSSreg
,
minimisation qui se fait de manière exacte puisque la quantité est quadratique en )( jS ,
et donc le gradient facilement exprimé par dérivation.
4.4.2. L’algorithme
Figure 17 : Diagramme de l’algorithme “ICE”
Minimisation sur S du
critère régularisé RSSreg
oui
Ecriture des spectres retenus S dans
l’espace initial (« ACP inverse »)
Alg
ori
thm
e d
e l’
ICE
Entrée :
pavé hyperspectral
Ecriture matricielle des observations X
(colonne i = spectre du ième
pixel)
Analyse en Composantes Principales :
sphérisation et réduction des observations
à L=M-1 bandes
Estimation sous contrainte
de la matrice d’abondance A
Convergence ?
non
CHAPITRE IV. RESOLUTION A L’AIDE DE METHODES GEOMETRIQUES 42
4.5. Problème de temps calculatoire
Clairement, il apparaît que les algorithmes purement géométriques (N-FINDR et MVT) sont
d’une complexité très grande, particulièrement lorsque le nombre d’observations augmente. Nous
rappelons que celle du N-FINDR est de l’ordre de N
MC itérations. Par exemple, le tableau ci-
dessous (tab. B) rassemble les premières valeurs des nombres combinatoires introduits.
M N
3 4 5
10 120 210 252
50 19 600 230 300 2 118 760
100 161 700 3 921 225 75 287 520
150 551 300 20 260 275 591 600 030
170 804 440 33 585 370 1 115 034 284
Tableau B : Evolution des nombres combinatoires pour différentes valeurs de N et de M
Afin de limiter les temps de calculs (qui peuvent atteindre plusieurs centaines d’heures pour une
image 40x40), nous réduisons le nuage de points à son enveloppe convexe. Nous utilisons pour
cela la procédure « qhull » implémentée pour le langage IDL.
Dans le cas du N-FINDR, de manière totalement intuitive, l’on conçoit bien que les points
définissant le plus grand simplex inscrit dans le nuage sont portés par l’enveloppe convexe du
nuage. Dans le cas du MVT, si le simplex calculé contient l’enveloppe convexe du nuage, alors il
contient nécessairement tous les points de ce nuage.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 43
V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES
5.1. Méthodologie
5.1.1. Nature des images
Avant d’appliquer les différents algorithmes présentés dans les paragraphes précédents sur des
images réelles, nous les testons sur des images synthétiques. Pour cela, il nous faut définir les
différents paramètres intervenant dans le cadre du « spectral unmixing ». Il est en effet nécessaire
de choisir :
- les composants purs intervenant dans le mélange,
- leurs répartitions spatiales et abondances respectives dans l’image.
Pour ce qui est des composants purs choisis, ils sont représentatifs d’une scène en environnement
urbain ou péri-urbain. Les spectres des pôles de mélanges retenus sont représentés ci-dessous
(fig. 18).
Figure 18 : Spectres des composants retenus pour effectuer les mélanges synthétiques
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 44
Pour la suite nous utiliserons les correspondances suivantes :
Composant 1 Béton de construction
Composant 2 Herbe verte
Composant 3 Terre grasse
Composant 4 Peinture vert olive
Composant 5 Brique rouge
Composant 6 Acier galvanisé
En ce qui concerne le domaine spectral de travail (visible, proche infrarouge, infrarouge…), les
méthodes d’extraction sont testées sur des images acquises dans des bandes comprises entre 0.4
et 2.5µm (domaine réflectif) avec une résolution spectrale de 10nm (soit 211 bandes).
Enfin, la répartition spatiale des composants est, pour toutes les simulations, basée sur la
répartition figurative illustrée ci-dessous (fig. 19). Nous travaillons sur des images carrées de 40
pixels de côté, dans lesquelles sont définies des zones où sont répartis aléatoirement un ou
plusieurs composants purs avec une abondance moyenne variable.
Figure 19 : Répartition spatiale des composants purs dans l’image synthétique
Il nous faut rappeler que la somme des abondances des différents composants présents au sein de
chaque zone est égale à 1.
40 1
5
40
30
10
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 45
Il apparaît clairement qu’il est nécessaire d’évaluer la résistance au bruit des différents
algorithmes. Pour cela, nous introduirons dans un deuxième temps un bruit blanc uniforme
centré qui sera considéré comme additif dans chaque bande et pour chaque pixel. L’équation de
mélange s’écrira donc :
BASX +=
où B est une matrice LN × si l’on considère N pixels dont les réflectances sont acquises dans
L bandes avec [ ]ββ +−∈ ;ijb . Les tests seront effectués pour les valeurs de β égales à 0, 0,15
puis 0,40.
5.1.2. Evaluation des performances
Lorsque nous testons les algorithmes proposés sur des images synthétiques, comme nous
construisons les images-test, il doit être possible de mesurer la qualité de l’extraction, c’est-à-dire
évaluer les différences entre les spectres retrouvés par les algorithmes et les spectres qui ont
servi à réaliser le mélange. Nous définissons dans ce paragraphe deux méthodes pour évaluer la
qualité des méthodes d’extraction.
5.1.2.1. Un critère de qualité pour la séparation de sources
Lorsque l’extraction est accomplie à l’aide d’une séparation aveugle de sources par Analyse en
Composantes Indépendantes, nous avons vu que les sources estimées sont les sources initiales à
une permutation près et à un facteur d’échelle près. Ainsi est-il possible d’évaluer la qualité de la
séparation en vérifiant que DPWA ==Π , où P est une matrice de permutation et D est une
matrice diagonale. Si U est la matrice des sources estimées S :
SU Π=
En normalisant chaque ligne de Π , nous définissons une matrice de performance Π :
,.1max
ˆ
iMi
ij
ij Π
Π=Π
≤≤
Par exemple, dans le cas de deux sources, lorsque
=Π
01
10ˆ ,
nous pouvons affirmer que la séparation est réalisée de manière parfaite et que les deux sources
sont retrouvées :
==
12
21
su
su
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 46
En revanche, si
=Π
25.01
10ˆ ,
alors seulement la deuxième source a été proprement reconstituée. Dans l’estimation de la
première source, il demeure en effet 25% de la seconde :
+==
212
21
25,0 ssu
su
Nous verrons que parfois, une même source est estimée plusieurs fois. La matrice de performance
est alors de la forme :
=Π
εε
1
1ˆ ou
=Π
1
1ˆ
εε
avec 10 <<≤ ε .
5.1.2.2. Le « spectral angle mapper »
Habituellement, les problèmes d’estimation conduisent naturellement à introduire une erreur
d’estimation définie comme la distance euclidienne entre le signal réel x et son estimateur x .
Cependant, dans le cadre de l’imagerie spectrale, la comparaison de deux signaux se fait souvent
à l’aide d’une quantité appelée spectral angle mapper (SAM) qui mesure l’angle entre deux
spectres [5] :
( )
=
22ˆ
ˆ,arccosˆ,
xx
xxxxθ
où .,. définit le produit scalaire usuel.
Bien sûr, ( )xx ˆ,θ est nul lorsque xx ˆ= . L’avantage d’utiliser une telle quantité est qu’elle reste
inchangée lorsque x ou x sont multipliés par des constantes. Ceci s’avère particulièrement
intéressant puisque les spectres estimés par Analyse en Composantes Indépendantes le sont à un
facteur multiplicateur près. Pour rendre cette quantité invariante par translation, il suffit alors
de centrer toutes les grandeurs mises en jeu.
Par la suite, tout étant conscient de l’abus de langage commis, nous appellerons spectral angle
mapper le cosinus de l’angle entre x et son estimateur x .
( )
=
22ˆ
ˆ,cosˆ,
xx
xxxxSAM
Lorsque xx ˆ= , on a alors ( ) 1ˆ, =xxSAM .
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 47
5.2. Résultats
L’évaluation de la qualité d’une estimation à l’aide de la matrice de performance introduite
précédemment (paragraphe 5.1.2.1.) s’avère difficile à mettre en œuvre lorsqu’il s’agit de
comparer les résultats issus de plusieurs simulations basées sur un même mélange. Nous ne
rapporterons donc dans le présent document que les résultats basés sur le second critère introduit
(SAM), qui présente en outre l’avantage de pouvoir être utilisé également pour les méthodes dites
géométriques.
Rappelons que, pour la recherche de M composants purs, les algorithmes présentés
précédemment fournissent M estimations. A chaque spectre estimé, il convient donc d’associer
un spectre réel. Pour cela, nous avons décidé de former les M couples « spectre estimé/spectre
réel » qui donnent lieu aux M spectral angle mapper les plus élevés (parmi les 2M disponibles).
Ainsi est-il possible qu’un même pôle de mélange soit estimé plusieurs fois, notamment en cas de
mauvaise convergence (cf. algorithme « ACI 1 »).
Pour comparer la performance des algorithmes, nous tracerons, en fonction du niveau de bruit,
l’évolution de la moyenne des M spectral angle mapper obtenus pour un même mélange.
5.2.1. Mélange de deux composants
5.2.1.1. Algorithme « ACI 1 »
Pour tous les couples de deux composants purs, nous réalisons 200 séparations de sources.
L’Analyse en Composantes Indépendantes fournit donc 400 estimations. Conformément à ce qui a
été précisé ci-dessus, nous décidons d’associer à chaque estimation le spectre réel pour lequel le
SAM est le plus élevé. Nous pouvons ainsi comptabiliser le nombre de fois qu’un spectre réel a été
estimé. Nous calculons ensuite la moyenne et l’écart-type des SAM sur les 200 simulations.
Composant 1
Mélange Composants 1 - 2 Composants 1 - 3 Composants 1 - 4 Composants 1 - 5 Composants 1 - 6
Nombre d'occurrences 385 196 259 201 200
Moyenne 0,708 0,880 0,708 0,963 0,987
Ecart-type 0,267 0,172 0,270 0,063 0,015
Composant 2
Mélange Composants 2 - 1 Composants 2 - 3 Composants 2 - 4 Composants 2 - 5 Composants 2 - 6
Nombre d'occurrences 1 189 193 199 201
Moyenne / 0,883 0,888 0,982 0,948
Ecart-type / 0,132 0,216 0,025 0,049
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 48
Composant 3
Mélange Composants 3 - 1 Composants 3 - 2 Composants 3 - 4 Composants 3 - 5 Composants 3 - 6
Nombre d'occurrences 208 203 268 270 200
Moyenne 0,863 0,868 0,772 0,728 0,833
Ecart-type 0,115 0,089 0,196 0,170 0,046
Composant 4
Mélange Composants 4 - 1 Composants 4 - 2 Composants 4 - 3 Composants 4 - 5 Composants 4 - 6
Nombre d'occurrences 129 216 107 199 200
Moyenne 0,911 0,720 0,743 0,935 0,978
Ecart-type 0,198 0,167 0,237 0,073 0,003
Composant 5
Mélange Composants 5 - 1 Composants 5 - 2 Composants 5 - 3 Composants 5 - 4 Composants 5 - 6
Nombre d'occurrences 189 200 178 200 236
Moyenne 0,963 0,984 0,914 0,974 0,851
Ecart-type 0,074 0,006 0,150 0,055 0,212
Composant 6
Mélange Composants 6 - 1 Composants 6 - 2 Composants 6 - 3 Composants 6 - 4 Composants 6 - 5
Nombre d'occurrences 200 200 200 200 181
Moyenne 0,908 0,956 0,915 0,941 0,595
Ecart-type 0,021 0,007 0,108 0,018 0,242
Tableau C : Résultats statistiques des spectres estimés
par l’algorithme “ACI 1” pour un mélange de deux composants
Terminologie :
• Nombre d’occurrences : sur les 200 simulations, soit 400 spectres estimés, nombre de
fois, où une source est estimée.
• Moyenne : pour les spectres retrouvés, moyenne des « spectral angle mapper » calculés
à partir du spectre réel ayant servi au mélange.
• Ecart-type : la mesure de l’écart-type des SAM calculés permet d’évaluer leur
dispersion et ainsi de quantifier la qualité de la séparation.
D’ores et déjà, il est possible de faire quelques remarques quant aux résultats récoltés (tab. C).
Tout d’abord, la qualité de l’estimation dépend à la fois de la source à retrouver, et du second
composant pur avec lequel elle est mélangée. Par exemple, lorsqu’il est mélangé avec la brique
rouge (composant 5), l’acier galvanisé (composant 6) est très mal retrouvé (SAM moyen inférieur
à 0,6) alors qu’il l’est beaucoup mieux en présence des autres composants (SAM supérieur à 0,9).
Il faut aussi noter que les deux composants ayant servi à réaliser le mélange ne jouent pas le
même rôle puisque l’un apparaît de manière pure dans l’image et l’autre est toujours mélangé.
Bien sûr, le composant est retrouvé plus souvent et avec une meilleure qualité lorsque il apparaît
pur dans l’image.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 49
Les écarts-type fournissent également des renseignements tout à fait intéressants quant à la
convergence de l’algorithme. Lorsque, pour un mélange donné, l’écart-type des SAM sur les 200
simulations est faible (inférieur à 0,1), nous pouvons affirmer que l’algorithme converge souvent
vers un même spectre, celui-ci pouvant être proche de la source à retrouver (peinture en présence
d’acier) ou non (terre grasse en présence d’herbe verte). Au contraire, lorsque l’écart-type mesuré
est grand, la convergence de l’algorithme est plus aléatoire. Deux types de dispersion sont alors
possibles. Il suffit par exemple de tracer les différentes valeurs des SAM issus de 200 simulations
sur deux mélanges différents pour le remarquer (fig. 20).
Relevé des SAM pour un mélange terre/acier(estimation de la terre)
0,5
0,55
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
0 50 100 150 200 250 300 350 400
Simulations
Spe
ctra
l Ang
le M
appe
r
Relevé des SAM pour un mélange herbe/terre(estimation de l'herbe)
0,5
0,55
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 50 100 150 200 250 300 350 400
Simulations
Spe
ctra
l Ang
le M
appe
r
Figure 20 : Spectral Angle Mapper issus de 200 simulations pour deux mélanges différents
Ainsi, des écarts-type sensiblement identiques peuvent-ils être engendrés par des répartitions des
SAM totalement différentes. Pour le premier mélange acier/terre, nous constatons une dispersion
des SAM autour d’une même valeur moyenne. L’algorithme conduit alors à l’estimation d’un
même spectre avec de légères fluctuations. En ce qui concerne l’estimation du spectre de l’herbe
dans le cas d’un mélange herbe/terre, nous pouvons noter la présence de deux nuages de points
distincts qui correspondent à l’estimation de deux spectres différents.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 50
Nous constatons donc qu’il n’existe pas réellement de règle permettant de prédire ce que sera la
qualité de la séparation. Celle-ci étant très faible dans certaines configuration, nous limiterons
par la suite les simulations à trois mélanges mettant en jeu des composants qui, d’après les
résultats précédents, sont globalement bien estimés : composants 1 et 6 (mélange 1), composants
4 et 6 (mélange 2), composants 5 et 2 (mélange 3).
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1 & 6
Mélange 2 : 4 & 6
Mélange 3 : 5 & 2
Figure 21 : SAM moyens obtenus par l’algorithme “ACI 1” pour 3 mélanges
de 2 composants et différents niveaux de bruits
5.2.1.2. Algorithme « ACI 2 »
Pour les trois mêmes couples de composants utilisés précédemment, nous réalisons une Analyse
en Composantes Indépendantes afin d’estimer les abondances moyennes respectives de chaque
pôle de mélange dans chaque pixel. Nous recherchons ensuite les abondances extrêmes
(minimales et maximales) dans l’image afin de trouver les pixels les plus purs. Il suffit enfin
d’extraire les spectres de ces pixels. A nouveau, nous calculons les SAM entre les spectres réels et
les spectres estimés (fig. 22) et nous en réalisons une moyenne pour chaque mélange.
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1 & 6
Mélange 2 : 4 & 6
Mélange 3 : 5 & 2
Figure 22 : SAM moyens obtenus par l’algorithme “ACI 2” pour 3 mélanges
de 2 composants et différents niveaux de bruits
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 51
L’estimation est donc de très bonne qualité pour un faible niveau de bruit. En revanche, les
résultats sont fortement dégradés dès que ce niveau de bruit augmente. Nous pouvons expliquer
cette très faible résistance au bruit par le fait que les spectres estimés sont directement les
spectres de deux pixels de l’image (choisis comme les plus purs) : aucun prétraitement n’a
débruité ces observations.
5.2.1.3. Algorithme « N-FINDR »
Nous appliquons l’algorithme sur les mêmes mélanges introduits précédemment (fig. 23).
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1 & 6
Mélange 2 : 4 & 6
Mélange 3 : 5 & 2
Figure 23 : SAM moyens obtenus par l’algorithme “N-FINDR” pour 3 mélanges
de 2 composants et différents niveaux de bruits
Cet algorithme fournit des résultats satisfaisants, certes quelque peu altérés lorsque les
observations sont bruitées.
5.2.1.4. Algorithme « MVT »
L’algorithme basé sur la Transformée du Volume Minimal a été implémenté mais semble diverger
bien trop souvent pour pouvoir être comparé aux autres méthodes. L’article le présentant reste
par ailleurs très allusif quant à l’étape d’initialisation des paramètres [3]. Nous noterons
également qu’il est très rarement cité par les auteurs travaillant sur le « spectral unmixing ».
Nous décidons donc de ne pas poursuivre l’étude de cette méthode, ni par des simulations sur des
images synthétiques, ni par des tests sur des images réelles.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 52
5.2.1.5. Algorithme « ICE »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1 & 6
Mélange 2 : 4 & 6
Mélange 3 : 5 & 2
Figure 24 : SAM moyens obtenus par l’algorithme “ICE” pour 3 mélanges
de 2 composants et différents niveaux de bruits
A l’exception d’une estimation de mauvaise qualité pour le mélange 1-6, cet algorithme permet
d’estimer correctement les spectres recherchés (fig. 24).
5.2.2. Mélange de trois composants
Nous testons à présent la performance des algorithmes dans le cas de mélanges de trois
composants. Nous choisissons 5 mélanges différents parmi les 20 mélanges qu’il est possible de
réaliser à partir des six composants disponibles. De même que précédemment, nous recueillons
les trois SAM et en réalisons une moyenne pour chaque mélange. Nous traçons l’évolution de
cette moyenne en fonction du niveau de bruit.
5.2.2.1. Algorithme « ACI 1 »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1, 2 & 3
Mélange 2 : 1, 2 & 5
Mélange 3 : 1, 5 & 6
Mélange 4 : 2, 4 & 6
Mélange 5 : 4, 5 & 6
Figure 25 : SAM moyens obtenus par l’algorithme “ACI 1” pour 5 mélanges
de 3 composants et différents niveaux de bruits
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 53
Les résultats, qui restaient très peu satisfaisants dans le cas de mélange de deux composants,
sont encore moins bons lorsque l’on ajoute un composant au mélange. Il semble clair que cet
algorithme n’est pas assez performant pour extraire les composants purs dans le cas de mélange
faisant intervenir plus de deux constituants. Nous ne le testerons donc pas dans le cas de
mélanges de 4 composants.
5.2.2.2. Algorithme « ACI 2 »
Conformément au principe de cet algorithme détaillé précédemment (paragraphe 3.3.2.), la
méthode proposée ne permet de retrouver que deux composants purs, quel que soit le nombre de
ces composants employés pour réaliser le mélange. Nous traçons donc ici la moyenne des deux
SAM calculés à partir des deux spectres estimés (fig. 26). Nous indiquons également dans le
tableau qui suit les SAM des composants retrouvés (tab. D).
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1, 2 & 3
Mélange 2 : 1, 2 & 5
Mélange 3 : 1, 5 & 6
Mélange 4 : 2, 4 & 6
Mélange 5 : 4, 5 & 6
Figure 26 : SAM moyens obtenus par l’algorithme “ACI 2” pour 5 mélanges
de 3 composants et différents niveaux de bruits
1ère source 0=β 15,0
=β
40,0
=β 2ème source 0=β
15,0
=β
40,0
=β 3ème source 0=β
15,0
=β
40,0
=β
Composant 1 1,000 0,852 0,626 Composant 2 1,000 0,967 0,839 Composant 3 / / /
Composant 1 / 0,831 0,636 Composant 2 1,000 0,971 0,853 Composant 5 1,000 / /
Composant 1 1,000 0,874 / Composant 5 1,000 0,976 0,832 Composant 6 / / 0,585
Composant 2 1,000 0,970 0,840 Composant 4 1,000 0,982 0,891 Composant 6 / / /
Composant 4 / 0,981 0,719 Composant 5 1,000 0,972 0,842 Composant 6 1,000 / /
Tableau D : Relevés des SAM obtenus par l’algorithme “ACI 2” pour 5 mélanges
de 3 composants et différents niveaux de bruits
Nous remarquons une nouvelle fois que les résultats obtenus sont très sensibles au niveau de
bruit. Cette méthode ne sera pas testée sur des mélanges de quatre composants.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 54
5.2.2.3. Algorithme « N-FINDR »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1, 2 & 3
Mélange 2 : 1, 2 & 5
Mélange 3 : 1, 5 & 6
Mélange 4 : 2, 4 & 6
Mélange 5 : 4, 5 & 6
Figure 27 : SAM moyens obtenus par l’algorithme “ACI 2” pour 5 mélanges
de 3 composants et différents niveaux de bruits
Une fois encore, l’algorithme du « N-FINDR » fournit des estimations de très bonne qualité des
trois pôles de mélange, quel que soit le niveau de bruit.
5.2.2.4. Algorithme « ICE »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M
Mélange 1 : 1, 2 & 3
Mélange 2 : 1, 2 & 5
Mélange 3 : 1, 5 & 6
Mélange 4 : 2, 4 & 6
Mélange 5 : 4, 5 & 6
Figure 28 : SAM moyens obtenus par l’algorithme “ICE” pour 5 mélanges
de 3 composants et différents niveaux de bruits
A l’exception du 3ème
mélange, la méthode proposée donne des résultats tout à fait comparables à
ceux obtenus par l’algorithme « N-FINDR », à savoir de très bons résultats pour des observations
bruitées ou non.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 55
5.2.3. Mélange de quatre composants
Nous évaluons à présent sur deux mélanges de quatre composants les deux algorithmes qui ont
fourni les meilleurs résultats sur des mélanges de deux et trois constituants.
5.2.3.1. Algorithme « N-FINDR »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M Mélange 1 : 1, 2, 3 & 5
Mélange 2 : 1, 3, 5 & 6
Figure 29 : SAM moyens obtenus par l’algorithme “N-FINDR” pour 2 mélanges
de 5 composants et différents niveaux de bruits
Les résultats obtenus restent toujours de bonne qualité pour des mélanges de 4 composants purs.
5.2.3.2. Algorithme « ICE »
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
0 0,1 0,2 0,3 0,4 0,5
Bruit (beta)
SA
M Mélange 1 : 1, 2, 3 & 5
Mélange 2 : 1, 3, 5 & 6
Figure 30 : SAM moyens obtenus par l’algorithme “ICE” pour 2 mélanges
de 4 composants et différents niveaux de bruits
Même si les résultats obtenus pour cet algorithme semblent légèrement moins bons que ceux
obtenus pour l’algorithme « N-FINDR », ils restent tout à fait satisfaisants.
CHAPITRE V. EVALUATION DES METHODES SUR DES OBSERVATIONS SIMULEES 56
5.3. Synthèse des résultats
Il apparaît clairement que l’Analyse en Composantes Indépendantes, quelle que soit l’approche
envisagée, ne permet que trop rarement l’estimation correcte des spectres des pôles de mélange.
Lorsque les sources considérées sont les spectres des composants purs (algorithme « ACI 1 »), la
qualité de la séparation dépend beaucoup des pôles ayant servi au mélange. Lorsque les sources
sont les abondances de chaque composant dans l’image (algorithme « ACI 1 »), l’extraction, qui ne
permet en outre que de retrouver deux composants purs parmi les M, est très sensible au bruit :
nous récupérons en effet directement les spectres des pixels, sans aucun débruitage des signaux.
En ce qui concerne les méthodes basées sur la géométrie du problème, les algorithmes du « N-
FINDR » et de l’ « Iterative Constrained Endmembers » permettent de réaliser de très bonnes
estimations des spectres à retrouver.
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 57
VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN
6.1. Spécifications des images utilisées
6.1.1. Caractéristiques techniques
Nous nous proposons de mettre en œuvre les algorithmes les plus performants parmi ceux
exposés précédemment sur des images réelles afin d’extraire les composants purs qui y sont
présents. Pour cela, nous avons à notre disposition deux images hyperspectrales acquises le même
jour par l’instrument HYMAP, la première à Hartheim (Allemagne), la seconde dans les environs
de Colmar. Les principales caractéristiques de ces deux images sont regroupées dans le tableau
ci-dessous (tab. E).
Instrument HYMAP
Domaine spectral 0,4 – 2,48 µm
Résolution spectrale 15 – 20 nm
IFOV(*)
2 mrad
Image Hartheim Colmar
Date 17/7/99 17/7/99
Heure 13h08 12h49
Latitude 47°57’ N 48°05’ N
Longitude 7°37’ E 7°21’ E
Altitude du sol 201 m 192 m
Altitude de vol 2740 m 1530 m
Taille des pixels ~ 5 m ~ 3 m (*) IFOV (Instaneous Field of View) : angle d’ouverture du capteur
Tableau E : Principales caractéristiques techniques des images réelles
Initialement, chacune des deux images a été acquise dans 128 bandes. Nous verrons cependant
que les spectres présentés sont discontinus. Dans certaines bandes d’absorption de la vapeur
d’eau, le rayonnement incident sur le capteur est en effet trop faible pour réaliser une estimation
correcte de la réflectance. Nous appliquons donc sur les images un masque qui permet de ne pas
tenir compte de ces bandes. Nous travaillons alors avec 119 échantillons du domaine spectral.
6.1.2. Description
L’intérêt principal d’utiliser les deux images présentées est que des études antérieures ont fourni
une description relativement précise des zones survolées, avec notamment des mesures de
réflectances acquises sur le terrain. Les estimations obtenues grâce aux algorithmes développés
pourront donc être comparées à ces données.
L’image acquise au dessus de Colmar comporte des terrains agricoles composés de champs de
maïs, de jachères, de sol nu et d’herbe sèche. A priori, le nombre de composants purs est donc égal
à 4.
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 58
Ci-dessous sont représentés spatialement les 2445× pixels de l’image de Colmar à la longueur
d’onde mµλ 00,1= (bande 40) et les spectres des composants purs présents a priori dans la scène
observée (fig. 31). Ces spectres sont des spectres moyennés sur des régions d’intérêt dans
lesquelles sont présents les composants purs.
Figure 31 : L’image de Colmar et spectres des composants purs
En ce qui concerne l’image de Hartheim, y est représentée une forêt de conifères traversée par des
pistes en herbe plus ou moins sèche et où se trouvent également deux points d’eau (zones les plus
foncées sur l’illustration fig. 32). De même, l’on représente spatialement les 6666× pixels de
l’image étudiée, à la longueur d’onde mµλ 701,0= (bande 19) ainsi que les spectres des trois
principaux composants purs (fig. 32).
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 59
Figure 32 : L’image de Hartheim et spectres des composants purs
6.2. Résultats
Nous décidons de tester sur les images introduites précédemment les algorithmes qui ont donné
les résultats les plus probants sur les images synthétiques (« N-FINDR » et « ICE »).
Sur les tracés qui suivent sont superposés le spectre estimé par l’algorithme testé (rouge) et les
spectres minimum et maximum des pixels de la région d’intérêt correspondante. Nous indiquons
alors le SAM calculé entre le spectre estimé et le spectre réel obtenu par moyennage des pixels de
cette même région d'intérêt. Nous représentons enfin, lorsqu’ils sont disponibles, les spectres des
composants mesurés au niveau du sol (bleu pointillé).
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 60
6.2.1. Image de Colmar
6.2.1.1. Algorithme « N-FINDR »
Figure 33 : Composants purs estimés par l’algorithme N-FINDR dans l’image de Colmar
La figure 33 montre les spectres estimés par l’algorithme « N-FINDR » et comparés aux spectres
mesurés par HYMAP dans les régions d’intérêt (noir) et sur le terrain (bleu pointillé).
Remarquons qu’il existe un écart entre les réflectances observées en aéroporté et sur le terrain ;
cet écart peut en partie s’expliquer par les différences des protocoles de mesures. En particulier,
l’échelle des relevés n’est pas la même : pour les mesures terrain, elle est de l’ordre de grandeur
de la rugosité des surfaces (quelques cm² de résolution) tandis qu’elle est plus « macroscopique »
pour l’instrument aéroporté (quelques m²).
Il apparaît que les spectres des pôles de mélange sont correctement estimés (SAM entre le spectre
estimé et le spectre moyen sur la région d’intérêt proches de 1).
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 61
6.2.1.2. Algorithme « ICE »
Figure 34 : Composants purs estimés par l’algorithme ICE dans l’image de Colmar
Les estimations des spectres du maïs, de la jachère, du sol et de l’herbe sèche par l’algorithme
« ICE » sont de bonne qualité.
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 62
6.2.2. Image de Hartheim
6.2.2.1. Algorithme « N-FINDR »
Figure 35 : Composants purs estimés par l’algorithme N-FINDR dans l’image de Hartheim
Les différences observées entre les mesures faites sur le terrain et par l’imageur HYMAP sont
toujours liées aux différences de résolution des instruments ayant servi aux relevés.
Il apparaît de suite que l’extraction du spectre de l’eau liquide est délicate du fait de sa faible
signature spectrale (inférieure à 0,05).
Le spectre du conifère est, quant à lui, correctement estimé.
Les résultats de qualité moyenne obtenus pour le chemin s’explique par la nature même du
constituant : il est en effet très hétérogène puisque formé d’herbe plus ou moins sèche. On observe
par ailleurs une forte dispersion des spectres des pixels de la zone d’intérêt correspondante,
dispersion qui se traduit par des spectres minimum et maximum très différents.
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 63
6.2.2.2. Algorithme « ICE »
Figure 36 : Composants purs estimés par l’algorithme ICE dans l’image de Hartheim
Nous pouvons formuler la même remarque que précédemment concernant l’extraction de l’eau
liquide. Il s’avère difficile d’estimer un signal présentant une amplitude si faible.
Les spectres des conifères et du chemin sont quant à eux très bien retrouvés par l’algorithme.
CHAPITRE VI. VALIDATION SUR DES IMAGES A VERITE TERRAIN 64
6.3. Synthèse des résultats
Le tableau ci-dessous (tab. F) rassemble les valeurs des SAM obtenus pour chacune des deux
images et chacun des deux algorithmes.
Colmar Hartheim
Maïs Jachère Sol nu P. de terre Eau Conifère Chemin
N-FINDR 1,000 0,999 0,985 0,991 0,908 0,998 0,968
ICE 0,999 0,998 0,994 0,935 0,918 0,999 0,999
Tableau F : Spectral Angle Mapper entre les spectres réels et les spectres estimés par les deux algorithmes
Il apparaît clairement que les deux algorithmes testés fournissent des résultats sensiblement
identiques.
Dans l’image de Hartheim, l’estimation de moins bonne qualité du spectre de l’eau par chacun des
deux algorithmes (SAM inférieurs à 92,0 ) peut être expliquée par le fait que le spectre en
réflectance de cet élément a une amplitude très faible (inférieure à 05,0 ) : il s’avère difficile de
retrouver des composants purs dont la signature spectrale est faible en amplitude. Les tracés
relatifs à ce composant (fig. 35 et fig. 36) nous permettent toutefois d’affirmer que ce pôle de
mélange a été retrouvé par les deux algorithmes.
CONCLUSION 65
CONCLUSION
Ce travail était consacré à la résolution du problème de « spectral unmixing » intervenant dans le
cadre de l’imagerie hyperspectrale : quels sont les spectres en réflectance des composants purs
présents dans une image, celle-ci étant acquise dans un grand nombre de bandes spectrales
étroites et contiguës ? Il nous a d’abord fallu définir un modèle de mélange. Celui retenu a été
supposé linéaire car, dans le domaine réflectif, il a fait l’objet du plus grand nombre de recherches
dans la littérature. Nous avons pu ensuite envisager deux approches de résolution différentes.
L’Analyse en Composantes Indépendantes, qui constitue la première approche, et qui a su
résoudre efficacement les problèmes de « mixing/unmixing » intervenant dans d’autres champs
d’application (« effet cocktail » en acoustique par exemple), ne semble pas tout à fait pertinente
dans le cas de notre étude. Aucune des deux démarches adoptées n’a pu aboutir à des résultats
qui laisseraient entrevoir une mise en place d’outils automatiques efficaces. Les méthodes de
décomposition des signaux dans des bases adéquates (par exemple, bases d’ondelettes), méthodes
sur lesquelles les membres de la communauté « ACI » travaillent aujourd’hui, pourraient être
envisagées comme, à terme, un moyen d’augmenter la qualité des estimations.
La deuxième approche, basée sur la géométrie du problème, a permis l’implémentation de deux
algorithmes qui, après une étape de prétraitement classique, conduisent à des résultats
satisfaisants, tant sur des images synthétiques que sur des images avec vérité terrain. Ces
algorithmes restent toutefois très coûteux en temps de calcul dès que le nombre de composants
dans l’image, qui doit rester de taille raisonnable, dépasse 4 éléments.
Par ailleurs, le Modèle de Mélange Linéaire, qui demeure donc correct en première
approximation, mériterait à être dépassé afin de décrire au mieux la réalité des mélanges
observés. Un modèle plus complexe imposerait alors nécessairement la recherche de nouvelles
méthodes de résolution.
REFERENCES BIBLIOGRAPHIQUES 66
RÉFÉRENCES BIBLIOGRAPHIQUES
[1] J. Bayliss, J.A. Gualtieri, R.F. Cromp, « Analyzing Hyperspectral Data with Independent
Component Analysis », Proc. SPIE, vol. 3240, pp. 133-143, 1998.
[2] M. Berman, H. Kiiveri, Ryan Lagerstrom, A. Ernst, R. Dunne, J. Huntington, « ICE : An
Automated Statistical Approach to Identifying End-members in Hyperspectral Images »,
Proc. IEEE Geoscience and Remote Sensing Symposium, IGARSS’03, vol. 1, pp. 279-283,
2003.
[3] M.D. Craig, « Minimum-Volume Transforms for Remotely Sensed Data », IEEE
Transactions on Geoscience and Remote Sensing, vol. 32, n°3, pp. 542-552, 1994.
[4] A. Hyvarinen, J. Karhunen, E. Oja, Independent Component Analysis, Wiley Interscience,
New York, 2001.
[5] N. Keshava, « A Survey of Spectral Unmixing Algorithms », Lincoln Laboratory Journal,
Vol. 14, n°1, Massachusetts Institute of Technology, pp. 55-78, 2003.
[6] N. Keshava, J.F. Mustard, « Spectral Unmixing », IEEE Signal Processing Mag., vol. 19,
pp. 44-57, 2002.
[7] C.Y. Kuan, G. Healey, « Using Source Separation Methods for End-member Selection »,
Proc. SPIE, vol. 4725, pp. 10-17, 2002.
[8] A. Landrevie, Implémentation de Méthodes de Détection de Cibles en Imagerie
Hyperspectrale, Rapport de stage, ONERA, 2003.
[9] T.W. Lee, M. Girolami, T.J. Sejnowski, « Independent Component Analysis Using an
Extended Infomax Algorithm for Mixed Subgaussian and Supergaussian Sources »,
Neural Computation, vol.11, n°2, pp. 417-441, 1999.
[10] M. Lennon, G. Mercier, M.C. Mouchot, L. Hubert-Moy, « Spectral Unmixing of
Hyperspectral Images with the Independent Component Analysis and Wavelet Packets »,
Proc. IEEE Geoscience and Remote Sensing Symposium, IGARSS’01, vol. 6, pp. 2896-
2898, 2001.
[11] B.A. Pearlmutter, L.C. Parra, « Maximum Likelihood Blind Source Separation : A
Context-Sensitive Generalization of ICA », Proc. Neural Information Processing Systems,
NIPS’96, vol. 9, pp. 613-619, 1997.
[12] M.E. Winter, « Fast Autonomous Spectral End-member Determination in Hyperspectral
Data », Proceedings of the 13th International Conference on Applied Geologic Remote
Sensing, Vancouver, vol. 2, pp. 337-344, 1999.