Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Le contexte Optimisation évolutionnaire Résultats En cours
Optimisation évolutionnaire pour la caractérisationde réactions de complexation compétitives
D. Verhaghe1 D. Landy2 D. Robilliard1 V. Marion1
F. Teytaud1 C. Fonlupt1
1Laboratoire d'Informatique Signal et Image de la Côte d'Opale
2Unité de Chimie Environnementale & Interaction sur le Vivant
LISIC - Séminaire du 20 juin 2013
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
La complexation
D. Landy fait partie de l'équipe chimie supramoléculaire de l'UCEIVSes travaux de recherche portent sur l'étude de composés d'inclusion detype hôte/invité
Complexe
Molécule Hôte : Entité moléculaire dont la structure présente descavités capables d'inclure des molécules.
Molécule Incluse ou Invitée : Molécule logée dans les cavités d'uneautre molécule.
Le contexte Optimisation évolutionnaire Résultats En cours
Caractérisation d'un équilibre de complexation
Propriétés
La formation d'un complexe (HnIm) à partir d'une molécule hôte (H) etd'un ligand ou molécule invitée (I ) se note :
nH + mI HnIm
Le complexe est caractérisé par :
sa stoechiométrie n : m, le rapport nm
sa constante de formation K =[Hn Im ]equ
[H]nequ ·[I ]mequ
son enthalpie d'interaction Q = ∆H ×HnIm
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Protocole expérimental
Analyse du complexe par le soft propriétaire livré avec le calorimètre
Le contexte Optimisation évolutionnaire Résultats En cours
Conditions d'utilisation
Conditions expérimentales requises
en début de titrage excès de récepteur ⇒ tout le ligand injecté estcomplexé
en n de titrage : récepteur saturé par le ligand
quantité de complexe formé susante pour que le signal soitdétectable
nombre d'injections susant pour permettre l'ajustement du modèleaux données
10 < C < 1000 (C = K × [H])
Complexe silencieux
Molécule Hôte peu soluble
Anité faible entre l'Hôte et l'Invité
Le contexte Optimisation évolutionnaire Résultats En cours
Conditions d'utilisation
Conditions expérimentales requises
en début de titrage excès de récepteur ⇒ tout le ligand injecté estcomplexé
en n de titrage : récepteur saturé par le ligand
quantité de complexe formé susante pour que le signal soitdétectable
nombre d'injections susant pour permettre l'ajustement du modèleaux données
10 < C < 1000 (C = K × [H])
Complexe silencieux
Molécule Hôte peu soluble
Anité faible entre l'Hôte et l'Invité
Le contexte Optimisation évolutionnaire Résultats En cours
Equilibres compétitifs
Pour déterminer les caractérisitiques du complexe dit silencieux on vaprocéder à 2 complexations simultanées qui vont entrer en compétition.HI1 est le complexe inconnu et HI2 est celui déjà caractérisé
Equilibres
Chaque équilibre de complexation doit être respecté :K1 K2
H + I1 HI1 H + I2 HI2
Le contexte Optimisation évolutionnaire Résultats En cours
Complexation compétitive 1 Hôte et 2 Invités
Analyse impossible avec le soft du microcalorimètre mais pics exploitables
Le contexte Optimisation évolutionnaire Résultats En cours
Problème Inverse
Voici une série de valeurs simulées (expérimentales sans erreur)Les valeurs à retrouver sont en grises
K2 = 1000 et ∆H2 = −4000 K1 = 1000 et ∆H1 = −2000Injection [H]T [I1]T [I2]T [HI1] [HI2] [Q]
0 0,0010 0,0010 0,0000 2,679E-04 0,000E+00 0,000E+001 0,0010 0,0010 0,0002 2,303E-04 1,714E-04 -1,248E-042 0,0010 0,0010 0,0004 1,925E-04 3,307E-04 -1,149E-043 0,0010 0,0010 0,0006 1,565E-04 4,726E-04 -1,014E-044 0,0010 0,0010 0,0008 1,243E-04 5,917E-04 -8,426E-055 0,0010 0,0010 0,0010 9,798E-05 6,848E-04 -6,539E-056 0,0010 0,0010 0,0012 7,780E-05 7,535E-04 -4,793E-057 0,0010 0,0010 0,0014 6,296E-05 8,027E-04 -3,418E-058 0,0010 0,0010 0,0016 5,211E-05 8,379E-04 -2,441E-059 0,0010 0,0010 0,0018 4,409E-05 8,637E-04 -1,777E-05
10 0,0010 0,0010 0,0020 3,802E-05 8,829E-04 -1,328E-05
⇒ Résolution d'un problème inverse ⇒ Optimisation évolutionnaire
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Contexte
Problème inverse ∼ Problème d'optimisation
F :
Ω→ R
x∗ ∈ Ω/x∗ = argmin(F)
F est la fonction objectif ou fonction coût
Ω représente l'espace de recherche
Ω ⊂ Rn ⇒ optimisation paramétriquecontinue
La métaphore darwinienne
Les espèces évoluent en étant soumises à 2 mécanismes :
Les variations aveugles du patrimoine génétique lors de la reproduction
La sélection naturelle qui favorise l'émergence d'espèces adaptées à leur environnement
Individus ∼ points de ΩAdaptation à l'environnement ∼ valeur de F
Evolution ⇔ Résolution du problème d'optimisation
Le contexte Optimisation évolutionnaire Résultats En cours
Squelette d'un algorithme évolutionnaire
x Les individus (points de l'espace de recherche)
i Initialisation de la population P0 (x n-uplet)
f(x) Evaluations des individus
La génération n construit Pn à partir de Pn−1
Se Sélection d'individus performants (suivant f)
Cr Croisement (stochastique)
Mu Mutation (stochastique)
Re Remplacement des parents (performance)
? critère d'arrêt (perf atteinte ou stagnation)
La sélection et le remplacement sont des tiragesparmi les individus biaisés par la fonctionperformance (sélection naturelle)
Les individus sont soumis aux variationsaveugles croisement et mutation, ce qui assurerespectivement l'héritage des caractéristiques etla diversité.
Algorithme évolutionnaire
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Stratégie d'évolution
Nous nous situons dans un problème d'optimisation paramétrique continue⇒ domaine des algorithmes à stratégie d'évolution (Rechenberg etSchwefel 1965 : optimisation de tuyères avec évaluation en souerie).
notation (µ/ρ, λ)ES ou (µ/ρ+ λ)ES
µ : nombre de parentsρ : nombre de mixage (nombre de parents impliqués dans la créationd'un nouvel individu)λ : nombre d'individus générés (enfants), ou + : schéma de sélection utilisé
l'étape de remplacement est déterministe.
l'opérateur principal des ES est la mutation gaussienne, qui ajoute àl'individu un bruit normal centré.⇒ En dimension n on parle de distribution multivariée N (m,C),de moyenne m et de matrice de covariance C .
Le contexte Optimisation évolutionnaire Résultats En cours
Stratégie d'évolution (suite)
On note alors x → x + σN (0,C) la mutation gaussienne d'un vecteur dex ∈ Rn
σ est un facteur d'échelle appelé pas de la mutation.C fournit les directions principales de la mutation.
Interprétation géométrique : les iso-contours de la loi normale multivariéesont des hyper-ellipsoïdes
centrées en m
les directions des axes principaux sont les vecteurs propres de Cles longueurs de ses axes sont proportionnelles aux valeurs propresassociées à ces vecteurs propres
CMA-ES (Hansen & Ostermeier 2001) stratégie d'évolution par adaptation de lamatrice de covariance est aujourd'hui la meilleure méthode pour l'optimisationparamétrique continue. elle règle de façon adaptative les diérents paramètresde la mutation gaussienne.
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
λ est la taille de la populationm ∈ RN représente le point de recherche courantC ∈ RN×N la matrice de covariance de la distributionσ ∈ R+ représente la longueur du pas
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
m(g+1) ←
µ∑i←1
w(i)x(g+1)(i)
C (g+1) et σ(g+1) sont mis à jour par accumulation en fonctionde la trajectoire de l'évolution
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (µ/µ, λ)-ES
Initialize populationInitialize distribution parameters θ(m,σ,C)while Halting criterion not fullled do
for i ← 1 . . . λ do
x(g+1)i ← m
(g) + σ(g)Ni (0,C(g))
compute F(xi )select µ best (according to F)
end for
update θ(m,σ,C)end while
Return m
m(g+1) ←
µ∑i←1
w(i)x(g+1)(i)
C (g+1) et σ(g+1) sont mis à jour par accumulation en fonctionde la trajectoire de l'évolution
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (résumé des équations)
Initialisation
m ∈ RN , σ ∈ R+, C = I , pc = 0, pσ = 0, λ = 4 + [3 + ln(n)], µ = λ/2
cc = cσ = 4/n, c1 = 2/n2, µw = 0.3σ, cµ = µ/n2, dσ = 1 +√µwn
A chaque génération
xi = m + σyi , yi ∼ Ni (0,C) échantillonagem ← m + σyw , yw =
∑µi=1 wi yi mise à jour de m
pc ← (1−cc)pc +√
1− (1− cc )2√µwyw cumul pour C
pσ ← (1−cσ)pσ +√
1− (1− cσ)2√µwC
− 12 yw cumul pour σ
C ← (1− c1 − cµ)C + c1pcpcT + cµ
∑µi=0 wi yi y
Ti mise à jour de C
σ ← σ exp( cσdσ
( ‖pσ‖E‖N (0,I )‖ − 1)) mise à jour de σ
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (résumé des équations)
Initialisation
m ∈ RN , σ ∈ R+, C = I , pc = 0, pσ = 0, λ = 4 + [3 + ln(n)], µ = λ/2
cc = cσ = 4/n, c1 = 2/n2, µw = 0.3σ, cµ = µ/n2, dσ = 1 +√µwn
A chaque génération
xi = m + σyi , yi ∼ Ni (0,C) échantillonagem ← m + σyw , yw =
∑µi=1 wi yi mise à jour de m
pc ← (1−cc)pc +√
1− (1− cc )2√µwyw cumul pour C
pσ ← (1−cσ)pσ +√
1− (1− cσ)2√µwC
− 12 yw cumul pour σ
C ← (1− c1 − cµ)C + c1pcpcT + cµ
∑µi=0 wi yi y
Ti mise à jour de C
σ ← σ exp( cσdσ
( ‖pσ‖E‖N (0,I )‖ − 1)) mise à jour de σ
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (résumé des équations)
Initialisation
m ∈ RN , σ ∈ R+, C = I , pc = 0, pσ = 0, λ = 4 + [3 + ln(n)], µ = λ/2
cc = cσ = 4/n, c1 = 2/n2, µw = 0.3σ, cµ = µ/n2, dσ = 1 +√µwn
A chaque génération
xi = m + σyi , yi ∼ Ni (0,C) échantillonagem ← m + σyw , yw =
∑µi=1 wi yi mise à jour de m
pc ← (1−cc)pc +√
1− (1− cc )2√µwyw cumul pour C
pσ ← (1−cσ)pσ +√
1− (1− cσ)2√µwC
− 12 yw cumul pour σ
C ← (1− c1 − cµ)C + c1pcpcT + cµ
∑µi=0 wi yi y
Ti mise à jour de C
σ ← σ exp( cσdσ
( ‖pσ‖E‖N (0,I )‖ − 1)) mise à jour de σ
Le contexte Optimisation évolutionnaire Résultats En cours
CMA-ES (dynamique)
CMA-ES en action sur la fonction Rastrigin Start movie
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Système à résoudre
K1 K2
H + I1 HI1 H + I2 HI2
Equilibres
[HI1] = K1[H][I1]
[HI2] = K2[H][I2]
Bilan de la matière
[H]T = [H] + [HI1] + [HI2]
[I1]T = [I1] + [HI1]
[I2]T = [I2] + [HI2]
Bilan calorimétrique à chaque équilibre (10 injections)
Qi = (∆H1× ([HI1]i − [HI1]i−1) + ∆H2× ([HI2]i − [HI2]i−1))×Vcell
Le contexte Optimisation évolutionnaire Résultats En cours
Modèles
CMA-ES modèle 1
F :
x
∆H1
[HI1]0...[HI1]10
∈ Rx [0, [HI1]T ]11 → R+
F(x) = max(
√∑10i=1
(K2cali−K2)2
10
K2 ,
√∑10i=1
(Qcali−Qexpi )2
10
MoyQ)
Système non linéaire[HI2]0 = 0K1([HI1]T − [HI1]0)([I1]T − [HI1]0)− [HI1]0 = 0K1([HI1]T − [HI1]i − [HI2]i )([I1]T − [HI1]i )− [HI1]i = 0K2i ([HI1]T − [HI1]i − [HI2]i )([I2]T − [HI2]i )− [HI2]i = 0Qi − (∆H1([HI1]i − [HI1]i−1)−∆H2([HI2]i − [HI2]i−1))Vcell = 0
Le contexte Optimisation évolutionnaire Résultats En cours
Modèles
CMA-ES modèle 2 (simplié)
F :
x
(∆H1
[HI1]0
)∈ Rx [0, [HI1]T ]→ R+
F(x) =
√∑10i=1
(K2cali−K2)2
10
K2
Système non linéaire[HI2]0 = 0K1([HI1]T − [HI1]0)([I1]T − [HI1]0)− [HI1]0 = 0K1([HI1]T − [HI1]i − [HI2]i )([I1]T − [HI1]i )− [HI1]i = 0K2i ([HI1]T − [HI1]i − [HI2]i )([I2]T − [HI2]i )− [HI2]i = 0Qi − (∆H1([HI1]i − [HI1]i−1)−∆H2([HI2]i − [HI2]i−1))Vcell = 0
Le contexte Optimisation évolutionnaire Résultats En cours
RésultatsOn dispose de 4 expériences pour valider la méthode
K2 = 10000 ∆H2 = −4000 K1 = 500 ∆H1 = −2000I. [H]T [I2]T [HI1] [HI2] [Q]
[I1]T0 1E-3 0,0 2,679E-4 0,0 0,01 1E-3 2E-4 2,303E-4 1,714E-4 -1,248E-42 1E-3 4E-4 1,925E-4 3,307E-4 -1,149E-43 1E-3 6E-4 1,565E-4 4,726E-4 -1,014E-44 1E-3 8E-4 1,243E-4 5,917E-4 -8,426E-55 1E-3 10E-4 9,798E-5 6,848E-4 -6,539E-56 1E-3 12E-4 7,780E-5 7,535E-4 -4,793E-57 1E-3 14E-4 6,296E-5 8,027E-4 -3,418E-58 1E-3 16E-4 5,211E-5 8,379E-4 -2,441E-59 1E-3 18E-4 4,409E-5 8,637E-4 -1,777E-5
10 1E-3 20E-4 3,802E-5 8,829E-4 -1,328E-5
K2 = 500 ∆H2 = −4000 K1 = 10000 ∆H1 = −2000I. [H]T [I2]T [HI1] [HI2] [Q]
[I1]T0 1E-3 0,0 7,298E-4 0,0 0,01 1E-3 2E-4 7,200E-4 2,279E-5 -1,463E-52 1E-3 2E-4 7,106E-4 4,375E-5 -1,331E-53 1E-3 4E-4 7,017E-4 6,313E-5 -1,218E-54 1E-3 6E-4 6,931E-4 8,115E-5 -1,122E-55 1E-3 8E-4 6,848E-4 9,798E-5 -1,038E-56 1E-3 10E-4 6,768E-4 1,137E-4 -9,644E-67 1E-3 12E-4 6,692E-4 1,286E-4 -8,998E-68 1E-3 14E-4 6,618E-4 1,426E-4 -8,426E-69 1E-3 16E-4 6,546E-4 1,558E-4 -7,917E-6
10 1E-3 18E-4 6,477E-4 1,684E-4 -7,460E-6
K2 = 25000 ∆H2 = −4000 K1 = 80000 ∆H1 = −2000I. [H]T [I2]T [HI1] [HI2] [Q]
[I1]T0 1E-3 0,0 8,943E-4 0,0 0,01 1E-3 2E-4 8,232E-04 1,185E-04 -6,792E-052 1E-3 4E-4 7,608E-04 1,994E-04 -4,062E-053 1E-3 6E-4 7,096E-04 2,598E-04 -2,847E-054 1E-3 8E-4 6,670E-04 3,080E-04 -2,195E-055 1E-3 10E-4 6,307E-04 3,480E-04 -1,787E-056 1E-3 12E-4 5,992E-04 3,821E-04 -1,505E-057 1E-3 14E-4 5,715E-04 4,118E-04 -1,298E-058 1E-3 16E-4 5,468E-04 4,381E-04 -1,139E-059 1E-3 18E-4 5,246E-04 4,616E-04 -1,013E-05
10 1E-3 20E-4 5,045E-04 4,828E-04 -9,100E-06
K2 = 300 ∆H2 = −3000 K1 = 200 ∆H1 = −2500I. [H]T [I2]T [HI1] [HI2] [Q]
[I1]T0 1E-3 0,0 1,459E-4 0,0 0,01 1E-3 2E-4 1,408E-04 3,947E-05 -2,163E-052 1E-3 4E-4 1,361E-04 7,644E-05 -2,024E-053 1E-3 6E-4 1,315E-04 1,111E-04 -1,894E-054 1E-3 8E-4 1,273E-04 1,436E-04 -1,775E-055 1E-3 10E-4 1,232E-04 1,741E-04 -1,665E-056 1E-3 12E-4 1,194E-04 2,028E-04 -1,563E-057 1E-3 14E-4 1,157E-04 2,298E-04 -1,470E-058 1E-3 16E-4 1,123E-04 2,552E-04 -1,383E-059 1E-3 18E-4 1,090E-04 2,791E-04 -1,303E-05
10 1E-3 20E-4 1,059E-04 3,018E-04 -1,229E-05
Calcul sur 1000 runs avec déformation du vecteur Quantité de chaleur dans une fenêtre
correspondant à la précision du calorimètre (±3.45E−7KJmol−1).
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 1)
K2 = 10000 ∆H2 = −2000 K1 = 500 ∆H1 = −2000
Modèle 2 (dim 2) Modèle 1 (dim 12)
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 2)
K2 = 500 ∆H2 = −4000 K1 = 10000 ∆H1 = −2000
Modèle 2 (dim 2) Modèle 1 (dim 12)
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 3)
K2 = 25000 ∆H2 = −4000 K1 = 80000 ∆H1 = −2000
Modèle 2 (dim 2) Modèle 1 (dim 12)
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 4)
K2 = 300 ∆H2 = −3000 K1 = 200 ∆H1 = −2500
Modèle 2 (dim 2) Modèle 1 (dim 12)
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Modèle : Représentation alternative
CMA-ES modèle 3 avec Newton-Raphson
F :
x
(∆H1
K1
)∈ R+xR→ R+
F(x) =
√∑10i=1
(Qcali−Qexpi )2
10
MoyQ
Système non linéaire
[H]T − [H]i + [HI1]i + [HI2]i = 0[I1]T − [HI1]i + [I1]i = 0[I2]T − [HI2]i + [I2]i = 0K1[H]i [I1]i − [HI1]i = 0K2[H]i [I2]i − [HI2]i = 0Qi − (∆H1([HI1]i − [HI1]i−1)−∆H2([HI2]i − [HI2]i−1))Vcell = 0
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 1)
K2 = 10000 ∆H2 = −2000 K1 = 500 ∆H1 = −2000
Modèle 1 (dim 12) Modèle 3 (dim 2) + NR
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 2)
K2 = 500 ∆H2 = −4000 K1 = 10000 ∆H1 = −2000
Modèle 1 (dim 12) Modèle 3 (dim 2) + NR
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 3)
K2 = 25000 ∆H2 = −4000 K1 = 80000 ∆H1 = −2000
Modèle 1 (dim 12) Modèle 3 (dim 2) + NR
Le contexte Optimisation évolutionnaire Résultats En cours
Résultats (expérience 4)
K2 = 300 ∆H2 = −3000 K1 = 200 ∆H1 = −2500
Modèle 1 (dim 12) Modèle 3 (dim 2) + NR
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Système 2-1-5
Système 2 Hôtes, 1 Invité, 5 Complexes
Ka1 Kb1
Ha + I HaI Hb + I HbI
Ka2 Kb2
Ha + HaI Ha2I Hb + HbI Hb2I
Kab
HaI + Hb HaHbI
Existe t'il un équilibre possible avec la création du 5ème complexe ?
Le contexte Optimisation évolutionnaire Résultats En cours
Système 2-1-5
Système 2 Hôtes, 1 Invité, 5 Complexes
Ka1 Kb1
Ha + I HaI Hb + I HbI
Ka2 Kb2
Ha + HaI Ha2I Hb + HbI Hb2I
Kab
HaI + Hb HaHbI
Existe t'il un équilibre possible avec la création du 5ème complexe ?
Le contexte Optimisation évolutionnaire Résultats En cours
Nouveau protocole
Titration Relargage
Retrouver KHAI , ∆HHAI , KHA2I et ∆HHA2I
Le contexte Optimisation évolutionnaire Résultats En cours
Nouveau protocole (2)
Titration Relargage
Retrouver KHBI , ∆HHBI , KHB2I et ∆HHB2I
Le contexte Optimisation évolutionnaire Résultats En cours
Nouveau protocole (3)
Relargages compétitifs
Retrouver KHAHBI et ∆HHAHBI
Le contexte Optimisation évolutionnaire Résultats En cours
Plan
1 Le contexteEquilibres de complexationProtocoles expérimentaux
2 Optimisation évolutionnaireProblème d'optimisationOptimisation paramétrique continue (CMA-ES)
3 RésultatsPremières représentationsUtilisation de Newton-Raphson
4 En coursSystème 2-1-5Perspectives/Conclusions
Le contexte Optimisation évolutionnaire Résultats En cours
Perspectives/Conclusion
La première partie a été validée par D. Landy
Un papier a été soumis avec les premiers résultats à la conférenceAE'13
En cours : couplage des expériences pour déterminer lescaractéristiques des complexes. On utilisera CMA-ES avecNewton-Raphson
Un second papier sera soumis lorsque nous aurons des résultatsconcrets avec le système à 5 complexes
Pb : le calorimètre est en panne ...
Papier pluridisciplinaire ?