42
Journées Incertitudes et Simulation 2007 CEA DIF 3 et 4 octobre 2007 Construction de modèles de code numérique par méthodes à noyaux Emmanuel Vazquez SUPELEC Gif-sur-Yvette

CEA DIF 3 et 4 octobre 2007

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: CEA DIF 3 et 4 octobre 2007

Journées Incertitudes et Simulation 2007

CEA DIF

3 et 4 octobre 2007

Construction de modèles de code numérique par

méthodes à noyaux

Emmanuel Vazquez

SUPELEC

Gif-sur-Yvette

Page 2: CEA DIF 3 et 4 octobre 2007

Contexte et objectifs

p(X)

X

Système

paramètres deconceptionnominaux

dispersions

perturbationsinconnues

sorties

bruit de mesure

prestations

commandes

Modèles de systèmes sous forme de programmes informatiquescomplexes et coûteux en ressources (modèles physiques couplés,éléments finis. . . )

2/42

Page 3: CEA DIF 3 et 4 octobre 2007

Exemple : simulation d’un conduit d’admission d’un moteur à explosion

(Thèse CIFRE RENAULT-SUPELEC de Julien Villemonteix)

conduit d’admission

• Forme du conduit paramétrée (5 à 20 facteurs)

• Importance de la forme du conduit :

– impact sur la performance moteur (débit d’air)

– impact sur les émissions polluantes (turbulences)

• 1 simulation = 5 à 24 heures de calcul

3/42

Page 4: CEA DIF 3 et 4 octobre 2007

• Objectifs

– X ⊆ Rd : domaine des facteurs (entrées) du système

– f : X → R : fonction de performance (une fonction des sorties)

– Problème inverse : recherche des facteurs qui réalisent une valeur

donnée de la sortie : x∗ t.q. f(x∗) = u0

– Optimisation des paramètres de conception : maximiser des

performances, minimiser des violations de cahier des charges. . .

x∗ = arg maxx∈X

f(x)

– Estimation de probabilité de défaillance, c-à-d

Pu = P{f(X) > u}

avec X ∈ X de loi µ : facteurs aléatoires

4/42

Page 5: CEA DIF 3 et 4 octobre 2007

Utilisation de modèles (ou méta-modèles)

• Construction d’une approximation fn (peu coûteuse) de f à partir

d’évaluations

fobs1 = f(x1), . . . , fobs

n = f(xn)

• Remplacer f par fn pour optimiser, estimer la probabilité de

défaillance, etc.

• Si f suffisamment régulière, convergence (attendue) rapide de fn

vers f , et par suite, des estimateurs

5/42

Page 6: CEA DIF 3 et 4 octobre 2007

Comment construire fn ?

➟ Méthodes paramétriques ou non-paramétriques

➟ Deux points de vue équivalents :

❏ Régression à noyau reproduisant• 1960 : splines, (Schoenberg 1964, Duchon 1976–1979)

• 1980 : RBF, (Micchelli 1986, Powel 1987)

• 1995 : SVM, (Vapnik 1995)

• 1997 : SVR, (Smola 1997)

• 1999 : SVR semi-paramétrique (Smola 1999)

❏ prédiction linéaire – Krigeage• 1950 : prédiction pour la recherche minière (Krige 1951)

• 1960 : krigeage, géostatistique (Matheron 1963) – École des Mines

• 1970 : krigeage intrinsèque (Matheron 1971)

• 1997 : prédiction par « processus gaussiens », (Williams 1997,

Neal 1997)

6/42

Page 7: CEA DIF 3 et 4 octobre 2007

Éléments sur la régression à noyau et le

krigeage

7/42

Page 8: CEA DIF 3 et 4 octobre 2007

Régression à noyau

• Espace de fonctions hilbertien à noyau reproduisant (RKHS)

– Soit k : X × X → R une fonction symétrique définie positive (s.d.p.).

– Considérons

F̃ = vectn

f =n

X

i=1

λik(xi, .)o

.

– Munissons F̃ du produit scalaire défini par

(k(x, ·), k(y, ·)F = k(x, y) ,

– alors le complété F de F̃ est un RKHS, puisque ∀f ∈ F

(f, k(x, ·))F = f(x).

8/42

Page 9: CEA DIF 3 et 4 octobre 2007

• Régression régularisée dans un RKHS (deux versions)

– approximation

minimiser ‖fn‖2F

︸ ︷︷ ︸

régularité

+ Cn∑

i=1

l(fn(xi) − fobsi )

︸ ︷︷ ︸

adéquation aux données

(Tikhonov et Arsenin 1977)

– interpolation

minimiser ‖fn‖2F , fn ∈ F

sous contraintes fn(xi) = fobsi , ∀i = 1, . . . , n .

• En principe, dans le cadre de l’approximation de codes numériques,

on préférera une interpolation pour construire fn (bruit

d’observation négligeable)

9/42

Page 10: CEA DIF 3 et 4 octobre 2007

• Théorème du représentant (Kimeldorf, Wahba 1970)

Dans un RKHS F , le programme

minimiser ‖fn‖2F , fn ∈ F

sous contraintes fn(xi) = fobsi , ∀i = 1, . . . , n

admet une solution unique qui s’écrit

fn(x) =n∑

i=1

aik(x, xi)

où an = [a1, . . . , an]T est solution de

Knan = fobsn

avec Kn matrice n × n d’éléments k(xi, xj) et fobsn vecteur des

évaluations fobs1 , . . . , fobs

n .

10/42

Page 11: CEA DIF 3 et 4 octobre 2007

Prédiction linéaire – krigeage

• f(x) modélisé par un processus aléatoire ξ(x)

– de moyenne nulle et de covariance k(x, y) (s.d.p)

– les f(xi) sont des réalisations des variables aléatoires ξ(xi)

– ξn = (ξ(x1), . . . , ξ(xn))T

• on cherche le BLP : prédicteur linéaire de ξ(x)

ξn(x) = λn(x)Tξn

minimisant

Var[ξ(x) − ξn(x)] = E[(ξ(x) − ξn(x))2

]

11/42

Page 12: CEA DIF 3 et 4 octobre 2007

• λn(x) solution de

Knλn(x) = kn(x)

avec Kn matrice de covariance du vecteur aléatoire ξn et kn(x)

vecteur de covariances entre ξn et ξ(x)

• Variance d’erreur de prédiction :

σ2n(x) = Var[ξ(x) − ξn(x)] = Var[ξ(x)] − λn(x)Tkn(x)

→ construction d’intervalles de confiance

• On utilise ensuite le prédicteur pour construire l’approximation

fn(x) = λn(x)Tfobsn

→ moyenne a posteriori de ξ(x)

12/42

Page 13: CEA DIF 3 et 4 octobre 2007

• Équivalence interpolation à noyau – krigeage : il suffit de

remarquer que

fn(x) = λn(x)Tfobsn

= (K−1n kn(x))T f

obsn = (K−1

n fobsn )Tkn(x)

= aT

n kn(x)

• en pratique, les noyaux choisis sont des fonctions s.d.p.

paramétrées et invariantes par translation, c-à-d

k(x, y) = kparam(x − y)

avec, par exemple,

kparam(h) = exp

(

−( d∑

i=1

(hi/ρi)2)α

)

, h = (h1, . . . , hd)T

• les paramètres des noyaux peuvent être estimés par maximum de

vraisemblance, par MAP, par validation croisée. . .

13/42

Page 14: CEA DIF 3 et 4 octobre 2007

-2.5

-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

0 0.2 0.4 0.6 0.8 1

f(x

)

x

14/42

Page 15: CEA DIF 3 et 4 octobre 2007

Convergence du BLP

• L’estimateur est consistant pour (presque) tous les noyaux que l’on

considère habituellement

• Q : vitesse de décroissance de σ2n(x) lorsque la densité des

observations au voisinage de x augmente ?

Wu et Schaback 93 (et d’autres) :

– si ξ stationnaire, de covariance k(h) ∈ L2(Rd), X domaine borné

de Rd, et si la transformée de Fourier de k(h) satisfait

c1(1 + ‖ω‖22)

−ν ≤ k̃(ω) ≤ c2(1 + ‖ω‖22)

−ν .

avec ν > d/2, alors

supX

σn(x) ≤ Chnν−d/2

où hn = supy∈Xmini‖y − xi‖2 mesure la densité de (x1, . . . , xn)

dans X.

15/42

Page 16: CEA DIF 3 et 4 octobre 2007

Autrement dit,

• fn est une interpolation de f

• l’erreur d’approximation en dehors des points d’évaluation de la

fonction décroît polynomialement avec le nombre de points

• plus la fonction à approximer est régulière, plus la vitesse de

convergence augmente

• problème de la dimension de l’espace des facteurs : « la régularité

de la fonction à approximer compense la dimension de l’espace des

facteurs »

16/42

Page 17: CEA DIF 3 et 4 octobre 2007

Éléments de krigeage intrinsèque (RBF – splines)

• Origine : Matheron 1973, The intrinsic random functions, and

their applications

Krigeage intrinsèque ↔ BLUP d’un processus aléatoire de

moyenne inconnue dans un espace de fonctions

P = {bTp(x), b ∈ Rq}

avec p(x) : X → Rq tel P stable par translations (typiquement

espace de polynômes).

• IRF : processus aléatoires indexés par des mesures à support fini

orthogonales à P

➟ classes d’équivalence de processus à moyenne dans P.

17/42

Page 18: CEA DIF 3 et 4 octobre 2007

• ∀x, BLUP ξn(x) de ξ(x) = projection linéaire de ξ(x) sur

vect{ξ(x1), . . . , ξ(xn)} orthogonalement à P

vect{ξ(xi), i ≤ n}

P

ξ(x)

ξn(x)

O

• Linéarité =⇒ ξn(x) = λn(x)ξn

18/42

Page 19: CEA DIF 3 et 4 octobre 2007

• λn(x) solution de0

@

Kn PT

P 0

1

A

0

@

λn(x)

αn(x)

1

A =

0

@

kn(x)

p(x)

1

A

– Kn matrice de covariance de ξn

– P = (p(x1), . . . , p(xn)) matrice q × n

– αn(x) vecteur de coefficients de Lagrange

– kn(x) covariance de ξ(x) et ξn

• variance de prédiction :

σn(x)2 = Var[ξ(x) − ξn(x)] = k(x, x) − λn(x)Tkn(x) − p(x)Tαn(x)

• remarques

(i) E[ξ(x) − ξn(x)] inconnu (→ 0 asymptotiquement)

(ii) Il n’est pas nécessaire d’estimer la moyenne de ξ pour calculer ξn

(iii) Possibilité d’utiliser des covariances généralisées (fonctions

conditionnellement positives), p.ex. k(x, y) = (−1)l+1‖x − y‖2l+1

(type de splines plaque mince)

19/42

Page 20: CEA DIF 3 et 4 octobre 2007

• Utilisation du krigeage intrinsèque pour la prise en compte de

connaissances a priori

• Exemple : estimation d’un profil de vitesse dans une conduite d’eau

à partir de mesures ponctuelles de la vitesse du fluide

20/42

Page 21: CEA DIF 3 et 4 octobre 2007

Simulation d’un certain nombre de profils, dans différentes

configurations

−1

0

1

−1

0

11.5

2

2.5

3

(A) (B)

(C) (D)

−1

0

1

−1

0

12

2.5

3

−1

0

1

−1

0

10

0.5

1

1.5

−1

0

1

−1

0

10.5

1

1.5

21/42

Page 22: CEA DIF 3 et 4 octobre 2007

Mesures ponctuelles de la vitesse sur une section de conduite

−1 −0.5 0 0.5 1−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

22/42

Page 23: CEA DIF 3 et 4 octobre 2007

L’interpolation directe des mesures n’est pas suffisante

−1−0.5

00.5

1

−1−0.5

00.5

10

0.5

1

1.5

2

2.5

−1−0.5

00.5

1

−1−0.5

00.5

10

0.5

1

1.5

2

2.5

profil simulé profil interpolé

23/42

Page 24: CEA DIF 3 et 4 octobre 2007

Prise en compte d’a priori :

• Ajouter de nouveaux facteurs x+ correspondant à de l’information

a priori.

• Par exemple, à toute coordonnée spatiale x ∈ R2, associer un

scalaire x+ donnant une vitesse du fluide au premier ordre en x

• On choisit une moyenne (inconnue) du processus sous la forme

m(x, x+) = E[ξ(x, x+)] = b0 + b1x+

24/42

Page 25: CEA DIF 3 et 4 octobre 2007

−1 −0.5 0 0.5 1−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

+ −1

−0.5

0

0.5

1

−1

−0.5

0

0.5

11.2

1.4

1.6

1.8

2

2.2

2.4

2.6

→ −1

−0.5

0

0.5

1

−1−0.8−0.6−0.4−0.200.20.40.60.81

0.6

0.7

0.8

0.9

1

1.1

observations a priori estimation

f(xi) x+ fn(x, x+)

25/42

Page 26: CEA DIF 3 et 4 octobre 2007

Utilisation des approximations

26/42

Page 27: CEA DIF 3 et 4 octobre 2007

Modélisation boîte noire

• Construction d’un modèle peu coûteux d’un code numérique

• Application extrêmement classique pour les problèmes inverses

• Exemple en CND

lh

0 0.2 0.4 0.6 0.8 1 1.2 1.40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

– défaut x ∈ R2

– réponse du capteur y ∈ Rd, d > 100

– données simulées (xi, yi)i=1,...,n

27/42

Page 28: CEA DIF 3 et 4 octobre 2007

• Objectif : étant donné y, estimer x

• Deux solutions

1. construire le modèle direct y = fn(x) puis résoudre le problème

x∗ t.q. fn(x∗) = y

2. construire le modèle inverse x = f−n (y) et obtenir directement

une estimation de x

• Problème de planification d’expériences pour construire le modèle

(direct ou inverse)

• Limites : problème de la dimension de y, sensibilité des solutions

• À explorer : modélisation multi-niveau

→ utilisation conjointe d’une simulation coûteuse et précise avec

une simulation approximative peu coûteuse

28/42

Page 29: CEA DIF 3 et 4 octobre 2007

Application à l’optimisation

• Utilisation d’une approximation dans les problèmes d’optimisation

• Exemple : Expected Improvement (Mockus 1978, Schonlau 96)

– Algorithme de recherche séquentielle du maximum

– À chaque étape, recherche du point qui maximise la moyenne des

dépassements de maximum courant, c-à-d

xn+1 = arg maxx∈X

ρn(x)

avec

ρn(x) = E[(ξ(x) − Mn)+ | ξn = f

obsn

]

Mn = max(ξ(x1), . . . , ξ(xn))

– ρn(x) se calcule analytiquement en fonction de fn(x) et σ2n(x)

29/42

Page 30: CEA DIF 3 et 4 octobre 2007

Exemple

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−1.5

−1

−0.5

0

0.5

1

1.5

x

f(x

)

30/42

Page 31: CEA DIF 3 et 4 octobre 2007

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−4

−3

−2

−1

0

1

2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 10

0.05

0.1

0.15

0.2

x

ρn(x

)

31/42

Page 32: CEA DIF 3 et 4 octobre 2007

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−2

−1

0

1

2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 10

2

4

6

8x 10

−18

x

ρn(x

)

32/42

Page 33: CEA DIF 3 et 4 octobre 2007

• Avantages :

– optimisation globale

– quantification de l’incertitude restante sur la position du

maximum

• Algorithmes similaires :

– P-Algorithm (Zilinskas 1992)

– IAGO : Informational Approach for Global Optimization

(Villemonteix, Vazquez, Walter 2007)

33/42

Page 34: CEA DIF 3 et 4 octobre 2007

Estimation de probabilités de défaillance

• Probabilité qu’une fonction de performance du système dépasse un

seuil donné

– f : X → R : fonction de performance (une fonction des sorties)

– X ∈ X ⊆ Rd de loi µ : facteurs aléatoires

Pu = P{f(X) > u}?

• Nombreuses méthodes classiques

– Monte Carlo sans ou avec échantillonage d’importance, p.ex.

cross-entropy (Rubinstein 99), méthode des sous-ensembles

(Au et Beck 01). . .

– théorie des valeurs extrêmes

– approximations FORM/SORM/FOSPA

34/42

Page 35: CEA DIF 3 et 4 octobre 2007

0.6

0.8

1

1.2

−1

−0.2

0 0.5 1−0.4

−0.5

0

0.2

0.4

ffn

|Au(f)|

|Au(fn)|

u

• Au(f) := {x ∈ X : f(x) ≥ u}, ensemble d’excursion de f au dessus

d’un niveau u

• |Au(f)| := µ(Au(f)), volume d’excursion

• Estimation de |Au(f)| par |Au(fn)|.

35/42

Page 36: CEA DIF 3 et 4 octobre 2007

Questions

• Vitesse de convergence de l’approximation du volume d’excursion,

c-à-d de |Au(fn)| vers |Au(f)| ?

Sous certaines hypothèses, avec un tirage uniforme des points xi,

‖σn‖∞ → 0 et

E

[(|Au(ξ)| − |Au(ξn)|

)2]

= O(

‖σn‖∞(log 1/‖σn‖∞

)1/2)

• Comment augmenter cette vitesse de convergence en choisissant les

points xi en fonction des évaluations précédentes (planification

d’expériences séquentielle) ?

36/42

Page 37: CEA DIF 3 et 4 octobre 2007

Contrôle de la convergence

Choix du point qui réduit le plus possible l’erreur sur le volume

d’excursion, à un pas ⇔

xn = argminxn∈X

Υn(xn) := E[(|Au(ξ)| − |Au(ξn)|)2 | ξn−1

], (1)

où ξn = (ξ(x1), . . . , ξ(xn)).

Il est possible de trouver une approximation analytique de (2).

37/42

Page 38: CEA DIF 3 et 4 octobre 2007

Exemple

38/42

Page 39: CEA DIF 3 et 4 octobre 2007

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3

−2 −1.5 −1 −0.5 0 0.5 1 1.5 20

0.1

0.2

0.3

0.4

0.5

0.6

0.7

fonction f(x) et seuil u

densité de X

39/42

Page 40: CEA DIF 3 et 4 octobre 2007

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−0.6

−0.4

−0.2

0

0.2

0.4

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2800

1000

1200

1400

1600

Prédiction et intervalles de confiance à 95%

graphe de Υn,m,Q(x), x ∈ S

40/42

Page 41: CEA DIF 3 et 4 octobre 2007

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−0.4

−0.2

0

0.2

0.4

−2 −1.5 −1 −0.5 0 0.5 1 1.5 20

0.2

0.4

0.6

0.8

1

Prédiction et intervalles de confiance à 95%

Probabilité de dépassement de seuil

41/42

Page 42: CEA DIF 3 et 4 octobre 2007

Conclusions

• Avantages

– interpolation des simulations

– vitesses de convergence fonction de la régularité

– possibilité de prendre en compte de l’information a priori

• Limites

– interpolation avec peu d’évaluations

– interpoler en grande dimension (d > 20 ∼ 100)

• Souvent, il n’est pas nécessaire de construire l’approximation sur

tout le domaine des facteurs (planification d’expériences adaptée

au résultat recherché)

42/42