49
Cours de Géostatistique et analyse des données 1 Mohamed ADDAM www.lmpa.univ-littoral.fr/addam/ [email protected] 29 novembre 2011 1. Mention Génie Environnement. 2eme année. Année 2011/2012

Cours Géostatistique. Proof

  • Upload
    meryem

  • View
    26

  • Download
    0

Embed Size (px)

Citation preview

Cours de Géostatistique et analyse des données1

Mohamed ADDAMwww.lmpa.univ-littoral.fr/∼ addam/

[email protected]

29 novembre 2011

1. Mention Génie Environnement. 2eme année. Année 2011/2012

Table des matières

1 Rappel de calcul matriciel 41.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Notations et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4

1.2.1 Le tableau des données . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Matices carrées inversibles et inverse d’une matrice. . . . . . . . . 51.2.3 Transposé d’un vecteur et transposée d’une matrice . .. . . . . . . 6

1.3 Réduction des martices carrées . . . . . . . . . . . . . . . . . . . . .. . . 81.3.1 Valeurs propres ; polynôme caractéristique ; polynôme minimal . . 81.3.2 Vecteurs propres ; sous-espace propres . . . . . . . . . . . .. . . . 101.3.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.4 Matrice nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . 121.3.5 Exponentiel d’une matrice . . . . . . . . . . . . . . . . . . . . . . 12

1.4 Spectre et rayon spectral d’une matrice, Matrice positive . . . . . . . . . . 151.4.1 Matrice positive et matrice définie positive . . . . . . . .. . . . . 161.4.2 Valeurs singulières d’une matrice . . . . . . . . . . . . . . . .. . 161.4.3 Décomposition en valeurs singulières . . . . . . . . . . . . .. . . 171.4.4 Pseudo-inverse de Moore-Penrose . . . . . . . . . . . . . . . . .. 17

1.5 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .19

2 Variogrammes et covariances : Krigeage 242.1 Rappel sur les variables aléatoires . . . . . . . . . . . . . . . . .. . . . . 24

2.1.1 Probabilité image . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.3 Indépendance de variables aléatoires . . . . . . . . . . . . .. . . . 26

2.2 Espérance d’une variable aléatoire réelle . . . . . . . . . . .. . . . . . . . 262.2.1 Espérance mathématique d’un produit . . . . . . . . . . . . . .. . 272.2.2 Variance d’une variable aléatoire . . . . . . . . . . . . . . . .. . . 28

2.3 Variable aléatoire ayant une densité . . . . . . . . . . . . . . . .. . . . . 292.3.1 Densité d’une variable aléatoire . . . . . . . . . . . . . . . . .. . 292.3.2 Espérance mathématique d’une variable aléatoire à densité . . . . . 302.3.3 Variance d’une variable aléatoire à densité . . . . . . . .. . . . . . 30

1

TABLE DES MATIÈRES 2

2.3.4 Loi uniforme sur(a, b) . . . . . . . . . . . . . . . . . . . . . . . . 312.3.5 Loi normaleN (µ, γ) ou v.a. gaussienne . . . . . . . . . . . . . . . 31

2.4 Covariance, corrélation, vecteur-moyenne et matrice de covariance . . . . . 332.4.1 Notation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . 342.4.2 Suite blanche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.5 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.6 Le vraiogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.6.1 Hypothèses de base et définition . . . . . . . . . . . . . . . . . . .372.6.2 Estimation du variogramme . . . . . . . . . . . . . . . . . . . . . 40

2.7 Krigeage à variogramme connu . . . . . . . . . . . . . . . . . . . . . . .. 412.7.1 LES ÉQUATIONS DU KRIGEAGE . . . . . . . . . . . . . . . . . 422.7.2 Krigeage ordinaire . . . . . . . . . . . . . . . . . . . . . . . . . . 432.7.3 Krigeage simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.7.4 Quelques cas très simples de krigeage : . . . . . . . . . . . . .. . 47

Notations

– N := 0, 1, 2, . . . l’ensemble des naturels,– (−N) := . . . ,−2,−1, 0 l’ensemble des opposés des naturels,– N∗ = N\0 := n ∈ N / n 6= 0,– Z := N ∪ (−N) l’ensemble des entiers,– D l’ensemble des décimaux,– Q := p

q/ p ∈ Z, q ∈ N∗ l’ensemble des rationnels,

– R l’ensemble des nombres réels,– C l’ensemble des nombres complexes.

3

Chapitre 1

Rappel de calcul matriciel

1.1 Introduction

Ce chapitre a pour but de rappeler, et déterminer, un certainnombre de résultats relatifsaux matrices et aux espaces vectoriels de dimension finie, etdont un usage constant serafait dans toute la suite de ce cours de méthodes numériques.Nous faisons références au cours d’Algèbre, chapitre 5 situé à l’adresse suivante :

www.lmpa.univ-littoral.fr/ addam/enseignement/

pour des notions de base sur les espaces vectoriels et une introduction sur les matrices quiest suffisante pour aborder ce chapitre. Nous aborderons dans ce cours tous les résultatsconcernant les matrices. Les résultats importants pour la suite seront démontrés.

1.2 Notations et définitions

SoitE un espace vectoriel sur le corps des scalairesK oùK = R ouC.

1. Une base deE est un ensemblee1, e2, . . . , en den vecteurs linéairement indépen-dants deE, qu’on notera(ei)1≤i≤n, ou simplement(ei) si aucune confusion n’est àcraindre.

2. Tout vecteurx deE admet une décomposition unique

x =n∑

i=1

xiei,

les scalairesxi étant les composantes du vecteurx dans la base(ei).

3. Lorsqu’une base est fixée sans ambiguîté, on peut ainsi identifier E à Kn par unebijection.

4

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 5

1.2.1 Le tableau des données

En Analyse des Données, on manipule des tableaux de nombres (matrices) et le tableaude départ est généralement le tableau des donnéesZ

Echantillons(lignes)

V ariables(colonnes)︷ ︸︸ ︷

z11 z12 . . . z1n...

... . . ....

zα1 zα2 . . . zαn...

... . . ....

zm1 zm2 . . . zmn

= Z = (zij) 1≤i≤m1≤j≤n

L’élémentzij dénote la valeur numérique placée au croisement de la ligne numéroi (indicede l’échantillon) et de la colonne numéroj (indice de la variable). On dit que la matriceZest dem lignes et den colonnes

1.2.2 Matices carrées inversibles et inverse d’une matrice

Définition 1.2.1 SoitA une matrice carrée deMn(K).

1. On dit que la matriceA est inversible si et seulement si dét(A) 6= 0.

2. Si la matriceA est inversible. On appelle inverse de la matriceA, la matrice carréeM deMn(K) telle queAM = MA = I.Dans ce cas, la matriceM = A−1.

Exemple 1.2.1A la matrice deM2(R) donnée par

A =

(2 01 −3

)

.

La matriceA est inversible car dét(A) = −6 6= 0. Trouvons maintenant la matriceA−1 =(

a bc d

)

, telle queAA−1 = A−1A = I.

(2 01 −3

)(a bc d

)

=

(2a 2b

a− 3c b− 3d

)

=

(1 00 1

)

2a = 1,2b = 0,

a− 3c = 0,b− 3d = 1,

a = 12,

b = 0,c = 1

6,

d = −13,

d’où

A−1 =

(12

016

−13

)

= −1

6

(−3 0−1 2

)

.

Ceci reste valable pour toutes les matrices carrées inversibles d’ordren ≥ 2.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 6

1.2.3 Transposé d’un vecteur et transposée d’une matrice

Définition 1.2.2 1. On appelle vecteur ligne tout vecteur s’écrivant sous la formev =(v1, v2, . . . , vn).

2. On appelle vecteur colonne tout vecteur s’écrivant sous la formeW =

w1

w2...wn

.

3. Le vecteur transposé d’un vecteur lignev = (v1, v2, . . . , vn) est un vecteur colonne

noté par :tv =

v1v2...vn

4. SoitW =

W1

W2...

Wn

une matrice carrée deMn(K) ouWi = (wi,1, wi,2, . . . , wi,n),

1 ≤ i ≤ n est un vecteur ligne

– SiK = R, alors la transposée de la matriceW =

W1

W2...

Wn

est la matricetW =

(tW1,tW2, . . . ,

t Wn) ou tWi =

wi,1

wi,2...

wi,n

pour tout1 ≤ i ≤ n.

– SiK = C, alors la transposée de la matriceW =

W1

W2...

Wn

est la matricetW =

(tW1,tW2, . . . ,

t Wn) ou tWi =

wi,1

wi,2...

wi,n

pour tout1 ≤ i ≤ n.

5. Une matriceA ∈ Mn(R) (resp.A ∈ Mn(C)) est dite symétrique si et seulement sitA = A (resp.tA = A).

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 7

Exemple 1.2.2 1. K = R, A la matrice deM2(R) donnée par

A =

(π 2

1√3

)

.

La transposéetA de la matriceA est

tA =

(π 1

2√3

)

.

2. K = C, A la matrice deM3(C) donnée par

A =

i 2 + i 3

1 + i√3 5

2 3 + i 1 + i

.

La transposéetA de la matriceA est

tA =

−i 2− i 2

2− i√3 3− i

3 5 1− i

.

Exemple 1.2.3SoitZ la matrice des données, donnée par

Z =

z11 z12 . . . z1n...

... . . ....

zα1 zα2 . . . zαn...

... . . ....

zm1 zm2 . . . zmn

Un exemple de matrice symétrique est la matrice de variance-covarianceV, contenant lesvariances sur la diagonale et les covariances en dehors de celle-ci

V = [σij ] =1

n(Z −M)T (Z −M)

oùM est la matrice rectangulairen×m des moyennesM = 1neeTZ, dont tous les éléments

de chaque colonne sont égaux à la moyenne de la variable correspondant à cette colonne.

Exemple 1.2.4Un autre exemple de matrice symétrique est la matriceR des corrélations

R = [ρij ] = Dσ−1VDσ−1

oùDσ−1 est la matrice diagonale contenant les inverses des écarts-types des variables

Dσ−1 =

1√σ11

0 . . . 0

0 1√σ22

. . ....

.... . . . . . 0

0 . . . 0 1√σnn

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 8

1.3 Réduction des martices carrées

Dans cette partie, on désigne parE un espace vectoriel de dimension finien sur uncorps commutatifK, parMn(K) l’ensemble des matrices carrées d’ordren à coefficientsdansK et parI la matrice unité. SoitA une matrice dansMn(K).

1.3.1 Valeurs propres ; polynôme caractéristique ; polynôme minimal

Définition 1.3.1 un nombreλ ∈ K est unevaleur propre d’une matriceA deMn(K) s’ilexiste un vecteurx non nul tel que

Ax = λx

ou encore si la matriceA− λI n’est pas inversible.

Exemple 1.3.1SoitA une matrice deM2(R) donnée par

A =

(2 00 −3

)

.

Les valeurs propres deA sont2 et−3 car dét(A− 2I) = 0 et dét(A+ 3I) = 0 puisque

A− 2I =

(0 00 −5

)

et A+ 3I =

(5 00 0

)

Définition 1.3.2 1. On appelle lepolynôme caractéristiqued’une matriceA deMn(K)le polynôme suivant :

P (λ) = dét(A− λI).

2. Les valeurs propres de la matriceA deMn(K) sont les racines dupolynôme ca-ractéristique deA

Exemple 1.3.2 1. SoitA une matrice deM2(R) donnée par

A =

(2 −41 −3

)

.

Le polynôme caractéristique de la matriceA est

P (λ) = dét

(2− λ −41 −3− λ

)

= (2− λ)(−3− λ) + 4,

P (λ) = λ2 + λ− 2.

Pour trouver les valeurs propres de la matriceA il suffit de résoudre l’équation

λ2 + λ− 2 = 0.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 9

2. SoitM une matrice deM3(R) donnée par

M =

2 −4 01 −3 20 1 3

.

Le polynôme caractéristique de la matriceM est

P (λ) = dét

2− λ −4 01 −3 − λ 20 1 3− λ

,

P (λ) = (2− λ)

∣∣∣∣

−3− λ 21 3− λ

∣∣∣∣+ 4

∣∣∣∣

2 13− λ 0

∣∣∣∣,

P (λ) = (2− λ)[(−3− λ)(3− λ)− 2] + 4[−(3− λ)],

pour trouver les valeurs propres de la matriceM il suffit de résoudre l’équation

P (λ) = 0.

Théorème 1.3.1(Cayley-Hamilton)SoitA une matrice deMn(K). Si le polynôme caractéristiqueP deA se décompose dansK en facteurs du premier degré, alorsP (A) = 0.

Démonstration.En exercice.

Exemple 1.3.3SoitA une matrice deM2(R) donnée par

A =

(2 −41 −3

)

.

Le polynôme caractéristique de la matriceA estP (λ) = λ2 + λ− 2.(

2 −41 −3

)2

=

(2 −41 −3

)(2 −41 −3

)

=

(0 4−1 5

)

.

(0 4−1 5

)

+

(2 −41 −3

)

+

(−2 00 −2

)

=

(0 + 2− 2 4− 4 + 0−1 + 1 + 0 5− 3− 2

)

=

(0 00 0

)

Définition 1.3.3 SoitA une matrice deMn(K).On appellepolynôme minimal deA un polynômeQ vérifiant :

i) Q est de plus petit degré divisant le polynôme caractéristiqueP deA.

ii) Q(A) = 0.

Exemple 1.3.4On considère une matriceA deM3(K) dont le polynôme caractéristique

P (λ) = (λ− 2)2(λ− 3).

Si (A− 2I)(A− 3I) = 0, alors le polynôme minimale deA estQ(λ) = (λ− 2)(λ− 3).

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 10

1.3.2 Vecteurs propres ; sous-espace propres

Définition 1.3.4 SoitA une matrice deMn(K). Siλ est une valeur propre de la matriceA, l’ensemble des solutions de l’équation

Ax = λx

est un sous-espace vectorielHλ deKn dit sous-espace propreassocié àλ. Les élémentsnon nuls deHλ sont lesvecteurs propresassociés àλ.On aHλ = Ker(A− λI).

Exemple 1.3.5SoitA une matrice deM2(R) donnée par

A =

(2 −41 −3

)

.

Le polynôme caractéristique de la matriceA estP (λ) = λ2 + λ− 2. Les valeurs propres

deA sontλ1 =−1−

√5

2etλ2 =

−1 +√5

2.

Hλ1= Ker

(

A +1 +

√5

2I

)

Hλ2= Ker

(

A− −1 +√5

2I

)

Proposition 1.3.1 SoitA la matrice deMn(K).

1. Les vecteurs propresv1, v2, . . . , vk associés à des valeurs propres distinctesλ1, λ2, . . . , λk

sont linéairement indépendants.

2. SiH1 = Ker(A− λ1I),H2 = Ker(A− λ2I), . . . ,Hk = Ker(A− λkI) sont respec-tivement les espaces propres associés à des valeurs propresdistinctesλ1, λ2, . . . , λk,alors la sommesH = H1 +H2 + . . .+Hk est une somme directe.

3. La réunion d’une base deH1, d’une base deH2,. . ., d’une base deHk est une basedeH.

Démonstration.Laisser en exercice.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 11

1.3.3 Matrices semblables

Définition 1.3.5 Deux matrices sont semblables si et seulement si elles constituent deuxmatrices représentatives du même endomorphisme dans deux bases (éventuellement) diffé-rentes. Autrement dit, on dit que deux matricesA etB sont semblables si et seeulement siil existe une matrice inversibleP telle que

A = P−1BP.

Exemple 1.3.6Les matricesA =

(2 1−2 0

)

etB =

(−2 −25 4

)

sont semblables.

En effet, il existe une matrice inversibleP =

(1 11 0

)

etP−1 =

(0 11 −1

)

.

On a

P−1AP =

(0 11 −1

)(2 1−2 0

)(1 11 0

)

=

(−2 −25 4

)

Remarque 1.3.1On définit la relation binaireR suivante :

A R B ⇔ ∃P une matrice inversible telle queA = P−1BP.

La relationR est une relation d’équivalence sur l’ensemble des matricesMn(K).

Proposition 1.3.2 Deux matrices semblablesA et B deMn(K) ont le même polynômecaractéristique.

Démonstration. SoientA et B deux matrices semblables deMn(K), alors il existe unematrice inversibleP telle que

A = P−1BP.

On aA− λI = P−1BP − λI = P−1BP − λP−1P = P−1(B − λI)P,

alorsdét(A− λI) = dét(P−1(B − λI)P ) = dét(P−1)dét(B − λI)dét(P )

d’où

dét(A− λI) = dét(B − λI)dét(P )

dét(P )= dét(B − λI).

Corollaire 1.3.1 Deux matrices semblablesA et B de Mn(K) ont les mêmes valeurspropres.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 12

1.3.4 Matrice nilpotente

Définition 1.3.6 On dit qu’une matrice carréeA est nilpotente s’il existe un entier naturelp tel queAp soit la matrice nulle. L’indice de nilpotence est alors le plus petitp tel queAp = 0.

Exemple 1.3.7 1. On prend la matriceA =

(0 10 0

)

. On a

A2 =

(0 10 0

)2

=

(0 00 0

)

,

D’où A est nilpotente d’indice de nilpotencep = 2.

2. Considérons la matriceB

B =

3 9 −92 0 03 3 −3

Si nous calculons la représentation matricielle deB2 et deB3, on trouve :

B2 =

0 0 06 18 −186 18 −18

et B3 =

0 0 00 0 00 0 0

PuisqueB3 est la matrice nulle alorsB est bien nilpotente d’indice3. Son indice estplus petit que la dimension de l’espace.

Nilpotence et base réduite: Considérons alors le vecteure1. Il est d’indice2 et la fa-mille (e1, Ae1, A

2e1) est libre. Elle est libre et de cardinal égal à la dimension del’espacevectoriel. Cette famille est donc une base.

1.3.5 Exponentiel d’une matrice

La fonction exponentielle est infiniment dérivable surR, alors au voisinage de0, alorsd’après le développement de Taylor on peut écrire

et = 1 +

+∞∑

n=1

tn

n!= 1 + lim

p→+∞

p∑

n=1

tn

n!.

Définition 1.3.7 SoitA etB deux matrices deMn(K).

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 13

1. On appelleexponentiellede la matriceA, notée parexp(A), la formule suivante :

exp(A) = I +

+∞∑

n=1

An

n!.

Nous avons les propriétés suivantes :

2. exp(A+B) = exp(A) exp(B).

3. SiA est inversible d’inverseA−1, alorsexp(A−1) = (exp(A))−1.

Exemple 1.3.8 1. On prend la matriceA =

(0 10 0

)

, alors on aA2 =

(0 00 0

)

,

alors

exp(A) = I + A =

(1 00 1

)

+

(0 10 0

)

=

(1 10 1

)

2. Pour la matriceB suivante

B =

3 9 −92 0 03 3 −3

, on a B2 =

0 0 06 18 −186 18 −18

et B3 =

0 0 00 0 00 0 0

alors on a

exp(B) = I +B +1

2B2 =

1 0 00 1 00 0 1

+

3 9 −92 0 03 3 −3

+

0 0 03 9 −93 9 −9

exp(B) =

4 9 −95 10 −93 12 −11

.

Définition 1.3.8 Une matriceA deMn(K) est dite diagonalisable si il existe une matriceinversibleP deMn(K) telle que

P−1AP = D =

λ1 0 . . . 0

0 λ2. . .

......

. . . . . . 00 . . . 0 λn

oùλ1, . . . , λn sont les valeurs propres deA comptées avec leurs ordres de multiplicité.Dans ce cas, chaque vecteur colonnew de la matriceP est un vecteur propre pour lamatriceA, c’est-à-dire qu’il existe un scalaireλ sur la diagonale deD tel queA.w = λ.w.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 14

Exemple 1.3.9Les valeurs propres de la matrice

A =

1 1 0−1 2 11 0 1

sontλ1 = 2, λ2 = 1 + i etλ3 = 1− i.Les veteurs propres associés àλ1, λ2 etλ3 sont respectivement

V1 =

111

, V2 =

i−11

et V3 =

−i−11

.

La matriceP = (V1|V2|V3) donnée par

P =

1 i −i1 −1 −11 1 1

⇒ P−1 =1

4

0 2 21 −2i −1 + i2i −(1 + i) 1− i

.

paar un calcul simple, on trouve

P−1AP =1

4

0 2 21 −2i −1 + i2i −(1 + i) 1− i

1 1 0−1 2 11 0 1

1 i −i1 −1 −11 1 1

=

2 0 00 1 + i 00 0 1− i

.

Proposition 1.3.3 SoitA une matrice deMn(K). Alors

1. SiA est nilpotente d’indice de nilpotencep, alors

exp(A) = I +

p∑

n=1

An

n!.

2. Si la seule valeur propre deA est 0, alors les puissance deA sont nulles à partird’un certain rangn0 :

An = 0, dès que n ≥ n0.

Dans ce cas, on a

exp(A) = I +

n0∑

n=1

An

n!.

3. SiA a une seule valeur propreλ, alors nous pouvons écrireA = λI + B oùB estune matrice dont la seule valeur propre est 0. On a bien

exp(A) = exp(λ). exp(B)

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 15

4. SiA est une matrice diagonale, c’est-à-dire queA s’écrit sous la forme

A =

λ1 0 . . . 0

0 λ2. . .

......

. . . . . . 00 . . . 0 λn

, alors exp(A) =

eλ1 0 . . . 0

0 eλ2. . .

......

. . . . . . 00 . . . 0 eλn

.

5. SiP−1AP = D oùD = diag(λi, 1 ≤ i ≤ n), alors pour toutk ∈ N on a

P−1AkP = Dk.

Démonstration.Exercice.

1.4 Spectre et rayon spectral d’une matrice, Matrice po-sitive

SoitA = (ai,j)1≤i,j≤n une matrice carrée.

1. La trace deA esttr(A) =∑n

i=1 ai,i.

2. Les valeurs propres deA sont les n racines réelles ou complexes(λi)1≤i≤n du poly-nôme caractéristiqueP deA. Le spectredeA, notéSp(A) est l’ensemble de tousles valeurs propres deA :

Sp(A) = λi : 1 ≤ i ≤ n

3. La matriceA estdiagonalesi ai,j = 0 pouri 6= j, on la note

A = diag(aii) = diag(a11, a22, . . . , ann).

On rappelle les propriétés suivantes :

1. tr(A) =∑n

i=1 λi, dét(A) =n∏

i=1

λi.

2. tr(AB) = tr(BA), tr(A+B) = tr(A) + tr(B).

3. dét(AB) = dét(BA) = dét(A)dét(B).

Définition 1.4.1 On appelle le rayon spectral de la matriceA, noté%(A), le nombre réelpositif

%(A) = max|λi| : 1 ≤ i ≤ n

Définition 1.4.2 Une matriceA est

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 16

1. Symétrique si A est réelle etA = AT ;

2. hermitienne si A = A∗ ;

3. OrthogonalesiA est réelle etAAT = ATA = I ;

4. Unitaire si AA∗ = A∗A = I ;

5. Normale siAA∗ = A∗A.

une matriceA est ditesingulièresi elle n’est pas inversible.

Propriété 1.4.1 Si A et B sont deux matrices inversibles, alors(AB)−1 = B−1A−1,(AT )−1 = (A−1)T , (A∗)−1 = (A−1)∗.

1.4.1 Matrice positive et matrice définie positive

Définition 1.4.3 SoitA une matrice

1. La matriceA estdéfinie positvesi

(Ax, x) > 0, ∀x ∈ E − 0

2. La matriceA estpositvesi

(Ax, x) ≥ 0, ∀x ∈ E − 0

Théorème 1.4.1Une matrice hermitienneA est définie positive (resp. positive), si et seule-ment si toutes ses valeurs propres sont> 0 (resp.≥ 0).

Démonstration.soitA une matrice hermitienne etx 6= 0 un vecteur dansE.

(Ax, x) = λ(x, x) = λ‖x‖E

1.4.2 Valeurs singulières d’une matrice

Définition 1.4.4 SoitA une matrice carrée. On appellevaleurs singulièresd’une matricecarréeA, les racines carrées positives des valeurs propres de la matrice hermitienneA∗A(ouATA si la matriceA est réelle).

Remarque 1.4.1Les valeurs propres de la matrice hermitienneA∗A sont toujours≥ 0puisque

A∗Ax = λx, x 6= 0 ⇒ (A∗Ax, x) = λ‖x‖E ,les valeurs singulières sont toutes> 0 si et seulement si la matriceA estinversible

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 17

1.4.3 Décomposition en valeurs singulières

Définition 1.4.5 SoitA une matrice carrée. On appellevaleurs singulièresd’une matricecarréeA, les racines carrées positives des valeurs propres de la matrice hermitienneA∗A(ouATA si la matriceA est réelle).

Toute matrice peut être réduite sous forme diagonale en la multipliant à droite et à gauchepar des matrices unitaires bien choisies. Plus précisémenton a le résultat suivant :

Propriété 1.4.2 SoitA ∈ Cm×n. Il existe deux matrices unitairesU ∈ Cm×m etV ∈ Cn×n

telles que

U∗AV = diag(σ1, σ2, . . . , σp) ∈ Cm×n, p = min(m,n) (1.1)

etσ1 ≥ σ2 ≥ . . . ≥ σp ≥ 0.La relation (1.1) est appeléedécomposition en valeurs singulières(SVD) deA et lesscalaire(σi) sont appelésvaleurs singulièresdeA.♣ SiA est une matrice réelle,U etV sont aussi des matrices réelles et on peut remplacerU∗ parUT .

Les valeurs singulières sont caractérisées par

σi =√

λi, où λi ∈ Sp(A∗A), i = 1, . . . , p. (1.2)

– Si A ∈ Cn×n est une matrice hermitienne de valeurs propresλ1, λ2, . . . , λn, alorsd’après (1.2) les valeurs singulières deA coïncident avec les modules des valeurspropres deA. En effet, puisqueAA∗ = A2, on aσi =

λ2i = |λi| pouri = 1, . . . , n.

– Siσ1 ≥ σ2 ≥ . . . ≥ σr ≥ σr+1 = . . . = σp = 0,

alors le rang deA estr (rang(A) = r), le noyau deA est le sous-espace vectorielengendré par les vecteurs colonnes deV (Ker(A) = vr+1, . . . , vn), et l’image deA est le sous-espacevectoriel engendré par les vecteurs colonnes deU (Im(A) =u1, . . . , ur).

1.4.4 Pseudo-inverse de Moore-Penrose

Définition 1.4.6 SupposonsA ∈ Cm×n soit de rangr et qu’elle admette une décompo-sition en valeurs singulières du typeU∗AV = Σ. La matriceA† = V Σ†U∗ est appeléematricepseudo-inversedeMoore-Penrose, où

Σ† = diag

(1

σ1

,1

σ2

, . . . ,1

σr

, 0, . . . , 0

)

∈ Cm×n, p = min(m,n) (1.3)

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 18

la matriceA† est aussi appeléematrice inverse généraliséedeA, on a

A† =

(ATA)−1AT , si rang(A) = n < m,

A−1, si rang(A) = n = m.

L’Analyse des Données étant l’art de décomposer des tableaux, une décomposition s’appli-quant à une matrice rectangulaire (dans le même esprit que ladécomposition d’une matricesymétrique en valeurs et vecteurs propres) va évidemment jouer un rôle central. La décom-position en valeurs singulièresµp d’une matriceA rectangulaire de taillen×m de rangrs’écrit :

A︸︷︷︸

(n×m)

= Q1︸︷︷︸

(n×n)

. Σ︸︷︷︸

(n×m)

. QT2

︸︷︷︸

(m×m)

où Q1 et Q2 sont des matrices orthogonales et oùΣ est une matrice rectangulaire avecrvaleurs positivesµp sur la diagonale (à savoir l’ensemble des éléments d’indices égaux) etdes zéros ailleurs. Par exemple, dans le cas oùn > m et r = m, la matriceΣ a la structuresuivante

Σ =

µ1 0 . . . 0

0 µ2. . .

......

.. . . . . 00 . . . 0 µr

0 . . . . . . 0...

......

...0 . . . . . . 0

Une telle décomposition existe toujours et peut être obtenue en calculant les valeurs propresλp deAAT et deATA, qui sont identiques et positives ou nulles. Les valeurs singulièressont les racines carrées des valeurs propres non nulles,

µp =√

λp.

Dans cette décomposition,Q1 est la matrice des vecteurs propres deAAT , tandis queQ2

est la matrice des vecteurs propres deATA.L’inverse de Moore-Penrose s’obtient à partir de la décomposition en valeurs singu-

lières en intervertissant les deux matrices orthogonales,en transposantΣ et en inversantchacune des valeurs singulières :

A† = Q2Σ†QT

1

La matriceΣ† est de taillem× n et a, dans le cas oùn > m et r = m, la structure

Σ† =

µ−11 0 . . . 0 0 . . . 0

0 µ−12

. . .... 0 . . . 0

.... . . . . . 0

......

...0 . . . 0 µ−1

r 0 . . . 0

=

λ−1/21 0 . . . 0 0 . . . 0

0 λ−1/22

. . .... 0 . . . 0

..... . . . . 0

......

...0 . . . 0 λ

−1/2r 0 . . . 0

.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 19

Exemple 1.4.1(KRIGEAGE SIMPLE AVEC UN DOUBLON)On peut se demander si l’inverse de Moore-Penrose peut être utilisée pour résoudre unsystème de krigeage dont le membre gauche est singulier. Nous n’allons pas traiter leproblème de manière générale, mais nous contenter d’un petit exercice très simple.

On cherche à estimer une valeur enx0 à partir de deux valeurs situées au même pointx1. Le système de krigeage simple est

(a aa a

)(w1

w2

)

=

(bb

)

oùa est la variance des données et oùb est la covariance entre les pointsx1 etx0.La matriceA étant singulière on va recourir à l’inverse généralisée de Moore-Penrose.

Soit

AAT = ATA =

(2a2 2a2

2a2 2a2

)

=

(c cc c

)

= C

On adét(C) = 0 ⇒ λ2 = 0;

tr(C) = 2c ⇒ λ1 = 2c,

et une matrice de vecteurs propres normés

Q =

(1√2

− 1√2

1√2

1√2

)

La solution du système au sens de l’inverse généralisée est

w = A†b = QΣ†QT b =

(b√2cb√2c

)

=

(b2ab2a

)

En considérant des données de moyenne nulle, on a en fin de compte l’estimation parkrigeage simple

z∗(x0) =b

a

(z1(x1) + z2(x1)

2

)

Cette solution satisfait l’esprit, puisque l’estimateur prend la moyenne des deux valeursz1et z2 mesurées au pointx1 et la multiplie par le pondérateur que livre le krigeage simplelorsqu’il n’y a qu’une seule information disponible.

1.5 Normes matricielles

soitK = R ouC.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 20

Définition 1.5.1 Unenorme matricielle est une application‖ . ‖ : K(m×n) −→ [0,+∞[telle que :

i) ‖A‖ ≥ 0, ∀A ∈ K(m×n) et‖A‖ = 0 si et seulement siA = 0 ;

ii) ‖αA‖ = |α|‖A‖, ∀A ∈ K(m×n), ∀α ∈ K (Propriété d’homogénéité) ;

iii) ‖A+B‖ ≤ ‖A‖+ ‖B‖, ∀A,B ∈ K(m×n) (Inégalité triangulaire).

Définition 1.5.2 On dit que la norme matricielle‖ . ‖ estcompatibleou consistanteavecla norme vectorielle‖.‖ si

‖Ax‖ ≤ ‖A‖‖x‖, ∀A ∈ K(m×n) ∀x ∈ Kn.

Plus généralement, on dit que trois normes, toutes notées‖ . ‖ et respectivement définiessurKm, Kn, etK(m×n), sontconsistantessi ∀x ∈ Kn, ∀y ∈ Km etA ∈ K(m×n) tels queAx = y, on a‖y‖ ≤ ‖A‖‖x‖.

Pour qu’une norme matricielle soit intéressante dans la pratique, on demande généralementqu’elle possède la propriété suivante :

Définition 1.5.3 On dit qu’une norme matricielle‖ . ‖ est sous-multiplicative si ∀A ∈K(n×m), ∀B ∈ K(m×q)

‖AB‖ ≤ ‖A‖‖B‖. (1.4)

Exemple 1.5.1Soit‖ . ‖N l’application définie par

‖A‖N = maxi,j

|aij |.

On considère deux matricesA etB données par

A =

(1 11 1

)

= B.

On peut vérifier facilement que‖ . ‖N est une norme et qu’elle ne satisfait pas l’inégalité(1.4) puisque

2 = ‖AB‖N > ‖A‖N‖B‖N = 1.

D’où la norme‖ . ‖N n’est pas une norme sous-multiplicative.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 21

Norme de Frobenius

La norme

‖A‖F =

(m∑

j=1

n∑

i=1

|aij|2)1/2

=√

tr(A∗A)

est une norme matricielle appeléenorme de Frobenius(ou norme euclidienne dansC(n×n)

et elle est compatible avec la norme vectorielle euclidienne‖ . ‖2. En effet,

‖Ax‖22 =m∑

i=1

∣∣∣∣∣

n∑

j=1

aijxj

∣∣∣∣∣

2

≤m∑

i=1

(n∑

j=1

|aij |2n∑

j=1

|xj |2)

= ‖A‖2F‖x‖22.

On peut remarquer que pour cette norme, on a‖In‖F =√n.

Théorème 1.5.1Soit‖.‖ une norme vectorielle. La fonction

‖A‖ = supx 6=0

‖Ax‖‖x‖ (1.5)

est une norme matricielle. On l’appellenorme matricielle subordonnéeou associée à lanorme vectorielle‖.‖. On l’appelle aussi parfois norme matricielle naturelle, ou encorenorme matricielle induite par la norme vectorielle‖.‖.

Démonstration.Commençons par remarquer que (1.5) est équivalente à

‖A‖ = sup‖x‖=1

‖Ax‖. (1.6)

Pour toutx 6= 0, on peut définir un vecteur unitaireu = x‖x‖ , de sorte que (1.5) s’écrive

‖A‖ = sup‖u‖=1

‖Au‖ = ‖Aw‖, ‖w‖ = 1.

cela étant, vérifions que (1.5) est effectivement une norme,en utilisant les conditions d’unenorme matricielle de la définition (1.5.1).

Exemples de normes remarquables

D’autres exemples de normes remarquables, il s’agit de normes matricielles subordon-nées fournies par les p-normes :

‖A‖p = supx 6=0

‖Ax‖p‖x‖p

(1.7)

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 22

La 1-norme et la norme infinie se calculent facilement :

‖A‖1 = max1≤j≤n

m∑

i=1

|aij |, (1.8)

‖A‖∞ = max1≤i≤m

n∑

j=1

|aij|, (1.9)

On a les propriétés suivantes :

1. ‖A‖1 = ‖AT‖∞2. SiA est matrice symétrique réelle, alors‖A‖1 = ‖A‖∞.

La 2-norme ounorme spectralemérite une discussion particulière vu son intérêt pour desapplications pratiques.

Théorème 1.5.2Soitσ1 la plus grande valeur singulière deA. Alors

‖A‖2 =√

%(A∗A) =√

%(AA∗) = σ1.

En particulier, siA est hermitienne (ou symmétrique réelle), alors

‖A‖2 = %(A),

tandis que siA est unitaire alors‖A‖2 = %(A) = 1.

Démonstration. PuisqueA∗A est hermitienne, alors il existe une matrice unitaireU telleque

U∗A∗AU = diag(µ1, µ2, . . . , µn)

oùµi sont les valeurs propres positive deA∗A. Soity = U∗x, alors

‖A‖2 = supx 6=0

(A∗Ax, x)

(x, x)= sup

x 6=0

(U∗A∗AUy, y)

(y, y)

= supx 6=0

√√√√

n∑

i=1

µi|yi|2/n∑

i=1

|yi|2 =√

max1≤i≤n

|µi| = σ1.

Si A est hermitienne, les mêmes considérations s’appliquent directement àA. En fin siAest unitaire

‖Ax‖22 = (Ax,Ax) = (x,A∗Ax) = ‖x‖22et donc‖A‖2 = 1. Enfin, si A est unitaire

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL 23

Exercice 1.5.1 1. SoitB une matrice carrée. Montrer que les conditions suivantes sontéquivalentes :

(a) limk→+∞Bk = 0 ;

(b) limk→+∞Bkx = 0 pour tout vecteurx ;

(c) %(B) < 1 ;

(d) ‖B‖ < 1 pour au moins une norme matricielle subordonnée‖ . ‖.

2. SoitB une matrice carrée, et‖ . ‖ une norme matricielle quelconque. Montrer que

limk→+∞

‖Bk‖1/k = %(B).

Chapitre 2

Variogrammes et covariances : Krigeage

– La géostatistiqueest une dicipline à la frontière entre les mathématiques et lessciences de la terre. Son principale domaine d’utilisationa historiquement été l’esp-timation des gisements miniers, mais son domaine d’application actuel est beaucoupplus large et tout phénomène spatialisé peut être étudié en utilisant la géostatistique.

– Le krigeageest une méthode d’estimation issue de la géostatistique. Leterme kri-geage, provient du nom de famille de l’ingénieur minier sud-african Daniel Gerhar-dus Krige. Il a été formalisé pour la prospection minière parGeorges Matheron(1930-2000) à l’École des Mines de Paris. depuis, le domainede ses applicationsa largement été étendu, touchant notamment la météorologie, les sciences de l’envi-ronnement et l’électromagnétisme.

– Le krigeage est donc une méthode d’interpolation spatiale, parfois considérée commela plus juste d’un point de vue statistique, qui permet une estimation linéaire baséesur l’espérance mathématiqueet aussi sur lavariance de la donnée spatialisée.À ce titre, le krigeage se base sur le calcul, l’interprétation et la modélisation duviogramme, qui est une appréciation de la variance en fonction de la distance entredonnées.

– Cette méthode d’interpolation se distingue d’autres méthodes (distance inverse, esti-mation par noyau, etc) car elle présente des avantages que nous verrons par la suite.

– Le krigeage s’est décliné sous plusieurs formes (simple, ordinaire,...) qui toutes uti-lisent les mêmes principes.

2.1 Rappel sur les variables aléatoires

Soit(Ω,B, P ) un espace probabilisable fini etX une application deΩ dans un ensembleJ . Si A est une partie deJ , on noteraX−1(A) l’ensemble des éventualitéés dont l’imageappartenant àA.

X−1(A) = ω ∈ Ω; X(ω) ∈ A.24

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 25

Définition 2.1.1 Soit (Ω,B, P ) un espace probabilisable fini. Une applicationX de Ωdans un ensembleJ est ditemesurablesi, et seulement si, pour tout pointx deJ ,X−1(x)est un événement :

∀x ∈ J X−1(x) ∈ B.Au lieu de “application mesurable”, on dit aussi “variable aléatoire”

Remarque 2.1.1SiJ = Rn alors

1. dans le casn = 1, on dit “variable aléatoire réelle”,

2. dans le casn > 1, on dit “variable aléatoire vectorielle”.

Définition 2.1.2 Soit X : Ω −→ J une variable aléatoire. Pour toute partieA de J ,X−1(A) est appelé événement.On appelleindicatrice d’un événementA, la fonctionϕA définie par

(∀ω ∈ Ω)

ϕA(ω) = 1 si ω ∈ A,ϕA(ω) = 0 si ω /∈ A,

2.1.1 Probabilité image

Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → J une variable aléatoire (oùJ estfini). L’application

Q : P → [0, 1], A 7→ P (X−1(A))

est une probabilité sur l’espace probabilisable(J,P) oùP est l’ensemble des parties me-surables deJ .

2.1.2 Loi de probabilité

Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → J une variable aléatoire vecto-rielle. On appelleloi de probabilité deX la probabilité image deP parX, c’est à dire

Q(A) = P (X−1(A)).

Fonction de répartition

Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → J une variable aléatoire. Onappelle fonction de répartition deX la fonction réelle de variable réelle

x 7→ F (x) = P (X < x).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 26

2.1.3 Indépendance de variables aléatoires

Soit(Ω,B, P ) un espace probabilisé fini. Un couple de variables aléatoires réellesX =(X1, X2) telles que

(∀(a, b) ∈ R2 (X1 = a) et (X2 = b)

sont deux événements indépendants est appelé couple de variables aléatoires réelles indé-pendantes. On traduit ceci par

(∀(a, b) ∈ R2 P (X = (a, b)) = P (X1 = a)P (X2 = b).

2.2 Espérance d’une variable aléatoire réelle

Définition 2.2.1 Soit (Ω,B, P ) un espace probabilisé fini et(A1, A2, . . . , An) une suiteformée de sous-ensembles deB. On appelle espérance mathématique la forme linéairEdéfinie l’espace vectoriel des variables aléatoires réellesV sur(Ω,B) par ses valeurs pourles indicatrices constituant la base :(ϕA1

, . . . , ϕAn) de la manière sivante

E(ϕAi) = P (Ai).

Si X est une variable aléatoire réelle prenant la valeurxi surAi (i = 1, . . . , n).On a

X =

n∑

i=1

xiϕAi

et donc on aE(X) =

n∑

i=1

xiP (Ai). On peut établir que siX(Ω) = y1, y2, . . . , yr où les

yi sont distincts alors l’expression de l’espérance mathématiqueE devient

E(X) =

r∑

i=1

yiP (X = yi).

Définition 2.2.2 Une variable aléatoire réelleX est dite centrée si son espérance mathé-matiqueE(X) est nulle.

Exercice 2.2.1Montrer que la variable aléatoireX −E(X) est centrée.

Exemple 2.2.1(Espérance d’une variable binomiale)Une variable binomiale de paramètresn et p (n ∈ N∗ et 0 < p < 1) est une variablealéatoire telle que

X(Ω) = 0, 1, 2, . . . , n et P (X = i) = Cinp

i(1− p)n−i.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 27

D’après son expression, l’espérance mathématique est

E(X) =

n∑

i=1

iCinp

i(1− p)n−i

=n∑

i=1

in!

i!(n− i)!pi(1− p)n−i

= npn∑

i=1

(n− 1)!

i!(n− i)!pi−1(1− p)n−i

= np

n−1∑

j=1

(n− 1)!

j!(n− 1− j)!pj(1− p)n−1−j

= np(p + (1− p))n−1

= np

2.2.1 Espérance mathématique d’un produit

Soit (Ω,B, P ) un espace probabilisé fini. Un couple de variables aléatoires réelles(X, Y ) définies sur(Ω,B). Soit

X(Ω) = x1, x2, . . . , xnY (Ω) = y1, y2, . . . , yp.

où lesxi étant distincts etyi étant distincts.On a(X, Y )(Ω) = (xi, yj) 1≤i≤n

1≤j≤n

les (xi, yj) étant distincts,

E(XY ) =n∑

i=1

p∑

j=1

xiyjP ((X, Y ) = (xi, yj)).

Si on ne connaît pas les lois marginales deX et Y , il n’est pas possible de poursuivrepuisqu’on ne peut pas calculer

P ((X, Y ) = (xi, yj)).

♣ Si X etY sont indépendantes, alors

P ((X, Y ) = (xi, yj)) = P (X = xi)P (Y = yj),

et on aE(XY ) = E(X)E(Y ).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 28

2.2.2 Variance d’une variable aléatoire

Définition 2.2.3 On appellevarianced’une variable aléatoire réelleX, la quantité Var(X)définie par

Var(X) = E((X − E(X))2).

Exercice 2.2.2Soitk un réel. Montrer que

1. Var(k.X) = k2.Var(X),

2. Var(X + k) = Var(X),

3. Var(X) = E(X2)− [E(X)]2.

Définition 2.2.4 On appelle l’écart-type d’une variable aléatoire réelleX, la quantitéσ(X) définie par

σ(X) =√

Var(X).

Exemple 2.2.2SoitX une variable aléatoire binomiale de paramètresn et p (n ∈ N∗ et0 < p < 1). On a

X(Ω) = 0, 1, 2, . . . , n et P (X = i) = Cinp

i(1− p)n−i.

Calculons d’abordE(X2), ou mieux encore, pour un calcul plus facile calqué sur celuidel’espérance,E(X(X − 1)) :

E(X(X − 1)) =

n∑

i=0

i(i− 1)n!

i!(n− i)!pi(1− p)n−i

= npn∑

i=0

n!

(i− 2)!(n− i)!pi(1− p)n−i

= n(n− 1)p2n∑

i=2

(n− 2)!

(i− 2)!(n− i)!pi−2(1− p)n−i

= n(n− 1)p2

et donc on aE(X2) = E(X(X − 1)) + E(X) = n(n− 1)p2 + np.

En fin

Var(X) = E(X2)− [E(X)]2 = n(n− 1)p2 + np− (np)2 = np(1− p).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 29

Exemple 2.2.3Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → X(Ω) la variablealéatoire de Bernoulli, c’est-à-dire queX(Ω) = 0, 1 etP (X = 0) = q, P (X = 1) = poù0 < q, p < 1 p+ q = 1.L’espérance de la variable aléatoire de Bernoulli est

E(X) =1∑

i=0

iP (X = i) = 0P (X = 0) + 1P (X = 1) = 0(1− p) + 1p = p.

E(X2) = 02.p+ 12.q = q = 1− p.

E(cos(πX)) = cos(0).p+ cos(π).q = p− q = p− (1− p) = 2p− 1.

Var(X) = E(X2)− [E(X)]2 = p− p2 = p(1− p).

2.3 Variable aléatoire ayant une densité

Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → J une variable aléatoire. Onappelle fonction de répartition deX la fonction réelle de variable réelle

x 7→ FX(x) = P (X < x).

2.3.1 Densité d’une variable aléatoire

Soit (Ω,B, P ) un espace probabilisé fini etX : Ω → J une variable aléatoire. Unefonctionf : R → R est la densité de la variableX si et seulement si

1. la fonctionf est positive,

2.∫ +∞−∞ f(t)dt = 1.

La densité de la variable aléatoireX est donnée par :

fX(x) = limh→0

FX(x+ h)− FX(x)

h= F ′

X(x).

Si la variableX a une densitéfX alors la fonction de répartition est

FX(x) =

∫ x

−∞fX(t)dt.

En général, on a

P (a ≤ X ≤ b) =

∫ b

a

fX(t)dt = FX(b)− FX(a).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 30

2.3.2 Espérance mathématique d’une variable aléatoire à densité

Si la variableX a une densitéf alors l’espérance mathématique :

E(X) =

∫ +∞

−∞tfX(t)dt.

2.3.3 Variance d’une variable aléatoire à densité

Si la variableX a une densitéf alors l’espérance mathématique :

Var(X) =

∫ +∞

−∞(t−E(X))2fX(t)dt =

∫ +∞

−∞t2fX(t)dt− (E(X))2.

Exemple 2.3.1On considère la variable aléatoire dont la densitéfX donnée par

fX(t)

t si t ∈ [0, 1],

−t + 2 si t ∈]1, 2],

E(X) =

∫ 2

0

tfX(t)dt =

∫ 1

0

t2dt+

∫ 2

1

t(2 − t)dt =1

3+

(

3− 7

3

)

= 1.

E(X2) =

∫ 2

0

t2fX(t)dt =

∫ 1

0

t3dt+

∫ 2

1

t2(2− t)dt =1

4+

(14

3− 15

4

)

=7

6.

Var(X) =

∫ +∞

−∞t2fX(t)dt− (E(X))2 =

7

6− 12 =

1

6= 0.1667.

L’ écart-type de la variable aléatoire réelleX dont la densitéfX est donnée par

0 0.5 1 1.5 20

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

t

f X(t

)

La fonction densité fX

σ(X) =√

Var(X) =

1

6= 0.4082.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 31

2.3.4 Loi uniforme sur (a, b)

Définition 2.3.1 Une variable aléatoireX est diteuniforme ou équirépartie sur (a, b)avecb > a, si sa densité de probabilité a pour expression :

fX(t) =

1

b−a, si t ∈ (a, b),

0, sinon.

On peut calculer l’espérance mathématique ou la moyenne de cette variable aléatoire, savariance et son écart-type :

E(X) =

∫ b

a

tfX(t)dt =

∫ b

a

t

b− adt =

a+ b

2.

E(X2) =

∫ b

a

t2fX(t)dt =

∫ b

a

t2

b− adt =

a2 + ab+ b2

3.

var(X) = E(X2)− (E(X))2 =(b− a)2

12.

σ(X) =√

Var(X) =

(b− a)2

12=

b− a

2√3.

0 200 400 600 800 1000−4

−3

−2

−1

0

1

2

3

4Tirages de la loi uniforme sur [−π,π]

2.3.5 Loi normaleN (µ, γ) ou v.a. gaussienne

Définition 2.3.2 Une variable aléatoireX a une loi normale réduite si elle a une densitéϕ définie par :

ϕ(t) =1√2π

e−t2/2.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 32

On dit que c’est la loi normaleN (0, 1). La fonction de répartitionΠ associée à la variableX est définie par

Π(x) =1√2π

∫ x

−∞e−t2/2dt.

Valeurs numériques deΠ(x)

x 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9Π(x) 0.5 0.54 0.579 0.618 0.655 0.692 0.726 0.758 0.788 0.816

x 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9Π(x) 0.841 0.864 0.885 0.903 0.919 0.933 0.945 0.955 0.964 0.971

x 2.0 2.2 2.4 2.6 2.8 3.0 3.3 3.6 4.0 4.5Π(x) 0.977 0.986 0.992 0.995 0.997 0.9986 0.9995 0.9998 0.99996 0.999997

0 0.5 1 1.5 2 2.5 3 3.5 4 4.50.5

0.55

0.6

0.65

0.7

0.75

0.8

0.85

0.9

0.95

1

x

Π(x

)

Valeurs numériques de la fonction Π

Exercice 2.3.1 1. Montrer queΠ(x) + Π(−x) = 1.

2. SoitY la loi normaleN (µ, γ). Montrer queX = (Y−µ)√γ

est une variable aléatoireréduite.

3. Montrer que la fonction de densitéf et la fonction de répartitionF associées sontdonnées par :

f(y) =1√2πγ

e−(y−µ)2/2γ , F (y) = Π ((y − µ)/γ) .

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 33

0 1000 2000 3000 4000 5000−6

−4

−2

0

2

4

6

8

10

12

14Tirages de laloi gaussienne (var(X)=4,σ=7)

−4 −2 0 2 4 6 8 10 120

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16Histogramme de laloi gaussienne (var(X)=4,σ=7)

FIGURE 2.1 – Iciµ = var(X) etγ = σ2.

2.4 Covariance, corrélation, vecteur-moyenne et matricede covariance

Définition 2.4.1 Soit(X, Y ) deux variables aléatoires,

1. on appellecovarianceentreX etY la quantité définie par :

cov(X, Y ) = E((X − E(X))(Y ∗ − E(Y ∗))),

= E(XY ∗)− E(X)E(Y ∗).

2. On dit queX et Y ne sont pas corrélées si cov(X, Y ) = 0 soit encoreE(XY ∗) =E(X)E(Y ∗).

3. On appellecoefficient de corrélationla quantité définie par :

ρ(X, Y ) =cov(X, Y )

var(X)√

var(Y ).

Par l’inégalité de Schwarz on a−1 ≤ ρ(X, Y ) ≤ 1. Soit (X1, . . . , Xn) n variables aléa-toires de moyennes respectivesE(Xi).

1. On appellevecteur-moyennele vecteur de dimensionn dont les composantes sontles moyennesE(Xi).

2. On appellematrice de covariancela matriceC de dimension(n×n) dont l’élémentgénérateur estCij = cov(Xi, Xj) pour1 ≤ i ≤ n et1 ≤ j ≤ n.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 34

2.4.1 Notation matricielle

Si on note :

X =

X1...

Xn

le vecteur aléatoire dont lesn composantes sont les variables aléatoiresXk, le vecteur-moyenne s’écrit :

E(X) =

E(X1)...

E(Xn)

et la matrice de covariance :

C = E((X− E(X))(X− E(X))T ).

Notons que les éléments diagonaux de la matrice de covariance représentent les variancesrespectives desn variables aléatoires ; ils sont donc positifs.Si lesn variables aléatoires ne sont pas corrélées, leur matrice decovariance est diagonale.

Propriété 2.4.1 Toute matrice de covariance est positive. Ce qui signifie que, quel que soitle vecteurx ∈ Rn on axTCx ≥ 0.

Démonstration. Considérons la v.a.Y =∑N

k=1 ak(Xk − E(Xk)). On aE(|Y |2) ≥ 0 carl’espérance mathématique d’une variable aléatoire positive est positif. Exprimons mainte-nantE(|Y |2), il vient :

E(|Y |2) = E

(N∑

k=1

ak(Xk −E(Xk))N∑

`=1

a∗`(X` −E(X`))∗

)

=

N∑

k=1

N∑

m=1

akE ((Xk − E(Xk))(X` − E(X`))∗) a∗m

=N∑

k=1

N∑

m=1

akckma∗m = xTCx

commeE(|Y |2) ≥ 0 alorsxTCx ≥ 0 pour toutx ∈ Rn.

2.4.2 Suite blanche

Définition 2.4.2 SoitX1, . . . , Xn n variables aléatoires. On dit qu’elles forment une suiteblanche si on a à la foi

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 35

i) var(Xi) = σ2 = constante,

ii) et cov(Xi, Xj) = 0 pour i 6= j.

Leur matrice de covaraince s’écrit donc :

C = σ2In

où In est la matrice identité de taillen× n.

Exercice 2.4.1SoitX1, . . . , Xn des varaibles aléatoires indépendantes.

1. Montrer qu’elles ne sont pas corrélées.

2. Montrer que leur matrice de covariance est diagonale.

3. Justifier que la réciproque est fausse en général.

2.5 Introduction

Lorsqu’on mesure une caractéristique en un point, on peut considérer la valeur obtenuecomme la réalisation d’une variable aléatoire en ce point. Il en est de même pour tous lespoints d’un site donné. On a donc un grand nombre (ou une infinité) de v.a. représentantconjointement un site. La géostatistique adopte ce point devue et considère la distributionconjointe de toutes ces v.a.

Il y a deux étapes principales dans une étude géostatistique:– identification des caractéristiques des v.a.. L’outil principal utilisé est le variogramme

(section 9.2),– utilisation de ces caractéristiques et des valeurs connues pour l’estimation optimale

aux points (ou sur des volumes) non mesurés. La méthode utilisée est le krigeage(section 9.3).

2.6 Le vraiogramme

Idée : La nature n’est pas entièrement “imprévisible”. Deux observations situées l’une prèsde l’autre devraient, en moyenne,se ressemblerdavantage (i.e. être pluscorrélées) quedeux observations éloignées.

Exemple 2.6.1Soit trois localisationsx0, x1 etx2, que l’on déplace par translation sur lesite. On mesure la valeur en chacun de ces points.

x0 x1 x2

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 36

La valeur au pointx1 devrait ressembler plus (en moyenne) à celle observée enx0 qu’àcelle enx2.

Supposons maintenant que l’on connaît uniquement la valeuraux pointsx1 et x2. Ona peut-être intérêt à utiliser l’information contenue enx1 et x2 pour fournir une bonneestimation de la valeur enx0.

Notion de “continuité” de la minéralisation : Implicitement toutes les méthodes d’es-timation, d’interpolation et de cartographie reposent surce concept. En géostatistique, oncherche à quantifier cette continuité préalablement à l’estimation pour pouvoir l’utiliserlors de l’estimation.

Soit deux pointsx etx+ h séparés d’une distanceh.

x • − − −−−−−−−−−−−−−−−−−−−−− • x+ h

La teneur enx est une variable aléatoireZ(x), la teneur enx+h est aussi une v.a.Z(x+h).La différence entre les valeurs prises par ces deux v.a. estZ(x)−Z(x+h). C’est égalementune v.a. dont on peut calculer la variance. Cette variance devrait être plus petite lorsque lespoints sont rapprochés (les valeurs se ressemblent plus en moyenne) et plus grande lorsqueles points sont éloignés.

On appelle variogramme la demi-variance de cette différence, i.e.

γ(h) := γ(x, x+ h) =1

2var (Z(x)− Z(x+ h)) .

Si l’on considèren localisations différentesx1, x2, . . . , xn, la meilleure description quel’on puisse faire des n variables aléatoiresZ(x1), Z(x2), ..., Z(xn) est d’établir la fonctionde distribution conjointe (multivariable) ou la fonction de répartition. Clairement, ceci n’estpas possible puisqu’on ne peut disposer généralement que d’une seule observation à chacunde cesn points. On pourrait formuler une hypothèse très forte du genre : le vecteur desv.a. suit une loi multinormale de moyennes et variances-covariances spécifiées. Ceciserait beaucoup trop restrictif.

La géostatistique a des visées plus modestes. On veutestimer des paramètres sta-tistiques à partir des données et ne pas imposer un modèle à priori qui aurait toutes leschances de s’avérer inadéquat. Les paramètres que l’on cherchera à estimer ne sont pasla fonction de distribution conjointe, ni même la fonction de distribution bivariable (i.e.les v.a. considérées deux à deux) mais simplement les deux premiers moments (moyenne,variance, covariance) des v.a. prises deux à deux. Même réduit à cela, on ne dispose tou-jours que d’une seule paire d’observations situées précisément aux pointsx et x + h. Onne peut donc estimer les paramètres statistiques sans formuler certaines hypothèses. Ceshypothèses ont uniquement pour but de permettre l’estimation des paramètres statistiquesde notre modèle à partir des données. On les appelle hypothèses de stationnarité du secondordre ; elles visent essentiellement à “détacher” les deux premiers moments de localisa-tions précises en permettant des translations des emplacementsx et x + h. La covariance(et le variogramme) deviennent donc des fonctions dépendant uniquement de la distanceséparant les points d’observation et non plus de leur localisation exacte.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 37

2.6.1 Hypothèses de base et définition

on suppose que :

i) L’espérance mathématique ne dépend pas dex, i.e.E (Z(x)) = m ou L’espérancedes écarts est zéro i.e.E (Z(x)− Z(x+ h)) = 0,

ii) La covariance entreZ(x) etZ(x+ h) ne dépend que deh,i.e. Cov(Z(x), Z(x + h)) = C(h) ; stationnarité du second ordre,C(h) est appeléfonction de covariance ou covariogrammeou Le variogrammeγ(h) ne dépend pas de la localisationx, seulement deh (soit enmodule, soit en module et en direction). i.e.

1

2Var(Z(x)− Z(x+ h)) = γ(h);

hypothèse intrinsèque(cette dernière hypothèse est légèrement moins restrictiveque la stationnarité du second ordre).

Évidemment, ces hypothèses supposent une certaine régularité, une certaine homogénéitédu gisement étudié. Si on peut reconnaître des zones très différentes géologiquement, on ahabituellement intérêt à les traiter séparément.

La fonction la plus utilisée en géostatistique pour décrirela continuité de la minéra-lisation est le variogramme, et ce surtout parce qu’elle estplus simple à estimer que lacovariance (qui demande l’estimation préalable de l’espérance mathématique), mais éga-lement parce qu’elle permet d’accommoder les situations ouVar(Z(x)) n’est pas définie.

Le variogramme théorique est défini comme :

γ(h) =1

2Var(Z(x)− Z(x+ h)) =

1

2E[(Z(x)− Z(x+ h))2

],

où x est le vecteur de coordonnées (1, 2 ou 3 coordonnées selon le cas)h est le vecteurdistance i.e. en1D on parle dex ∈ R, en2D on parle dex ∈ R2 et en3D on parle dex ∈ R3.

Propriété 2.6.1 Soitγ un variogramme :

1. γ est une fonction paire, à valeurs positives.

2. γ est souvent une fonction croissante bornée. Dans ce cas, lepalier est la limite duvariogramme à l’infini et laportée est la distance où le palier est quasiment atteintune valeur dont le pourcentage entre95% et 100%. Lorsqu’il existe, la varianceC0

est ce palier.

Cette fonction, habituellement croissante en fonction deh, synthétise beaucoup d’informa-tions concernant le comportement conjoint des variables aléatoires et concernant “la conti-nuité” de la minéralisation. Ainsi, pour les modèles de variogramme montrant un seuil, ona :

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 38

i) Portéea : Distance où deux observations ne se ressemblent plus du tout en moyenne,elles ne sont plus liées (covariance nulle) linéairement. Àcette distance, la valeur duvariogramme correspond à la variance de la variable aléatoire.

ii) Palier σ2 = C0 + C : Variance de la v.a. (Var(Z(x)) Écarts les plus grands, enmoyenne entre deux v.a.

iii) Effet de pépiteC0 : Variation à très courte échelle, erreurs de localisation,erreursd’analyse et précision analytique. Lapépite est la limite du variogramme lorsqueh → 0. Elle représente la variation entre deux mesures effectuées à des emplace-ments infiniment proches, et peut donc provenir de trois effets :– une variabilité naturelle du paramètre mesuré : il pourra par exemple prendre deux

valeurs différentes si mesuré à deux instants différents ;– une variabilité de l’instrument de mesure : la pépite mesure donc en partie l’erreur

statistique de l’instrument de mesure ;– un réeleffet pépite : une variation brutale de paramètre mesuré ; le cas le plus

connu est le passage sans transition d’une pépite de cuivre ou d’or à un sol necontenant pas de cuivre ou d’or.

Exemple 2.6.2Une carotte fendue en deux (coupée en deux) et dont chaque partie est ana-lysée séparément ne fournira pas exactement les mêmes valeurs pour les deux moitiés. Unmême paquet de poudre, séparé en deux parties pour analyse nedonnera pas exactementla même teneur.

Notes

i) Lorsqueh = 0 on a

γ(0) =1

2Var (Z(x)− Z(x)) = 0 6= C0,

par contrelimε→0+

γ(ε) = C0 = pépite

i.e. on a une discontinuité à l’origine du variogramme.

ii) Parfois les variogrammes ne montrent pas de palier (dansce cas, la covariance et lavariance n’existent pas).

iii) Lorsque les variogrammes montrent un palier alors on peut facilement établir le lienentre la valeur du variogramme pour la distance h et la covariance pour deux obser-vations séparées de h.

Propriété 2.6.2 γ(h) = σ2 − C(h) ouh 7→ C(h) est appelé la fonction de covariance deZ. Cette relation est de grande importance et elle est continuellement utilisée en géostatis-tique.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 39

Démonstration.

γ(h) =1

2Var (Z(x)− Z(x+ h))

=1

2[Var (Z(x)) + Var (Z(x+ h))− 2Cov (Z(x), Z(x+ h))]

= σ2 − C(h).

On voit que lorsque la portéea est atteinte, il n’y a plus de covariance entre les v.a., i.e.C(h) = 0 si h ≥ a. Lorsqu’il y a un palier, les deux fonctions sont équivalentes en ce sensqu’elles fournissent la même information sur le processus.

Le variogramme possède toutefois deux avantages sur le covariogramme.

i) Le variogramme est défini même s’il n’y a pas de palier.

ii) Dans l’expression du variogramme, la constante “E(Z(x)) = m” n’apparaît pas etl’on n’a donc pas besoin de l’estimer comme c’est le cas lorsqu’on veut calculerdirectement le covariogramme.

0 0.5 1 1.5 2 2.5 3−0.5

0

0.5

1

1.5

2

2.5

3

3.5

h

γ(h)

Variogramme expérimental et théorique

C0

Palier (C0+C)

Porté (a)

FIGURE 2.2 – Représentation d’un variogramme théorique avec des valeurs numérique

Propriété 2.6.3 (variogramme stationnaire)Soitγ un variogramme stationnaire, alors

1. γ(0) = 0,

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 40

2. γ(h) ≥ 0, pour touth,

3. La fonctionh 7→ γ(h)|h|2 est bornée lorsqueh → ∞,

4. γ est paire,

5. Si le variogramme est borné à l’infini, la fonction aléatoire est stationnaire d’ordre2 ; il existe alors une covariance stationnaireC(h) telle queγ(h) = C0 − C(h).

2.6.2 Estimation du variogramme

On estime le variogramme à l’aide de

γe(h) =1

2Nh

Nh∑

i=1

(Z(xi)− Z(xi + h))2

oùNh nombre de paires dont les points sont espacées deh.Pour un champ donné, rien n’assure que la continuité soit identique dans toutes les di-

rections. Par exemple, il se pourrait que des teneurs montrent une meilleure continuité pa-rallèlement à la stratigraphie que perpendiculairement à celle-ci. De même, pour la conta-mination par des hydrocarbures, on pourrait observer une meilleure continuité horizonta-lement que verticalement en raison de la gravité. Si le nombre d’observations le permet(typiquement au moins 50, préférablement 100), on peut chercher à vérifier ce point encalculant le variogramme expérimental dans différentes directions.

On peut calculer le variogramme selon certaines directionsspécifiques :

γe(h, ϑ) =1

2Nh,ϑ

Nh,ϑ∑

i=1

(Z(xi)− Z(xi + h))2

oùNh,ϑ est le nombre de paires séparées deh dans la directionϑ.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 41

N = 1831

points concentriques

FIGURE 2.3 – Représentation de la dispersion de point dans des directionsϑ

En pratique on s’accorde unetolérance sur h et surϑ afin d’avoir suffisamment depaires pour chaqueh et chaqueϑ. Pour chacune des classes ainsi formées, on calcule ladistance moyenne séparant les extrémités des paires (abscisse) et on évalue le variogrammeexpérimental pour chaque classe. On obtient donc une série de points expérimentaux aux-quels on cherche à ajuster un modèle (i.e. expression analytique) permettant de déduirela covariance entre deux points quelconque en fonction de leur espacement géographique(et, éventuellement, de la direction qu’ils définissent). Une fois le modèle adopté, toutela suite des calculs se fait avec les valeurs obtenues du modèle et non avec les valeursexpérimentales.

2.7 Krigeage à variogramme connu

Depuis les travaux du géologue sud-africain D.-G. KRIGE dans les années 1950, puisla formulation de la théorie des variables régionalisées (V.R.) par G. MATHERON (1951,1962), le krigeage a été largement utilisé, tout d’abord dans les problèmes d’estimationdes gisements miniers, puis comme méthode générale d’interpolation. En bref, le krigeageconsiste à estimer une variable en un point (krigeage ponctuel) ou la moyenne d’une va-riable sur un domaine (krigeage zonal) à partir d’échantillons d’implantation connue.La large diffusion de cette méthode est avant tout due à deux de ses caractéristiques :

i) le krigeage est un estimateur non-biaisé et optimal ;

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 42

ii) le krigeage permet le calcul d’une variance d’estimation.

Sous l’une de ses formes (krigeage à variogramme connu) le krigeage utilise l’hypothèseirttrinsèque (MATHERON, 1962) qui stipule notamment que levariogrammeγ(h) est sta-tionnaire sur le domaine étudié.

L’étude expérimentale du variogramme, étape nécessaire avant la mise en oeuvre dukrigeage, constitue un puissant moyen pour l’analyse structurale de la variable régionalisée(V.R.) étudiée (SERRA, 1967). Le présent article traite de l’étude du variogramme et de sonutilisation dans le krigeage lorsque la V.R. échantillonnée est affectée d’erreurs de mesureconnues a priori. Ce cas se présente notamment lorsque la V.R. étudiée est le résultat d’uneanalyse statistique en chaque point de donnée, laquelle fournit une moyenne et une erreur-type. Le système de krigeage qu’il convient d’utiliser dansce cas a également été étudiépar J.P. DELHOMME (1976). L’une démarche analogue a été utilisée par l’auteur pourla cartographie côtière en présence de mesures photogrammétriques et bathymétriques deprécision fort différente.

2.7.1 LES ÉQUATIONS DU KRIGEAGE

Puisqu’on peut calculer la variance d’estimation pour toutestimateur linéaire, pourquoine pas choisir celui qui assure la variance d’estimation minimale ? C’est précisément cequ’effectue le krigeage. Dans le cas stationnaire, on en reconnaît deux types principaux,selon que la moyenne du processus est connu ou non, soit le krigeage simple et le krigeageordinaire. Ce dernier est, de loin, le plus fréquemment utilisé.

Le krigeage envisagé est le krigeage ponctuel universel à variogramme connu :

i) Ponctuelsignifie que l’on cherche à estimer la valeurZ∗v prise par la V.R.Z en un

pointxv non échantillonné,

ii) Universelsignifie que la méthode est applicable même en présence d’unedérive nonstationnaire sur le domaine étudié (la dérivem(x) est l’espérance de la V.R.Z aupointx : E(Z(x))).

m(x) = E(Z(x)).

iii) A variogramme connusignifie que l’on utilise l’hypothèse intrinsèque : l’hypothèseintrinsèque stipule que les accroissementsZ(x) − Z(x + h) entre deux points dis-tants deh (et non la V.R.Z elle-même) admettent, sur le domaine étudié, les deuxmoments stationnaires suivants :

M(h) = E(Z(x)− Z(x+ h)),

γ(h) =1

2Var(Z(x)− Z(x+ h)).

La fonctionM(h) est la dérive linéaire. Sa valeur ne dépend que de la distanceh :

M(h) = m(x)−m(x+ h), quel que soitx.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 43

La fonctionγ(h) est le demi-variogranune ou variogramme, ou fonction intrinsèque,également indépendante de la coordonnéex.

Pour établir les équations du krigeage, nous supposons que la dérive peut être appro-chée, dans le voisinage du pointx0 où l’on cherche à estimerZ0, par la forme linéaire :

m(x) =

n∑

`=1

a`B`(x),

où B` = B(., Z`), 1 ≤ ` ≤ n est une famille qui forme une base d’espace vectoriel dedimensionn dans lequel on estime et lesa` sont des coefficients inconnus.

Si l’on noteγij le variogrammeγ(d(i, j)) pour la distance entre deux pointsxi etxj , sin est le nombre de points connus et le sous-indicev désigne le point inconnu, le systèmed’équations du krigeage ponctuel universel à variogramme connu s’écrit :

n∑

j=1

λj .γij +n′∑

`=1

µ`.B(Zi, Z`) = γiv, ∀1 ≤ i ≤ n,

n′∑

j=1

µj.B(Zj, Z`) = B(Zv, Z`), ∀1 ≤ ` ≤ n,

où lesµ` sont lesn′ paramètres de Lagrange associés aux conditions d’optimalité de l’es-timation, et lesλj sont les poids associés aux mesuresZj pour l’estimation deZ :

Z∗v =

n∑

i=1

λiZi.

La variante d’estimation ou variante de krigeage est donnéepar :

σ2k =

n∑

i=1

λiγ(xv, xi) +n′∑

i=1

µiB(Zv, Zi),

oùZv etZi sont respectivement les v.a. placées aux pointsxv etxi.

2.7.2 Krigeage ordinaire

Supposons que l’on veuille estimer un blocv centré au pointxv. NotonsZv la vraie valeur(inconnue) de ce bloc etZ∗

v l’estimateur que l’on obtient.L’estimateur est linéaire, i.e. :

Z∗v =

n∑

i=1

λiZi

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 44

où lesZi désignent les v.a. correspondant aux points échantillons.On veut minimiser :

σ2e = Var(Zv − Z∗

v ) = Var(Zv) + Var(Z∗v )− 2Cov(Zv, Z

∗v ).

Substituant l’expression de l’estimateur dans cette équation, on obtient :

σ2e = Var(Zv) +

n∑

i=1

n∑

j=1

λiλjCov(Zi, Zj)− 2

n∑

i=1

λiCov(Zv, Zi).

Estimateur sans biais

Définition 2.7.1 On dit que l’estimateur estsans biaissi et seulement si

n∑

i=1

λi = 1.

Dans le cas d’un estimateur sans biais, les v.a.Zi associées à des positionsxi pour1 ≤ i ≤n, ont une espérance mathématique (ou moyenne) constante, eneffet :

E(Z∗v ) =

n∑

i=1

λiE(Zi) =n∑

i=1

λim = m.

On obtient un problème de minimisation d’une fonction quadratique (donc convexe)sous contrainte d’égalité que l’on solutionne par la méthode de Lagrange. On forme lelagrangien :

L(λ) = σ2e + 2µ

(n∑

i=1

λi − 1

)

= Var(Zv) +n∑

i=1

n∑

j=1

λiλjCov(Zi, Zj)− 2n∑

i=1

λiCov(Zv, Zi) + 2µ

(n∑

i=1

λi − 1

)

Ou µ est le multiplicateur de Lagrange. Le minimum est atteint lorsque toutes les de-rivees partielles par rapport a chacun desλi et par rapport aµ s’annulent. Ceci conduit ausysteme de krigeage ordinaire :

∂L(λ)∂λi

= 2

n∑

j=1

λjCov(Zi, Zj) + 2µ− 2Cov(Zv, Zi) = 0,

∂L(λ)∂µ

= 2

(n∑

i=1

λi − 1

)

= 0.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 45

ce qui équivalent au système

n∑

j=1

λjCov(Zi, Zj) + µ = Cov(Zv, Zi),

n∑

i=1

λi = 1.

La variance d’estimation minimale,appelée variance de krigeage, est obtenue en substi-tuant les équations de krigeage dans l’expression généralepour la variance d’estimation :

σ2ko = Var(Zv)−

n∑

i=1

λiCov(Zv, Zj)− µ.

Cette variance de krigeage ne dépend pas des valeurs observées, elle ne dépend que duvariogramme et de la configuration des points servant à l’estimation par rapport au point(ou bloc) à estimer.

Système de krigeage écrit en terme du variogramme :

Comme la variance d’estimation s’ecrit aussi directement en terme du variogramme,on peut aussi ecrire le systeme de krigeage en fonction du variogramme. Ceci tient au fait

queC(h) = σ2 − γ(h) et quen∑

i=1

λi = 1.

n∑

j=1

λjγ(xi, xj) + µ = γ(v, xi), ∀1 ≤ i ≤ n

n∑

i=1

λi = 1.

et, alors

σ2ko =

n∑

i=1

λiγ(v, xi)− γ(v, v)− µ.

Il est intéressant de visualiser le système de krigeage ordinaire et la variance de krigeageordinaire sous forme matricielle :

K0λ0 = k0 et σ2k0

= σ2v − λT

0 k0,

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 46

K0 =

σ2 Cov(Z1, Z2) . . . . . . Cov(Z1, Zn) 1Cov(Z2, Z1) σ2 Cov(Z2, Z3) . . . Cov(Z2, Zn) 1

... Cov(Z3, Z2). . . . . .

......

......

. . . . . . Cov(Zn−1, Zn)...

Cov(Zn, Z1) Cov(Zn, Z2) . . . Cov(Zn, Zn−1) σ2 11 1 . . . 1 1 0

λ0 =

λ1

λ2...λn

µ

, k0 =

Cov(Z1, Zv)Cov(Z2, Zv)

...Cov(Zn, Zv)

1

et σ2v = C(v, v).

2.7.3 Krigeage simple

Parfois on connaît la moyenne “E(Z(x)) = m” du champ à estimer ou du moins onen possède un estimé fiable. On peut alors former un estimateur sans biais sans imposer lacontrainte que la somme des poids soit égale à 1.

Z∗v =

n∑

i=1

λiZi +

(

1−n∑

i=1

λi

)

m.

Tout comme pour le krigeage ordinaire, on écrit la variance d’estimation et on substituel’expression précédente pour l’estimateurZ∗

v . On trouve :

σ2e = Var(Zv) +

n∑

i=1

n∑

j=1

λiλjCov(Zi, Zj)− 2n∑

i=1

λiCov(Zv, Zi).

On derive cette expression par rapport a chacun desλi. On trouve alors le systeme dekrigeage simple :

Système de krigeage simple

n∑

j=1

λjCov(Zi, Zj) = Cov(Zv, Zi), ∀1 ≤ i ≤ n

et la variance d’estimation, appelée variance de krigeage simple s’écrit :

σ2ks = Var(Zv)−

n∑

i=1

λiCov(Zv, Zj).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 47

– La variance de krigeage simple est toujours inferieure a lavariance de krigeage or-dinaire car on n’a pas besoin d’imposer de contrainte sur lespoidsλi. Toutefois, ellerequiert la connaissance de la moyenne “m”. De plus, l’hypothese de stationnariterequise est plus forte que dans le cas du krigeage ordinaire.Dans le cas du krigeageordinaire, seule l’hypothese intrinseque est requise. Dans le cas du krigeage simple,la stationnarite est necessaire. Ainsi, il n’est pas possible d’effectuer un krigeagesimple si le variogramme ne presente pas de palier.

– Le systeme de krigeage simple (KS) ne peut s’ecrire directement en termes de vario-

grammes puisqu’on n’a pasn∑

i=1

λi = 1.

– En termes pratiques, les estimés obtenus par krigeage ordinaire (KO) et simple (KS)sont très similaires lorsqu’on effectue le krigeage à courte distance par rapport auxpoints connus et par rapport à la portée du variogramme et quele variogrammemontre une structure importante. Lorsqu’on effectue l’estimation à grande distanceou si le variogramme montre un effet de pépite plus important, alors l’estimation KOconsistera essentiellement en une moyenne des points du voisinage et l’estime KSsera simplement la moyenne supposée connue, i.e. “m”.

– Règle générale, le KO est préférable au KS. Dans certaines applications telles lekrigeage d’indicatrices et les simulations il est préférable de recourir au KS.

2.7.4 Quelques cas très simples de krigeage :

Ces quelques cas sont présentés dans le seul but d’acquérir une certaine intuition ducomportement du krigeage. On suppose un variogramme sphérique de portée finie “a”.

i) Estimation d’un point par un autre point situé à une distance “h”

(a) Krigeage ordinaire :

λ1 = 1, σ2ko =

2 (σ2 − C(h)) = 2γ(h), ∀0 ≤ h <≤ a2σ2, ∀h > a.

(b) Krigeage simple :

λ1 =C(h)

σ2, σ2

ks =

(

σ2 − C(h)

σ2

)

= 2γ(h), ∀0 ≤ h ≤ a

σ2, ∀h > a.

Il est possible d’avoir une variance de krigeage ordinaire supérieure à la variancethéorique de la variable étudiée !

ii) Estimation d’un bloc “v” par un point situé en “x1”.

(a) Krigeage ordinaire :

λ1 = 1, σ2ko = σ2 + σ2

v − 2C(v, x1)

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE 48

(b) Krigeage simple :

λ1 =C(v, x1)

σ2, σ2

ks = σ2v −

(C(v, x1)

)2

σ2

iii) Estimation d’un point situé enx0 par deux points situés en “x1” et “x2”

(a) Krigeage ordinaire :

λ1 =σ2+C(x0,x1)−C(x1,x2)−C(x0,x2)

2(σ2−C(x1,x2)),

λ2 =σ2+C(x0,x2)−C(x1,x2)−C(x0,x1)

2(σ2−C(x1,x2)).

(b) Krigeage simple :

λ1 =σ2C(x0,x1)−C(x1,x2)C(x0,x2)

(σ2)2−(C(x1,x2))2,

λ2 =σ2C(x0,x2)−C(x1,x2)C(x0,x1)

(σ2)2−(C(x1,x2))2.

Dans les deux cas, les poids peuvent être négatifs dépendantde la position respectivedes trois points. Dans le cas du krigeage simple, les poids sont nuls si les 2 pointssont à une distance dex0 supérieure à la portée.

iv) Estimation d’un point par “n” points en présence d’un variogramme effet de pépitepur.

(a) Krigeage ordinaire :

λi =1

net σ2

ko =

(

1 +1

n

)

σ2.

(b) Krigeage simple :λi = 0 et σ2

ks = σ2.