56
Chapitre 3

Chapitre 3 - Personal Homepageshomepages.ulb.ac.be/~shormann/teaching/N_chap3.pdfPlan du cours 1. Vecteurs al eatoires. 2. Loi normale multivari ee. 3. Inf erence dans les mod eles

Embed Size (px)

Citation preview

Chapitre 3

Plan du cours

1. Vecteurs aleatoires.

2. Loi normale multivariee.

3. Inference dans les modeles gaussiens.

4. Methodes classiques de l’analyse multivariee.

5. Inference dans les modeles non gaussiens.

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

MLELe resultat suivant donne les estimateurs du maximum devraisemblance de µ et Σ pour un echantillon gaussien p-varie.

Theoreme: soient X1, . . . ,Xn i.i.d. Np(µ,Σ). Alors lesestimateurs du maximum de vraisemblance de µ et de Σ sontrespectivement

µ = X :=1

n

n∑i=1

Xi et Σ :=1

nW :=

1

n

n∑i=1

(Xi − X )(Xi − X )′.

Preuve: la vraisemblance de cet echantillon est donnee par

L(n)µ,Σ =

n∏i=1

[( 1

) p2 1

|Σ|12

exp(− 1

2(Xi − µ)′Σ−1(Xi − µ)

)],

de sorte que la log-vraisemblance est

log L(n)µ,Σ = C − n

2log |Σ| − 1

2

n∑i=1

[(Xi − µ)′Σ−1(Xi − µ)

].

MLEEn decomposant Xi − µ en (Xi − X ) + (X − µ), on obtient

n∑i=1

[(Xi − µ)′Σ−1(Xi − µ)

]=

n∑i=1

[(Xi − X )′Σ−1(Xi − X )

]+ n(X − µ)′Σ−1(X − µ)

ce qui livre

log L(n)µ,Σ = C − n

2log |Σ|

− 1

2

n∑i=1

[(Xi − X )′Σ−1(Xi − X )

]− n

2(X − µ)′Σ−1(X − µ).

Puisque Σ (et donc Σ−1) est definie-positive, on en deduit que,pour toute valeur fixee de Σ,

arg maxµ

log L(n)µ,Σ = arg min

µ(X − µ)′Σ−1(X − µ) = X .

MLE

Il ne reste donc qu’a maximiser, en Σ, la quantite

log L(n)

X ,Σ= C − n

2log |Σ| − 1

2

n∑i=1

[(Xi − X )′Σ−1(Xi − X )

].

Pour ce faire, remarquons que

n∑i=1

[(Xi − X )′Σ−1(Xi − X )

]=

n∑i=1

tr[(Xi − X )′Σ−1(Xi − X )

]=

n∑i=1

tr[Σ−1(Xi − X )(Xi − X )′

]= tr

[Σ−1

n∑i=1

(Xi − X )(Xi − X )′]

= tr[Σ−1W

].

MLE

Donc

log L(n)

X ,Σ= C +

n

2log |Σ−1(W /n)| − 1

2tr[Σ−1W

]= C +

n

2

[log |Σ−1(W /n)| − tr

[Σ−1(W /n)

]]pour une certaine quantite C qui ne depend pas de Σ.

Comme, en ecrivant W = W 1/2(W 1/2)′, on a

Σ = arg maxΣ

log L(n)

X ,Σ= arg max

Σ

[log |Σ−1(W /n)|−tr

[Σ−1(W /n)

]]= arg max

Σ

[log |(W 1/2)′Σ−1W 1/2/n| − tr

[(W 1/2)′Σ−1W 1/2/n

]],

le resultat suivant permet de conclure (puisqu’il montre que Σ esttel que (W 1/2)′Σ−1W 1/2/n = Ip, ce qui livre Σ = W /n).

MLE

Lemme: soit S la collection des matrices (p × p) symetriques etdefinies positives. Alors

arg maxT∈S

[log |T | − tr T

]= Ip.

Preuve du lemme: decomposons T en T = OΛO ′, ou O estorthogonale et Λ est diagonale (notons λi := Λii > 0). Alors

log |T |−tr T = log |OΛO ′|−tr[OΛO ′

]= log(|O||Λ||O ′|)−tr

[ΛO ′O

]= log |Λ| − tr Λ = log

( p∏i=1

λi

)−

p∑i=1

λi =

p∑i=1

[log λi − λi

].

Comme arg maxx>0(log x − x) = 1, on en deduit que le maximumen T de log |T | − tr T est atteint pour λ1 = . . . = λp = 1, c’est-a-direen T = OIpO ′ = Ip. �

MLE

Le resultat suivant donne les estimateurs du maximum devraisemblance de µ et Σ pour un echantillon gaussien p-varie.

Theoreme: soient X1, . . . ,Xn i.i.d. Np(µ,Σ). Alors lesestimateursdu maximum de vraisemblance de µ et de Σ sont respectivement

µ = X :=1

n

n∑i=1

Xi et Σ :=1

nW :=

1

n

n∑i=1

(Xi − X )(Xi − X )′.

Remarques:

I µ est sans biais pour µ; par contre, Σ est seulementasymptotiquement non biaise (E[Σ] = E[n−1

n S ] = n−1n Σ).

I Tout ceci est similaire a ce qui se passe dans le cas univarie(p = 1). En particulier, µ = X est convergent, normal,UMVU, affine-equivariant, etc.

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

Tests de Hotelling (Σ connu)

Soient X1, . . . ,Xn i.i.d. Np(µ,Σ).

Soit µ0 un p-vecteur fixe. Considerons le probleme de test{H0 : µ = µ0

H1 : µ 6= µ0.

Comme pour p = 1, il est naturel de baser la regle de decision sur X(et plus specifiquement sur la distance entre X et µ0).

Puisque X ∼ Np(µ0,1nΣ) sous H0, on a que, sous H0,

T 2c (X ) = n(X − µ0)′Σ−1(X − µ0) = d2

1n

Σ(X , µ0) ∼ χ2

p.

On rejete H0 pour de grandes valeurs de T 2c (X ).

Il en decoule qu’au niveau α, un test convenable est le test φ quiconsiste a rejeter H0 ssi T 2

c (X ) > χ2p;1−α.

Tests de Hotelling asymptotique

Bien entendu, ceci requiert que Σ soit connu.

Si Σ est inconnu, il est naturel de remplacer Σ par Σ = S ...; T 2(X ) = n(X − µ0)′S−1(X − µ0) (notation usuelle: T 2).

En utilisant le lemme de Slutzky, on obtient que, sous H0,

T 2 = n(X − µ0)′Σ−1(X − µ0) + oP(1)L→ χ2

p.

Donc, un test asymptotique (au niveau asymptotique α) consiste arejeter H0 ssi T 2 > χ2

p;1−α.

Remarque: il decoule du TCL multivarie que ce test ne requiert pasque la loi commune des Xi soit normale, mais seulement quecelle-ci ait des moments finis d’ordre 2.

Test de Student

Pour p = 1, cette statistique est simplement

T 2 =

∣∣∣∣√n (X − µ0)

s

∣∣∣∣2, ou s2 :=1

n − 1

n∑i=1

(Xi − X )2,

ce qui est le carre de la statistique de Student usuelle.

Si X1, . . . ,Xn sont i.i.d. N1(µ0, σ2), le lemme de Fisher implique que

√n(X − µ0)

s∼ tn−1,

de sorte que la loi exacte de T 2 sous H0 (pour p = 1) est F1,n−1.

Un test exact (au niveau α) consiste donc a rejeter H0 ssiT 2 > F1,n−1;1−α (c’est le test de Student usuel).

Remarque: ce test exact, contrairement au precedent, requiertclairement la normalite des Xi .

Tests de Hotelling (loi exacte)

Une question naturelle est:

Pour p > 1, quelle est la loi exacte (sous H0) de la statistique detest

T 2 = n(X − µ0)′S−1(X − µ0),

si les Xi sont i.i.d. de loi normale p-variee ?

Le lemme suivant permet de repondre a cette question:

Lemme: soient Y ∼ Np(0,Σ) et V ∼Wp(m,Σ). Alors, si m ≥ pet Y ⊥⊥ V ,

m − p + 1

pY ′V−1Y ∼ Fp,m−p+1.

Tests de Hotelling (loi exacte)

Soient X1, . . . ,Xn i.i.d. Np(µ,Σ), ou n ≥ p + 1.

En utilisant le lemme de Fisher multivarie, il decoule de ce lemmeque, sous H0 : µ = µ0,

n − p

p(n − 1)T 2 ∼ Fp,n−p.

Un test exact (au niveau α) consiste donc a rejeter H0 ssin−p

p(n−1) T 2 > Fp,n−p;1−α.

Remarque: la version asymptotique de ce test est bien le testasymptotique vu precedemment.

Ce test, qui est appele test de Hotelling, etend donc au casmultivarie le test de Student usuel.

Tests de Hotelling

Preuve du lemme: comme d’habitude nous supposons que Σ > 0.Alors Y ′V−1V = (Y ∗)′(V ∗)−1Y ∗ ou Y ∗ = Σ−1/2Y etV ∗ = Σ−1/2V Σ−1/2. Donc on peut supposer que Y ∼ Np(0, Ip) etV ∼Wp(m, Ip) = Wp(m).

On peut montrer (c’est un peu delicat), que

a′V−1a

a′a∼ 1

χ2m−p+1

∀a ∈ Rp, a 6= 0.

(Par contre, c’est facile a montrer (exercise) quea′Vaa′a ∼ χ

2m ∀a ∈ Rp, a 6= 0.)

Nous ecrivons

Y ′V−1Y =Y ′V−1Y

Y ′Y× Y ′Y = A(Y ,V )× B(Y ).

Tests de Hotelling

On note F la fonction de repartition de Y . Alors par independencede V et Y

P(A(Y ,V ) ≤ x ∩ B(Y ) ≤ y)

=

∫Rp

P(A(h,V ) ≤ x ∩ B(h) ≤ y)dF (h)

=

∫Rp

P(A(h,V ) ≤ x)I{B(h) ≤ y}dF (h)

= P

(1

χ2m−p+1

≤ x

)∫Rp

I{B(h) ≤ y}dF (h)

= P

(1

χ2m−p+1

≤ x

)P(B(Y ) ≤ y)︸ ︷︷ ︸

P(χ2p≤y)

.

Tests de Hotelling

Il decoule des calculations precedentes, que

Y ′V−1YD=

χ2p

χ2m−p+1

=χ2p/p

χ2m−p+1/(m − p + 1)

p

m − p + 1

=p

m − p + 1Fp,p−m+1.

Tests de Hotelling

Soient X1, . . . ,Xn i.i.d. Np(µ,Σ).

Le test de Hotelling, pour{H0 : µ = µ0

H1 : µ 6= µ0,

consiste (au niveau α) a rejeter H0 ssi

n − p

p(n − 1)T 2 =

(n − p)n

p(n − 1)(X − µ0)′S−1(X − µ0) > Fp,n−p;1−α.

Quelles sont les proprietes de ce test?

; Theoreme: le test de Hotelling coıncide avec le test du rapportde vraisemblance (gaussien) .

Test du rapport de vraisemblance

Preuve: pour rappel, pour le probleme de test H0 : θ ∈ Θ0 contreH1 : θ ∈ Θ\Θ0, la statistique du test du rapport de vraisemblance est

Λ(n) =LθLθ,

ou θ := arg maxθ∈Θ0 Lθ et θ := arg maxθ∈Θ Lθ sont respectivementles estimateurs de maximum de vraisemblance contraint et noncontraint pour θ.

Et le test associe consiste a rejeter H0 : θ ∈ Θ0 (au niveauasymptotique α) ssi

−2 ln Λ(n) > χ2k−k0;1−α,

ou k et k0 sont respectivement les nombres de parametres libresdans Θ et Θ0.

Test du rapport de vraisemblance

Ici, θ = (µ,Σ), Θ = Rp × Vp, ou Vp designe la collection desmatrices p × p symetriques et definies positives. EtΘ0 = {µ0} × Vp. ; k = p + p(p + 1)/2 et k0 = p(p + 1)/2.

Comme on l’a vu, θ = (µ, Σ) = (X ,W /n).

Que vaut θ = (µ, Σ)? Clairement, µ = µ0. Et en utilisant lesmemes arguments que lors du calcul de l’estimateur de maximumde vraisemblance de Σ, on montre que

Σ := W0/n, ou W0 :=n∑

i=1

(Xi − µ0)(Xi − µ0)′.

Donc

Λ(n) =LθLθ

=Lµ0,W0/n

LX ,W /n

.

Test du rapport de vraisemblanceCeci livre

Λ(n)

=(2π)−np/2|W0/n|−n/2 exp[−1

2

∑ni=1(Xi − µ0)′(W0/n)−1(Xi − µ0)]

(2π)−np/2|W /n|−n/2 exp[−12

∑ni=1(Xi − X )′(W /n)−1(Xi − X )]

.

Commen∑

i=1

(Xi − X )′(W /n)−1(Xi − X )

= tr[(W /n)−1W ] = tr[n Ip] = np

etn∑

i=1

(Xi − µ0)′(W0/n)−1(Xi − µ0)

= tr[(W0/n)−1W0] = tr[n Ip] = np,

on obtient que

Test du rapport de vraisemblance

Λ(n) =|W0/n|−n/2

|W /n|−n/2

= |W0W−1|−n/2

= |(W + n(X − µ0)(X − µ0)′)W−1|−n/2,

ou on a obtenu W0 = W + n(X − µ0)(X − µ0)′ en decomposantXi − µ0 en (Xi − X ) + (X − µ0).

Le lemme suivant est tres utile:

LemmaSuppose que C ∈ Rp×p avec |C | > 0. Alors pour tous y ∈ Rp

|C + yy ′| = |C |(1 + y ′C−1y).

Test du rapport de vraisemblance

En utilisant le lemme, on vois que

Λ(n) = |1 + n(X − µ0)′W−1(X − µ0)|−n/2

= (1 + (n − 1)−1n(X − µ0)′S−1(X − µ0))−n/2

= (1 + (n − 1)−1T 2)−n/2.

Les statistiques Λ(n) et T 2 sont donc en bijection.Par consequent, les tests associes sont equivalents. �

Test du rapport de vraisemblance

Remarque:

comme nous l’avons rappele, le test de rapport du vraisemblanceassocie consiste a rejeter H0 : θ ∈ Θ0 (au niveau asymptotique α)ssi

−2 ln Λ(n) > χ2k−k0;1−α,

c’est-a-dire, dans ce cas, ssi (pour n grand)

− 2 ln Λ(n)

− 2 ln(

(1 + (n − 1)−1T 2)−n/2)

= n ln(1 + (n − 1)−1T 2)

≈ T 2 > χ2p;1−α,

ce qui n’est rien d’autre que la version asymptotique du test deHotelling.

Tests de Hotelling

Autres proprietes du test de Hotelling:

I pour H0 : µ = 0, la statistique de test T 2 (et par suite, le testlui-meme) est invariante par transformations lineaires , ce quisignifie que T 2(AX1, . . . ,AXn) = T 2(X1, . . . ,Xn) pour toutematrice A (p × p) inversible (interpretation!)

I Cette invariance explique le fait que la loi de T 2 sous H0 nedepende pas de Σ...

I Par contre, il n’y a pas invariance par rapport au groupe destranslations (T 2(X1 + b, . . . ,Xn + b) = T 2(X1, . . . ,Xn) pourtout p-vecteur b). Heureusement! (commenter).

I Le test de Hotelling est UMPI (“uniformly most powefulinvariant”), c’est-a-dire que, pour tout test φ de niveau α etinvariant par transformations lineaires, la puissance du test deHotelling est superieure a celle de φ en tout µ( 6= µ0).

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

Zones de confiance

Les resultats distributionnels de la section precedente permettentde construire des zones de confiance pour µ.

Definition (Zones de confiance)

On appelle un ensemble C(n)1−α = C1−α(X1, . . . ,Xn) ⊂ Rp un zone

de confiance pour un parametre θ au niveau (1− α)× 100%, si

P(C(n)1−α contient θ) = 1− α.

En effet, si X1, . . . ,Xn i.i.d. Np(µ,Σ), on a vue

P

[n(X − µ)′S−1(X − µ) ≤ p(n − 1)

n − pFp,n−p;1−α

]= 1− α.

Zones de confiance

Par consequent une zone de confiance (au niveau de confiance(1− α)× 100%) est donnee par l’ellipsoıde:

C(n)1−α :=

{µ ∈ Rp

∣∣∣T 2(µ) ≤ p(n − 1)

n − pFp,n−p;1−α

}=

{µ ∈ Rp

∣∣∣ d2S(X , µ) ≤ p(n − 1)

n(n − p)Fp,n−p;1−α

}.

Zones de confiance

De meme, le fait que

P[T 2(µ) ≤ χ2

p;1−α

]→ 1− α, si n→∞,

implique, qu’une zone de confiance (au niveau de confianceasymptotique (1− α)× 100%) est donnee par l’ellipsoıde

C(∞)1−α :=

{µ ∈ Rp

∣∣T 2(µ) ≤ χ2p;1−α

}={µ ∈ Rp

∣∣ d2S(X , µ) ≤ 1

nχ2p;1−α

}.

Remarque: tout comme le test de Hotelling asymptotique, cetteprocedure ne requiert pas la normalite des Xi , mais seulementl’existence de moments finis d’ordre 2.

Exemple

Ellipses de confiance exact (rouge) et asymptotique (noir) pour

X1, . . . ,X10 (X1, . . . ,X50) N2(µ,Σ), ou

(43

)et Σ =

(5 33 2.25

).

● ●●

−2 0 2 4 6 8 10

−2

02

46

810

X_1

X_2

●●

●●

●●●

●●

●●

●●

−2 0 2 4 6 8 10

−2

02

46

810

X_1

X_2

J’ai repete cette experience 10000 fois, et calcule la proportion desexperiments ou µ n’etait pas contenu dans les ellipse de confiance:n = 10: 0.0511 (zone exact) et 0.1271 (zone asymptotique).n = 50: 0.0486 (zone exact) et 0.06 (zone asympotique).

Zones de confiance

A ces zones de confiance elliptiques

C(n)1−α =

{µ ∈ Rp

∣∣∣ d2S(X , µ) ≤ p(n − 1)

(n − p)nFp,n−p;1−α

},

il est souvent prefere en pratique des zones “rectangulaires”, quilivrent des intervalles de confiance pour chacune des composantesde µ = (µ1, . . . , µp)′.

Bien entendu, il est facile de construire des intervalles de confiancepour toute combili a′µ des composantes de µ(ici, a est un p-vecteur non nul fixe).

puisque a′X1, . . . , a′Xn sont i.i.d. N1(a′µ, a′Σa).

Zones de confiance

On obtient en effet directement que

C(n)1−α(a) :=

{t ∈ R

∣∣∣ d2a′Sa(a′X , t) ≤ 1

nF1,n−1;1−α

},

constitue une zone (un intervalle) de confiance a (1− α)× 100%pour a′µ.

Cet intervalle de confiance se reecrit simplement

a′X ±√

a′Sa

nF1,n−1;1−α,

ou encore

a′X ±√

a′Sa

ntn−1;1−α/2.

Zones de confiance

Ainsi, un intervalle de confiance a (1− α)× 100% pour µi(i = 1, . . . , p) est donne par

Ci ,(n)1−α = (X )i ±

√(S)ii

nF1,n−1;1−α.

Neanmoins, il faut insister sur le fait qu’il s’agit la d’intervalles deconfiance individuels, dans le sens ou, s’il est vrai que, ∀i = 1, . . . , p,

P[µi ∈ C

i ,(n)1−α

]≥ 1− α, il est faux (pour p ≥ 2) que

P[∀i = 1, . . . , p, µi ∈ C

i ,(n)1−α

]≥ 1− α.

Le zone rectangulaire C1,(n)1−α × . . .× C

p,(n)1−α n’est donc pas une zone

de confiance a (1− α)× 100% pour µ.

Zones de confiance

Question naturelle:

Comment construire des intervalles de confiance simultanes ?

Nous aurons besoin du lemme suivant:

Lemme soit M une matrice p × p symetrique et definie positive.Alors, ∀a, b ∈ Rp, (a′b)2 ≤ (a′Ma)(b′M−1b).

Preuve: Notez que a′Ma = ‖M1/2a‖2 et que l’inequation deCauchy-Schwarz donne

(a′b)2 = (a′M1/2M−1/2b)2

= 〈M1/2a,M−1/2b〉2

≤ ‖M1/2a‖2‖M−1/2b‖2.

Zones de confiance

Consequence: pour tout a ∈ Rp, on a

(a′(X − µ))2 ≤ (a′Sa)((X − µ)′S−1(X − µ)),

ou encore(a′(X − µ))2

a′Sa≤ 1

nT 2(µ),

de sorte que

P

[supa

(a′(X − µ))2

a′Sa≤ (n − 1)p

n(n − p)Fp,n−p;1−α

]≥ 1− α.

Zones de confiance

Des intervalles de confiance simultanes (pour tout a ∈ Rp) poura′µ a (1− α)× 100% sont donc donnes par

a′X ±

√(n − 1)p

n(n − p)(a′Sa) Fp,n−p;1−α.

Ceux-ci sont a comparer aux intervalles de confiance individuels

a′X ±√

a′Sa

nF1,n−1;1−α,

qui ont ete obtenus plus haut.

ExempleIntervalles de confiance simultanes (noir) et individuels (rouge!)

pour X1, . . . ,X10 i.i.d. N2(µ,Σ), ou µ =

(43

)et Σ =

(5 33 2.25

).

●● ●

−2 0 2 4 6 8 10

−2

02

46

810

X_1

X_2

ExempleIntervalles de confiance simultanes (noir) et individuels (rouge!)

pour X1, . . . ,X50 i.i.d. N2(µ,Σ), ou µ =

(43

)et Σ =

(5 33 2.25

).

●● ●

●●

●●

●●

●●

● ●

●●

●●

●●

● ●●

−2 0 2 4 6 8 10

−2

02

46

810

X_1

X_2

J’ai repete cette experience 10000 fois avec constellation n = 10 etn = 50 et calcule la proportion des experiments ou µ n’etait pascontenu dans les recangles de confiance: n = 10: 0.0511 (zoneindividuel) et 0.1271 (zone simultane). n = 50: 0.0486 (zoneindividuel) et 0.06 (zone simultane).

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

Problemes a plusieurs echantillons

Soient deux echantillons independants:X1, . . . ,Xn1 i.i.d. Np(µ1,Σ) et Y1, . . . ,Yn2 i.i.d. Np(µ2,Σ).

Nous considerons le probleme de test{H0 : µ1 = µ2

H1 : µ1 6= µ2.

Remarque: plus generalement, on pourrait traiter le cas ou lesmatrices de variance-covariance des deux echantillons sontdifferentes.

Dans ce cas, les tests gaussiens fondent la regle de decision surX − Y (et plus specifiquement sur la distance entre X et Y ).

Tests de Hotelling

; la statistique du test de Hotelling pour deux echantillons est

T 2 =( 1

n1+

1

n2

)−1(X−Y )′S−1

pool(X−Y ) =( 1

n1+

1

n2

)−1d2Spool

(X , Y ),

ou X :=1

n1

n1∑i=1

Xi , Wx :=

n1∑i=1

(Xi − X )(Xi − X )′,

Y :=1

n2

n2∑i=1

Yi , Wy :=

n2∑i=1

(Yi − Y )(Yi − Y )′,

et Spool :=Wx + Wy

n1 + n2 − 2.

Et il convient de rejeter H0 : µ1 = µ2 pour de grandes valeurs deT 2.

Tests de Hotelling (loi exacte)

Le resultat suivant precise la loi exacte (sous H0) de la statistiquede test de Hotelling:

Proposition: supposons que n1 + n2 ≥ p + 2. Alors sous H0,

n1 + n2 − p − 1

p(n1 + n2 − 2)T 2 ∼ Fp,n1+n2−p−1.

Le test de Hotelling exact consiste donc (au niveau α) a rejeterH0 : µ1 = µ2 ssi n1+n2−p−1

p(n1+n2−2) T 2 > Fp,n1+n2−p−1;1−α.

Dans sa version asymptotique, ce test rejette H0 : µ1 = µ2 ssiT 2 > χ2

p;1−α. Dans ce cas, comme pour le probleme a unechantillon, la normalite n’est pas requise (seules l’existence demoments finis d’ordre 2 et l’egalite des matrices devariance-covariance population le sont). Exercice: verifier ceci enutilisant le TCL.

Tests de Hotelling

Preuve de la proposition: comme dans le cas a un echantillon, laloi (sous H0) de la statistique T 2 decoule du lemme suivant:

Lemme: soient Y ∼ Np(0,Σ) et V ∼Wp(m,Σ). Alors, si m ≥ pet Y ⊥⊥ V , m−p+1

p Y ′V−1Y ∼ Fp,m−p+1.

En effet, sous H0, X et Y sont independantes et de loi respectiveNp(µ, 1

n1Σ) et Np(µ, 1

n2Σ) (ou µ est la valeur commune de µ1 et µ2).

Donc X − Y ∼ Np(0, ( 1n1

+ 1n2

)Σ).

D’autre part, Wx ∼Wp(n1 − 1,Σ) et Wy ∼Wp(n2 − 1,Σ) sontaussi independantes, de sorte que

(n1 + n2 − 2)Spool = Wx + Wy ∼Wp(n1 + n2 − 2,Σ).

Le lemme fournit alors le resultat en prenantY := ( 1

n1+ 1

n2)−1/2(X − Y ) et V := (n1 + n2 − 2)Spool. �

Proprietes d’invariance

La statistique de test T 2 (et par suite, le test lui-meme) est iciinvariante par transformations lineaires et par translations :pour toute matrice A (p × p) inversible et pour tout p-vecteur b,

T 2(AX1 + b, . . . ,AXn1 + b,AY1 + b, . . . ,AYn2 + b)

= T 2(X1, . . . ,Xn1 ,Y1, . . . ,Yn2).

Cette invariance affine explique le fait que la loi de T 2 sous H0 nedepende

I ni de la valeur de Σ,

I ni de la valeur commune de µ1 = µ2.

Test du rapport de vraisemblance

Comme dans le cas a un echantillon, le test de Hotelling estessentiellement celui du rapport de vraisemblance gaussien:

Theoreme: soit Λ(n1,n2) la statistique du test du rapport devraisemblance. Alors

Λ(n1,n2) =(

1 +T 2

n1 + n2 − 2

)−(n1+n2)/2.

Preuve: exercice.

Remarque

Pour ce probleme, on a constamment suppose que les deuxechantillons (X1, . . . ,Xn1) et (Y1, . . . ,Yn2) sont independants.

Si ce n’est pas le cas, tout ce qui a ete fait plus haut s’effondre...

Exemple classique:

Supposons que les deux echantillons soient paires : (X1, . . . ,Xn) et(Y1, . . . ,Yn), ou Xi et Yi reprennent p mesures effectuees, avantet apres traitement respectivement, sur un meme individu.Dans ce cas, si on veut tester H0 : µ1 = µ2, il convient d’effectuerun test a un echantillon de H0 : µ = 0 sur la serie des differences(Y1 − X1, . . . ,Yn − Xn).

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

Test d’adequation sur Σ

Tous les tests suivants sont des test de rapport de vraisemblance.Je laisse les preuves pour les TP.

Soient X1, . . . ,Xn i.i.d. Np(µ,Σ). Considerons le probleme de test{H0 : Σ = Σ0

H1 : Σ 6= Σ0,

ou Σ0 une matrice p × p symetrique et definie positive fixee.

Dans ce cas, le test de rapport de vraisemblance rejette H0 (auniveau asymptotique α) si

−2 ln Λ(n) > χ2p(p+1)/2;1−α,

ouΛ(n) = enp/2 |Σ−1

0 Σ|n/2 exp[− n

2tr (Σ−1

0 Σ)].

Probleme a deux echantillons

Soient deux echantillons independants:X1, . . . ,Xn1 i.i.d. Np(µ1,Σ1) et Y1, . . . ,Yn2 i.i.d. Np(µ2,Σ2).

Pour le probleme de test{H0 : Σ1 = Σ2

H1 : Σ1 6= Σ2

le test de rapport de vraisemblance rejette H0 (au niveauasymptotique α) si

−2 ln Λ(n1,n2) > χ2p(p+1)/2;1−α,

ou

Λ(n1,n2) =|Wx/n1|n1/2|Wy/n2|n2/2

|(Wx + Wy )/(n1 + n2)|(n1+n2)/2.

Test de sphericite

Soient X1, . . . ,Xn i.i.d. Np(µ,Σ).

Considerons le probleme de test{H0 : ∃λ > 0 tel que Σ = λIpH1 : ∀λ > 0, Σ 6= λIp,

qui consiste a tester la sphericite des contours d’equidensitesous-jacents.

Dans ce cas, le test de rapport de vraisemblance rejette H0 (auniveau asymptotique α) si

−2 ln Λ(n) > χ2p(p+1)

2−1;1−α

, ou Λ(n) =

(|S |1/p1p (tr S)

)np/2

.

Test de sphericite

Remarque: en ecrivant

S = OΛO ′, ou Λ :=

(λ1 λ2 . . .

λp

)et ou O est orthogonale, on obtient que

(Λ(n)

)2/(np)=

∏i λ

1/pi

1p

∑i λi

,

qui n’est autre que le quotient de la moyenne geometrique desvaleurs propres de S par leur moyenne arithmetique (intuition).

3. Inference dans les modeles gaussiens.

3.1. Sur le parametre de position.

3.1.1. Estimateurs MLE.

3.1.2. Tests de Hotelling.

3.1.3. Zones de confiance.

3.1.4. Problemes a plusieurs echantillons.

3.2. Sur le parametre de dispersion.

3.3. Autres types de problemes.

Test d’independance

Soient Z1 = (X ′1,Y′1)′, . . . ,Zn = (X ′n,Y

′n)′ i.i.d. Np1+p2(µ,Σ), ou

µ =(µ1µ2

)et Σ =

(Σ11 Σ12

Σ21 Σ22

).

Considerons le probleme de test{H0 : Σ12 = 0H1 : Σ12 6= 0

qui ( dans cette situation gaussienne ) consiste a testerl’independance entre X1 et Y1.

Test d’independance

Le test de rapport de vraisemblance rejette ici H0 (au niveauasymptotique α) si

−2 ln Λ(n) > χ2p1p2;1−α,

ou

Λ(n) =

(|Sz ||Sx ||Sy |

)n/2

,

avec

Sz :=1

n − 1

n∑i=1

(Xi − XYi − Y

)(Xi − XYi − Y

)′=:

(Sx Sxy

Syx Sy

).