52
MS IA : MDI721 ModLle linØaire: propriØtØs Pavlo Mozharovskyi Franois Portier TØlØcom Paris Septembre 2019 1/23

PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

MS IA : MDI721Modèle linéaire: propriétés

Pavlo Mozharovskyi François PortierTélécom Paris

Septembre 2019

1/23

Page 2: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performanceBiaisVariance

2. Impact du niveau de bruitEstimation du niveau de bruitCas hétéroscédastique

3. ApartéVariables qualitativesGrande dimension p > n

1/23

Page 3: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performanceBiaisVariance

2. Impact du niveau de bruit

3. Aparté

2/23

Page 4: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

BiaisRappel : y = Xθ? + ε

PropositionSous l’hypothèse que E(ε) = 0 et que la matrice X est de plein rang,alors l’estimateur des moindres carrés est sans biais :

E(θ) = θ?

Rem : l’hypothèse E(ε) = 0 signifie que ∀i ∈ J1, nK,E(εi ) = 0

Démonstration :

B =E(θ)− θ? = E((X>X )−1X>y)− θ?

(plein rang)

B =E((X>X )−1X>(Xθ? + ε))− θ?

B =(X>X )−1X>Xθ? + (X>X )−1X>E(ε)− θ?

B =0 (bruit centré)

3/23

Page 5: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

BiaisRappel : y = Xθ? + ε

PropositionSous l’hypothèse que E(ε) = 0 et que la matrice X est de plein rang,alors l’estimateur des moindres carrés est sans biais :

E(θ) = θ?

Rem : l’hypothèse E(ε) = 0 signifie que ∀i ∈ J1, nK,E(εi ) = 0

Démonstration :

B =E(θ)− θ? = E((X>X )−1X>y)− θ?(plein rang)

B =E((X>X )−1X>(Xθ? + ε))− θ?

B =(X>X )−1X>Xθ? + (X>X )−1X>E(ε)− θ?

B =0 (bruit centré)

3/23

Page 6: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

BiaisRappel : y = Xθ? + ε

PropositionSous l’hypothèse que E(ε) = 0 et que la matrice X est de plein rang,alors l’estimateur des moindres carrés est sans biais :

E(θ) = θ?

Rem : l’hypothèse E(ε) = 0 signifie que ∀i ∈ J1, nK,E(εi ) = 0

Démonstration :

B =E(θ)− θ? = E((X>X )−1X>y)− θ?(plein rang)

B =E((X>X )−1X>(Xθ? + ε))− θ?

B =(X>X )−1X>Xθ? + (X>X )−1X>E(ε)− θ?

B =0 (bruit centré)

3/23

Page 7: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

BiaisRappel : y = Xθ? + ε

PropositionSous l’hypothèse que E(ε) = 0 et que la matrice X est de plein rang,alors l’estimateur des moindres carrés est sans biais :

E(θ) = θ?

Rem : l’hypothèse E(ε) = 0 signifie que ∀i ∈ J1, nK,E(εi ) = 0

Démonstration :

B =E(θ)− θ? = E((X>X )−1X>y)− θ?(plein rang)

B =E((X>X )−1X>(Xθ? + ε))− θ?

B =(X>X )−1X>Xθ? + (X>X )−1X>E(ε)− θ?

B =0 (bruit centré)3/23

Page 8: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque quadratiqueDéfinitionLe risque quadratique est la quantité suivante :

R(θ?, θ) = E‖θ? − θ‖2

Décomposition biais/variance

E‖θ? − θ‖2 = E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

Démonstration :

E‖θ? − θ‖2 =E‖θ? − E(θ) + E(θ)− θ‖2

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

+ 2E〈E(θ)− θ,θ? − E(θ)〉

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

4/23

Page 9: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque quadratiqueDéfinitionLe risque quadratique est la quantité suivante :

R(θ?, θ) = E‖θ? − θ‖2

Décomposition biais/variance

E‖θ? − θ‖2 = E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

Démonstration :

E‖θ? − θ‖2 =E‖θ? − E(θ) + E(θ)− θ‖2

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

+ 2E〈E(θ)− θ,θ? − E(θ)〉

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

4/23

Page 10: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque quadratiqueDéfinitionLe risque quadratique est la quantité suivante :

R(θ?, θ) = E‖θ? − θ‖2

Décomposition biais/variance

E‖θ? − θ‖2 = E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

Démonstration :

E‖θ? − θ‖2 =E‖θ? − E(θ) + E(θ)− θ‖2

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

+ 2E〈E(θ)− θ,θ? − E(θ)〉

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

4/23

Page 11: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque quadratiqueDéfinitionLe risque quadratique est la quantité suivante :

R(θ?, θ) = E‖θ? − θ‖2

Décomposition biais/variance

E‖θ? − θ‖2 = E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

Démonstration :

E‖θ? − θ‖2 =E‖θ? − E(θ) + E(θ)− θ‖2

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

+ 2E〈E(θ)− θ,θ? − E(θ)〉

=E‖θ? − E(θ)‖2 + E‖E(θ)− θ‖24/23

Page 12: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Décomposition biais/variance

Rappel : pour les moindres carrés le biais est nul sous l’hypothèse que Xest de plein rang et que le bruit est centré.

Ainsi

E(θ)− θ? = 0

et

E‖θ? − θ‖2 =‖θ? − E(θ)‖2 + E‖E(θ)− θ‖2

E‖θ? − θ‖2 =E‖E(θ)− θ‖2

5/23

Page 13: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performanceBiaisVariance

2. Impact du niveau de bruit

3. Aparté

6/23

Page 14: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 15: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 16: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 17: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 18: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 19: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Intermède sur la traceDéfinitionSoit A ∈ Rn×n une matrice carrée. La trace de A, notée tr(A) vaut lasomme des éléments diagonaux de A :

tr(A) =n∑

i=1

Ai ,i

Quelques propriétés utiles :• tr(A) = tr(A>)

• Pour toutes matrices A,B ∈ Rn×n, et tout α ∈ R,tr(αA + B) = α tr(A) + tr(B) (linéarité)

• tr(A>A) =∑n

i=1∑n

j=1 A2i ,j := ‖A‖2F

• Pour toutes matrices A,B ∈ Rn×n, tr(AB) = tr(BA)

• tr(PAP−1) = tr(A), donc si A est diagonalisable, sa trace est lasomme de ses valeurs propres

• Si H est un projecteur orthogonal tr(H) = rang(H)

7/23

Page 20: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]

= E[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]= E

[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 21: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]= E

[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]

= E[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 22: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]= E

[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]= E

[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 23: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]= E

[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]= E

[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 24: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]= E

[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]= E

[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 25: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque d’estimationHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque d’estimation E‖θ? − θ‖2

Si le modèle est homoscédastique et que X est de plein rang

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= σ2 tr

[(X>X )−1

]Démonstration :

R(θ?, θ) = E[(θ − θ?)>(θ − θ?)

]= E

[(θ − Eθ)>(θ − Eθ)

]= E

[((X>X )−1X>(Xθ? + ε)− θ?)>((X>X )−1X>(Xθ? + ε)− θ?)

]= E

[((X>X )−1X>ε)>((X>X )−1X>ε)

]= E(ε>X (X>X )−2X>ε)

= tr[E(ε>X (X>X )−1(X>X )−1X>ε)]

= tr[(X>X )−1X>E(εε>)X (X>X )−1]

= σ2 tr[(X>X )−1]

8/23

Page 26: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]

n · Rpred(θ?, θ) = E[(HXy − Xθ?)>(HXy − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXε)>(HXε)

]= E(ε>H2

Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 27: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXy − Xθ?)>(HXy − Xθ?)

]

n · Rpred(θ?, θ) = E[(HXε)>(HXε)

]= E(ε>H2

Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 28: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXy − Xθ?)>(HXy − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXε)>(HXε)

]

= E(ε>H2Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 29: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXy − Xθ?)>(HXy − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXε)>(HXε)

]= E(ε>H2

Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 30: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXy − Xθ?)>(HXy − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXε)>(HXε)

]= E(ε>H2

Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)

= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 31: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

Démonstration : début identique

n · Rpred(θ?, θ) = E[(X θ − Xθ?)>(X θ − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXy − Xθ?)>(HXy − Xθ?)

]n · Rpred(θ?, θ) = E

[(HXε)>(HXε)

]= E(ε>H2

Xε) = E(ε>HXε)

= tr[E(HXεε>H>X )] = tr

(HXE(εε>)H>X

)= σ2 tr(HX ) = σ2 rang(HX ) = σ2 rang(X )

9/23

Page 32: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Risque de prédictionHypothèse de modèle homoscédastique : E(εε>) = σ2 Idn

Risque de prédiction (normalisé) E‖Xθ? − y‖2/nSi le modèle est homoscédastique

Rpred(θ?, θ) =E‖Xθ? − y‖2

n=

rang(X )

nσ2

• l’erreur est proportionnelle au niveau de bruit σ2

• l’erreur est proportionnelle à 1/n (n : taille échantillon)• l’erreur est proportionnelle à rang(X ) (rang(X ) : nombre de

variables explicatives indépendantes) ;Attention si rang(X ) ≈ n, l’erreur n’est pas petite...

10/23

Page 33: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]

=E[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]=E

[((X>X )−1X>ε)((X>X )−1X>ε)>

]=(X>X )−1X>E

[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 34: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]=E

[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]

=E[((X>X )−1X>ε)((X>X )−1X>ε)>

]=(X>X )−1X>E

[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 35: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]=E

[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]=E

[((X>X )−1X>ε)((X>X )−1X>ε)>

]

=(X>X )−1X>E[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 36: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]=E

[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]=E

[((X>X )−1X>ε)((X>X )−1X>ε)>

]=(X>X )−1X>E

[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 37: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]=E

[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]=E

[((X>X )−1X>ε)((X>X )−1X>ε)>

]=(X>X )−1X>E

[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 38: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Terme de variance/covarianceMatrice de variance/covariance des moindres carrésSi le modèle est homoscédastique et que X est de plein rang

Cov(θ) = σ2(X>X )−1

Démonstration : notons V = Cov(θ)

V =E[(θ − Eθ)(θ − Eθ)>

]= E

[(θ − θ?)(θ − θ?)>

]=E

[((X>X )−1X>(Xθ? + ε)− θ?)((X>X )−1X>(Xθ? + ε)− θ?)>

]=E

[((X>X )−1X>ε)((X>X )−1X>ε)>

]=(X>X )−1X>E

[εε>

]X (X>X )−1

=(X>X )−1X>(σ2 Idn)X (X>X )−1

=σ2(X>X )−1

11/23

Page 39: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performanceBiaisVariance

2. Impact du niveau de bruitEstimation du niveau de bruitCas hétéroscédastique

3. ApartéVariables qualitativesGrande dimension p > n

11/23

Page 40: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performance

2. Impact du niveau de bruitEstimation du niveau de bruitCas hétéroscédastique

3. Aparté

12/23

Page 41: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Estimateur du niveau de bruit

σ2 =1

n − rang(X )‖y − X θ‖22 si rang(X ) < n

Preuve :

‖y − X θ‖22 =y>(Idn−HX )y

E(‖y − X θ‖22) =E[(Xθ? + ε)>(Idn−HX )(Xθ? + ε)

]Comme (Idn−HX )X = 0 et E(ε>Xθ?) = 0 on obtient :

E(‖y − X θ‖22) =E[ε>(Idn−HX )ε

]=σ2 tr(Idn−HX )

=σ2(n − rang(X ))

13/23

Page 42: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performance

2. Impact du niveau de bruitEstimation du niveau de bruitCas hétéroscédastique

3. Aparté

14/23

Page 43: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Cas hétéroscédastiqueL’estimateur MCO θ postule implicitement que les variables y1, . . . , ynont même niveau de bruit

Rem : pour cela reprendre le calcul du maximum de vraisemblance d’unmodèle gaussien avec variance σ2 fixée / connue

Modèle hétéroscédastique : on suppose que le niveau de bruit diffèrepour chaque yi et on note σ2

i la variance associée

θ ∈ argminθ∈Rp+1

n∑i=1

(yi − 〈θ, xi 〉

σi

)2

= argminθ∈Rp+1

(y − Xθ)>Ω(y − Xθ)

avec Ω = diag(

1σ2

1, . . . , 1

σ2n

)La formule explicite :

θ = (X>Ω−1X )−1X>Ω−1y .

15/23

Page 44: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performanceBiaisVariance

2. Impact du niveau de bruitEstimation du niveau de bruitCas hétéroscédastique

3. ApartéVariables qualitativesGrande dimension p > n

15/23

Page 45: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performance

2. Impact du niveau de bruit

3. ApartéVariables qualitativesGrande dimension p > n

16/23

Page 46: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Variables qualitatives

On parle de variable qualitative, quand une variable ne prend que desmodalités discrètes et/ou non-numériques.

Example : couleurs, genre, ville, etc.

Encodage classique : variables fictives/indicatrices( : dummy variables)=“encodage à chaud” ( : one-hot encoder).

Si la variable x = (x1, . . . , xn)> peut prendre K modalités a1, . . . , aK oncrée K variables : ∀k ∈ J1,KK,∈ Rn définies par

∀i ∈ J1, nK, ()i =

1, if xi = ak

0, sinon

et on remplace x ∈ Rn par [, . . . , ] ∈ Rn×K

17/23

Page 47: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Exemple d’encodageCas binaire : M/F, oui/non, j’aime/j’aime pas.

Client Genre1 H2 F3 H4 F5 F

−→

F H0 11 00 11 01 0

Cas général : couleur, villes, etc.

Client Couleurs1 Bleu2 Blanc3 Rouge4 Rouge5 Bleu

−→

Bleu Blanc Rouge1 0 00 1 00 0 10 0 11 0 0

18/23

Page 48: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Quelques difficultés

Corrélations :∑K

k=1 = 1n ! On peut enlever une des modalités (e.g.drop_first=True dans get_dummies de pandas)

Interprétation sans constante et avec toutes les modalités : X = [, . . . , ].Si xn+1 = ak alors yn+1 = θk

Interprétation avec constante et avec une modalité en moins :X = [1n, , . . . , ], en enlevant la première modalité

Si xn+1 = ak alors yn+1 =

θ0, si k = 1θ0 + θk , sinon

Rem : création possible d’une colonne nulle par validation croisée (CV),difficultés limitées par régularisation (e.g. Lasso, Ridge)

19/23

Page 49: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

1. Analyse de performance

2. Impact du niveau de bruit

3. ApartéVariables qualitativesGrande dimension p > n

20/23

Page 50: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Et si n < p ?

Beaucoup des choses vues avant ont besoin d’être révisées :

Par exemple : si rang(X ) = n, alors HX = Idn et y = X θ = y !En effet, l’espace engendré par les colonnes [x0, . . . , xp] est Rn, et doncle signal observé et le signal prédit sont identiques

Rem : c’est un problème inhérent à la grande dimension (grand nombrede variables explicatives p)

Solutions possibles : sélection de variables, cf. cours sur le Lasso etméthodes gloutonnes (à venir), régularisation, etc.

21/23

Page 51: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Sites web et livres pour aller plus loin

• Éléments de pré-traitement en manipulation de données : “FeatureEngineering”, HJ van Veen

• Packages Python pour les moindres carrés :statsmodelssklearn.linear_model.LinearRegression

• McKinney (2012) concernant python pour les statistiques• Lejeune (2010) concernant le modèle linéaire (notamment)• Delyon (2015) cours plus avancé sur la régression :

https://perso.univ-rennes1.fr/bernard.delyon/regression.pdf

22/23

Page 52: PavloMozharovskyi FrançoisPortier TélécomParis Septembre2019 · 2019. 9. 5. · [Lej10]M.Lejeune. Statistiques, la théorie et ses applications

Références I

[Del15] B. Delyon. Régression, 2015. https://perso.univ-rennes1.fr/bernard.delyon/regression.pdf.

[Lej10] M. Lejeune. Statistiques, la théorie et ses applications.Springer, 2010.

[McK12] W. McKinney. Python for Data Analysis : Data Wranglingwith Pandas, NumPy, and IPython. O’Reilly Media, 2012.

23/23