126
Analyse statistique Exercices et solutions

Exercices et solutions - Université Laval

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Exercices et solutions - Université Laval

Analyse statistique

Exercices et solutions

Page 2: Exercices et solutions - Université Laval
Page 3: Exercices et solutions - Université Laval

Analyse statistique

Exercices et solutions

Vincent Goulet

École d’actuariatUniversité Laval

Mathieu Pigeon

Institut de statistiqueUniversité Catholique de Louvain

Première édition préliminaire

Page 4: Exercices et solutions - Université Laval

© 2010 Vincent Goulet, Mathieu Pigeon

Cette création est mise à disposition selon le contrat Paternité-Partage des conditionsinitiales à l’identique 2.5 Canada disponible en ligne http://creativecommons.org/licenses/by-sa/2.5/ca/ ou par courrier postal à Creative Commons, 171 SecondStreet, Suite 300, San Francisco, California 94105, USA.

Historique de publicationJanvier 2010 : Première édition préliminaire

Code sourceLe code source LATEX de ce document est disponible à l’adresse

http://vgoulet.act.ulaval.ca/analyse_statistique/

ou en communiquant directement avec les auteurs.

Page 5: Exercices et solutions - Université Laval

Introduction

Ce document est une collection des exercices distribués par les auteursdans le cadre du cours Analyse statistique des risques actuariels à l’Écoled’actuariat de l’Université Laval. Certains exercices sont le fruit de l’imagina-tion des auteurs, alors que plusieurs autres sont des adaptations d’exercicestirés des ouvrages cités dans la bibliographie.

C’est d’ailleurs afin de ne pas usurper de droits d’auteur que ce docu-ment est publié selon les termes du contrat Paternité-Partage des conditionsinitiales à l’identique 2.5 Canada de Creative Commons. Il s’agit donc d’undocument «libre» que quiconque peut réutiliser et modifier à sa guise, àcondition que le nouveau document soit publié avec le même contrat.

Le recueil d’exercices se veut un complément à un cours de statistique ma-thématique pour des étudiants de premier ou deuxième cycle universitaire.Les exercices sont divisés en sept chapitres qui correspondent aux chapitresde notre cours. Le chapitre 1 porte sur des rappels de notions de base en pro-babilité. Il est suivi d’un chapitre qui traite des transformations de variablesaléatoires pour mener à la présentation des lois t de Student et F de Fisher.

L’analyse statistique à proprement parler débute véritablement au cha-pitre 3 avec l’étude de la notion d’échantillon aléatoire, de la distribution dela moyenne et de la variance et de l’échantillon, ainsi que des statistiquesd’ordre. Le chapitre 4, qui traite d’estimation ponctuelle par les méthodesclassiques (maximum de vraisemblance, méthode des moments, etc.) et desdiverses propriétés des estimateurs constitue le cœur du recueil. Le chapitre 5propose quant à lui quelques exercices d’estimation bayesienne. Enfin, les no-tions étroitement liées d’estimation par intervalle et de test d’hypothèses fontl’objet des chapitres 6 et 7.

Les réponses des exercices se trouvent à la fin de chacun des chapitres,alors que les solutions complètes sont regroupées à l’annexe E. De plus, ontrouvera à la fin de chaque chapitre une liste non exhaustive d’exercices pro-posés dans Wackerly et collab. (2008). Des solutions de ces exercices sontoffertes dans Owen (2008), ou encore sous forme de petits clips vidéo (solu-tions clip) disponibles dans le portail Libre de l’École d’actuariat à l’adresse

http://libre.act.ulaval.ca

Les annexes A à D contiennent des tables de quantiles des lois normale,khi carré, t et F.

v

Page 6: Exercices et solutions - Université Laval

vi Introduction

Nous encourageons le lecteur à utiliser le logiciel R (R Development CoreTeam, 2009) pour résoudre certains exercices, notamment ceux du chapitre 7.

Nous remercions d’avance les lecteurs qui voudront bien nous faire partde toute erreur ou omission dans les exercices ou leurs solutions.

Vincent Goulet <[email protected]>Mathieu Pigeon <[email protected]>

Québec, janvier 2010

Page 7: Exercices et solutions - Université Laval

Notation

– Les lettres majuscules sont réservées pour les variables aléatoires et leslettres minuscules, pour les observations de ces variables aléatoires ou pourles constantes.

– La seule exception est θ, qui représente à la fois un estimateur (ou unestatistique, donc une variable aléatoire) et une estimation (une valeur de lastatistique).

– On note zα le 100(1− α)e quantile de la variable aléatoire Z. Par exemple,le 95e centile est noté z0,05.

vii

Page 8: Exercices et solutions - Université Laval
Page 9: Exercices et solutions - Université Laval

Table des matières

Introduction v

Notation vii

1 Notions de base en probabilité 1

2 Transformations de variables aléatoires 7

3 Échantillon aléatoire 11

4 Estimation ponctuelle 15

5 Estimation bayesienne 21

6 Estimation par intervalle 23

7 Tests d’hypothèses 25

A Table de quantiles de la loi normale 31

B Table de quantiles de la loi khi carré 33

C Table de quantiles de la loi t 35

D Table de quantiles de la loi F 37

E Solutions 41Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55Chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66Chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93Chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97Chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Bibliographie 113

ix

Page 10: Exercices et solutions - Université Laval
Page 11: Exercices et solutions - Université Laval

1 Notions de base en probabilité

1.1 a) Démontrer que les fonctions suivantes sont des fonctions de densitéde probabilité.

i) f1(x) = e−x, x > 0

ii) f2(x) = 2e−2x, x > 0

iii) f3(x) = (1 + θ) f1(x)− θ f2(x), x > 0, 0 < θ < 1

b) Démontrer que les fonctions continues suivantes sont des fonctions derépartition (supposer qu’elles sont continues à droite).

i) F(x) = (1 + e−x)−1, −∞ < x < ∞

ii) F(x) = e−e−x, −∞ < x < ∞

1.2 Trouver la constante k faisant en sorte que f (x) = kx2, −k < x < k, soitune densité.

1.3 Trouver la constante c faisant en sorte que f (x) = ce−|x|, −∞ < x < ∞,soit une densité.

1.4 Une pièce de monnaie équilibrée est lancée jusqu’à ce qu’un résultat deface soit obtenu. Soit X la variable aléatoire du nombre de lancers néces-saires.

a) Trouver la fonction de masse de probabilité de X.

b) Calculer l’espérance et la variance de X.

c) Déterminer la fonction génératrice des moments de X.

1.5 Soit

f (x) =1β

(1−

∣∣∣∣ x− α

β

∣∣∣∣) , α− β < x < α + β,

où α ∈R et β > 0 sont des constantes quelconques.

a) Démontrer que f (x) est une densité.

b) Déterminer la fonction de répartition correspondant à f (x).

1.6 Soit X une variable aléatoire avec fonction de répartition

FX(x) = pH(x) + (1− p)G(x)

1

Page 12: Exercices et solutions - Université Laval

2 Notions de base en probabilité

où 0 < p < 1 est une constante fixe,

H(x) =

{x, 0 < x ≤ 11, x > 1

et

G(x) =

{x/2, 0 < x ≤ 21, x > 2.

Une telle distribution est appelée mélange (discret), ou distribution conta-minée lorsque p est grand. Dans les questions ci-dessous, supposer quep = 1/2.

a) Déterminer la formule explicite de la fonction de répartition de X.

b) Déterminer la fonction de densité de probabilité de X.

c) Évaluer Pr[X ≤ 1/2|X ≤ 1].

1.7 Soit X une variable aléatoire de moyenne µ et de variance σ2. Déterminerla valeur de c qui minimise E[(X− c)2].

1.8 Soit une variable aléatoire X de moyenne E[X] = µ et de variance Var[X] =σ2. Le coefficient d’asymétrie de X est défini comme

γ1 = E

[(X− µ

σ

)3]=

E[(X− µ)3]

σ3 .

Pour chacune des fonctions de densité de probabilité ci-dessous, calculerle coefficient d’asymétrie et en esquisser le graphique. Comparer la valeurdu coefficient d’asymétrie à la forme de la densité.

a) f (x) = (x + 1)/2, −1 < x < 1.

b) f (x) = 1/2, −1 < x < 1.

c) f (x) = (1− x)/2, −1 < x < 1.

1.9 Démontrer que la fonction génératrice des moments de la variable aléa-toire X avec fonction de densité de probabilité f (x) = 1/3, −1 < x < 2est

MX(t) =e2t − e−t

3t, t ≠ 0.

1.10 Soit X une variable aléatoire continue non négative. Démontrer que

E[X] =∫ ∞

0(1− FX(x))dx,

où FX(x) est la fonction de répartition de X.

Page 13: Exercices et solutions - Université Laval

Notions de base en probabilité 3

1.11 a) Soient X1, X2 et X3 des variables aléatoires non corrélées de mêmevariance σ2. Trouver le coefficient de corrélation entre X1 + X2 etX2 + X3.

b) Soient X1, X2 et X3 des variables aléatoires indépendantes et identi-quement distribuées avec moyenne µ et variance σ2. Trouver le coef-ficient de corrélation entre X2 − X1 et X3 − X1.

1.12 Soient X et Y deux variables aléatoires avec fonction de densité conjointef (x, y) = x + y, 0 < x < 1, 0 < y < 1. Calculer l’espérance et la varianceconditionnelles de Y sachant que X = x, 0 < x < 1.

1.13 Soient fX|Y(x|y) = c1x/y2, 0 < x < y, 0 < y < 1 et fY(y) = c2y4, 0 < y < 1,la densité conditionnelle de X sachant Y = y et la densité marginale deY, respectivement.

a) Déterminer les constantes c1 et c2.

b) Déterminer la densité conjointe de X et Y.

c) Calculer Pr[ 14 < X < 1

2 |Y = 58 ].

d) Calculer Pr[ 14 < X < 1

2 ].

1.14 Soit MX(t) la fonction génératrice des moments de la variable aléatoireX.

a) Soit Y = aX + b, où a et b sont des constantes quelconques. Démon-trer que

MY(t) = ebt MX(at).

b) Soient X1, . . . , Xn des variables aléatoires indépendantes et Y = X1 +· · ·+ Xn. Démontrer que

MY(t) =n

∏j=1

MXj(t).

1.15 Démontrer que les variables aléatoires X et Y avec fonction de densitéconjointe f (x, y) = 12xy(1− y), 0 < x < 1, 0 < y < 1 sont stochastique-ment indépendantes.

1.16 La densité conjointe des variables aléatoires X et Y est f (x, y) = 2e−x−y,0 < x < y, 0 < y < ∞. Démontrer que les deux variables aléatoires sontstochastiquement dépendantes.

1.17 Si X suit une loi de Poisson avec Pr[X = 1] = Pr[X = 2], qu’elle est laprobabilité que X = 1 ou X = 2 ?

1.18 Démontrer que si X est une variable aléatoire continue, alors

mina

E[|X− a|] = E[|X−m|]

où m est la médiane de X.

Page 14: Exercices et solutions - Université Laval

4 Notions de base en probabilité

1.19 La distribution de Weibull est fréquemment utilisée en assurance IARDpour la modélisation des montants de sinistres, entre autres. Sa fonctionde répartition est

F(x) = 1− e−λxτ, x > 0, λ > 0, τ > 0.

a) Déterminer la fonction de densité de probabilité de la Weibull.

b) Calculer l’espérance et la variance de la Weibull.

1.20 Soient X et Y deux variables aléatoires continues avec

fY|X(y|x) ={

1, x < y < x + 10, ailleurs

et

fX(x) =

{1, 0 < x < 10, ailleurs.

Calculer les quantités demandées ci-dessous.

a) E[Y]

b) Cov(X,Y)

c) Pr[X + Y < 1]

Exercices proposés dans Wackerly et collab. (2008)

3.145–3.151, 3.153, 3.155, 3.158, 3.159, 3.161, 3.162, 3.163

Réponses

1.2 (3/2)1/4

1.3 1/2

1.4 a) Pr[X = x] = (1/2)x, x = 1,2, . . . b) E[X] = 2, Var[X] = 2 c) MX(t) =(2e−t − 1)−1

1.5 b) F(x) = β−1(x − α) + 12 β−2(x − α)2 + 1

2 pour α− β < x ≤ α et F(x) =12 + β−1(x− α)− 1

2 β−2(x− α)2 pour α < x < α + β

1.6 a) F(x) = 34 xI{0<x≤1} + ( 1

2 + 14 x)I{1<x≤2} + I{x>2}, où I{A} est une fonc-

tion indicatrice valant 1 si la condition A est vraie et 0 sinon b) f (x) =34 I{0<x≤1} +

14 I{1<x≤2} c) 1

2

1.7 c = µ

Page 15: Exercices et solutions - Université Laval

Notions de base en probabilité 5

1.8 a) −2√

2/5 b) 0 c) 2√

2/5

1.11 a) 1/2 b) 1/2

1.12 E[Y|X = x] = (3x + 2)(6x + 3), Var[Y|X = x] = (6x2 + 6x + 1)/(2(6x +3)2).

1.13 a) c1 = 2, c2 = 5 b) fXY(xy) = 10xy2, 0 < x < y, 0 < y < 1 c) 12/25 d) 5/16

1.17 4e−2

1.19 a) f (x) = λτxτ−1e−λxτb) E[X] = λ−1/τΓ(1 + 1

τ ), Var[X] = λ−2/τ(Γ(1 +

2/τ)− Γ(1 + 1/τ)2)

1.20 a) 1 b) 1/12 c) 1/4

Page 16: Exercices et solutions - Université Laval
Page 17: Exercices et solutions - Université Laval

2 Transformations de variablesaléatoires

2.1 Soit fX(x) = x2/9, 0 < x < 3. Trouver la fonction de densité de probabilitéde Y = X3.

2.2 Soit X une variable aléatoire dont la loi est géométrique de paramètre1/3, c’est-à-dire que

Pr[X = x] =13

(23

)x, x = 0,1,2, . . .

Déterminer la fonction de masse de probabilité de la variable aléatoireY = X/(X + 1).

2.3 Soit Z ∼ N(0,1) avec fonction de densité de probabilité

φ(z) =1√2π

e−12 z2

, −∞ < z < ∞,

et fonction de répartition

Φ(z) =∫ z

−∞φ(x)dx.

Exprimer les fonctions de densité et de répartition de X = µ + σZ enfonction de φ(·) et Φ(·).

2.4 Soit la variable aléatoire Z ∼ N(0,1). Démontrer que Z2 ∼ χ2(1) avec latechnique de la fonction génératrice des moments. (Note : il faut intégrerpour trouver la fonction génératrice des moments de Z2.)

2.5 Soit X une variable aléatoire avec fonction de répartition FX(x) continuestrictement croissante. Soit Y = FX(X) une nouvelle variable aléatoire. Dé-montrer que Y ∼ U(0,1) par la méthode de la fonction de répartition.Utiliser le fait que F−1(F(x)) = x.

7

Page 18: Exercices et solutions - Université Laval

8 Transformations de variables aléatoires

2.6 a) Soit X ∼ N(0, σ2). Trouver la distribution de Y = X2.

b) Soient X1 et X2 deux variables aléatoires indépendantes chacune dis-tribuée selon une loi normale centrée réduite. Trouver la distributionde

Y =(X1 − X2)

2

2.

2.7 Soient X1 ∼ N(0,1) et X2 ∼ N(0,1) deux variables aléatoires indépen-dantes. De plus, soient Y1 = X1 + X2 et Y2 = X2

1 + X22 . Démontrer que la

fonction génératrice des moments conjointe de Y1 et Y2 est

11− 2t2

exp

{t21

1− 2t2

}, −∞ < t1 < ∞,−∞ < t2 <

12

.

2.8 Soient X1, X2 et X3 trois variables aléatoires indépendantes avec densitéf (x) = e−x, x > 0. Démontrer que

Y1 =X1

X1 + X2, Y2 =

X1 + X2

X1 + X2 + X3, Y3 = X1 + X2 + X3

sont mutuellement indépendantes.

2.9 Soit X ∼ N(µ, σ2). La variable aléatoire Y = eX est distribuée selon la loilog-normale.

a) Exprimer la fonction de densité de probabilité et la fonction de répar-tition de Y en fonction de celles de X.

b) Calculer E[Yk].

2.10 La distribution de Cauchy a comme densité

f (x) =1

π(1 + x2), −∞ < x < ∞.

Elle est visuellement similaire à une normale, mais elle est surtout utili-sée comme exemple pathologique : aucun de ses moments n’existe.Soient X1 et X2 deux variables aléatoires indépendantes chacune dis-tribuée selon une loi normale centrée réduite (moyenne 0 et variance1). Démontrer que la distribution marginale de Y1 = X1/X2 est Cauchy.(Astuce : définir Y2 = X2, trouver la distribution conjointe de Y1 et Y2puis intégrer pour trouver la distribution marginale de Y1.)

2.11 Soit T une variable aléatoire distribuée selon une loi t avec 10 degrés deliberté.

a) Trouver Pr[|T| > 2,228] à l’aide d’une table de la loi t.

b) Répéter la partie a) à l’aide de R. La fonction pt(x, n) donne lavaleur de la fonction de répartition en x d’une loi t avec n degrés deliberté.

Page 19: Exercices et solutions - Université Laval

Transformations de variables aléatoires 9

2.12 Soit T une variable aléatoire distribuée selon une loi t avec 14 degrés deliberté.a) Trouver la valeur de b tel que Pr[−b < T < b] = 0,90 à l’aide d’une

table de la loi t.b) Répéter la partie a) à l’aide R. La fonction qt(p, n) retourne le pe

quantile d’une loi t avec n degrés de liberté, c’est-à-dire la valeur dex où la fonction de répartition vaut p.

2.13 a) Démontrer qu’une loi t avec un degré de liberté est une loi de Cauchy.

b) Sachant que

limn→∞

(1 +

an

)n= lim

x→0(1 + ax)

1x = ea,

vérifier que la loi t tend vers une normale centrée réduite lorsquele nombre de degrés de liberté tend vers l’infini. (Supposer que lesconstantes de la densité de la loi t tendent vers ce qu’il se doit lorsquer→∞.)

2.14 Soit Z ∼ N(0,1). Démontrer que le quatrième moment de Z est égal à3 et donc que le coefficient d’aplatissement d’une loi normale centréeréduite est nul.

2.15 Soit U ∼ χ2(r1) et V ∼ χ2(r2), deux variables aléatoires indépendantes.a) Démontrer que la densité de

F =U/r1

V/r2

est

f (x) =Γ((r1 + r2)/2)(r1/r2)

r1/2xr1/2−1

Γ(r1/2)Γ(r2/2)(1 + r1x/r2)(r1+r2)/2.

b) Calculer E[F].c) Calculer Var[F].

2.16 Soit F une variable aléatoire distribuée selon une loi F avec r1 et r2degrés de liberté (dans l’ordre). Démontrer que 1/F est aussi distribuéeselon une loi F, mais avec r2 et r1 degrés de liberté.

2.17 Si F a une distribution F avec paramètres r1 = 5 et r2 = 10, trouver a etb de sorte que Pr[F ≤ a] = 0,05 et Pr[F ≤ b] = 0,95. Les quantiles de laloi F peuvent être trouvés soit dans une table, soit à l’aide de la fonctionqf(x, r1, r2) de R. (Astuce : en travaillant avec une table, utiliser le faitque Pr[F ≤ a] = Pr[F−1 ≥ a−1] = 1− Pr[F−1 ≤ a−1].)

2.18 Soit T = W/√

V/r, où W et V sont des variables aléatoires indépen-dantes avec une distribution, respectivement, normale centrée réduite etkhi carré avec r degrés de liberté. Démontrer que la distribution de T2

est F avec 1 et r degrés de liberté.

Page 20: Exercices et solutions - Université Laval

10 Transformations de variables aléatoires

2.19 SoitY =

11 + (r1/r2)F

,

où F ∼ F(r1, r2). Démontrer que Y a une distribution Bêta.

2.20 Soit X|Θ = θ ∼ Exponentielle(θ) et Θ ∼ Gamma(α, λ).

a) Démontrer que la distribution marginale de X est une loi de Paretoavec densité

fX(x) =αλα

(λ + x)α+1 , x > 0.

b) Démontrer que E[X] = λ(α− 1)−1.

Exercices proposés dans Wackerly et collab. (2008)

6.37, 6.38, 6.39, 6.40, 6.41, 6.42, 6.43, 6.44, 6.46, 6.47, 6.49, 6.50, 6.53, 6.62, 7.91,7.93, 7.94

Réponses

2.1 fY(y) = 1/27, 0 < y < 27

2.2 (1/3)(2/3)y/(1−y)

2.3 fX(x) = σ−1φ((x− µ)/σ), FX(x) = Φ((x− µ)/σ)

2.6 a) Gamma(1/2,1/(2σ2)) b) χ2(1)

2.9 a) FY(y) = Φ((logy− µ)/σ) b) ekµ+k2σ2/2

2.11 0,05

2.12 1,761

2.15 b) r2/(r2 − 2)

c) 2[r22(r2 + r1 − 2)]/[r1(r2 − 2)2(r2 − 4)]

2.17 a = 0,211 et b = 3,326

Page 21: Exercices et solutions - Université Laval

3 Échantillon aléatoire

3.1 Soit X la moyenne d’un échantillon de taille 5 d’une distribution normaleavec moyenne 10 et variance 125. Trouver c tel que Pr[X < c] = 0,90.

3.2 Si X est la moyenne d’un échantillon de taille n tiré d’une distributionnormale de moyenne µ et de variance 100, trouver la valeur de n telleque Pr[µ− 5 < X < µ + 5] = 0,954.

3.3 Soit X1, . . . , X25 un échantillon aléatoire issu d’une distribution N(0,16)et Y1, . . . ,Y25 un échantillon aléatoire issu d’une distribution N(1,9). Lesdeux échantillons sont indépendants. Soient X et Y les moyennes desdeux échantillons. Calculer Pr[X > Y].

3.4 Démontrer à l’aide du Théorème central limite que la distribution gammaavec paramètre de forme α entier et paramètre d’échelle λ tend vers ladistribution normale avec moyenne α/λ et variance α/λ2 lorsque α tendvers l’infini. (Astuce : définir Y = X1 + · · ·+ Xα où Xi ∼ Exponentielle(λ)et trouver la distribution asymptotique de Y.)

3.5 Soit X la moyenne d’un échantillon aléatoire de taille 100 tiré d’une loiχ2(50).

a) Trouver la distribution exacte de X.

b) Calculer à l’aide d’un logiciel statistique la valeur exacte de Pr[49 <X < 51].

c) Calculer une valeur approximative de la probabilité en b).

3.6 Soit X la moyenne d’un échantillon de taille 128 d’une loi Gamma(2,1/4).Trouver une approximation pour Pr[7 < X < 9].

3.7 Trouver une valeur approximative de la probabilité que la moyenne d’unéchantillon de taille 15 d’une loi avec densité f (x) = 3x2, 0 < x < 1, soitentre 3/5 et 4/5.

3.8 Trouver la moyenne et la variance de la statistique

S2 =∑n

i=1(Xi − X)2

n,

où X1, . . . , Xn est un échantillon aléatoire d’une loi normale de moyenneµ et variance σ2.

11

Page 22: Exercices et solutions - Université Laval

12 Échantillon aléatoire

3.9 Soit S2 la variance d’un échantillon de taille 6 d’une distribution normalede moyenne µ et de variance 12. Calculer Pr[2,30 < S2 < 22,2].

3.10 Soit X1, . . . , Xn un échantillon aléatoire tiré d’une loi avec fonction derépartition FX(·) et X(1) ≤ · · · ≤ X(n) les statistiques d’ordre correspon-dantes. Trouver la fonction de répartition de X(1) = min(X1, . . . Xn).

3.11 Soient X(1) ≤ X(2) ≤ X(3) ≤ X(4) les statistiques d’ordre d’un échantillonaléatoire de taille 4 issu d’une distribution avec fonction de densité deprobabilité f (x) = e−x, 0 < x < ∞. Calculer Pr[X(4) > 3].

3.12 Soit X1, X2, X3 un échantillon aléatoire issu d’une loi bêta de paramètresα = 2 et β = 1. Calculer la probabilité que la plus petite valeur de l’échan-tillon soit supérieure à la médiane (théorique) de la distribution.

3.13 Soit X une variable aléatoire discrète avec fonction de masse de proba-bilité Pr[X = x] = 1/6, x = 1,2,3,4,5,6. Démontrer que la fonction demasse de probabilité du minimum d’un échantillon aléatoire de taille 5issu de cette distribution est

Pr[

X(1) = x]=

(7− x

6

)5−(

6− x6

)5, x = 1,2,3,4,5,6.

3.14 Soient X(1)≤ · · · ≤X(n) les statistiques d’ordre d’un échantillon aléatoiretiré d’une loi de Weibull, dont la fonction de répartition est FX(x) =1− e−(λx)τ

. Calculer la fonction de répartition, la fonction de densité etl’espérance de X(1).

3.15 Calculer la probabilité que l’étendue d’un échantillon aléatoire de taille4 issu d’une loi uniforme sur l’intervalle (0,1) soit inférieure à 1/2.

3.16 Si un échantillon de taille 2 est tiré d’une loi bêta avec paramètres α = 1et β = 2, quelle est la probabilité que l’une des deux valeurs de l’échan-tillon soit au moins deux fois plus grande que l’autre ? (Astuce : intégrerla densité conjointe des deux valeurs de l’échantillon au-dessus de lasurface correspondant à la probabilité recherchée.)

3.17 Soit X ∼U(0,1). Calculer l’espérance de la mi-étendue d’un échantillonde taille n issu de cette distribution.

3.18 Soit X1, . . . , Xn un échantillon aléatoire d’une loi uniforme sur l’inter-valle (0,1).a) Calculer la moyenne et la variance de R = X(n) − X(1).

b) Calculer la moyenne et la variance de T = (X(1) + X(n))/2.

Exercices proposés dans Wackerly et collab. (2008)

6.72, 6.73, 6.74, 6.81, 6.86, 6.76, 6.89, 7.9, 7.10, 7.15, 7.18, 7.20, 7.27, 7.36, 7.37,7.38, 7.73, 7.74, 7.75, 7.76, 7.77, 7.78, 7.81, 7.88, 7.89, 7.90, 7.92, 7.96, 7.97

Page 23: Exercices et solutions - Université Laval

Échantillon aléatoire 13

Réponses

3.1 16,41

3.2 16

3.3 0,159

3.5 a) Gamma(2500,50) b) 0,6827218 c) 0,682

3.6 0,954

3.7 0,840

3.8 E[S2] = (n− 1)σ2/n, Var[S2] = 2(n− 1)σ4/n2

3.9 0,90

3.10 FX(1)(x) = 1− (1− FX(x))n

3.11 1− (1− e−3)4

3.12 1/8

3.14 X(1) ∼Weibull(n1τ λ, τ).

3.15 5/16

3.16 7/12

3.17 1/2.

3.18 a) E[R] = (n− 1)/(n + 1) et Var[R] = (2n− 2)/[(n + 1)2(n + 2)].

b) E[T] = 1/2 et Var[T] = 1/[2(n + 1)(n + 2)].

Page 24: Exercices et solutions - Université Laval
Page 25: Exercices et solutions - Université Laval

4 Estimation ponctuelle

4.1 Soit X1, . . . , Xn un échantillon aléatoire issu des distributions ci-dessous.Dans chaque cas trouver l’estimateur du paramètre θ à l’aide de la mé-thode des moments.

a) f (x;θ) = θxe−θ/x!, x = 0,1, . . . , θ > 0.

b) f (x;θ) = θxθ−1, 0 < x < 1, θ > 0.

c) f (x;θ) = θ−1e−x/θ , θ > 0.

d) f (x;θ) = e−|x−θ|/2, −∞ < x < ∞, −∞ < θ < ∞.

e) f (x;θ) = e−(x−θ), x ≥ θ, θ > 0.

4.2 Trouver l’estimateur du maximum de vraisemblance du paramètre θ dechacune des distributions de l’exercice 4.1.

4.3 Soit X1, . . . , Xn un échantillon aléatoire de la distribution exponentielletranslatée avec fonction de répartition

F(x;µ, λ) = 1− e−λ(x−µ)

et densité

f (x;µ, λ) = λe−λ(x−µ), x ≥ µ,

où −∞ < µ < ∞ et λ > 0.

a) Démontrer que la distribution exponentielle translatée est obtenue parla transformation X = Z + µ, où Z ∼ Exponentielle(λ).

b) Calculer l’espérance et la variance de cette distribution.

c) Calculer les estimateurs du maximum de vraisemblance des para-mètres µ et λ.

d) Simuler 100 observations d’une loi Exponentielle translatée de para-mètres µ = 1000 et λ = 0,001 à l’aide de la fonction rexp de R et de latransformation en a). Calculer des estimations ponctuelles de µ et λpour l’échantillon ainsi obtenu. Ces estimations sont-elles proches desvraies valeurs des échantillons ? Répéter l’expérience plusieurs fois aubesoin.

15

Page 26: Exercices et solutions - Université Laval

16 Estimation ponctuelle

4.4 Soient X(1) < · · ·< X(n) les statistiques d’ordre d’un échantillon aléatoiretiré d’une distribution uniforme sur l’intervalle [θ − 1

2 , θ + 12 ], −∞ < θ <

∞. Démontrer que toute statistique T(X1, . . . , Xn) satisfaisant l’inégalité

X(n) −12≤ T(X1, . . . , Xn) ≤ X(1) +

12

est un estimateur du maximum de vraisemblance de θ. Ceci est un exempleoù l’estimateur du maximum de vraisemblance n’est pas unique.

4.5 Soit X1, . . . , Xn un échantillon aléatoire issu de la distribution inversegaussienne, dont la densité est

f (x;µ,λ) =(

λ

2πx3

)1/2exp

{−λ(x− µ)2

2µ2x

}, x > 0.

Calculer les estimateurs du maximum de vraisemblance de µ et λ.

4.6 Considérer la distribution géométrique avec fonction de masse de proba-bilité

Pr[X = x] = θ(1− θ)x , x = 0,1, . . . .

On a obtenu l’échantillon aléatoire suivant de cette distribution :

5 7 4 11 0 9 1 1 3 2 1 0 6 0 1 1 1 9 2 0.

Utiliser la méthode des moments pour obtenir une estimation ponctuelledu paramètre θ.

4.7 On a une urne contenant θ boules numérotées de 1 à θ, où θ est unequantité inconnue. Soit X1, . . . , Xn un échantillon aléatoire composé de nboules pigées au hasard, avec remise, dans cette urne.

a) Déterminer l’estimateur des moments de θ.

b) Calculer l’estimateur des moments de θ si n = 4 et x1 = x2 = x3 = 3 etx4 = 12. Interpréter le résultat.

4.8 Soit X1, . . . , Xn un échantillon aléatoire issu d’une loi uniforme sur l’inter-valle (a, b) où a et b sont des constantes inconnues. Calculer l’estimateurdu maximum de vraisemblance de a et b.

4.9 Soit X1, . . . , Xn un échantillon aléatoire issu d’une distribution dont la loide probabilité est

Pr[X = x] = θx(1− θ)1−x , x = 0,1, 0≤ θ ≤ 12

.

a) Calculer les estimateurs du maximum de vraisemblance et des mo-ments de θ.

b) Calculer l’erreur quadratique moyenne pour les estimateurs dévelop-pés en a).

Page 27: Exercices et solutions - Université Laval

Estimation ponctuelle 17

c) Lequel des estimateurs développés en a) est le meilleur ? Justifier.

4.10 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution avec moyenneµ et variance σ2. Démontrer que n−1 ∑n

i=1(Xi − µ)2 est un estimateursans biais de σ2.

4.11 Si X1, . . . , Xn est un échantillon aléatoire d’une distribution avec moyenneµ, quelle condition doit-on imposer sur les constantes a1, . . . , an pour que

a1X1 + . . . anXn

soit un estimateur sans biais de µ ?

4.12 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution avec moyenneµ et variance σ2.

a) Démontrer que X2 est un estimateur biaisé de µ2 et calculer son biais.

b) Démontrer que X2 est un estimateur asymptotiquement sans biaisde µ2.

4.13 Démontrer que la médiane empirique d’un échantillon aléatoire de taille3 issu d’une loi exponentielle est un estimateur biaisé de λ−1.

4.14 Soient X(1) < X(2) < X(3) les statistiques d’ordre d’un échantillon aléa-toire de taille 3 tiré d’une distribution uniforme avec fonction de densité

f (x) = θ−1, 0 < x < θ, θ > 0.

Démontrer que 4X(1) et 2X(2) sont tous deux des estimateurs sans biaisde θ. Trouver la variance de chacun de ces estimateurs.

4.15 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution uniforme surl’intervalle (0, θ).

a) Développer un estimateur sans biais de θ basé sur max(X1, . . . , Xn).

b) Répéter la partie a), mais cette fois à partir de min(X1, . . . , Xn).

4.16 Soit X ∼ Binomiale(n, p). Démontrer que, malgré que X/n soit un esti-mateur sans biais de p,

n(

Xn

)(1− X

n

)est un estimateur biaisé de la variance de X. Calculer le biais de l’esti-mateur.

4.17 Démontrer que si θ est un estimateur sans biais de θ et que Var[θ] ≠ 0,alors θ2 est un estimateur biaisé de θ2.

4.18 Démontrer que, sous les hypothèses appropriées,

E

[(∂

∂θln f (X;θ)

)2]= −E

[∂2

∂θ2 ln f (X;θ)]

.

Page 28: Exercices et solutions - Université Laval

18 Estimation ponctuelle

Pour ce faire, dériver par rapport à θ l’identité∫ ∞

−∞f (x;θ)dx = 1

afin d’obtenir ∫ ∞

−∞

(∂

∂θln f (x;θ)

)f (x;θ)dx = 0,

puis dériver de nouveau par rapport à θ.

4.19 Démontrer que la moyenne arithmétique est un estimateur sans biais àvariance minimale du paramètre λ d’une loi de Poisson.

4.20 Démontrer que la proportion de succès X/n est un estimateur sans biaisà variance minimale de la probabilité de succès θ d’une distributionBinomiale. (Astuce : considérer X/n comme la moyenne d’un échantillonaléatoire d’une distribution de Bernoulli.)

4.21 Soit X1, . . . , Xn un échantillon aléatoire de taille n > 2 de la densité

f (x;θ) = θxθ−1, 0 < x < 1.

a) Vérifier que la borne de Rao–Cramér pour un estimateur de θ estθ2/n.

b) Trouver la distribution de la variable aléatoire Yi =− ln Xi, puis cellede Z = −∑n

i=1 ln Xi. Vérifier alors que E[Z] = n/θ.

c) Le résultat précédent suggère d’utiliser 1/Z comme estimateur de θ.Développer un estimateur sans biais de θ basé sur 1/Z.

4.22 L’inégalité de Rao–Cramér fournit un seuil minimal pour la varianced’un estimateur du paramètre θ d’une distribution f (x;θ). Qu’en est-il sil’on souhaite estimer non pas le paramètre θ, mais plutôt une fonction gde celui-ci ? (On peut penser, ici, à la moyenne d’une loi Exponentielle.)L’inégalité de Rao–Cramér se généralise ainsi : soit θ = T(X1, . . . , Xn) unestimateur de g(θ) ; alors

Var[θ] ≥ (g′(θ))2

n E

[(∂

∂θln f (X;θ)

)2] .

Soit X1, . . . , Xn un échantillon aléatoire issu d’une loi de Poisson de pa-ramètre λ.

a) Calculer la borne de Rao–Cramér pour un estimateur de λ.

b) Considérer g(λ) = e−λ = Pr[X = 0]. Calculer la borne de Rao–Cramérpour un estimateur de e−λ.

Page 29: Exercices et solutions - Université Laval

Estimation ponctuelle 19

c) Soit la statistique

T =1n

n

∑i=1

I{Xi=0},

où IA est une fonction indicatrice valant 1 si A est vraie et 0 sinon.La statistique T représente donc la proportion d’observations nullesdans l’échantillon. Démontrer que T est un estimateur sans biais dee−λ et que

Var[T] =e−λ(1− e−λ)

n.

d) Calculer l’efficacité de la statistique T définie en c).

4.23 Si θ1 et θ2 sont deux estimateurs sans biais d’un paramètre θ et queVar[θ1] = 3Var[θ2], trouver les constantes a1 et a2 tel que a1θ1 + a2θ2est un estimateur sans bias à variance minimale de θ. (Astuce : il s’agitd’un problème de minimisation sous contrainte, à résoudre à l’aide desmultiplicateurs de Lagrange.)

4.24 Supposons que X1 est la moyenne d’un échantillon aléatoire de taillen d’une population normale avec moyenne µ et variance σ2

1 , que X2est la moyenne d’un échantillon aléatoire de taille n d’une populationnormale avec moyenne µ et variance σ2

2 et que les deux échantillonsaléatoires sont indépendants.

a) Démontrer que ωX1 + (1− ω)X2, 0 ≤ ω ≤ 1, est un estimateur sansbiais de µ.

b) Démontrer que la variance de ωX1 + (1−ω)X2 est minimale lorsque

ω =σ2

2σ2

1 + σ22

.

c) Calculer l’efficacité relative de l’estimateur en a) avec ω = 12 à celle

de l’estimateur à variance minimale trouvé en b).

4.25 Démontrer, à partir de la définition, que X(1) = min(X1, . . . , Xn) est unestimateur convergent du paramètre θ d’une loi uniforme sur l’intervalle(θ, θ + 1).

4.26 Soit X1, . . . , Xn un échantillon aléatoire d’une loi exponentielle de moyenneθ. Démontrer que X est un estimateur convergent de θ.

4.27 Soit X1 une observation d’une loi normale avec moyenne 0 et varianceσ2, σ > 0. Démontrer que |X1| est une statistique exhaustive pour σ2.

4.28 Trouver une statistique exhaustive pour le paramètre θ de la loi uni-forme sur l’intervalle (−θ, θ).

4.29 Démontrer que la somme des éléments d’un échantillon aléatoire issud’une loi de Poisson est une statistique exhaustive pour le paramètre decette loi.

Page 30: Exercices et solutions - Université Laval

20 Estimation ponctuelle

4.30 Soit X1, . . . , Xn un échantillon aléatoire d’une loi géométrique avec fonc-tion de masse de probabilité

Pr[X = x] = θ(1− θ)x , x = 0,1, . . .

Démontrer que T(X1, . . . , Xn) = ∑ni=1 Xi est une statistique exhaustive

pour θ.

Exercices proposés dans Wackerly et collab. (2008)

8.2, 8.8, 8.9, 8.10, 8.11, 8.33, 8.35, 9.1, 9.3, 9.5, 9.7, 9.8, 9.18, 9.19, 9.20, 9.29,9.69–9.74, 9.75 9.80, 9.81, 9.82, 9.83, 9.84, 9.87, 9.88, 9.91, 9.97

Réponses

4.1 a) X b) X/(1− X) c) X d) X e) X− 1

4.2 a) X b) −n/ln(X1 · · ·Xn) c) X d) med(X1, . . . , Xn) e) X(1)

4.3 a) E[X] = µ + λ−1, Var[X] = λ−2

b) µ = X(1), λ = n/ ∑ni=1(Xi − X(1))

4.5 µ = X, λ = n/ ∑ni=1(X−1

i − X−1)

4.6 0,2381.

4.7 a) θ = 2X− 1 b) 9,5

4.8 a = min(X1, . . . , Xn) et b = max(X1, . . . , Xn)

4.9 a) θ = X, θ = min(X, 1/2)

b) MSE(θ) = θ(1 − θ)/n, MSE(θ) = ∑[n/2]y=0 (y/n − θ)2(n

y)θy(1 − θ)n−y +

∑ny=[n/2]+1(1/2− θ)2(n

y)θy(1− θ)n−y

c) MSE(θ) ≤ MSE(θ)

4.11 ∑ni=1 ai = 1

4.12 a) σ2/n

4.14 Var[4X(1)] = 3θ2/5, Var[2X(2)] = θ2/5.

4.15 a) (n + 1)X(n)/n b) (n + 1)X(1)

4.16 −p(1− p)

4.21 b) Yi ∼ Exponentielle(θ) c) (n− 1)/Z

4.22 a) λ/n b) λe−2λ/n d) λe−λ/(1− e−λ)

4.23 a1 = 1/4 et a2 = 3/4

4.24 c) (σ21 + σ2

2 )2/(4σ2

1 σ22 )

4.28 maxi=1,...,n(|Xi|), ou (X(1), X(n))

Page 31: Exercices et solutions - Université Laval

5 Estimation bayesienne

5.1 On tire une observation d’une loi de Poisson de moyenne λ égale à 2 ou4. On croit que la valeur λ = 2 est quatre fois plus probable que λ = 4.

a) Calculer une estimation du paramètre λ minimisant l’erreur quadra-tique moyenne avant que l’observation ne soit disponible.

b) L’expérience effectuée, la valeur de l’observation est x = 6. Quelle estla nouvelle distribution de probabilité du paramètre λ.

c) Répéter la partie a) maintenant que l’observation mentionnée en b) estdisponible.

5.2 Trouver l’estimateur bayesien de la probabilité de succès d’une loi géo-métrique si la distribution a priori du paramètre est une loi Bêta(α, β).Utiliser la loi géométrique avec support x = 0,1,2, . . . et une fonction deperte quadratique.

5.3 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution de Poisson avecmoyenne inconnue θ. Si l’on utilise une fonction de perte quadratique etque l’on suppose que θ est une observation d’une loi gamma de para-mètres α et λ, quel est l’estimateur bayesien de θ ?

5.4 L’estimateur bayesien du paramètre d’une loi de Bernoulli est

θ =α + ∑n

i=1 Xi

α + β + n

lorsque la distribution a priori du paramètre est une Bêta(α, β) et que lafonction de perte utilisée est L(θ, θ) = (θ − θ)2.

a) Soit n = 30, α = 15 et β = 5. En notant que ∑30i=1 Xi ∼ Binomiale(30, θ),

calculer l’espérance de la fonction de perte en fonction de θ. (Astuce :écrire l’erreur quadratique moyenne comme la somme de la varianceet du biais au carré.)

b) L’erreur quadratique moyenne de X — l’estimateur du maximum devraisemblance de θ — est θ(1− θ)/30, cet estimateur étant sans biais.Trouver pour quelles valeurs de θ l’erreur de l’estimateur bayesien ena) est inférieure à celle de l’estimateur du maximum de vraisemblance.

21

Page 32: Exercices et solutions - Université Laval

22 Estimation bayesienne

5.5 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution normale demoyenne θ et de variance σ2, où σ2 est une constante connue. On supposeque θ est une observation d’une variable aléatoire Θ avec distributionNormale(µ, τ2), où µ et τ2 sont des constantes connues.

a) Démontrer que la distribution a posteriori de la variable aléatoire Θest N(µ, τ2), avec

µ =τ2 ∑n

i=1 Xi + σ2µ

nτ2 + σ2

τ2 =τ2σ2

nτ2 + σ2 .

(Astuce : calculer la distribution a posteriori à une constante de nor-malisation près. Pour ce faire, compléter le carré à l’exposant en neconservant que les termes impliquant θ.)

b) Trouver un estimateur ponctuel bayesien de θ si la fonction de perteutilisée est L(θ, θ) = |θ − θ|.

Exercices proposés dans Wackerly et collab. (2008)

Il n’y a pas de solutions clips pour ces exercices

16.1, 16.6, 16.7, 16.10, 16.12

Réponses

5.1 a) 12/5 b) Pr[Λ = 2|X = 6] = 0,316, Pr[Λ = 4|X = 6] = 0,684 c) 3,368

5.2 (α + n)/(α + β + n + ∑ni=1 Xi)

5.3 (α + ∑ni=1 Xi)/(λ + n)

5.4 a) (74θ2 − 114θ + 45)/500 b) 0,5692 < θ < 0,8720

5.5 b) µ.

Page 33: Exercices et solutions - Université Laval

6 Estimation par intervalle

6.1 La valeur observée de la moyenne empirique X d’un échantillon aléatoirede taille 20 tiré d’une N(µ, 80) est 81,2. Déterminer un estimateur parintervalle de niveau 95 % pour µ.

6.2 Soit X la moyenne d’un échantillon aléatoire de taille n d’une distributionnormale de moyenne µ inconnue et de variance 9. Trouver la valeur n telque, approximativement, Pr[X− 1 < µ < X + 1] = 0,90.

6.3 Un échantillon aléatoire comptant 17 observations d’une distribution nor-male de moyenne et de variance inconnues a donné x = 4,7 et s2 = 5,76.Trouver des intervalles de confiance à 90 % pour µ et pour σ2.

6.4 Lors d’une très sérieuse et importante analyse statistique de la tailledes étudiantes en sciences et génie à l’Université Laval, on a mesuré unéchantillon aléatoire d’étudiantes en actuariat et un autre en génie civil.Les résultats obtenus se trouvent résumés dans le tableau ci-dessous. Onsuppose que les deux échantillons aléatoires sont indépendants et que lataille des étudiantes est distribuée selon une loi normale.

Quantité Actuariat Génie civil

Taille de l’échantillon 15 20Taille moyenne (en cm) 152 154Variance (en cm2) 101 112

a) Déterminer un intervalle de confiance à 90 % pour la taille moyennedes étudiantes de chacun des deux programmes en supposant quel’écart type de la distribution normale est 9 cm.

b) Répéter la partie a) en utilisant plutôt les variances des échantillons.

c) Y a-t-il une différence significative, avec un niveau de confiance de90 %, entre la taille des étudiantes en actuariat et celles en génie civil ?

d) Déterminer un intervalle de confiance à 90 % pour la variance de lataille des étudiantes en actuariat.

e) La différence observée entre les variances dans la taille des étudiantesdes deux programmes est-elle significative ? Utiliser un niveau de con-fiance de 90 %.

23

Page 34: Exercices et solutions - Université Laval

24 Estimation par intervalle

6.5 Soit X1, . . . , Xn un échantillon aléatoire tiré d’une population normale demoyenne et variance inconnues. Développer la formule d’un estimateurpar intervalle de niveau 1− α pour σ, l’écart type de la distribution nor-male.

6.6 Soit X1, X2, . . . , Xn un échantillon aléatoire d’une distribution normale demoyenne µ et de variance σ2 = 25. Déterminer la taille de l’échantillonnécessaire pour que la longueur de l’intervalle de confiance de niveau0,90 pour la moyenne ne dépasse pas 0,05.

6.7 Soit S2 la variance d’un échantillon aléatoire de taille n issu d’une dis-tribution N(µ, σ2) où µ et σ2 sont des paramètres inconnus. On sait queY = nS2/σ2 ∼ χ2(n− 1). Soit g(y) la fonction de densité de Y et G(y) lafonction de répartition. Soit a et b des constantes telles que (ns2/b, ns2/a)est un intervalle de confiance de niveau 1 − α pour σ2. La longueurde cet intervalle est donc ns2(b − a)/(ab). Démontrer que la longueurde l’intervalle de confiance est minimale si a et b satisfont la conditiona2g(a) = b2g(b). (Astuce : minimiser la longueur de l’intervalle sous lacontrainte que G(b)− G(a) = 1− α.)

Exercices proposés dans Wackerly et collab. (2008)

8.39, 8.41, 8.43, 8.47, 8.57, 8.59, 8.63, 8.70, 8.72, 8.75, 8.77

Réponses

6.1 (77,28, 85,12)

6.2 24 ou 25

6.3 µ ∈ (3,7, 5,7) et σ2 ∈ (3,72, 12,30)

6.4 a) 148,18 < µ1 < 155,82 et 150,69 < µ2 < 157,31

b) 147,27 < µ1 < 156,73 et 149,80 < µ2 < 158,20

c) µ1 − µ2 ∈ −2± 5,99

d) 63,98 < σ21 < 230,59

e) 0,417 < σ22 /σ2

1 < 2,256

6.5 (√

nS2/b,√

nS2/a).

6.6 108 241

Page 35: Exercices et solutions - Université Laval

7 Tests d’hypothèses

Pour les exercices comportant des données d’échantillons aléatoires, ilest recommandé de faire les calculs «à la main» ainsi qu’avec R. Les princi-pales fonctions pour faire des tests d’hypothèses sont prop.test, t.test etvar.test. Consulter les rubriques d’aide pour le détail des arguments de cesfonctions.

7.1 Soit X une variable aléatoire dont la fonction de densité de probabilitéest

f (x;θ) = θxθ−1, 0 < x < 1.

On suppose que θ peut prendre exclusivement les valeurs θ = 1 ou θ = 2.

a) Trouver la statistique exhaustive pour le paramètre θ de cette distri-bution.

b) On teste l’hypothèse H0 : θ = 1 versus H1 : θ = 2 à partir d’un échan-tillon aléatoire X1, X2. Si la région critique est C = {(x1, x2); x1x2 ≥3/4}, calculer la probabilité de faire une erreur de type I (α) et laprobabilité de faire une erreur de type II (β).

7.2 On suppose que la durée de vie d’un pneu en kilomètres a une distri-bution normale de moyenne 30000 et d’écart type 5000. Le fabricant dunouveau pneu Super Endurator X24 prétend que la durée de vie moyennede ce pneu est bien supérieure à 30000 km. Afin de vérifier les prétentionsdu fabricant, on testera H0 : µ≤ 30000 contre l’alternative H1 : µ > 30000à partir de n observations indépendantes x1, . . . , xn. On rejettera H0 six ≥ c. Trouver les valeurs de n et de c de sorte que la probabilité de faireune erreur de type I en µ = 30000 est 0,01 et que la probabilité de faireune erreur de type II en µ = 35000 est 0,02.

7.3 Un fabricant de dentifrice prétend que 75 % de tous les dentistes recom-mandent son produit à ses patients. Sceptique, un groupe de protectiondes consommateurs décide de tester H0 : θ = 0,75 contre H1 : θ 6= 0,75,où θ est la proportion de dentistes recommandant le dentifrice en ques-tion. Un sondage auprès de 390 dentistes a révélé que 273 d’entre euxrecommandent effectivement ce dentifrice.

a) Quelle est la conclusion du test avec un seuil de signification de α =0,05 ?

25

Page 36: Exercices et solutions - Université Laval

26 Tests d’hypothèses

b) Quelle est la conclusion du test avec un seuil de signification de α =0,01 ?

c) Quelle est la valeur p du test ?

7.4 Soit θ la proportion de bonbons rouges dans une boîte de Smarties. Onprétend que θ = 0,20.a) Définir la statistique de test et la région critique avec un seuil de si-

gnification de 5 % pour le test

H0 : θ = 0,20H1 : θ ≠ 0,20.

b) Pour faire le test, les 20 membres de la section locale des Amateurs deSmarties Associés (ASA) ont chacun compté le nombres de bonbonsrouges dans une boîte de 50 grammes de Smarties. Ils ont obtenu lesproportions suivantes :

856

,1355

,1258

,1356

,1457

,554

,1456

,1557

,1154

,1355

,

1057

,8

59,

1054

,1155

,1256

,1157

,6

54,

758

,1258

,1458

.

Si chaque membre de l’ASA fait le test mentionné en a), quelle pro-portion des membres rejette l’hypothèse H0 ?

c) En supposant vraie l’hypothèse H0, à quelle proportion de rejets del’hypothèse H0 peut-on s’attendre ?

d) Pour chacun des ratios en b) on peut construire un intervalle de con-fiance à 95 % pour θ. Quelle proportion de ces intervalles de confiancecontiennent θ = 0,20 ?

e) Si les 20 résultats en b) sont agrégés de sorte que l’on a compté un totalde 219 bonbons rouges parmi 1124 Smarties, rejette-t-on l’hypothèseH0, toujours avec α = 0,05 ?

7.5 Lors d’un sondage mené auprès de 800 adultes dont 605 non-fumeurs, ona posé la question suivante : Devrait-on introduire une nouvelle taxe sur letabac pour aider à financer le système de santé au pays ? Soit θ1 et θ2 la propor-tion de non-fumeurs et de fumeurs, respectivement, qui ont répondu parl’affirmative à cette question. Les résultats du sondage sont les suivants :x1 = 351 non-fumeurs ont répondu oui, contre x2 = 41 fumeurs.a) Tester H0 : θ1 = θ2 versus θ1 ≠ θ2 avec un seuil de signification de 5 %.b) Trouver un intervalle de confiance à 95 % pour θ1 − θ2. Cet intervalle

permet-il d’obtenir la même conclusion qu’en a) ?c) Trouver un intervalle de confiance à 95 % pour la proportion de la

population totale en faveur de l’introduction d’une nouvelle taxe surle tabac.

Page 37: Exercices et solutions - Université Laval

Tests d’hypothèses 27

7.6 Parmi les statistiques relevées par l’Organisation mondiale de la santé(OMS) on compte la concentration en µg/m3 de particules en suspen-sion dans l’air. Soit X et Y les concentrations en µg/m3 de particulesen suspension dans l’air aux centres-villes de Melbourne (Australie) etHouston (Texas), respectivement. À partir de n = 13 observations de lavariable aléatoire X et m = 16 observations de la variable aléatoire Y, onsouhaite tester H0 : µX = µY versus H1 : µX < µY.a) Définir la statistique du test et la région critique en supposant égales

les variances des distributions de X et Y. Utiliser un seuil de signifi-cation de 5 %.

b) Si x = 72,9, sX = 25,6, y = 81,7 et sY = 28,3, quelle est la conclusionpour ce test ?

c) Calculer la valeur p de ce test. Est-elle conforme à la conclusion enb) ?

d) Tester si l’hypothèse de variances égales faite en a) est valide avec unniveau de confiance de 95 %.

7.7 On suppose que le poids en grammes des bébés à la naissance au Canadaest distribué selon une loi normale de moyenne µ = 3315 et de varianceσ2 = 5252, garçons et filles confondus. Soit X le poids d’une fillette néeau Québec. On suppose X ∼ N(µX , σ2

X).a) Donner l’expression de la statistique du test H0 : µX = 3315 versus

H1 : µX > 3315 (les bébés sont en moyenne plus gros au Québec) sin = 11 et α = 0,01. (La valeur de σ2

X est inconnue ici.)

b) Calculer la valeur de la statistique et tirer une conclusion si l’échan-tillon de poids de 11 fillettes nées au Québec est le suivant :

3 119, 2 657, 3 459, 3 629, 3 345, 3 629,3 515, 3 856, 3 629, 3 345, 3 062.

c) À quel niveau de confiance maximal rejette-t-on H0 ?

d) Énoncer la statistique du test et la région critique du test H0 : σ2X = 5252

versus H1 : σ2X < 5252 (moins de variation dans le poids des bébés nés

au Québec) si α = 0,05.

e) Calculer la statistique du test à partir des données de la partie b).Quelle est la conclusion à tirer de ce résultat ?

f) Calculer la valeur p du test sur la variance.

7.8 Soit Y le poids en grammes d’un garçon né au Québec et supposons queY ∼ N(µY , σ2

Y). On a les observations suivantes :

4 082, 3 686, 4 111, 3 686, 3 175, 4 139,3 686, 3 430, 3 289, 3 657, 4 082.

Refaire les questions de l’exercice 7.7. Les réponses obtenues dans cesdeux exercices suggèrent-elles d’autres hypothèses à explorer ? Faire lestests appropriés le cas échéant.

Page 38: Exercices et solutions - Université Laval

28 Tests d’hypothèses

7.9 On considère WS, la statistique de Wilcoxon dans dans une expériencecomportant 40 sujets divisés en deux groupes : un groupe contrôle de 23sujets et un groupe traitement de 17 sujets. On considère le test

H0 : le traitement n’est pas efficaceH1 : le traitement est efficace.

a) Calculer la plus petite valeur possible de WS.

b) Calculer la plus grande valeur possible de WS.

c) Calculer l’espérance de WS lorsque l’hypothèse nulle est vraie.

7.10 On considère WS, la statistique de Wilcoxon dans dans une expériencecomportant 7 sujets divisés en deux groupes avec 4 sujets dans le groupetraitement et 3 sujets dans le groupe contrôle. On teste les hypothèses

H0 : le traitement n’est pas efficaceH1 : le traitement est efficace.

On suppose qu’un traitement est efficace s’il fait augmenter la valeur dela statistique.a) On obtient pour les sujets du groupe traitement les rangs {1,3,5,6}.

Calculer la valeur de la statistique de Wilcoxon.

b) Calculer le nombre de configurations possibles.

c) Calculer la valeur p du test.

Exercices proposés dans Wackerly et collab. (2008)

10.19, 10.29, 10.34, 10.37, 10.39, 10.42, 10.75, 10.79

Réponses

7.1 a) ∏ni=1 Xi

b) α = 0,034, β = 0,886

7.2 n = 19 ou 20, c = 32658

7.3 a) z = −2,28 c) 0,0226

7.4 a) Z = (θ− 0,20)/√

0,20(1− 0,20)/n b) 0 % c) 0,05 d) 100 % e) p = 0,6654

7.5 a) z = 10,45 > 1,96 b) (0,3005, 0,4393) c) (0,4555, 0,5246)

7.6 a) T = [(X − Y)− (µX − µY)]/√(nS2

X + mS2Y)(n

−1 + m−1)/(n + m− 2),T ∼ t(n + m− 2) b) t = −0,838 > t0,05(27) c) p = 0,2047 d) f = 0,8311 <f0,05(12,15)

Page 39: Exercices et solutions - Université Laval

Tests d’hypothèses 29

7.7 b) t = 0,6993 < t0,01(10) c) 0,7498 e) y = 4,103 > χ20,05(10) f) 0,0574

7.8 b) t = 4,028 < t0,01(10) c) 0,9988 e) y = 4,223 > χ20,95(10) f) 0,0633 g) tests

sur les moyennes et les variances

7.9 a) 153 b) 544 c) 348,5

7.10 a) 15 b) 35 c) 24/35

Page 40: Exercices et solutions - Université Laval
Page 41: Exercices et solutions - Université Laval

A Table de quantiles de la loinormale

Pr[X ≤ x] = Φ(x) =∫ x

−∞

1√2π

e−y2/2 dy

Φ(−x) = 1−Φ(x)

x Φ(x) x Φ(x) x Φ(x)

0,00 0,500 1,10 0,864 2,05 0,9800,05 0,520 1,15 0,875 2,10 0,9820,10 0,540 1,20 0,885 2,15 0,9840,15 0,560 1,25 0,894 2,20 0,9860,20 0,579 1,282 0,900 2,25 0,9880,25 0,599 1,30 0,903 2,30 0,9890,30 0,618 1,35 0,911 2,326 0,9900,35 0,637 1,40 0,919 2,35 0,9910,40 0,655 1,45 0,926 2,40 0,9920,45 0,674 1,50 0,933 2,45 0,9930,50 0,691 1,55 0,939 2,50 0,9940,55 0,709 1,60 0,945 2,55 0,9950,60 0,726 1,645 0,950 2,576 0,9950,65 0,742 1,65 0,951 2,60 0,9950,70 0,758 1,70 0,955 2,65 0,9960,75 0,773 1,75 0,960 2,70 0,9970,80 0,788 1,80 0,964 2,75 0,9970,85 0,802 1,85 0,968 2,80 0,9970,90 0,816 1,90 0,971 2,85 0,9980,95 0,829 1,95 0,974 2,90 0,9981,00 0,841 1,96 0,975 2,95 0,9981,05 0,853 2,00 0,977 3,00 0,999

31

Page 42: Exercices et solutions - Université Laval
Page 43: Exercices et solutions - Université Laval

B Table de quantiles de la loi khicarré

Pr[X ≤ x] =∫ x

0

1Γ(r/2)2r/2 yr/2−1e−r/2 dx

Pr[X ≤ x]

r 0.01 0.025 0.05 0.95 0.975 0.99

1 0.000 0.001 0.004 3.841 5.024 6.6352 0.020 0.051 0.103 5.991 7.378 9.2103 0.115 0.216 0.352 7.815 9.348 11.3454 0.297 0.484 0.711 9.488 11.143 13.2775 0.554 0.831 1.145 11.070 12.833 15.0866 0.872 1.237 1.635 12.592 14.449 16.8127 1.239 1.690 2.167 14.067 16.013 18.4758 1.646 2.180 2.733 15.507 17.535 20.0909 2.088 2.700 3.325 16.919 19.023 21.666

10 2.558 3.247 3.940 18.307 20.483 23.20911 3.053 3.816 4.575 19.675 21.920 24.72512 3.571 4.404 5.226 21.026 23.337 26.21713 4.107 5.009 5.892 22.362 24.736 27.68814 4.660 5.629 6.571 23.685 26.119 29.14115 5.229 6.262 7.261 24.996 27.488 30.57816 5.812 6.908 7.962 26.296 28.845 32.00017 6.408 7.564 8.672 27.587 30.191 33.40918 7.015 8.231 9.390 28.869 31.526 34.80519 7.633 8.907 10.117 30.144 32.852 36.19120 8.260 9.591 10.851 31.410 34.170 37.56621 8.897 10.283 11.591 32.671 35.479 38.93222 9.542 10.982 12.338 33.924 36.781 40.28923 10.196 11.689 13.091 35.172 38.076 41.63824 10.856 12.401 13.848 36.415 39.364 42.98025 11.524 13.120 14.611 37.652 40.646 44.31426 12.198 13.844 15.379 38.885 41.923 45.64227 12.879 14.573 16.151 40.113 43.195 46.96328 13.565 15.308 16.928 41.337 44.461 48.27829 14.256 16.047 17.708 42.557 45.722 49.58830 14.953 16.791 18.493 43.773 46.979 50.892

33

Page 44: Exercices et solutions - Université Laval
Page 45: Exercices et solutions - Université Laval

C Table de quantiles de la loi t

Pr[T ≤ t] =∫ t

−∞

Γ((r + 1)/2)√πr Γ(r/2)

1(1 + x2/r)(r+1)/2

dx

Pr[T ≤ −t] = 1− Pr[T ≤ t]

Pr[T ≤ t]

r 0.90 0.95 0.975 0.99 0.995

1 3.078 6.314 12.706 31.821 63.6572 1.886 2.920 4.303 6.965 9.9253 1.638 2.353 3.182 4.541 5.8414 1.533 2.132 2.776 3.747 4.6045 1.476 2.015 2.571 3.365 4.0326 1.440 1.943 2.447 3.143 3.7077 1.415 1.895 2.365 2.998 3.4998 1.397 1.860 2.306 2.896 3.3559 1.383 1.833 2.262 2.821 3.250

10 1.372 1.812 2.228 2.764 3.16911 1.363 1.796 2.201 2.718 3.10612 1.356 1.782 2.179 2.681 3.05513 1.350 1.771 2.160 2.650 3.01214 1.345 1.761 2.145 2.624 2.97715 1.341 1.753 2.131 2.602 2.94716 1.337 1.746 2.120 2.583 2.92117 1.333 1.740 2.110 2.567 2.89818 1.330 1.734 2.101 2.552 2.87819 1.328 1.729 2.093 2.539 2.86120 1.325 1.725 2.086 2.528 2.84521 1.323 1.721 2.080 2.518 2.83122 1.321 1.717 2.074 2.508 2.81923 1.319 1.714 2.069 2.500 2.80724 1.318 1.711 2.064 2.492 2.79725 1.316 1.708 2.060 2.485 2.78726 1.315 1.706 2.056 2.479 2.77927 1.314 1.703 2.052 2.473 2.77128 1.313 1.701 2.048 2.467 2.76329 1.311 1.699 2.045 2.462 2.75630 1.310 1.697 2.042 2.457 2.750

35

Page 46: Exercices et solutions - Université Laval
Page 47: Exercices et solutions - Université Laval

D Table de quantiles de la loi F

Pr[Fr1 ,r2 ≤ f ] =∫ f

0

Γ((r1 + r2)/2)(r1/r2)r1/2x(r1/2−1)

Γ(r1/2)Γ(r2/2)(1 + r1x/r2)(r1+r2)/2dx

La table se trouve répartie sur les deux pages suivantes.

37

Page 48: Exercices et solutions - Université Laval

r 1Pr[F≤

f]r 2

12

34

56

78

910

1215

0.95

116

1.45

199.

5021

5.71

224.

5823

0.16

233.

9923

6.77

238.

8824

0.54

241.

8824

3.91

245.

950.

975

647.

7979

9.50

864.

1689

9.58

921.

8593

7.11

948.

2295

6.66

963.

2896

8.63

976.

7198

4.87

0.99

4052

.18

4999

.50

5403

.35

5624

.58

5763

.65

5858

.99

5928

.36

5981

.07

6022

.47

6055

.85

6106

.32

6157

.28

0.95

218

.51

19.0

019

.16

19.2

519

.30

19.3

319

.35

19.3

719

.38

19.4

019

.41

19.4

30.

975

38.5

139

.00

39.1

739

.25

39.3

039

.33

39.3

639

.37

39.3

939

.40

39.4

139

.43

0.99

98.5

099

.00

99.1

799

.25

99.3

099

.33

99.3

699

.37

99.3

999

.40

99.4

299

.43

0.95

310

.13

9.55

9.28

9.12

9.01

8.94

8.89

8.85

8.81

8.79

8.74

8.70

0.97

517

.44

16.0

415

.44

15.1

014

.88

14.7

314

.62

14.5

414

.47

14.4

214

.34

14.2

50.

9934

.12

30.8

229

.46

28.7

128

.24

27.9

127

.67

27.4

927

.35

27.2

327

.05

26.8

7

0.95

47.

716.

946.

596.

396.

266.

166.

096.

046.

005.

965.

915.

860.

975

12.2

210

.65

9.98

9.60

9.36

9.20

9.07

8.98

8.90

8.84

8.75

8.66

0.99

21.2

018

.00

16.6

915

.98

15.5

215

.21

14.9

814

.80

14.6

614

.55

14.3

714

.20

0.95

56.

615.

795.

415.

195.

054.

954.

884.

824.

774.

744.

684.

620.

975

10.0

18.

437.

767.

397.

156.

986.

856.

766.

686.

626.

526.

430.

9916

.26

13.2

712

.06

11.3

910

.97

10.6

710

.46

10.2

910

.16

10.0

59.

899.

72

0.95

65.

995.

144.

764.

534.

394.

284.

214.

154.

104.

064.

003.

940.

975

8.81

7.26

6.60

6.23

5.99

5.82

5.70

5.60

5.52

5.46

5.37

5.27

0.99

13.7

510

.92

9.78

9.15

8.75

8.47

8.26

8.10

7.98

7.87

7.72

7.56

Page 49: Exercices et solutions - Université Laval

r 1Pr[F≤

f]r 2

12

34

56

78

910

1215

0.95

75.

594.

744.

354.

123.

973.

873.

793.

733.

683.

643.

573.

510.

975

8.07

6.54

5.89

5.52

5.29

5.12

4.99

4.90

4.82

4.76

4.67

4.57

0.99

12.2

59.

558.

457.

857.

467.

196.

996.

846.

726.

626.

476.

31

0.95

85.

324.

464.

073.

843.

693.

583.

503.

443.

393.

353.

283.

220.

975

7.57

6.06

5.42

5.05

4.82

4.65

4.53

4.43

4.36

4.30

4.20

4.10

0.99

11.2

68.

657.

597.

016.

636.

376.

186.

035.

915.

815.

675.

52

0.95

95.

124.

263.

863.

633.

483.

373.

293.

233.

183.

143.

073.

010.

975

7.21

5.71

5.08

4.72

4.48

4.32

4.20

4.10

4.03

3.96

3.87

3.77

0.99

10.5

68.

026.

996.

426.

065.

805.

615.

475.

355.

265.

114.

96

0.95

104.

964.

103.

713.

483.

333.

223.

143.

073.

022.

982.

912.

850.

975

6.94

5.46

4.83

4.47

4.24

4.07

3.95

3.85

3.78

3.72

3.62

3.52

0.99

10.0

47.

566.

555.

995.

645.

395.

205.

064.

944.

854.

714.

56

0.95

124.

753.

893.

493.

263.

113.

002.

912.

852.

802.

752.

692.

620.

975

6.55

5.10

4.47

4.12

3.89

3.73

3.61

3.51

3.44

3.37

3.28

3.18

0.99

9.33

6.93

5.95

5.41

5.06

4.82

4.64

4.50

4.39

4.30

4.16

4.01

0.95

154.

543.

683.

293.

062.

902.

792.

712.

642.

592.

542.

482.

400.

975

6.20

4.77

4.15

3.80

3.58

3.41

3.29

3.20

3.12

3.06

2.96

2.86

0.99

8.68

6.36

5.42

4.89

4.56

4.32

4.14

4.00

3.89

3.80

3.67

3.52

Page 50: Exercices et solutions - Université Laval
Page 51: Exercices et solutions - Université Laval

E Solutions

Chapitre 1

1.1 a) Dans tous les cas, il faut démontrer que f (x)> 0 sur tout son domaineet que

∫ ∞−∞ f (x)dx = 1.

i) On a f1(x) = e−x > 0, pour tout x > 0 et∫ ∞

0e−x dx = −e−∞ − (−e−0) = 1.

La fonction f1 est donc une densité de probabilité.ii) On a f2(x) = 2e−2x > 0, pour tout x > 0 et∫ ∞

02e−2x dx = −e−(2)(∞) − (−e−(2)(0)) = 1.

Ainsi, f2 est une densité de probabilité.iii) On a f3(x) = (1+ θ) f1(x)− θ f2(x) avec 0 < θ < 1. Par conséquent,

on a clairement f3(x) > 0 pour tout x > 0 et∫ ∞

0f3(x)dx = (1 + θ)

∫ ∞

0f1(x)dx− θ

∫ ∞

0fx(x)dx

= (1 + θ)(1)− θ(1)= 1.

La fonction f3 est donc une densité de probabilité. De manièregénérale, toute combinaison linéaire de densités de probabilitéest elle-même une densité.

b) On doit vérifier que les fonctions commencent à 0, tendent vers 1et sont non décroissantes, c’est-à-dire que limx→−∞ F(x) = 0, quelimx→+∞ F(x) = 1 et que F′(x) > 0 pour tout x dans le domaine dedéfinition de F.

i) On démontre sans difficulté que limx→−∞(1 + e−x)−1 = 0 et quelimx→+∞(1 + e−x)−1 = 1. De plus,

F′(x) =e−x

(1 + e−x)2 > 0

41

Page 52: Exercices et solutions - Université Laval

42 Solutions

pour tout x ∈ R. La fonction F(x) = (1 + e−x)−1 est donc unefonction de répartition sur R. (Il s’agit en fait de la fonction derépartition de la loi logistique.)

ii) On a limx→−∞ e−e−x= 0, limx→+∞ e−e−x

= 1 et

F′(x) = e−xe−e−x> 0

pour tout x ∈ R. La fonction F(x) = e−e−xest donc une fonction

de répartition sur R.

1.2 Pour avoir une densité, il faut que f (x) ≥ 0 pour −k < x < k et que∫ k−k f (x) = 1. Or,

∫ k

−kkx2 dx =

k4

3+

k4

3

=2k4

3.

Par conséquent, k =±(3/2)1/4. Afin d’avoir une image positive pour tout−k < x < k, on doit choisir k = (3/2)1/4.

1.3 En premier lieu, puisque e−|x| > 0 pour tout x ∈ R, on doit avoir c > 0.De plus, ∫ ∞

−∞ce−|x| dx = c

∫ 0

−∞ex dx + c

∫ ∞

0e−x dx

= c + c= 2c,

Par conséquent, f (x) = ce−|x|, −∞ < x < ∞ est une densité si, et seule-ment si c = 1/2.

1.4 On se souviendra que la distribution du nombre d’essais avant d’obte-nir un premier succès dans une série d’expériences de Bernoulli avecprobabilité de succès p est une géométrique avec fonction de masse deprobabilité

Pr[X = x] = p(1− p)x−1, x = 1,2, . . .

a) La variable aléatoire X obéit à une loi géométrique de paramètre p =1/2, d’où Pr[X = x] = (1/2)(1/2)x−1 = (1/2)x, x = 1,2, . . .

b) Posons q = 1− p. En général, on a que

E[X] =∞

∑x=1

xpqx−1

= p∞

∑x=1

xqx−1.

Page 53: Exercices et solutions - Université Laval

Solutions 43

La dernière somme est la dérivée d’une série géométrique. En effet,on sait que

∑x=0

qx =1

1− q.

En dérivant de part et d’autre par rapport à q, on obtient

∑x=0

xqx−1 =∞

∑x=1

xqx−1 =1

(1− q)2 .

De manière équivalente,

∑x=1

xqx−1 =∞

∑x=0

ddq

qx

=ddq

∑x=0

qx

=ddq

11− q

=1

(1− q)2 .

Par conséquent,

E[X] =p

(1− q)2 =1p

.

Pour la variance, on a

Var[X] = E[X2]− E[X]2

= p∞

∑x=1

x2qx−1 − 1p2 .

Or, en réécrivant l’identité obtenue plus haut sous la forme

∑x=1

xqx =q

(1− q)2 ,

puis en dérivant de part et d’autre par rapport à q, on obtient

∑x=1

x2qx−1 =1− q2

(1− q)4 .

Page 54: Exercices et solutions - Université Laval

44 Solutions

Comme précédemment, on peut aussi procéder ainsi pour atteindrele même résultat :

∑x=1

n2qx−1 =∞

∑x=1

ddq

xqx

=ddq

∑x=1

xqx

=ddq

q∞

∑x=1

xqx−1

=ddq

q(1− q)2

=1− q2

(1− q)4 .

Par conséquent,

Var[X] = p(

1− (1− p)2

p4

)− 1

p2

= p(

2p3 −

1p2

)− 1

p2

=1− p

p2 .

Ici, on a p = 1/2 d’où E[X] = Var[X] = 2.

c) On a, en général,

MX(t) = E[etX ]

=∞

∑x=1

etx pqx−1

=pq

∑n=1

(qet)x

=pq

(∞

∑x=0

(qet)x − 1

)

=pq

(1

1− qet − 1)

=pet

1− qet .

En posant p= 1/2 et après quelques simplifications, on obtient MX(t) =(2e−t − 1)−1.

Page 55: Exercices et solutions - Université Laval

Solutions 45

1.5 On a la fonction définie par branches suivante :

f (x) =

(1 +

x− α

β

), α− β < x < α

(1− x− α

β

), α < x < α + β.

a) Avec les conditions imposées sur x, α et β, il est aisé de vérifier quef (x) ≥ 0. Puis,∫ α+β

α−βf (x)dx =

∫ α

α−β

(1 +

x− α

β

)dx +

∫ α+β

α

(1− x− α

β

)dx

=1β

β

2+

β

2= 1,

d’où f (x) est bien une densité.b) La fonction de répartition sera elle aussi définie par branches sur les

intervalles (α− β, α] et (α, α + β). En premier lieu, on a, pour α− β <x ≤ α,

F(x) =∫ x

α−βf (y)dy

=1β

∫ x

α−β

(1 +

y− α

β

)dy

=x− α

β+

12

(x− α

β

)2+

12

.

En second lieu, pour α < x ≤ α + β, on a

F(x) =∫ α

α−βf (y)dy +

∫ x

αf (y)dy

= F(α) +∫ x

αf (y)dy

=12+

∫ x

α

(1− y− α

β

)dy

=12+

x− α

β− 1

2

(x− α

β

)2.

On peut vérifier que F(α− β) = 0 et que F(α + β) = 1. La fonction derépartition est donc

F(x) =

x− α

β+

12

(x− α

β

)2+

12

, α− β < x ≤ α

12+

x− α

β− 1

2

(x− α

β

)2, α < x < α + β.

Page 56: Exercices et solutions - Université Laval

46 Solutions

1.6 a) L’utilisation de fonctions indicatrices simplifie beaucoup la résolutionde ce problème. Soit la fonction indicatrice I{A} qui vaut 1 lorsque lacondition A est vraie et 0 sinon. On a donc

FX(x) =12

H(x) +12

G(x)

=12

(xI{0<x≤1} + I{x>1}

)+

12

( x2

I{0<x≤2} + I{x>2}

)=

34

xI{0<x≤1} +

(12+

14

x)

I{1<x≤2} + I{x>2}.

b) En dérivant F(x), on obtient directement f (x) = 34 I{0<x≤1}+

14 I{1<x≤2}.

c) On a

Pr[X ≤ 1/2|X ≤ 1] =Pr[X ≤ 1/2∩ X ≤ 1]

Pr[X ≤ 1]

=F(1/2)

F(1)

=34 ×

12

34

=12

.

1.7 On doit trouver le point où la fonction f (c) = E[(X − c)2] atteint sonminimum. Or, f ′(c) =−2E[X− c] = 0 lorsque E[X]− c= 0, soit c= E[X] =µ. De plus, il s’agit bien d’un minimum puisque f ′′(c) = 2 > 0 pour toutc.

1.8 a) Si f (x) = (x + 1)/2, −1 < x < 1, alors

E[X] =∫ 1

−1

(x2 + x

2

)dx =

13

E[X2] =∫ 1

−1

(x3 + x2

2

)dx =

13

E[X3] =∫ 1

−1

(x4 + x3

2

)dx =

15

,

d’où σ2 = 2/9 et E[(X− µ)3] = E[X3]− 3µE[X2] + 2µ3 = −8/135. Parconséquent, γ1 = −2

√2/5.

b) La densité f (x) = 12 , −1 < x < 1 est celle de la loi uniforme sur (−1,1).

On sait que cette distribution est symétrique autour de sa moyenne,d’où γ1 = 0. Cette symétrie implique également que tous les momentscentraux (centrés autour de la moyenne) impairs sont nuls. En effet,

Page 57: Exercices et solutions - Université Laval

Solutions 47

−1.0 −0.5 0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

(a) f (x) = (x + 1)/2

−1.0 −0.5 0.0 0.5 1.0

0.3

0.4

0.5

0.6

0.7

(b) f (x) = x/2

−1.0 −0.5 0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

(c) f (x) = (1− x)/2

Fig. E.1: Graphiques des fonctions de l’exercice 1.8. Toutes sont définies surl’intervalle (−1,1).

ici, E[X] = µ = 0 et

E[(X− µ)3] = E[X3]

=∫ 1

−1

x3

2dx

= 0,

d’où γ1 = 0.

c) Par symétrie avec la partie a), on trouve rapidement que γ1 = 2√

2/5.

On trouvera à la figure E.1 les graphes des trois densités. On constateque la densité en a) est asymétrique vers la droite (d’où un coefficientd’asymétrie négatif) et que celle en c) est asymétrique vers la gauche(coefficient positif). Tel que mentionné précédemment, la densité en b)est symétrique.

1.9 Par définition de la fonction génératrice des moments, on a

MX(t) = E[etX ]

=∫ 2

−1etx(

13

)dx

=e2t

3t− e−t

3t

=e2t − e−t

3t, t 6= 0.

1.10 Comme souvent dans ce genre de démonstration, le truc consiste à écrirel’expression sous forme d’intégrale double, puis d’inverser l’ordre d’in-

Page 58: Exercices et solutions - Université Laval

48 Solutions

tégration. Ici, on a∫ ∞

0(1− FX(x))dx =

∫ ∞

0Pr[X > x]dx

=∫ ∞

0

∫ ∞

xfX(y)dy dx

=∫ ∞

0

∫ y

0fX(y)dx dy

=∫ ∞

0fX(y)

∫ y

0dx dy

=∫ ∞

0y fX(y)dy

= E[X].

1.11 a) Soit ρ le coefficient de corrélation entre X1 + X2 et X2 + X3. Par défi-nition,

ρ =Cov(X1 + X2, X2 + X3)√Var[X1 + X2]Var[X2 + X3]

=Cov(X1, X2) + Cov(X1, X3) + Cov(X2, X2) + Cov(X2, X3)√

Var[X1 + X2]Var[X2 + X3].

Or, puisque les variables aléatoires ne sont pas corrélées et que leursvariances sont identiques, on a

ρ =Var[X2]√

(Var[X1] + Var[X2])(Var[X2] + Var[X3])

=σ2√

4σ4

=12

.

b) De manière similaire, on a

ρ =Cov(X2 − X1, X3 − X1)√Var[X2 − X1]Var[X3 − X1]

=Cov(X2, X3)−Cov(X1, X2)−Cov(X1, X3) + Var[X1]√

(Var[X2] + Var[X1])(Var[X3] + Var[X1])

=σ2√

4σ4

=12

.

1.12 Par définition,

E[Yk|X = x] =∫ 1

0yk fY|X(y|x)dy.

Page 59: Exercices et solutions - Université Laval

Solutions 49

Or,

fY|X(y|x) =fXY(x, y)

fX(x)

=fXY(x, y)∫ 1

0 fXY(x, y)dy

=x + y∫ 1

0 (x + y)dy

=x + yx + 1

2.

On a donc

E[Y|X = x] =∫ 1

0

xy + y2

x + 12

dy

=3x + 26x + 3

,

E[Y2|X = x] =∫ 1

0

xy2 + y3

x + 12

dy

=4x + 3

12x + 6

et

Var[Y|X = x] = E[Y2|X = x]− E[Y|X = x]2

=6x2 + 6x + 12(6x + 3)2 .

1.13 a) On doit avoir

∫ 1

0

∫ y

0fX|Y(x|y)dx dy = c1

∫ 1

0

1y2

∫ y

0x dx dy =

c1

2= 1,

d’où c1 = 2. De manière similaire, on doit avoir

∫ 1

0fY(y)dy = c2

∫ 1

0y4 dy =

c2

5= 1,

d’où c2 = 5.

b) On a

fXY(x, y) = fX|Y(x|y) fY(y) = 10xy2, 0 < x < y, 0 < y < 1.

Page 60: Exercices et solutions - Université Laval

50 Solutions

c) On a

Pr[ 14 < X < 1

2 |Y = 58 ] =

∫ 1/2

1/4fX|Y(x| 58 )dx

=∫ 1/2

1/4

2x(5/8)2 dx

=6425

(14− 1

16

)=

1225

.

d) On a

Pr[ 14 < X < 1

2 ] =∫ 1/2

1/4fX(x)dx

=∫ 1/2

1/4

∫ 1

0fXY(x, y)dy dx

=∫ 1/2

1/4

∫ 1

010xy2 dy dx

=∫ 1/2

1/4

10x3

dx

=5

12− 5

48

=5

16.

1.14 a) On a

MY(t) = E[eYt]

= E[e(aX+b)t]

= E[eaXtebt]

= ebtE[eaXt]

= ebt MX(at).

b) On a

MY(t) = E[eYt]

= E[e(X1+···+Xn)t]

= E[eX1t · · · eXnt]

Page 61: Exercices et solutions - Université Laval

Solutions 51

et, par indépendance entre les variables aléatoires,

MY(t) = E[eX1t] · · ·E[eXnt]

=n

∏i=j

MXj(t).

Si, en plus, les variables aléatoires X1, . . . , Xn sont identiquement dis-tribuées comme X, alors MY(t) = (MX(t))n.

1.15 Attention, pour démontrer l’indépendance entre deux variables aléa-toires, il ne suffit pas de démontrer que la covariance est nulle. Il fautplutôt démontrer que la densité conjointe est le produit des densitésmarginales. Or, ici,

fX(x) =∫ 1

0fXY(x, y)dy

= 12x∫ 1

0(y− y2)dy

= 2x

et

fY(y) =∫ 1

0fXY(x, y)dx

= 12y(1− y)∫ 1

0x dx

= 6y(1− y),

d’où fXY(x,y) = fX(x) fY(y). Les variables aléatoires X et Y sont doncstochastiquement indépendantes. Cela implique que Cov(X,Y) = 0, maispas l’inverse.

1.16 On pourrait démontrer que Cov(X,Y) ≠ 0, ce qui est une raison suffi-sante (mais non nécessaire) pour que deux variables aléatoires soientdépendantes. Cependant, ici, il est plus simple de démontrer que ladensité conjointe n’est pas le produit des densités marginales. En effet,

fX(x) =∫ ∞

0fXY(x, y)dy

= 2e−x∫ ∞

0e−y dy

= 2e−x

Page 62: Exercices et solutions - Université Laval

52 Solutions

et

fY(y) =∫ y

0fXY(x, y)dx

= 2e−y∫ y

0e−x dx

= 2e−y(e−y − 1),

d’où fXY(x,y) ≠ fX(x) fY(y).

1.17 Pour commencer, on trouve la valeur du paramètre λ de la loi de Pois-son : on a Pr[X = 1] = Pr[X = 2], d’où

λe−λ =λ2e−λ

2

et donc λ = 2. Ainsi,

Pr[X = 1∪ X = 2] = Pr[X = 1] + Pr[X = 2]

= 2e−2 +4e−2

2= 4e−2.

1.18 On doit trouver le minimum de

E[|X− a|] =∫ ∞

−∞|x− a| f (x)dx

=∫ a

−∞(a− x) f (x)dx +

∫ ∞

a(x− a) f (x)dx.

Or,

dda

E[|X− a|] =∫ a

−∞f (x)dx +

∫ ∞

af (x)dx

= FX(a)− (1− FX(a))= 2FX(a)− 1

Par conséquent, le minimum est atteint au point a tel que 2FX(a)− 1= 0,soit FX(a) = 1/2. Par définition, cette valeur est la médiane de X.

1.19 a) On a directement f (x) = F′(x) = λτxτ−1e−λxτ.

b) On a

E[X] =∫ ∞

0x f (x)dx

=∫ ∞

0λτxτe−λxτ

dx.

Page 63: Exercices et solutions - Université Laval

Solutions 53

On effectue le changement de variable y = λxτ , d’où dy = λτxτ−1 dxet donc

E[X] =1

λ1/τ

∫ ∞

0y1/τe−y dy

=Γ(1 + 1

τ )

λ1/τ

∫ ∞

0

1Γ(1 + 1

τ )y1/τe−y dy

=Γ(1 + 1

τ )

λ1/τ

puisque l’intégrande ci-dessus est la fonction de densité de probabi-lité d’une loi gamma de paramètre de forme α = 1 + 1

τ et de para-mètre d’échelle λ = 1. En procédant exactement de la même façon,on trouve

E[X2] =∫ ∞

0x2 f (x)dx

=∫ ∞

0λτxτ+1e−λxτ

dx

=1

λ2/τ

∫ ∞

0y2/τe−y dy

=Γ(1 + 2

τ )

λ2/τ.

Par conséquent,

Var[X] =Γ(1 + 2

τ )− Γ(1 + 1τ )

2

λ2/τ.

1.20 a) Nous indiquons la méthode la plus simple et la plus rapide pourobtenir la réponse. On observe que Y|X = x ∼ Uniforme(x, x + 1) etque X ∼ Uniforme(0,1). On a donc

E[Y] = E[E[Y|X]] = E[

X +12

]=

12+

12= 1.

b) Le calcul de Cov(X,Y) = E[XY] − E[X]E[Y] requiert la fonction dedensité conjointe de X et Y. Or, fXY(x, y) = fY|X(y|x) fX(x) = 1, 0 <x < 1, x < y < x + 1. Par conséquent,

E[XY] =∫ 1

0

∫ x+1

xxy dy dx

=12

∫ 1

0(x3 + 2x2 + x− x2)dx

=7

12.

De a) on sait que E[X] = 1/2 et E[Y] = 1, d’où Cov(X,Y) = 1/12.

Page 64: Exercices et solutions - Université Laval

54 Solutions

0.0 0.5 1.0 1.5 2.0

0.0

0.5

1.0

1.5

2.0

x

y

Fig. E.2: Domaine de définition de fXY(x, y) = 1, 0 < x < 1, x < y < x + 1. Lazone hachurée représente l’aire où x + y < 1.

c) Par définition,

Pr[X + Y < 1] =∫∫R

fXY(x, y)dy dx,

où R est la région du domaine de définition de fXY telle que x + y <1. Cette région est représentée à la figure E.2. On a donc

Pr[X + Y < 1] =∫ 1/2

0

∫ 1−x

xdy dx

=∫ 1/2

0(1− 2x)dx

=12− 1

4

=14

.

Page 65: Exercices et solutions - Université Laval

Solutions 55

Chapitre 2

2.1 Par la technique de la fonction de répartition :

FY(y) = Pr[Y ≤ y]

= Pr[X3 ≤ y]

= Pr[X ≤ y1/3]

=19

∫ y1/3

0x2 dx

=y

27, 0 < y < 27.

On trouve donc que

fY(y) = F′Y(y) =1

27, 0 < y < 27,

soit que Y ∼U(0,27).

2.2 Avec les variables aléatoires discrètes, on peut généralement procéderdirectement au calcul de la fonction de masse de probabilité. Ici, on a

Pr[Y = y] = Pr[

XX + 1

= y]

= Pr[

X =y

1− y

]=

13

(23

)y/(1−y), y = 0,

12

,23

,34

, . . .

2.3 On a X = µ + σZ. Par la technique de la fonction de répartition, on ob-tient :

FX(x) = Pr[X ≤ x]= Pr[µ + σZ ≤ x]

= Pr[

Z ≤ x− µ

σ

]= Φ

(x− µ

σ

).

Ainsi, la fonction de densité de probabilité de X est

fX(x) =d

dxΦ(

x− µ

σ

)=

φ

(x− µ

σ

).

Page 66: Exercices et solutions - Université Laval

56 Solutions

2.4 Soit Z∼ N(0,1). La fonction génératrice des moments de la variable aléa-toire Z2 est

MZ2(t) = E[eZ2t

]=∫ ∞

−∞ez2tφ(z)dz

=∫ ∞

−∞

1√2π

ez2te−z2/2 dz

=∫ ∞

−∞

1√2π

e−z2(1−2t)/2 dz.

En posant σ2 = (1− 2t)−1, on voit que l’on peut écrire l’expression ci-dessus sous la forme

MZ2(t) = σ∫ ∞

−∞

1σ√

2πe−z2/(2σ2) dz.

On reconnaît alors sous l’intégrale la densité d’une loi normale de moyenne0 et de variance σ2. Par conséquent,

MZ2(t) = σ =

(1

1− 2t

)1/2,

soit la fonction génératrice des moments d’une loi gamma de paramètresα = λ = 1/2 ou, de manière équivalente, d’une distribution χ2(1).

2.5 Soit X une variable aléatoire et Y = FX(X) avec F continue et strictementcroissante. Par conséquent,

Pr[Y ≤ y] = Pr[FX(X) ≤ y]

= Pr[X ≤ F−1X (y)]

= FX(F−1X (y))

= y,

d’où Y ∼U(0,1), peu importe la loi de X.

2.6 a) On a X ∼ N(0, σ2) et Y = X2. Il faut voir que Y = X2 n’est pas unetransformation bijective. On pose donc d’abord Z = |X| et on trouvela densité de Z à l’aide de la technique de la fonction de répartition :

FZ(z) = Pr[|X| ≤ z]= Pr[−z ≤ X ≤ z]= FX(z)− FX(−z)

d’où

fZ(z) = fX(z) + fX(−z)

=2

σ√

2πe−x2/(2σ2), z > 0.

Page 67: Exercices et solutions - Université Laval

Solutions 57

Ensuite, on pose la transformation bijective Y = Z2 = |X|2 = X2. Parla technique du changement de variable, on a

fY(y) = fZ(y1/2)

∣∣∣∣ 12√

y

∣∣∣∣=

2σ√

2πe−y/(2σ2)

(1

2√

y

)=

(2σ2)−1/2

Γ( 12 )

y1/2−1e−y/(2σ2), y > 0

puisque Γ( 12 ) =

√π. On voit donc que

Y ∼ Gamma(

12

,1

2σ2

).

b) On sait que Z = X1−X2 ∼ N(0,2) et que Z/√

2∼ N(0,1). En utilisantle résultat de la partie a), on a immédiatement que Y = Z2/2∼ χ2(1).

2.7 Ici, les variables aléatoires Y1 et Y2 ne sont clairement pas indépendantes.La fonction génératrice des moments conjointe n’est donc pas égale auproduit des fonctions génératrices des moments marginales. En revanche,

MY1Y2(t1, t2) = E[et1Y1+t2Y2

]= E

[et1(X1+X2)+t2(X2

1+X22)]

= E[et1X1+t2X2

1 et1X2+t2X22

]= E

[et1X1+t2X2

1

]E[et1X2+t2X2

2

]par indépendance entre X1 et X2. Puisque X1 et X2 sont aussi identique-ment distribuées, on a

MY1Y2(t1, t2) = E[et1X+t2X2

]2,

où X ∼ N(0,1). Or,

E[et1X+t2X2

]=∫ ∞

−∞

1√2π

e−(x2−2t1x−2t2x2)/2 dx

=∫ ∞

−∞

1√2π

e−[(1−2t2)x2−2t1x]/2 dx

=∫ ∞

−∞

1√2π

exp{−1− 2t2

2

(x2 − 2t1

1− 2t2x)}

dx

Page 68: Exercices et solutions - Université Laval

58 Solutions

et, en complétant le carré dans l’expression entre parenthèses,

E[et1X+t2X2

]= exp

{t21

2(1− 2t2)

}∫ ∞

−∞

1√2π

× exp

{− 1

2(1− 2t2)−1

[x2 − 2t1

1− 2t2x +

(t1

1− 2t2

)2]}dx

= exp

{t21

2(1− 2t2)

}∫ ∞

−∞

1√2π

× exp

{− 1

2(1− 2t2)−1

(x− t1

1− 2t2

)2}

dx

= (1− 2t2)−1/2 exp

{t21

2(1− 2t2)

},

d’où

MY1Y2(t1, t2) =1

1− 2t2exp

{t21

1− 2t2

}, −∞ < t1 < ∞,−∞ < t2 <

12

.

2.8 La transformation de variables aléatoires est définie par les systèmesd’équations suivants :

y1 =x1

x1 + x2x1 = y1y2y3

y2 =x1 + x2

x1 + x2 + x3x2 = (1− y1)y2y3

y3 = x1 + x2 + x3 x3 = y3 − y2y3.

La distribution conjointe des variables aléatoires Y1, Y2 et Y3 est

fY1Y2Y3(y1, y2, y3) = fX1X2X3(y1y2y3, (1− y1)y2y3, y3 − y2y3)|J|,

fX1X2X3(x1, x2, x3) =3

∏i=1

fXi (xi) = e−(x1+x2+x3).

et

J =

∣∣∣∣∣∣∂x1/∂y1 ∂x1/∂y2 ∂x1/∂y3∂x2/∂y1 ∂x2/∂y2 ∂x2/∂y3∂x3/∂y1 ∂x3/∂y2 ∂x3/∂y3

∣∣∣∣∣∣=

∣∣∣∣∣∣y2y3 y1y3 y1y2−y2y3 y3 − y1y3 y2 − y1y2

0 −y3 1− y2

∣∣∣∣∣∣= y2y2

3.

Page 69: Exercices et solutions - Université Laval

Solutions 59

Ainsi,

fY1Y2Y3(y1, y2, y3) = e−(y1y2y3+y2y3−y1y2y3+y3−y2y3)|y2y23|

= y2y23e−y3 , y1, y2, y3 > 0.

Puisque la densité conjointe est le produit de trois fonctions g1(y1) = 1,g2(y2) = y2 et g3(y3) = y2

3e−y3 (qui ne sont pas nécessairement les densitésmarginales), alors les variables aléatoires Y1, Y2 et Y3 sont stochastique-ment indépendantes.On pourrait aussi calculer densités mariginales et vérifier que leur pro-duit égale à la densité conjointe. Il est laissé en exercice de vérifier que

fY3(y3) =e−y3 y2

32

fY2(y2) = 2y2

fY1(y1) = 1,

d’où le résultat.

2.9 a) On a X ∼ N(µ, σ2) et Y = eX . On sait que

FX(x) = Φ(

x− µ

σ

).

Or, par la technique de la fonction de répartition, on trouve

FY(y) = Pr[eX ≤ y]= Pr[X ≤ ln(y)]= FX(ln(y))

= Φ(

ln(y)− µ

σ

)et

FY(y) =1y

fX(ln(y))

=1

σyφ

(ln(y)− µ

σ

).

b) On a simplement

E[Yk] = E[ekX ]

= MX(k)

= ekµ+k2σ2/2,

où MX(t) est la fonction génératrice des moments de la variable aléa-toire X.

Page 70: Exercices et solutions - Université Laval

60 Solutions

2.10 On pose Y1 = X1/X2 et, tel que suggéré dans l’énoncé, Y2 = X2. Lesrelations inverses sont X1 = Y1Y2 et X2 = Y2. La distribution conjointede Y1 et Y2 est donc

fY1Y2(y1, y2) = fX1X2(y1y2, y2)|J|,

avec

fX1X2(x1, x2) =1

2πe−(x2

1+x22)/2

et

J =∣∣∣∣y2 y1

0 1

∣∣∣∣ = y2.

Ainsi,

fY1Y2(y1, y2) = fX1X2(y1y2, y2)|y2|

=|y2|2π

e−(y21y2

2+y22)/2.

Il ne reste qu’à intégrer pour trouver la densité marginale de Y1 :

fY1(y1) =∫ ∞

−∞

|y2|2π

e−(1+y21)y

22/2 dy2

= −∫ 0

−∞

y2

2πe−(1+y2

1)y22/2 dy2 +

∫ ∞

0

y2

2πe−(1+y2

1)y22/2 dy2

= 2∫ ∞

0

y2

2πe−(1+y2

1)y22/2 dy2

=1

π(1 + y21)

,

d’où Y1 = X1/X2 ∼ Cauchy.

2.11 a) Puisque la loi t est symétrique autour de zéro, on a

Pr[|T| > 2,228] = Pr[T > 2,228] + Pr[T < −2,228]= 2Pr[T > 2,228].

Or, on trouve dans la table de la loi t de l’annexe C que Pr[T ≤2,228] = 0,975 si T ∼ t(10). Par conséquent, Pr[|T| > 2,228] = 2(1−0,975) = 0,05.

b) Toutes les fonction R servant à évaluer des fonctions de répartitionont un argument lower.tail. Ce argument est TRUE par défaut, maislorsque qu’il est FALSE, la fonction retourne la probabilité au-dessusdu point x. Ainsi, la probabilité cherchée ici est

Page 71: Exercices et solutions - Université Laval

Solutions 61

> 2 * pt(2.228, 10, lower.tail = FALSE)

[1] 0.05001177

Il est recommandé d’utiliser cette approche parce qu’elle est, de ma-nière générale, plus précise que le calcul du type 1 - pt(x, n), sur-tout loin dans les queues des distributions.

2.12 a) Par symétrie de la loi t,

Pr[−b < T < b] = Pr[T < b]− Pr[T < −b]= Pr[T < b]− (1− Pr[T < b])= 2Pr[T < b]− 1= 0,90.

On cherche donc la valeur de b tel que Pr[T < b] = (1 + 0,90)/2 =0,95, où T ∼ t(14). Dans la table de la loi t de l’annexe C on trouveque b = 1,761.

b) En définitive, on cherche le 95e centile d’une loi t(14). Avec R, onobtient> qt(0.95, 14)

[1] 1.76131

2.13 a) La fonction de densité de la loi t avec r degrés de liberté est

f (t) =Γ((r + 1)/2)√

πr Γ(r/2)1

(1 + t2/r)(r+1)/2.

Si r = 1, et puisque Γ(1) = 1 et que Γ( 12 ) =

√π, la densité se simplifie

en

f (t) =Γ(1)√

π Γ(1/2)(1 + t2)

=1

π(1 + t2),

qui est la densité de la loi de Cauchy.b) En ne tenant pas compte, tel que suggéré dans l’énoncé, des constantes

dans la densité de la loi t, on a

limr→∞

f (t) ∝ limr→∞

(1 +

t2

r

)−(r+1)/2

= limr→∞

[(1 +

t2

r

)r]−1/2(1 +

t2

r

)−1/2

= (et2)−1/2(1)

= e−t2/2,

qui est, à une constante près, la densité de la loi normale centréeréduite.

Page 72: Exercices et solutions - Université Laval

62 Solutions

2.14 On sait que si Z ∼ N(0,1), alors Y = Z2 ∼ χ2(1). Ainsi, E[Z4] = E[Y2] etdonc le quatrième moment de la normale centrée réduite est simplementle second moment de la khi carré. Or, E[Y2] =Var[Y] + E[Y]2 = 2+ 1 = 3,d’où le coefficient d’applatissement de la loi normale est γ2(Z) = 3− 3=0.

2.15 a) On a U ∼ χ2(r1) et V ∼ χ2(r2). On pose F = (U/r1)/(V/r2) et, di-sons, G =V. Pour trouver la densité (marginale) de F, il faudra passerpar la densité conjointe de F et G.Les équations régissant la transformation de variables aléatoires sont

x =r2

r1

(uv

)u =

r1

r2xy

y = v v = y.

Ainsi, le jacobien de la transformation est

J =∣∣∣∣r1y/r2 r1x/r2

0 1

∣∣∣∣ = r1

r2y

et la densité conjointe de F et G est

fFG(x, y) = fUV

(r1

r2xy, y

)∣∣∣∣ r1

r2y∣∣∣∣

=

(r1

r2

)y fU

(r1

r2xy)

fV(y)

=(r1/r2)(1/2)(r1+r2)/2(r1xy/r2)

r1/2−1yr2/2e−(r1x/r2+1)y/2

Γ(r1/2)Γ(r2/2)

pour x > 0 et y > 0. En intégrant, on trouve la densité marginale deF :

fF(x) =∫ ∞

0fFG(x, y)dy

=(r1/r2)

(r1+r2)/2xr1/2−1

Γ(r1/2)Γ(r2/2)

×∫ ∞

0

(12

)(r1+r2)/2y(r1+r2)/2−1e−(r1x/r2+1)y/2 dy

=Γ((r1 + r2)/2)(r1/r2)

r1/2xr1/2−1

Γ(r1/2)Γ(r2/2)(r1x/r2 + 1)(r1+r2)/2

×∫ ∞

0

(1/2)(r1+r2)/2(r1x/r2 + 1)(r1+r2)/2

Γ((r1 + r2)/2)y(r1+r2)/2−1e−(r1x/r2+1)y/2 dy

=Γ((r1 + r2)/2)(r1/r2)

r1/2xr1/2−1

Γ(r1/2)Γ(r2/2)(1 + r1x/r2)(r1+r2)/2,

Page 73: Exercices et solutions - Université Laval

Solutions 63

puisque l’intégrande ci-dessus est la densité d’une loi gamma. La loide la variable aléatoire F est appelée loi F avec r1 et r2 degrés deliberté.

b) Par indépendance entre les variables aléatoires U et V, on a

E[F] = E[

U/r1

V/r2

]=

r2

r1E[

UV

]=

r2

r1E[U]E

[1V

].

Or, E[U] = r1 et

E[

1V

]=∫ ∞

0

1v

fV(v)dv

=∫ ∞

0

12r2/2Γ(r2/2)

vr2/2−1−1e−v/2 dv

=2r2/2−1Γ(r2/2− 1)

2r2/2Γ(r2/2),

r2

2− 1 > 0.

Avec la propriété de la fonction gamma Γ(x) = (x− 1)Γ(x− 1), cetteexpression se simplifie en

E[

1V

]=

1r2 − 2

,

d’où, enfin,

E[F] =r2

r2 − 2

pour r2 > 2.

c) En procédant comme en b), on trouve que E[U2] = Var[U] + E[U]2 =2r1 + r2

1, que

E[

1V2

]=

1(r2 − 2)(r2 − 4)

et donc que

E[

F2]=

r22

r21

E[U2]E[

1V2

]=

r22(r1 + 2)

r1(r2 − 2)(r2 − 4).

Page 74: Exercices et solutions - Université Laval

64 Solutions

Par conséquent,

Var[F] =r2

2(r1 + 2)r1(r2 − 2)(r2 − 4)

−(

r2

r2 − 2

)2

= 2(

r2

r2 − 2

)2( r2 + r1 − 2r1(r2 − 4)

),

pour r2 > 4.

2.16 On a

1F=

(U/r1

V/r2

)−1

=V/r2

U/r1

où U∼ χ2(r1) et V ∼ χ2(r2). Puisqu’il s’agit d’un ratio de deux variablesaléatoires χ2 divisées chacune par son nombre de degrés de liberté, ona donc que

1F∼ F(r2, r1).

2.17 On a F ∼ F(5,10) et l’on cherche a et b tel que Pr[F ≤ a] = 0,05 et Pr[F ≤b] = 0,95. Dans une table de loi F, on trouve que Pr[F ≤ 3,326] = 0,95 etdonc que b = 3,326. Puisque les quantiles inférieurs ne sont pas inclusdans la table de l’annexe D, on doit utiliser pour trouver a la relationPr[F ≤ a] = 1 − Pr[F−1 ≤ a−1] où, tel que démontré à l’exercice 2.16,F−1 ∼ F(10,5). Dans une table, on trouve que a−1 = 4,74, d’où a = 0,211.Avec R, on obtient les mêmes résultats encore plus simplement :

> qf(c(0.05, 0.95), 5, 10)

[1] 0.2111904 3.3258345

2.18 On sait que W2 ∼ χ2(1). Ainsi,

T2 =W2/1V/r

,

qui est un ratio de deux variables aléatoires χ2 divisées par leur nombrede degrés de liberté. Par définition de la loi F, on a donc que T2∼ F(1, r).

2.19 Par la technique de la fonction de répartition,

FY(y) = Pr[Y ≤ y]

= Pr[

11 + r1F/r2

≤ y]

= Pr[

F ≥(

1y− 1)

r2

r1

]= 1− FF

((1y− 1)

r2

r1

).

Page 75: Exercices et solutions - Université Laval

Solutions 65

En dérivant, on trouve que la fonction de densité de la variable aléatoireY est

fY(y) =(

r2

r1

)(1y2

)fF

((1y− 1)(

r2

r1

)),

soit, en posant a = r1/2 et b = r2/2,

fY(y) =Γ(a + b)( a

b )a

Γ(a)Γ(b)( b

a )ay−2(y−1 − 1)a−1

[1 + (y−1 − 1)]a+b

=Γ(a + b)Γ(a)Γ(b)

yb−1(1− y)a−1,

d’où Y ∼ Bêta(b, a).

2.20 a) On a

fX|Θ(x|θ) = θe−θx , x > 0

et

uΘ(θ) =λα

Γ(α)θα−1e−λθ , θ > 0.

Par conséquent,

fX(x) =∫ ∞

0fX|Θ(x|θ)uΘ(θ)dθ

=λα

Γ(α)

∫ ∞

0θα+1−1e−(x+λ)θ dθ

=Γ(α + 1)λα

Γ(α)(x + λ)α+1

=αλα

(λ + x)α+1 ,

d’où X ∼ Pareto(α, λ). Pour passer de la seconde à la troisième éga-lité, ci-dessus, il faut identifier l’intégrande comme la densité d’uneloi Gamma(α + 1, x + λ), à une constante près.

b) Dans la mesure où l’on connaît la distribution marginale de X, on saitimmédiatement que E[X] = α/(λ− 1). On aurait aussi pu passer parl’espérance conditionnelle, technique qui ne requiert pas de connaître

Page 76: Exercices et solutions - Université Laval

66 Solutions

la distribution marginale :

E[X] = E[E[X|Θ]]

= E[

]=∫ ∞

0

uΘ(θ)dθ

=λα

Γ(α)

∫ ∞

0θα−1−1e−λθ dθ

=λαΓ(α− 1)λα−1Γ(α)

α− 1.

Chapitre 3

3.1 On sait que X ∼ N(E[X],Var[X]) avec E[X] = E[X] = 10 et Var[X] =Var[X]/n = 125/5 = 5. Par conséquent,

Pr[X < c] = Pr[

X− 10√25

<c− 10√

25

]= Pr[Z < zα]

= 1− α

avec Z∼ N(0,1) et zα = (c− 10)/5. Ici, on a 1− α = 0,90. On trouve dansune table de quantiles de la loi normale que z0,10 = 1,282, d’où c = 16,41.

3.2 On a E[X] = E[X] = µ, Var[X] = Var[X]/n = 100/n et X ∼ N(µ, 100/n).Ainsi, on cherche n tel que

Pr[µ− 5 < X < µ + 5] = Pr[− 5

10/√

n<

X− µ

10/√

n<

510/√

n

]= Φ

(5√

n10

)−Φ

(−5√

n10

)= 2Φ

(5√

n10

)− 1

= 0,954,

soit

Φ(

5√

n10

)= 0,977.

On trouve dans une table de loi normale que 5√

n/10 = 2, d’où n = 16.

Page 77: Exercices et solutions - Université Laval

Solutions 67

3.3 On a X∼N(0,16/25), Y∼N(1,9/25) et, par conséquent, X− Y∼N(−1,1).On a donc

Pr[X > Y] = Pr[X− Y > 0]

= Pr[

X− Y− (−1)√1

>0− (−1)√

1

]= 1−Φ(1)= 0,159.

3.4 Soit

Y =α

∑i=1

Xi

avec Xi ∼ Exponentielle(λ) et X1, . . . , Xα indépendantes. Par le Théorèmecentral limite,

limα→∞

Y = limα→∞

α

∑i=1

Xi ∼ N(αE[Xi], αVar[Xi]).

Par conséquent,

limα→∞

Y ∼ N( α

λ,

α

λ2

).

On trouve à la figure E.3 les graphiques de densités gamma pour quelquesvaleurs du paramètre α. On observe, en effet, que la distribution tend versune normale lorsque α augmente.

3.5 a) On a l’échantillon aléatoire X1, . . . , X100, où

Xi ∼ χ2(50) ≡ Gamma(

502

,12

), i = 1, . . . , 100.

Or, on sait que Y = X1 + · · · + X100 ∼ Gamma(100(25), 1/2) et queX = Y/100∼ Gamma(2500,100/2).

b) On peut, par exemple, obtenir la probabilité demandée avec R ainsi :> pgamma(51, 2500, 50) - pgamma(49, 2500, 50)

[1] 0.6827218

c) On a E[X] = 2500/50 = 50 et Var[X] = 2500/502 = 1. En utilisant l’ap-proximation normale, on trouve

Pr[49 < X < 51] = Pr[

49− 501

<X− 50

1<

51− 501

]≈ Φ(1)−Φ(−1)= 2Φ(1)− 1= 0,682.

On trouve la valeur de Φ(1) dans une table de quantiles de la loinormale ou à l’aide d’un logiciel statistique.

Page 78: Exercices et solutions - Université Laval

68 Solutions

0 20 40 60 80 100

0.00

0.02

0.04

0.06

0.08

0.10

0.12

x

dgam

ma(

x, α

, 1)

α = 10α = 20α = 50

Fig. E.3: Densités de lois gamma pour quelques valeurs du paramètre deforme α.

3.6 Puique l’on ne demande qu’une valeur approximative pour Pr[7< X < 9],on va utiliser l’approximation normale. La taille de l’échantillon étantrelativement grande, l’approximation sera très bonne. Soit X = (X1 +

· · ·+ X128)/128, où Xi ∼Gamma(2, 14 ), i = 1, . . . , 128. On a E[X] = E[Xi] =

8 et Var[X] = Var[Xi]/128 = 1/4. Par conséquent,

Pr[7 < X < 9] = Pr[

7− 8√1/4

<X− 8√

1/4<

9− 8√1/4

]≈ Φ(2)−Φ(−2)= 2Φ(2)− 1= 0,954.

On trouve la valeur de Φ(2) dans une table de quantiles de la loi normaleou à l’aide d’un logiciel statistique.

3.7 On souhaitera utiliser l’approximation normale. Cela requiert de connaîtreles valeurs de l’espérance et de la variance de la moyenne de l’échantillon,

Page 79: Exercices et solutions - Université Laval

Solutions 69

X, et, par ricochet, celles de la variable aléatoire avec densité f (x). Or,

E[X] =∫ 1

03x3 dx =

34

E[X2] =∫ 1

03x4 dx =

35

et donc Var[X] = 3/80. Ainsi, E[X] = E[X] = 3/4 et Var[X] = Var[X]/15 =1/400 et

Pr[

35< X <

45

]= Pr

[3/5− 3/4√

1/400<

X− 3/4√1/400

<4/5− 3/4√

1/400

]≈ Φ(1)−Φ(−3)= 0,840.

3.8 On sait que nS2/σ2 ∼ χ2(n− 1), que l’espérance d’une loi χ2 est égale àson nombre de degrés de liberté et que sa variance est égale à deux foisson nombre de degrés de liberté. On a donc

E[S2] =σ2

nE[

nS2

σ2

]=

(n− 1)σ2

n

et

Var[S2] =σ4

n2 Var[

nS2

σ2

]=

2(n− 1)σ4

n2

3.9 On sait que nS2/σ2 ∼ χ2(n− 1). Soit Y ∼ χ2(5). On a donc,

Pr[2,30 < S2 < 22,2] = Pr[

6(2,30)12

<6S2

12<

6(22,2)12

]= Pr[1,15 < Y < 11,1]= Pr[Y < 11,1]− Pr[Y < 1,15].

On trouve dans une table de quantiles de la loi khi carré (ou avec lafonction qchisq dans R, par exemple) que Pr[Y < 11,1] = 0,95 et Pr[Y <1,15] = 0,05. Par conséquent, Pr[2,30 < S2 < 22,2] = 0,90.

3.10 Puisque X(1) est la plus petite valeur de l’échantillon, on a que

FX(1)(x) = Pr[X(1) ≤ x]

= 1− Pr[X(1) > x]

= 1− Pr[X1 > x, X2 > x, . . . , Xn > x].

Page 80: Exercices et solutions - Université Laval

70 Solutions

Or, les variables aléatoires X1, . . . , Xn sont indépendantes et identique-ment distribuées, d’où

FX(1)(x) = 1− Pr[X1 > x]Pr[X2 > x] · · ·Pr[Xn > x]

= 1− (Pr[X > x])n

= 1− (1− FX(x))n.

3.11 On cherche la probabilité que la plus grande valeur de l’échantillonsoit supérieure à 3, soit le complément de la probabilité que toutes lesvaleurs de l’échantillon soient inférieures à 3 :

Pr[X(4) > 3] = 1− Pr[X(4) ≤ 3]

= 1− Pr[X1 ≤ 3]Pr[X2 ≤ 3]Pr[X3 ≤ 3]Pr[X4 ≤ 3]

= 1− (FX(3))4.

Or, on aura reconnu en f (x) la densité d’une loi exponentielle de para-mètre λ = 1. Par conséquent, FX(x) = 1− e−x et Pr[X(4) > 3] = 1− (1−e−3)4.

3.12 Soit m la médiane de la distribution. On cherche Pr[X(1) > m]. Avec lerésultat de l’exercice 3.10,

Pr[X(1) > m] = 1− Pr[X(1) ≤ m]

= 1− FX(1)(m)

= 1− (1− (1− FX(m))3)

= (1− FX(m))3

=18

,

car FX(m) = 1− FX(m) = 1/2 par définition de la médiane. Le type dedistribution ne joue donc aucun rôle dans cet exercice.

3.13 On a que X est distribuée uniformément sur {1, . . . , 6}, d’où FX(x) =x/6, x = 1, . . . , 6. De l’exercice 3.10, on a que

FX(1)(x) = 1− (1− FX(x))5

= 1−(

1− x6

)5.

Page 81: Exercices et solutions - Université Laval

Solutions 71

Par conséquent, la fonction de masse de probabilité du minimum est

Pr[X(1) = x] = limy→x+

FX(1)(y)− lim

y→x−FX(1)

(y)

= FX(1)(x)− FX(1)

(x− 1)

=

(1− x− 1

6

)5−(

1− x6

)5

=

(7− x

6

)5−(

6− x6

)5.

3.14 De l’exercice 3.10, on a

FX(1)(x) = 1− (1− FX(x))n

= 1− (e−(λx)τ)n

= 1− e−(n1/τλx)τ

,

d’où X(1) ∼Weibull(n1τ λ, τ). Ainsi, la fonction de densité de probabilité

du minimum de l’échantillon est

fX(1)(x) = nλτxτ−1e−(n

1/τλx)τ

et l’espérance est

E[X(1)] =Γ(1 + 1/τ)

n1τ λ

.

3.15 Soit R l’étendue de l’échantillon aléatoire. On sait que

fR(x) = n(n− 1)xn−2(1− x).

Par conséquent

Pr[

R ≤ 12

]=∫ 1/2

0fX(x)dx

= (4)(3)∫ 1/2

0x2(1− x)dx

=5

16.

3.16 On a que X∼ Bêta(1,2), c’est-à-dire que fX(x) = 2(1− x), 0 < x < 1. SoitX1, X2 un échantillon aléatoire tiré de cette densité. Par indépendance,on a

fX1X2(x1, x2) = fX1(x) fX2(x)= 4(1− x1)(1− x2).

Page 82: Exercices et solutions - Université Laval

72 Solutions

On cherche Pr[X2 ≥ 2X1 ∪ X1 ≥ 2X2]. Par définition,

Pr[X1 ≥ 2X2 ∪ X2 ≥ 2X1] =∫∫R

fX1X2(x1, x2)dx2 dx1,

où R est la région du domaine de définition de fX1X2 telle que x1 > 2x2ou x2 > 2x1. Cette région est représentée à la figure E.4. On a donc

Pr[X1 ≥ 2X2 ∪ X2 ≥ 2X1] = 4∫ 1/2

0

∫ 1

2x1

(1− x1)(1− x2)dx2 dx1

+ 4∫ 1/2

0

∫ 1

2x2

(1− x1)(1− x2)dx1 dx2

= 4∫ 1/2

0(1− x1)

(12− 2x1 + 2x2

1

)dx1

+ 4∫ 1/2

0(1− x2)

(12− 2x2 + 2x2

2

)dx2

=712

.

3.17 Soit T = (X(1) + X(n))/2 la mi-étendue et R l’étendue. On sait que

fRT(r, t) = n(n− 1)rn−2.

On doit calculer la densité marginale de T. Il faut voir que le domainede R (et donc le domaine d’intégration) dépend indirectement de T. Eneffet, si 0 ≤ t ≤ 1/2, on doit avoir 0 < r < 2t. Par contre, si 1/2 < t < 1,il faut que 0 < r < 2(1− t). On obtient

fT(t) =

{n(2t)n−1, 0 < t < 1/2n(2(1− t))n−1, 1/2 < t < 1.

Ainsi,

E[T] = 2n−1n(∫ 1/2

0tn dt +

∫ 1

1/2t(1− t)n−1 dt

)= 2n−1n

(0,5n+1

n + 1+

n + 2n(n + 1)

(1

2n+1

))=

12

.

3.18 On a d’abord les résultats suivants : Xi ∼ U(0,1), X(1) ∼ Bêta(1, n),X(n) ∼ Bêta(n, 1) et fX(1)X(n)

(x, y) = n(n− 1)(y− x)n−2. Ainsi,

E[

X(1)X(n)

]= n(n− 1)

∫ 1

0x∫ 1

xy(y− x)n−2 dy dx.

Page 83: Exercices et solutions - Université Laval

Solutions 73

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x1

x 2

Fig. E.4: Domaine de définition de fX1X2(x1, x2) = 4(1− x1)(1− x2), x1, x2 ∈(0,1). Les zones hachurées représentent les aires où x2 > 2x1 ou x1 > 2x2.

L’intégrale intérieure ci-dessus se résoud par parties en posant u = y etdv = (y− x)n−2 dy. On obtient alors

E[

X(1)X(n)

]= n(n− 1)

∫ 1

0x((y− x)n−1y

n− 1− 1

n− 1

∫ 1

x(y− x)n−1 dy

)dx

= n∫ 1

0x(1− x)n−1 dx−

∫ 1

0x(1− x)n dx

=1

n + 1− 1

(n + 1)(n + 2)

=1

n + 2,

Page 84: Exercices et solutions - Université Laval

74 Solutions

en intégrant une seconde fois par parties. Par conséquent,

Cov(

X(1), X(n)

)= E

[X(1)X(n)

]− E

[X(1)

]E[

X(n)

]=

1n + 2

−(

1n + 1

)(n

n + 1

)=

1(n + 1)2(n + 2)

.

a) On a

E[R] = E[

X(n)

]− E

[X(1)

]=

nn + 1

− 1n + 1

=n− 1n + 1

et

Var[R] = Var[

X(1)

]+ Var

[X(n)

]− 2Cov

(X(1), X(n)

)=

n(n + 1)2(n + 2)

+n

(n + 1)2(n + 2)− 2

(n + 1)2(n + 2)

=2n− 2

(n + 1)2(n + 2).

b) On a

E[T] =E[

X(1)

]+ E

[X(n)

]2

=12

(n

n + 1+

1n + 1

)=

12

et

Var[T] =Var[

X(1)

]+ Var

[X(n)

]+ 2Cov

(X(1), X(n)

)4

=14

[n

(n + 1)2(n + 2)+

n(n + 1)2(n + 2)

+2

(n + 1)2(n + 2)

]=

1(n + 1)2(n + 2)

.

Page 85: Exercices et solutions - Université Laval

Solutions 75

Chapitre 4

4.1 a) On a une une distribution de Poisson de paramètre θ, d’où E[X] = θ.L’estimateur des moments est donc θ = X.

b) La densité est celle d’une distribution bêta de paramètres θ et 1. Ainsi,E[X] = θ/(θ + 1) et en posant

θ

θ + 1= X

on trouve que l’estimateur des moments de θ est

θ =X

1− X.

c) On reconnaît la densité d’une distribution gamma de paramètres 1 etθ−1. Ainsi, on sait que E[X] = θ, d’où l’estimateur des moments estθ = X.

d) Cette densité est celle de la loi de Laplace. On a

E[X] =12

(∫ θ

−∞xex−θ dx +

∫ ∞

θxe−x+θ dx

)=

12(2θ)

= θ.

L’estimateur des moments de θ est donc θ = X.e) On a la densité d’une exponentielle de paramètre 1 translatée de θ vers

la droite. Par conséquent, E[X] = θ + 1, un résultat facile à vérifier enintégrant. En posant θ + 1 = X, on trouve facilement que θ = X− 1.

4.2 Dans tous les cas, la fonction de vraisemblance est L(θ) = ∏ni=1 f (xi;θ) et

la fonction de log-vraisemblance est l(θ) = ln L(θ) = ∑ni=1 ln f (xi;θ). L’es-

timateur du maximum de vraisemblance du paramètre θ est la solutionde l’équation l′(θ) = 0.a) On a

L(θ) =e−nθθ∑n

i=1 xi

∏ni=1 xi!

,

l(θ) = −nθ +n

∑i=1

xi ln(θ)−n

∑i=1

ln(xi!)

et

l′(θ) = −n +∑n

i=1 xi

θ.

En résolvant l’équation l′(θ) = 0 pour θ, on trouve que l’estimateur dumaximum de vraisemblance est θ = X.

Page 86: Exercices et solutions - Université Laval

76 Solutions

b) On a

L(θ) = θn

(n

∏i=1

xi

)θ−1

,

l(θ) = n ln(θ) + (θ − 1)n

∑i=1

ln(xi)

et

l′(θ) =nθ+

n

∑i=1

ln(xi).

On trouve donc que

θ = − n∑n

i=1 ln(Xi)= − n

ln(X1 · · ·Xn).

c) On a

L(θ) = θ−ne−∑ni=1 xi/θ ,

l(θ) = −n ln(θ)− ∑ni=1 xi

θ

et

l′(θ) = −nθ+

∑ni=1 xi

θ2 .

On obtient que θ = X.d) On a

L(θ) =(

12

)ne−∑n

i=1|xi−θ|

La présence de la valeur absolue rend cette fonction non différentiableen θ. On remarque que la fonction de vraisemblance sera maximiséelorsque l’expression ∑n

i=1|xi − θ| sera minimisée. Par analogie avec lerésultat de l’exercice 1.18, on établit que θ = med(X1, . . . , Xn).

e) On remarque que le support de la densité dépend du paramètre θ.Dans de tels cas, la technique usuelle de maximisation de la fonctionde vraisemblance n’est d’aucune utilité. D’ailleurs, on a

L(θ) = enθ−∑ni=1 xi

et on voit que la fonction de vraisemblance est strictement croissanteen fonction de θ, ce qui indique de choisir une valeur de θ la plusgrande possible. Par contre, on a la contrainte x≥ θ, c’est-à-dire que θdoit être plus inférieur ou égal à la plus petite valeur de l’échantillon.Par conséquent, θ = min(X1, . . . , Xn) = X(1).

Page 87: Exercices et solutions - Université Laval

Solutions 77

4.3 a) On a X = Z + µ où Z ∼ Exponentielle(λ). Alors,

FX(x) = Pr[Z + µ ≤ x]= FZ(x− µ)

= 1− e−λ(x−µ), x > µ

et

fX(x) = λe−λ(x−µ), x > µ.

b) On a simplement

E[X] = E[Z + µ]

= E[Z] + µ

=1λ+ µ

et

Var[X] = Var[Z + µ]

= Var[Z]

=1

λ2 .

c) On a

L(µ,λ) = λne−λ ∑ni=1(xi−µ)

l(µ,λ) = n ln(λ)− λn

∑i=1

(xi − µ)

et

∂l(µ,λ)∂λ

=nλ−

n

∑i=1

(xi − µ),

d’où

λ =n

∑ni=1(xi − µ)

.

On voit que la fonction de vraisemblance est strictement croissante enfonction de µ. Ainsi, il faut prendre la valeur de µ la plus grande pos-sible en respectant la condition dictée par la densité de l’exponentielletranslatée, x ≥ µ. On a donc

µ = X(1)

λ =n

∑ni=1(xi − x(1))

.

Page 88: Exercices et solutions - Université Laval

78 Solutions

d) On a, par exemple, les résultats suivants pour une exponentielle trans-latée de paramètres µ = λ−1 = 1000 :> x <- rexp(100, rate = 0.001) + 1000> min(x)

[1] 1009.415

> 100/sum(x - min(x))

[1] 0.001052481

Les estimations obtenues sont près des vraies valeurs des paramètres,même pour un relativement petit échantillon de taille 100.

4.4 Il est clair ici que, comme f (x;θ) = 1, on ne pourra pas utiliser la tech-nique habituelle pour calculer l’estimateur du maximum de vraisem-blance. Il faut d’abord déterminer l’ensemble des valeurs de θ possiblesselon l’échantillon obtenu. Comme toutes les données de l’échantillondoivent se trouver dans l’intervalle [θ− 1/2, θ + 1/2], on a θ ≥ X(n)− 1/2et θ≤ X(1)+ 1/2. De plus, puisque X(n)−X(1) ≤ 1, on a que X(n)− 1/2≤θ≤ X(1)+ 1/2. Ainsi, toute statistique satisfaisant ces inégalités est un es-timateur du maximum de vraisemblance de θ. On a donc que

X(n) −12≤ T(X1, . . . , Tn) ≤ X(1) +

12

.

4.5 On a

L(µ,λ) =(

λ

)n/2(

n

∏i=1

1x3

i

)1/2

exp

{−λ

2

n

∑i=1

(xi − µ)2

µ2xi

}.

Il est plus simple de trouver d’abord l’estimateur du maximum de vrai-semblance du paramètre µ. On constate qu’il s’agit de la valeur qui mi-nimise la somme dans l’exponentielle. Or,

∂µ

n

∑i=1

(xi − µ)2

µ2xi= −

n

∑i=1

2µ2xi

(xiµ− 1)

.

En posantn

∑i=1

(xiµ− 1)= 0,

on trouve que µ = X. Pour trouver l’estimateur du maximum de vraisem-blance de λ, on établit d’abord que

L(µ, λ) ∝ λn/2e−λH ,

H =n

∑i=1

(xi − x)2

2x2xi

=12

n

∑i=1

(1xi− 1

x

).

Page 89: Exercices et solutions - Université Laval

Solutions 79

On obtient donc

λ =n

2H

=n

∑ni=1 X−1

i − X−1.

4.6 Pour obtenir l’estimateur des moments de θ, on pose

E[X] =1− θ

θ= X,

d’oùθ =

1X + 1

.

La moyenne de l’échantillon est x = 64/10 = 3,2. On a donc

θ =1

4,2= 0,2381.

4.7 a) Il s’agit ici de trouver l’estimateur des moments du paramètre θ d’unedistribution uniforme discrète sur 1,2, . . . , θ, c’est-à-dire que Pr[X =x] = 1/θ pour x = 1, . . . , θ. En posant

E[X] =θ + 1

2= X,

on trouve facilement que l’estimateur des moments de θ est θ = 2X−1.

b) Avec x1 = x2 = x3 = 3 et x4 = 12, on a θ = 2(3+ 3+ 3+ 12)/4− 1 = 9,5.Or, cet estimateur est absurde puisque, en ayant pigé la boule 12, onsait qu’il y a au moins douze boules dans l’urne ! En d’autres termes,9,5 est une valeur de θ impossible. On constate que l’estimateur ob-tenu à l’aide de la méthode des moments n’est pas toujours un esti-mateur possible.

4.8 La fonction de vraisemblance est

L(a, b) =(

1b− a

)n

pour a < x1, . . . , xn < b. Pour maximiser cette fonction, il faut minimiserla quantité b − a en choisissant une valeur de b la plus petite possibleet une valeur de a la plus grande possible. Étant donné le support de ladistribution, on a choisit donc a =min(X1, . . . , Xn) et b =max(X1, . . . , Xn).

4.9 a) La distribution de X est une Bernoulli avec une restriction sur la valeurdu paramètre θ. On a donc que E[X] = θ. L’estimateur des momentsde θ est donc θ = X.

Page 90: Exercices et solutions - Université Laval

80 Solutions

Pour l’estimateur du maximum de vraisemblance, on a, en posanty = ∑n

i=1 xi,

L(θ) = θy(1− θ)n−y,l(θ) = y ln(θ) + (n− y) ln(1− θ)

et

l′(θ) =yθ− (n− y)

1− θ

=y− nθ

θ(1− θ)

=nx− nθ

θ(1− θ).

Ainsi, la log-vraisemblance est croissante pour θ ≤ x et décroissantepour θ > x (voir la figure E.5). Le maximum est donc atteint en x.Cependant, puisque 0 ≤ θ ≤ 1/2 on doit avoir θ ≤ 1/2. On a doncθ = min(X, 1/2).

b) Premièrement, on remarque que Y = ∑ni=1 Xi = nX ∼ Binomiale(n, θ)

avec 0≤ θ≤ 1/2. Deuxièmement, on sait que MSE(θ) = Var[θ] + b(θ)2,où θ est un estimateur quelconque d’un paramètre θ et b(θ) = E[θ]− θest le biais de l’estimateur.Pour l’estimateur des moments θ = Y/n, on a

MSE(θ) =Var[Y]

n2 + b(Y/n)2

=θ(1− θ)

n,

puique E[Y/n] = θ.Pour l’estimateur du maximum de vraisemblance

θ =

{Yn , Y ≤ n

212 , Y > n

2 ,

il est plus simple de développer l’erreur quadratique moyenne ainsi :

MSE(θ) = E[(θ − θ)2]

=n

∑y=0

(θ − θ)2Pr[Y = y]

=[n/2]

∑y=0

( yn− θ)2(

ny

)θy(1− θ)n−y

+n

∑y=[n/2]+1

(12− θ

)2(ny

)θy(1− θ)n−y.

Page 91: Exercices et solutions - Université Laval

Solutions 81

0.0 0.1 0.2 0.3 0.4 0.5

−16

−14

−12

−10

−8

−6

θ

l(θ)

Fig. E.5: Graphique de la fonction de log-vraisemblance de l’exercice 4.9 pourn = 10 et y = 3.

c) On compare les erreurs quadratiques moyennes des deux estimateurs.Soit

MSE(θ) =n

∑y=0

( yn− θ)2(

ny

)θy(1− θ)n−y,

d’où

MSE(θ)−MSE(θ) =n

∑y=[n/2]+1

(yn+

12− 2θ

)(yn− 1

2

)

×(

ny

)θy(1− θ)n−y.

Étant donné que y/n > 1/2 et que θ ≤ 1/2, tous les termes dans lasomme sont positifs. On a donc que MSE(θ)−MSE(θ)> 0 ou, de ma-nière équivalente, MSE(θ) < MSE(θ). En terme d’erreur quadratiquemoyenne, l’estimateur du maximum de vraisemblance est meilleurque l’estimateur des moments.

Page 92: Exercices et solutions - Université Laval

82 Solutions

4.10 On a

E

[1n

n

∑i=1

(Xi − µ)2

]=

1n

n

∑i=1

E[(Xi − µ)2]

=1n

n

∑i=1

E[X2i − 2µXi + µ2]

=1n

n

∑i=1

(E[X2i ]− µ2)

=1n

n

∑i=1

[(σ2 + µ2)− µ2]

=1n

n

∑i=1

σ2

= σ2,

d’où l’expression du côté gauche de l’égalité est un estimateur sans biaisdu paramètre σ2.

4.11 On a,

E[a1X1 + · · ·+ anXn] = E[a1X1] + · · ·+ E[anXn]

= (a1 + · · ·+ an)E[X1]

= (a1 + · · ·+ an)µ.

Pour que a1X1 + · · · + anXn soit un estimateur sans biais de µ, il fautque ∑n

i=1 ai = 1.

4.12 a) Il faut d’abord calculer l’espérance de l’estimateur :

E[X2] = Var[X] + E[X]2

=σ2

n+ µ2.

On voit que X2 est un estimateur biaisé de µ2 et que le biais est σ2/n.

b) Puisque

limn→∞

E[X2] = limn→∞

σ2

n+ µ2 = µ2,

X2 est un estimateur asymptotiquement sans biais de µ2.

4.13 On sait que la fonction de densité de probabilité de la ke statistiqued’ordre X(k) d’un échantillon aléatoire X1, . . . , Xn tiré d’une loi F est

fX(k)(x) =

n!k!(n− k)!

(F(x))k−1(1− F(x))n−k f (x).

Page 93: Exercices et solutions - Université Laval

Solutions 83

Si n = 3 et que Xi ∼ Exponentielle(λ), i = 1,2,3, alors la médiane empi-rique est ξ3 = X(2) et

fX(2)= 6(1− e−λx)(e−λx)(λe−λx)

= 6λ(e−2λx − e−3λx).

Or, en intégrant par parties,

E[ξ3] =∫ ∞

0x fX(2)

dx

=∫ ∞

06xλ(e−2λx − e−3λx)dx

= 6λ

(1

4λ2 −1

9λ2

)=

56λ

.

On constate que E[ξ3] ≠ λ−1, d’où la médiane empirique est un estima-teur biaisé de la moyenne d’une loi exponentielle.

4.14 La fonction de densité de probabilité de la ke statistique d’ordre estdonnée dans la solution de l’exercice 4.13. Pour n = 3 et Xi ∼ U(0, θ),i = 1,2,3, on a

fX(1)(x) = 3

(1− x

θ

)2(

)= 3

(1θ− 2x

θ2 +x2

θ3

), 0 < x < θ

et

fX(2)(x) = 6

( xθ

)(1− x

θ

)(1θ

)= 6

(xθ2 −

x2

θ3

), 0 < x < θ.

Ainsi, d’une part,

E[4X(1)] = 4∫ θ

0x fX(1)

(x)dx

= 12∫ θ

0

(xθ− 2x2

θ2 +x3

θ3

)dx

= 12(

θ

2− 2θ

3+

θ

4

)= θ

Page 94: Exercices et solutions - Université Laval

84 Solutions

et

E[2X(2)] = 2∫ θ

0x fX(2)

(x)dx

= 12∫ θ

0

(x2

θ2 −x3

θ3

)dx

= 12(

θ

3− θ

4

)= θ,

d’où 4X(1) et 2X(2) sont des estimateurs sans biais de θ. D’autre part,

E[(4X(1))2] = 16

∫ θ

0x2 fX(1)

(x)dx

= 48∫ θ

0

(x2

θ− 2x3

θ2 +x4

θ3

)dx

= 48(

θ2

3− 2θ2

4+

θ2

5

)=

8θ2

5

et

E[(2X(2))2] = 4

∫ θ

0x2 fX(2)

(x)dx

= 24∫ θ

0

(x3

θ3 −x4

θ3

)dx

= 24(

θ2

4− θ2

5

)=

6θ2

5.

Par conséquent,

Var[4X(1)] =8θ2

5− θ2 =

3θ2

5

et

Var[2X(2)] =6θ2

5− θ2 =

θ2

5.

4.15 Soit X(n) = max(X1, . . . , Xn) et X(1) = min(X1, . . . , Xn), où Xi ∼ U(0, θ),i = 1, . . . , n. On sait alors que

fX(n)(x) = n(F(x))n−1 f (x)

=nxn−1

θn , 0 < x < θ

Page 95: Exercices et solutions - Université Laval

Solutions 85

et que

fX(1)(x) = n(1− F(x))n−1 f (x)

=n(θ − x)n−1

θn , 0 < x < θ.

a) On souhaite développer un estimateur sans biais de θ basé sur X(n).En premier lieu,

E[X(n)] =∫ θ

0x fX(n)

(x)dx

=nθn

∫ θ

0xn dx

=nθ

n + 1.

Un estimateur sans biais de θ est donc (n + 1)X(n)/n.

b) Comme en a), on calcule d’abord l’espérance de la statistique :

E[X(1)] =∫ θ

0x fX(1)

(x)dx

=nθn

∫ θ

0x(θ − x)n−1x dx

n + 1

en intégrant par parties. Un estimateur sans biais de θ basé sur leminimum de l’échantillon est donc (n + 1)X(1).

4.16 On sait que E[X] = np et que Var[X] = np(1− p). Or,

E[

n(

Xn

)(1− X

n

)]= E[X]− E[X2]

n

= np− Var[X] + E[X]2

n

= np− np(1− p) + n2 p2

n= (n− 1)p(1− p)= np(1− p)− p(1− p).

La statistique est donc un estimateur biaisé de la variance et le biais est−p(1− p). La statistique sur-estime la variance.

4.17 Le fait que θ soit un estimateur sans biais indique que E[θ] = θ. De plus,si Var[θ] = E[θ2]− E[θ]2 ≠ 0, alors E[θ2] ≠ E[θ]2 = θ2. Par conséquent, θ2

est un eestimateur biaisé de θ2.

Page 96: Exercices et solutions - Université Laval

86 Solutions

4.18 Pour commencer, on a l’identité suivante :

∂θln f (x;θ) =

1f (x;θ)

∂θf (x;θ)

qui peut être réécrite sous la forme(∂

∂θln f (x;θ)

)f (x;θ) =

∂θf (x;θ).

Ainsi, en dérivant de part et d’autre∫ ∞

−∞f (x;θ)dx = 1,

par rapport à θ, on obtient∫ ∞

−∞

(∂

∂θln f (x;θ)

)f (x;θ)dx = 0.

En dérivant une seconde fois cette identité, on a alors∫ ∞

−∞

(∂2

∂θ2 ln f (x;θ))

f (x;θ)dx +∫ ∞

−∞

(∂

∂θln f (x;θ)

)(∂

∂θf (x;θ)

)dx = 0

ou, de manière équivalente,

∫ ∞

−∞

(∂

∂θln f (x;θ)

)2f (x;θ)dx = −

∫ ∞

−∞

(∂2

∂θ2 ln f (x;θ))

f (x;θ)dx,

soit

E

[(∂

∂θln f (X;θ)

)2]= −E

[∂2

∂θ2 ln f (X;θ)]

.

4.19 On sait que E[X] = E[X] pour toute distribution et donc que X est tou-jours un estimateur sans biais de la moyenne. Pour une loi de Poisson, lamoyenne est égale à λ et donc X est un estimateur sans biais de λ. Pourdémontrer que la statistique est un estimateur à variance minimale, ilfaut démontrer que sa variance est égale à la borne de Rao–Cramér. Or,d’une part, on a

Var[X] =Var[X]

n=

λ

n.

D’autre part,

∂λln f (x;λ) =

∂λ(x ln(λ)− λ− ln(x!))

=xλ− 1

=x− λ

λ

Page 97: Exercices et solutions - Université Laval

Solutions 87

et donc

E

[(∂

∂λln f (X;λ)

)2]=

1λ2 E

[(X− λ)2

]=

Var[X]

λ2

=1λ

.

Ainsi, la borne de Rao–Cramér est λ/n. On a donc démontré que X estun estimateur sans biais à variance minimale du paramètre λ de la loide Poisson.

4.20 Si X a une distribution binomiale de paramètres n∈N et 0≤ θ≤ 1, alorson peut représenter la variable aléatoire sous la forme X = Y1 + · · ·+Yn,où Yi ∼ Bernoulli(θ), i = 1, . . . , n. Ainsi, X/n = Y. Dès lors, on sait Yest un estimateur sans biais de E[Y] = θ et que Var[Y] = Var[Y]/n =θ(1 − θ)/n. De plus, si f (y;θ) = θy(1 − θ)1−y, y = 0,1, est la densitéd’une Bernoulli, alors

E

[(∂

∂θln f (Y;θ)

)2]= E

[(Y− θ

θ(1− θ)

)2]

=Var[Y]

[θ(1− θ)]2

=1

θ(1− θ)

et donc la borne de Rao–Cramér est θ(1 − θ)/n = Var[Y]. Par consé-quent, Y est un estimateur sans biais à variance minimale du paramètreθ de la Bernoulli ou, de manière équivalente, X/n est un estimateur sansbiais à variance minimale du paramètre θ de la binomiale.

4.21 a) On a

ln( f (x;θ)) = ln(θ) + (θ − 1) ln(x)∂

∂θln( f (x;θ)) =

1θ+ ln(x)

∂2

∂θ2 f (x;θ) = − 1θ2

et donc

−nE[

∂2

∂θ2 ln f (X;θ)]=

nθ2 .

Par conséquent, la borne de Rao–Cramér est θ2/n.

Page 98: Exercices et solutions - Université Laval

88 Solutions

b) Soit Y = − ln X. On a

FY(y) = Pr[− ln(X) ≤ y]

= Pr[X > e−y]

=∫ 1

e−yθxθ−1 dx

= 1− e−θy,

d’où Y∼Exponentielle(θ). Par conséquent, Z =−∑ni=1 ln(Xi) =∑n

i=1 Yiobéit à une loi Gamma(n, θ) et donc, directement, E[Z] = n/θ.

c) Étant donné le résultat en b), on a

E[

1Z

]=

θn

Γ(n)

∫ ∞

0

(1z

)zn−1e−θz dz

=θn

Γ(n)Γ(n− 1)

θn−1

n− 1.

Par conséquent, (n− 1)/Z constitue un estimateur sans biais du pa-ramètre θ de la densité en a).

4.22 a) On a

ln( f (x;λ)) = k ln(λ)− λ− ln(k!)∂

∂λln( f (x;λ)) =

kλ− 1

∂2

∂λ2 ln( f (x;λ)) = − kλ2

et donc

−nE[

∂2

∂λ2 ln f (X;λ)]=

.

La borne de Rao–Cramér est donc λ/n.

b) Le dénominateur de la borne de Rao–Cramér reste le même qu’en a),il suffit de calculer le numérateur. On a g(λ) = e−λ et donc g′(λ) =−e−λ, d’où la borne de Rao-Cramér pour un estimateur de g(λ) estλe−2λ/n.

c) La variable aléatoire I{X=0}, où X ∼ Poisson(λ), obéit à une loi deBernoulli avec probabilité de succès θ = Pr[X = 0] = e−λ. Ainsi, nT =

Page 99: Exercices et solutions - Université Laval

Solutions 89

∑ni=1 I{Xi=0} ∼ Binomiale(n, e−λ). De là, il est immédiat que

E[T] =E[nT]

n

=ne−λ

n= e−λ

et que

Var[T] =Var[nT]

n2

=ne−λ(1− e−λ)

n2

=e−λ(1− e−λ)

n.

d) L’efficacité d’un estimateur est le rapport entre la variance de l’esti-mateur et la borne de Rao–Cramér. On obtient alors

λe−2λ/ne−λ(1− e−λ)/n

=λe−λ

1− e−λ.

4.23 On doit minimiser la variance de l’estimateur a1θ1 + a2θ2 sous la con-trainte que l’estimateur est sans biais pour θ. Tout d’abord, l’absence debiais indique que

E[a1θ1 + a2θ2] = a1θ + a2θ = (a1 + a2)θ,

puisque θ1 et θ2 sont sans biais. La contrainte se réduit donc à a1 +a2 = 1. De plus, on sait que Var[θ1] = 3Var[θ2]. On doit donc trouver lesvaleurs de a1 et a2 qui minimisent la fonction

Var[a1θ1 + a2θ2] = a21Var[θ1] + a2

2Var[θ2]

= 3a21Var[θ2] + a2

2Var[θ2]

sous la contrainte que a1 + a2 = 1. Par la méthode des multiplicateursde Lagrange, cela se résume à trouver le minumum de la fonction

3a21Var[θ2] + a2

2Var[θ2] + λ(a1 + a2 − 1).

En dérivant successivement par rapport à a1, a2 et λ, puis en posant égalà 0, on obtient le système d’équations

6a1Var[θ2] + λ = 0

2a2Var[θ2] + λ = 0a1 + a2 − 1 = 0,

d’où on obtient que a1 = 1/4 et a2 = 3/4.

Page 100: Exercices et solutions - Université Laval

90 Solutions

4.24 a) On a

E[ωX1 + (1−ω)X2] = ωE[X1] + (1−ω)E[X2]

= ωµ + (1−ω)µ

= µ.

b) En premier lieu,

Var[ωX1 − (1−ω)X2] = ω2Var[X1] + (1−ω)2Var[X2]

=ω2σ2

1n

+(1−ω)2σ2

2n

Or, en résolvant l’équation

ddω

Var[ωX1 − (1−ω)X2] =2ωσ2

1n−

2(1−ω)σ22

n= 0,

on trouve que ω = σ22 /(σ2

1 + σ22 ). La vérification des conditions de

deuxième ordre (laissée en exercice) démontre qu’il s’agit bien d’unminimum.

c) Après quelques transformations algébriques, la variance de l’estima-teur à son point minimum est

σ21 σ2

2n(σ2

1 + σ22 )

.

Lorsque ω = 1/2, la variance de l’estimateur est

Var[

X1 − X2

2

]=

σ21 + σ2

24n

.

L’efficacité relative est donc

(σ21 + σ2

2 )2

4σ21 σ2

2

(ou l’inverse).

4.25 Il faut démontrer que limn→∞ Pr[|X(1) − θ| < ε] = 1. On sait que si X ∼U(θ, θ + 1), alors

fX(x) = 1, θ < x < θ + 1FX(x) = x− θ, θ < x < θ + 1

et

fX(1)(x) = n fX(x)(1− FX(x))n−1

= n(1− x + θ)n−1, θ < x < θ + 1.

Page 101: Exercices et solutions - Université Laval

Solutions 91

Ainsi,

Pr[|X(1) − θ| < ε] = Pr[θ − ε < X(1) < θ + ε]

=∫ θ+ε

θn(1− x + θ)n−1 dx

= 1− (1− ε)n.

Or, cette dernière expression tend vers 1 lorsque n tend vers l’infini, cequi complète la démonstration.

4.26 Puisque X est un estimateur sans biais de la moyenne d’une distribu-tion, quelqu’elle fut, et que limn→∞ Var[X] = limn→∞ Var[X]/n = 0, alorsX est toujours un estimateur convergent de la moyenne.

4.27 On a un échantillon aléatoire de taille 1. Or,

f (x1;θ) =1√2πσ

e−x21/(2σ2)

=1

θ√

2πe−|x1|2/(2σ2)

= g(|x1|;σ2)h(x1),

avec

g(x;σ2) =1

θ√

2πe−x2/(2σ2)

et h(x) = 1. Ainsi, par le théorème de factorisation, |X1| est une statis-tique exhaustive pour σ2.

4.28 Soit X1, . . . , Xn un échantillon aléatoire d’une distribution uniforme surl’intervalle (−θ, θ). La fonction de vraisemblance de cet échantillon est

f (x1, . . . , xn;θ) =

{(2θ)−n, −θ < xi < θ, i = 1, . . . , n0, ailleurs.

La fonction de vraisemblance est donc non nulle seulement si toutesles valeurs de l’échantillon se trouvent dans l’intervalle (−θ, θ) ou, demanière équivalente, si maxi=1,...,n(|xi|)< θ. On peut donc, par exemple,réécrire la fonction de vraisemblance sous la forme

f (x1, . . . , xn;θ) =(

12θ

)nI{0≤maxi=1,...,n(|xi |)≤θ)}

= g(

maxi=1,...,n

(|xi|);θ)

h(x1, . . . , xn),

avec

g(x;θ) =(

12θ

)nI{0≤x≤θ)}

Page 102: Exercices et solutions - Université Laval

92 Solutions

et h(x1, . . . , xn) = 1. Ainsi, par le théorème de factorisation, on établit queT = maxi=1,...,n(|Xi|) est une statistique exhaustive pour le paramètre θ.Une autre factorisation possible serait

f (x1, . . . , xn;θ) =(

12θ

)nI{−∞<x(n)<θ)} I{−θ<x(1)<∞)},

ce qui donne comme statistique exhaustive T = (X(1), X(n)).

4.29 Nous allons démontrer un résultat général applicable à plusieurs distri-butions, dont la Poisson. Il existe une famille de distributions que l’onnomme la famille exponentielle (il ne s’agit pas d’une référence à la den-sité exponentielle, bien que cette dernière soit un cas particulier de lafamille exponentielle). Cette famille comprend toutes les distributionsdont la densité peut s’écrire sous la forme

f (x;θ) = h(x)c(θ)eη(θ)t(x),

où h, c, η et t sont des fonctions quelconques. Par exemple, la fonctionde masse de probabilité de la loi de Poisson peut s’écrire comme suit :

f (x;θ) =θxe−θ

x!

=

(1x!

)e−θeln(θ)x

= h(x)c(θ)eη(θ)t(x),

avec h(x) = (x!)−1, c(θ) = e−θ , η(θ) = lnθ et t(x) = x. La loi est doncmembre de la famille exponentielle. Les lois binomiale, gamma, normaleet bêta font aussi partie de la famille exponentielle. En revanche, des loiscomme l’uniforme sur (0,θ) et l’exponentielle translatée n’en font paspartie.Pour tous les membres de la famille exponentielle, on a

f (x1, . . . , xn;θ) =

(n

∏i=1

h(xi)

)(c(θ))neη(θ)∑n

i=1 xi .

Ainsi, on voit que le théorème de factorisation permet de conclure quela statistique

T(X1, . . . , Xn) =n

∑i=1

Xi

est une statistique exhaustive pour le paramètre θ pour tous les membresde la famille exponentielle, dont la loi de Poisson.

Page 103: Exercices et solutions - Université Laval

Solutions 93

4.30 On peut réécrire la fonction de masse de probabilité de la loi géomé-trique comme suit :

Pr[X = x] = θeln(1−θ)x

= h(x)c(θ)eη(θ)t(x),

avec h(x) = 1, c(θ) = θ, η(θ) = ln(1− θ) et t(x) = x. La loi géométriqueest donc membre de la famille exponentielle (voir la solution de l’exer-cice 4.29). Par conséquent, T(X1, . . . , Xn) = ∑n

i=1 Xi est une statistiqueexhaustive pour le paramètre θ.

Chapitre 5

5.1 On rend compte de l’incertitude sur la valeur du paramètre de la loi dePoisson en considérant ce paramètre comme une variable aléatoire. Onobtient alors le modèle bayesien suivant :

X ∼ Poisson(Λ)

Pr[Λ = λ] =

{4/5, λ = 21/5, λ = 4.

a) On cherche la valeur λ qui minimise E[(Λ− λ)2]. De l’exercice 1.7, onsait que λ = E[Λ] = 2(4/5) + 4(1/5) = 12/5 = 2,4.

b) On veut calculer Pr[Λ = λ|X = 6]. Par la règle de Bayes, on a que

Pr[Λ = λ|X = 6] =Pr[X = 6|Λ = λ]Pr[Λ = λ]

∑λ=1,2 Pr[X = 6|Λ = λ]Pr[Λ = λ], λ = 1,2.

Puisque

Pr[X = 6|Λ = 2] =26e−2

6!

Pr[X = 6|Λ = 4] =46e−4

6!,

on obtient

Pr[Λ = λ|X = 6] =

{0,316, λ = 20,684, λ = 4.

c) Par analogie avec la partie a), la valeur qui minimise E[(Λ− λ)2|X = 6]est λ = E[Λ|X = 6] = 2(0,316) + 4(0,684) = 3,368.

5.2 On pose X|Θ = θ ∼ Géométrique(θ) et Θ ∼ Bêta(α, β). Ainsi,

f (x|θ) = θ(1− θ)x , x = 0,1, . . .

u(θ) =Γ(α, β)

Γ(α)Γ(β)θα−1(1− θ)β−1, 0 < θ < 1

Page 104: Exercices et solutions - Université Laval

94 Solutions

et, par conséquent,

f (x1, . . . , xn|θ) =n

∏i=1

f (xi|θ) = θn(1− θ)∑ni=1 xi .

Soit u(θ|x1, . . . , xn) la densité a posteriori de la variable aléatoire Θ. Parle théorème de Bayes,

u(θ|x1, . . . , xn) =f (x1, . . . , xn|θ)u(θ)

f (x1, . . . , xn)

=f (x1, . . . , xn|θ)u(θ)∫ 1

0 f (x1, . . . , xn|θ)u(θ)dθ

∝ f (x1, . . . , xn|θ)u(θ)= θn(1− θ)∑n

i=1 xi θα−1(1− θ)β−1

= θn+α−1(1− θ)∑ni=1 xi+β−1.

On reconnaît dans cette dernière expression la densité, à une constanteprès, d’une distribution Bêta(α + n, ∑n

i=1+β).

Enfin, on sait qu’en utilisant une fonction de perte quadratique, l’estima-teur bayesien ponctuel de θ est :

θ = E[Θ|X1, . . . , Xn]

=∫ 1

0θu(θ|X1, . . . , Xn)dθ

=α + n

α + β + n + ∑ni=1 Xi

.

La dernière égalité n’est en fait que l’espérance d’une distribution bêta,un résultat connu.

5.3 On a X|Θ = θ ∼ Poisson(θ) et Θ ∼ Gamma(α, λ), soit

f (x|θ) = θxe−θ

x!, x = 0,1, . . .

u(θ) =λα

Γ(α)θα−1e−λθ , θ > 0

et, par conséquent,

f (x1, . . . , xn|θ) =

Page 105: Exercices et solutions - Université Laval

Solutions 95

Par le théorème de Bayes, on obtient la densité de la variable aléatoireΘ|X1 = x1, . . . , Xn = xn :

u(θ|x1, . . . , xn) =f (x1, . . . , xn|θ)u(θ)∫ ∞

0 f (x1, . . . , xn|θ)u(θ)dθ

(n

∏i=1

f (xi|θ))

u(θ)

∝ (θ∑ni=1 xi e−nθ)(θα−1e−λθ)

= θ∑ni=1 xi+α−1e−(n+λ)θ .

On reconnaît, à une constante près, la densité d’une distribution gamma.Ainsi, Θ|X1, . . . , Xn ∼ Gamma(∑n

i=1 xi + α, λ + n). En utilisant une fonc-tion de perte quadratique, l’estimateur bayesien du paramètre θ est :

θ = E[Θ|X1, . . . , Xn]

=α + ∑n

i=1 Xi

n + λ.

5.4 a) On écrit l’estimateur sous la forme

θ =α + Y

α + β + n

avec Y ∼ Binomiale(n, θ). On remarquera que θ est une variable aléa-toire. Ainsi, E[(θ − θ)2] = Var[θ] + (E[θ]− θ)2. Or,

Var[θ] =Var[Y]

(α + β + n)2

=nθ(1− θ)

(α + β + n)2

et

E[θ] =α + E[Y]α + β + n

=α + nθ

α + β + n,

d’où

E[(θ − θ)2] =nθ(1− θ)

(α + β + n)2 +

((1− θ)α− βθ

α + β + n

)2

.

En posant n = 30, α = 15 et β = 5, on trouve

E[(θ − θ)2] =370θ2 − 570θ + 225

2500

=74θ2 − 114θ + 45

500.

Page 106: Exercices et solutions - Université Laval

96 Solutions

b) On cherche pour quelles valeurs de θ l’inégalité

74θ2 − 114θ + 45500

<θ − θ2

30est satisfaite. Cette inégalité peut se réécrire sous la forme

272θ2 − 392θ + 135 > 0.

Elle est satisfaite lorsque θ se trouve entre les deux racines du poly-nôme du côté droit de l’inégalité. On trouve donc aisément que l’er-reur quadratique moyenne de l’estimateur bayesien est inférieure àcelle de l’estimateur du maximum de vraisemblance lorsque 0,5692 <θ < 0,8720.

5.5 a) On a X|Θ = θ ∼ N(θ,σ2) et Θ ∼ N(µ, τ2), soit

f (x|θ) =(

1σ√

)ne−(x−θ)2/(2σ2), −∞ < x < ∞

u(θ) =1

τ√

2πe(θ−µ)/(2τ2), −∞ < θ < ∞.

La distribution a posteriori de Θ est, en laissant de côté tous les termesqui ne dépendent pas de θ :

u(θ|x1, . . . , xn) ∝ e−(θ−µ)2/(2τ2) e−∑nt=1(xt−θ)2/(2σ2).

En développant l’exposant tout en laissant une fois de plus de côtétous les termes non fonction de θ, on obtient

Exposant = −12

[θ2 − 2θµ

τ2 +n

∑t=1

−2θxt + θ2

σ2 + cte

]

= −12

[θ2(

1τ2 +

nσ2

)− 2θµ

τ2 −−2θ ∑n

t=1 xt

σ2 + cte]

= −12

(1τ2 +

nσ2

)︸ ︷︷ ︸

φ

[θ2 − 2θµ/τ2

( 1τ2 +

nσ2 )− −2θ ∑n

t=1 xt/σ2

( 1τ2 +

nσ2 )

+ cte

]

= −12

φ

[θ2 − 2θ

(µ/τ2 + ∑n

t=1 xt/σ2

φ

)+ cte

]

= −12

(θ −

φτ2 +∑n

t=1 xtφσ2

))2

1/φ+ cte.

Par conséquent, Θ|X1, . . . , Xn ∼ N(µ, τ2) avec

τ2 =1φ

=τ2σ2

σ2 + nτ2

Page 107: Exercices et solutions - Université Laval

Solutions 97

et

µ =µ

φτ2 +∑n

i=1 Xi

φσ2

=µσ2 + τ2 ∑n

i=1 Xi

σ2 + nτ2 .

b) On sait de l’exercice 1.18 que le minimum d’une fonction de perteabsolue est atteint à la médiane de la variable aléatoire. Ainsi, le mini-mum de E[|θ − θ||X1, . . . , Xn] est atteint à la médiane de Θ|X1, . . . , Xn.Or, la médiane d’une loi normale est égale à sa moyenne, d’où θ = µ,où µ est tel que défini en a).

Chapitre 6

6.1 On cherche deux statistiques L et U tel que

Pr[L ≤ µ ≤U] = 1− α.

On sait que si X1, . . . , Xn est un échantillon aléatoire tiré d’une distribu-tion N(µ, σ2), alors X ∼ N(µ, σ2/n) ou, de manière équivalente, que

X− µ

σ/√

n∼ N(0,1).

Par conséquent,

Pr[−zα/2 ≤

X− µ

α/√

n≤ zα/2

]= 1− α,

d’où

Pr[

X− σ√n

zα/2 ≤ µ ≤ X +σ√n

zα/2

]= 1− α.

Les statistiques L et U sont dès lors connues : L = X − σzα/2/√

n et U =X + σzα/2/

√n. Un estimateur par intervalle de µ est donc

(X− σzα/2/√

n, X + σzα/2/√

n).

Avec n = 20, σ2 = 80 et x = 81,2, on obtient l’intervalle (77,28, 85,12).

6.2 On a X ∼ N(µ, 9). Tel que démontré à l’exercice 6.1,

Pr[

X− σ√n

z0,05 ≤ µ ≤ X +σ√n

z0,05

]= 0,90.

Pour satisfaire la relation Pr[X − 1 < µ < X + 1] = 0,90, on doit doncchoisir

σ√n

z0,05 =3(1,645)√

n= 1.

On trouve que n = 24,35. On doit donc choisir une taille d’échantillon de24 ou 25.

Page 108: Exercices et solutions - Université Laval

98 Solutions

6.3 On sait que

X− µ

S/√

n− 1∼ t(n− 1)

et que

nS2

σ2 ∼ χ2(n− 1).

Ainsi, on peut établir que

Pr[

X− S√n− 1

tα/2 ≤ µ ≤ X +S√

n− 1tα/2

]= 1− α.

et qu’un intervalle de confiance de niveau 1− α pour µ est

(X− Stα/2/√

n− 1, X + Stα/2/√

n− 1).

Avec n = 17, x = 4,7, s2 = 5,76 et α = 0,10, on trouve que µ ∈ (3,7, 5,7).Pour la variance, on cherche des valeurs a et b, a ≤ b tel que

Pr[

a ≤ nS2

σ2 ≤ b]= Pr

[nS2

b≤ σ2 ≤ nS2

a

]= 1− α.

Plusieurs valeurs de a et b satisfont cette relation. Le choix le plus simpleest a = χ2

1−α/2(n− 1) et b = χ2α/2(n− 1). Ainsi, un intervalle de confiance

de niveau 1− α pour σ2 est(nS2

χ2α/2(n− 1)

,nS2

χ21−α/2(n− 1)

).

Dans une table de la loi khi carré, on trouve que χ20,95(16) = 7,96 et que

χ20,95(16) = 26,30, d’où σ2 ∈ (3,72, 12,30).

6.4 On représente la taille des étudiantes en actuariat par la variable aléatoireX et celle des étudiantes en génie civil par Y. On a

X ∼ N(µ1, σ21 /15), Y ∼ N(µ2, σ2

2 /20),

15S21

σ21∼ χ2(14),

20S22

σ22∼ χ2(19)

et les valeurs des statistiques pour les deux échantillons sont

x = 152, y = 154,

s21 = 101, s2

2 = 112.

Page 109: Exercices et solutions - Université Laval

Solutions 99

a) Si l’on suppose que σ21 = σ2

2 = 81, alors X∼N(µ1, 5,4) et Y∼N(µ2, 4,05).Par conséquent,

Pr[−1,645 <

X− µ1√5,4

< 1,645]= 0,90

et

Pr[−1,645 <

Y− µ2√4,05

< 1,645]= 0,90

d’où152− 1,645

√5,4 < µ1 < 152 + 1,645

√5,4,

soit 148,18 < µ1 < 155,82 et

154− 1,645√

4,05 < µ2 < 154 + 1,645√

4,05,

soit 150,69 < µ2 < 157,31.

b) Si la variance est inconnue, on a plutôt que

X− µ1

S1/√

14∼ t(14) et

Y− µ2

S2/√

19∼ t(19).

Or, t0,05(14) = 1,761 et t0,05(19) = 1,729, d’où

152− 1,761

√10114

< µ1 < 152 + 1,761

√10114

,

soit 147,27 < µ1 < 156,73 et

154− 1,729

√11219

< µ2 < 154 + 1,729

√11219

,

soit 149,80 < µ2 < 158,20.

c) On cherche un intervalle de confiance à 90 % pour la différence µ1 −µ2. Si 0 appartient à l’intervalle, on pourra dire que la différence entreles deux moyennes n’est pas significative à 90 %. Pour les besoins dela cause, on va supposer ici que σ2

1 = σ22 = σ2. Or, puisque

(X− Y)− (µ1 − µ2)

σ√

115 + 1

20

∼ N(0,1)

et que

15S21

σ2 +20S2

2σ2 ∼ χ2(33)

Page 110: Exercices et solutions - Université Laval

100 Solutions

on établit que(X− Y)− (µ1 − µ2)√

15S21+20S2

233

(1

15 + 120

) ∼ t(33).

De plus, t0,05(33)≈ z0,05 = 1,645, d’où l’intervalle de confiance à 90 %pour µ1 − µ2 est

µ1 − µ2 ∈ −2± 5,99.

La différence de taille moyenne entre les deux groupes d’étudiantesn’est donc pas significative.

d) Tel que mentionné précédemment,

Y =15S2

1σ2

1∼ χ2(14).

Or, on trouve dans une table de la loi khi carré (ou avec la fonctionqchisq dans R) que

Pr[6,57 < Y < 23,68] = 0,90.

Par conséquent,

Pr

[6,57 <

15S21

σ21

< 23,68

]= 0,90

ou, de manière équivalente,

Pr

[15S2

123,68

< σ21 <

15S21

6,57

]= 0,90.

Puisque s21 = 101 dans cet exemple, un intervalle de confiance à 90 %

pour σ21 est (63,98, 230,59).

e) Un peu comme en c), on détermine un intervalle de confiance pourle ratio σ2

2 /σ21 et on conclut que la différence entre la variance des

étudiantes en génie civil n’est pas significativement plus grande quecelle des étudiantes en actuariat si cet intervalle contient la valeur 1.À la suite des conclusions en c), il est raisonnable de supposer que lesmoyennes des deux populations sont identiques, soit µ1 = µ2 = µ. Ona que

F =15S2

1/(14σ21 )

20S22/(19σ2

2 )=

57S21

56S22

σ22

σ21∼ F(14,19).

On trouve dans une table de la loi F (ou avec la fonction qf dans R)que

Pr[0,417 < F < 2,256] = 0,90.

Page 111: Exercices et solutions - Université Laval

Solutions 101

Par conséquent,

Pr

[23,33S2

257S2

1<

σ22

σ21<

126,31S22

57S21

]= 0,90

et un intervalle de confiance à 90 % pour σ22 /σ2

1 est (0,417, 2,256). Lavariance σ2

2 n’est donc pas significativement plus grande que σ21 .

6.5 On sait quenS2

σ2 ∼ χ2(n− 1).

Ainsi, pour des constantes a et b, a ≤ b, on a

Pr[

a ≤ nS2

σ2 ≤ b]= Pr

[√nS2

b≤ σ ≤

√nS2

a

]= 1− α.

Un estimateur par intervalle de σ est donc (√

nS2/b,√

nS2/a), où a et bsatisfont la relation Pr[a ≤ Y ≤ b] = 1− α, avec Y ∼ χ2(n− 1).

6.6 On sait que

µ ∈ X± z0,05σ√n

∈ X± 1,6455√n

.

La longueur de l’intervalle de confiance est 2(1,645)(5)/√

n = 16,45/√

n.Si l’on souhaite que 16,45/

√n ≤ 0,05, alors n ≥ 108241.

6.7 On cherche à minimiser la longueur de l’intervalle de confiance h(a, b) =ns2(b − a)/(ab) sous la contrainte que la probabilité dans cet intervalleest 1− α, c’est-à-dire que G(b) − G(a) = 1− α. En utilisant la méthodedes multiplicateurs de Lagrange, on pose

L(a, b, λ) =ns2

a− nb2

b+ λ(G(b)− G(a)− 1 + α).

Les dérivées de cette fonction par rapport à chacune de ses variablessont :

∂aL(a, b, λ) = −ns2

a2 + λg(a)

∂bL(a, b, λ) = −−ns2

b2 + λg(b)

∂λL(a, b, λ) = G(b)− G(a)− 1 + α.

En posant ces dérivées égales à zéro et en résolvant, on trouve que

g(a)g(b)

=b2

a2

ou, de manière équivalente, que b2g(b) = a2g(a).

Page 112: Exercices et solutions - Université Laval

102 Solutions

Chapitre 7

7.1 a) On a

f (x1, . . . , xn;θ) =n

∏i=1

f (xi;θ)

= θnn

∏i=1

xθ−1i

=

(θn

n

∏i=1

xθi

)(n

∏i=1

x−1i

)= g(t(x1, . . . , xn);θ)h(x1, . . . , xn),

g(y;θ) = θnyn

t(x1, . . . , xn) =n

∏i=1

xi

h(x1, . . . , xn) =n

∏i=1

x−1i .

Ainsi, T(X1, . . . , Xn) = ∏ni=1 Xi est une statistique exhaustive pour θ.

b) D’une part, l’erreur de type I, consiste à rejeter l’hypothèse H0 alorsqu’elle est vraie. La probabilité de faire ce type d’erreur, notée α, cor-respond donc à la que la statistique du test se retrouve dans la régioncritique lorsque l’hypothèse H0 est vraie. On a donc

α = Pr[

X1X2 ≥34

;θ = 1]

=∫∫

CfX1X2(x1, x2;1)dx2dx1,

où C = {(x1, x2); x1x2≥ 3/4}. Or, fX1X2(x1, x2;θ) = fX1(x1;θ) fX2(x2;θ) =θ2xθ−1

1 xθ−12 , d’où fX1X2(x1, x2;1) = 1, 0 < x1, x2 < 1. La région critique

C est représentée à la figure E.6. Ainsi,

α =∫ 1

3/4

∫ 1

3/(4x1)dx2 dx1

=∫ 1

3/4

(1− 3

4x1

)dx1

=14+

34

ln34

≈ 0,034.

Page 113: Exercices et solutions - Université Laval

Solutions 103

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x1

x 2

Fig. E.6: Domaine de définition de la densité conjointe des variables X1 et X2de l’exercice 7.1. La zone hachurée est la région critique C = {(x, y); xy≥ 3/4}du test d’hypothèse.

D’autre part, l’erreur de type II consiste à ne pas rejeter l’hypothèseH0, alors qu’elle est fausse. La valeur β est donc la probabilité quela statistique se retrouve à l’extérieur de la région critique lorsquel’hypothèse H0 est fausse, c’est-à-dire

β = Pr[

X1X2 <34

;θ = 2]

= 1− Pr[

X1X2 ≥34

;θ = 2]

= 1−∫∫

CfX1X2(x1, x2;2)dx2dx1.

Page 114: Exercices et solutions - Université Laval

104 Solutions

Dès lors, puisque fX1X2(x1, x2;2) = 4x1x2,

β = 1−∫ 1

3/4

∫ 1

3/(4x1)4x1x2 dx2 dx1

=916− 9

8ln

34

≈ 0,886.

7.2 On sait que X ∼ N(µ, 50002/n). Or,

α = Pr[X ≥ c;µ = 30000]

= 1−Φ(√

n(c− 30000)5000

)d’où

zα =

√n(c− 30000)

5000.

De même,

β = Pr[X < c;µ = 35000]

= Φ(√

n(c− 35000)5000

),

d’où

z1−β =

√n(c− 35000)

5000.

On trouve dans une table de la loi normale que zα = z0,01 = 2,326 et quez1−β = z0,98 =−2,05. En résolvant pour n et c le système à deux équationset deux inconnues, on obtient n = 19,15 et c = 32658. Aux fins du test, onchoisira donc une taille d’échantillon de n = 19 ou n = 20.

7.3 a) Soit X la variable aléatoire du nombre de dentistes qui recommandele dentifrice parmi un groupe-test de 390 dentistes. On a donc queX ∼ Binomiale(390, θ) et on teste

H0 : θ = 0,75H1 : θ 6= 0,75.

Il s’agit d’un test bilatéral sur une proportion avec un grand échan-tillon. La statistique du test est

Z =θ − 0,75√

0,75(1− 0,75)/390

Page 115: Exercices et solutions - Université Laval

Solutions 105

et on rejette H0 si |z| > zα/2. Ici, on a α = 0,05, θ = 273/390, d’où z =−2,28. Puisque |z| > z0,025 = 1,96, on juge, à un seuil de significationde 5 %, que la proportion de dentistes qui recommandent le dentifriceest suffisamment éloignée de la prétention du fabricant pour rejetterl’hypothèse H0.On peut vérifier les résultats ci-dessus avec la fonction prop.test deR :> prop.test(273, n = 390, p = 0.75, correct = FALSE)

1-sample proportions test without continuitycorrection

data: 273 out of 390, null probability 0.75X-squared = 5.2, df = 1, p-value = 0.02259alternative hypothesis: true p is not equal to 0.7595 percent confidence interval:0.6527490 0.7433494sample estimates:p

0.7

On constate que la valeur test θ = 0,75 ne se trouve pas dans l’inter-valle de confiance à 95 %, d’où le rejet de l’hypothèse H0.

b) Puisque z0,005 = 2,576 > 2,28, on ne rejette pas l’hypothèse H0 à unseuil de signification de 1 %. D’ailleurs un intervalle de confiance à99 % nous est fourni par la fonction prop.test :> prop.test(273, n = 390, p = 0.75, conf.level = 0.99,+ correct = FALSE)

1-sample proportions test without continuitycorrection

data: 273 out of 390, null probability 0.75X-squared = 5.2, df = 1, p-value = 0.02259alternative hypothesis: true p is not equal to 0.7599 percent confidence interval:0.6372906 0.7560183sample estimates:p

0.7

On constate que cet intervalle comprend la valeur θ = 0,75.

c) La valeur p est le seuil de signification auquel on rejette H0. Ainsi,

p = 2Pr[Z > 2,28] ≈ 0,0226.

On rejette donc H0 avec un niveau de confiance maximal de 97,74 %.Cette valeur p apparaît dans les résultats de la fonction prop.test ena) et b).

Page 116: Exercices et solutions - Université Laval

106 Solutions

7.4 a) Il s’agit d’un test bilatéral sur une proportion avec un grand échan-tillon. La statistique du test est

Z =θ − 0,20√

0,20(1− 0,20)/n

et on rejette H0 si |z| > z0,025 = 1,96.b) En calculant la valeur de la statistique pour chacune des proportions

données, on constate que toutes les statistiques sont plus inférieures à1,96. Auncun membre ne rejette donc l’hypothèse H0.

c) Étant donné que le seuil de signification est 5 %, si l’hypothèse H0 estvraie, on peut s’attendre à un taux de rejet de 5 %.

d) Si, en b), l’on n’a jamais rejeté l’hypothèse H0, c’est que 100 % desintervalles de confiance à 95 % pour θ contiennent la valeur 0,20.

e) La valeur de la statistique est

z =219/1124− 0,20√

(0,20)(1− 0,20)/1124= −0,4325

et |z| < 1,96. Donc, on ne rejette pas H0 à un seuil de signification de5 %. La valeur p associée est :

p = Pr[|Z| > −0,4325]= 2Pr[Z > 0,4325]= 0,6654,

ce qui représente le seuil de signification minimal auquel il est pos-sible de rejeter H0. Ces résultats sont confirmés par la fonction prop.testde R :> prop.test(219, 1124, p = 0.2, correct = FALSE)

1-sample proportions test without continuitycorrection

data: 219 out of 1124, null probability 0.2X-squared = 0.1871, df = 1, p-value = 0.6654alternative hypothesis: true p is not equal to 0.295 percent confidence interval:0.1727403 0.2190181

sample estimates:p

0.1948399

7.5 a) Il s’agit d’un test sur la différence entre deux proportions. Il faut com-mencer par construire la statistique. On a

X ∼ Binomiale(n, θ1)

Y ∼ Binomiale(m, θ2).

Page 117: Exercices et solutions - Université Laval

Solutions 107

Pour n et m grands, on a, approximativement,

X ∼ N(nθ1, nθ1(1− θ1))

Y ∼ N(mθ2, mθ2(1− θ2),

et donc, toujours approximativement,

θ1 =Xn∼ N

(θ1,

θ1(1− θ1)

n

)θ2 =

Ym∼ N

(θ2,

θ2(1− θ2)

m

).

Par conséquent,

(θ1 − θ2)− (θ1 − θ2)√θ1(1− θ1)/n + θ2(1− θ2)/m

∼ N(0,1).

Pour pouvoir calculer la valeur de cette statistique pour un échantillonaléatoire, on remplace θ1 et θ2 dans le radical par θ1 = X/n et θ2 =Y/m, dans l’ordre. Un intervalle de confiance de niveau 1− α pourθ1 − θ2 est donc

(θ1 − θ2)± zα/2

√θ1(1− θ1)

n+

θ2(1− θ2)

m.

De manière similaire, la statistique utilisée pour tester la différenceentre les deux proportions θ1 et θ2 est

Z =(θ1 − θ2)− (θ1 − θ2)√

θ1(1− θ1)/n + θ2(1− θ2)/m,

et on rejette H0 : θ1 = θ2 en faveur de H1 : θ1 6= θ2 si |z| > zα/2.Ici, on a x = 351, y = 41, n = 605 et m = 800− 605 = 195. Ainsi, θ1 =0,5802, θ2 = 0,2103 et |z| = 10,44 > 1,96. On rejette donc H0 à un seuilde signification de 5 %. La fonction prop.test de R corrobore cesrésultats :> prop.test(c(351, 41), c(605, 195), correct = FALSE)

2-sample test for equality of proportionswithout continuity correction

data: c(351, 41) out of c(605, 195)X-squared = 80.7464, df = 1, p-value < 2.2e-16alternative hypothesis: two.sided95 percent confidence interval:0.3004992 0.4393185

sample estimates:prop 1 prop 2

0.5801653 0.2102564

Page 118: Exercices et solutions - Université Laval

108 Solutions

b) L’intervalle de confiance est

(θ1 − θ2) ∈ (0,3005, 0,4393).

Comme 0 n’appartient pas à cet intervalle, on rejette H0.c) On cherche maintenant un intervalle de confiance pour la proportion

de la population en faveur de l’introduction du taxe sur le tabac. On aune observation x = 351+ 41= 392 d’une distribution Binomiale(800, θ),d’où θ = 392/800 = 0,49. Un intervalle de confiance à 95 % pour θ est

θ ∈ θ ± 1,96

√θ(1− θ)

800

∈ 0,49± 1,96

√0,49(0,51)

800∈ (0,4555, 0,5246).

Vérification avec R :> prop.test(351 + 41, 800, correct = FALSE)$conf.int

[1] 0.4554900 0.5246056attr(,"conf.level")[1] 0.95

7.6 a) Nous avons un test unilatéral à gauche sur la différence entre deuxmoyennes. En supposant égales les variances des deux populations,on a X ∼ N(µX , σ2) et Y ∼ N(µY , σ2). On sait que X ∼ N(µX , σ2/n) etY ∼ N(µY , σ2/m), d’où un estimateur de µX − µY sur lequel baser untest est

X− Y ∼ N(

µX − µY ,σ2

n+

σ2

m

).

La variance σ2 est toutefois inconnue. Un estimateur de ce paramètreest la moyenne pondérée des estimateurs de chaque échantillon, soit

S2p =

(n− 1)S2X + (m− 1)S2

Yn + m− 2

.

Or, (n + m− 2)S2p/σ2 ∼ χ2(n + m− 2). Par conséquent,

T =

(X− Y)− (µX − µY)

σ√

n−1 + m−1√(n + m− 2)S2

p

σ2

=(X− Y)− (µX − µY)√nS2

X + mS2Y

n + m− 2

(1n+

1m

) ∼ t(m + n− 2).

Page 119: Exercices et solutions - Université Laval

Solutions 109

On rejette H0 : µX = µY en faveur de H1 : µX < µy si t≤−t0,05(n+m−2).

b) Avec les données de l’énoncé, la valeur de la statistique développée ena) est t =−0,838, alors que le 95e centile d’une loi t avec 13+ 16− 2 =27 degrés de liberté est t0,05(27) = 1,703. Puisque |t| < 1,703, on nerejette pas H0.

c) On a p = Pr[T < −0,838], où T ∼ t(27). À l’aide de R, on trouve> pt(-0.838, df = 27)

[1] 0.2046940

Puisque p = 0,2047 > 0,05, on ne rejette pas H0. La conclusion estévidemment la même qu’en a).

d) On souhaite tester l’égalité de deux variances, c’est-à-dire H0 : σ2X = σ2

Yversus H1 : σ2

X ≠ σ2Y. Pour ce faire, on se base sur le fait que nS2

X/σ2X ∼

χ2(n − 1) et que mS2Y/σ2

Y ∼ χ2(m − 1). Ainsi, sous H0 (c’est-à-direlorsque σ2

X = σ2Y),

F =nS2

X/(n− 1)mS2

Y/(m− 1)∼ F(n− 1, m− 1).

On rejette H0 si la valeur de la statistique est supérieure au 100(1− α)e

centile d’une loi F avec n− 1 et m− 1 degrés de liberté. Ici, on a f =0,8311 et f0,05(12,15) = 2,48. On ne rejette donc pas H0. L’hypothèsedes variances égales est donc raisonnable.

7.7 a) Il s’agit d’un simple test sur une moyenne. La statistique pour un petitéchantillon est

T =X− 3315√

S2/10.

On rejette H0 si t > t0,01(10) = 2,764.b) La fonction t.test de R retourne tous les résultats pertinents pour ce

test :> x <- c(3119, 2657, 3459, 3629, 3345, 3629,+ 3515, 3856, 3629, 3345, 3062)> t.test(x, alternative = "g", mu = 3315)

One Sample t-test

data: xt = 0.6993, df = 10, p-value = 0.2502alternative hypothesis: true mean is greater than 331595 percent confidence interval:3202.12 Inf

sample estimates:mean of x3385.909

Page 120: Exercices et solutions - Université Laval

110 Solutions

On ne rejette donc pas H0 à un seuil de signification de 5 %.

c) Le niveau de confiance auquel on rejetterait H0 est 1− p = 0,7498.

d) On a un test unilatéral à gauche sur une variance pour lequel la sta-tistique est

Y =11S2

5252 .

On rejette H0 si y < χ20,95(10) = 3,94.

e) Ici, y = 4,103 > 3,94. On ne rejette donc pas H0.

f) On a p = Pr[Y < 4,103], où Y ∼ χ2(10). Or,> pchisq(4.103, 10)

[1] 0.05741915

d’où la valeur p du test sur la variance est 0,0574.

7.8 a) La statistique à utiliser est la même qu’à l’exercice 7.7.

b) On a> y <- c(4082, 3686, 4111, 3686, 3175, 4139,+ 3686, 3430, 3289, 3657, 4082)> t.test(y, alt = "g", mu = 3315)

One Sample t-test

data: yt = 4.0283, df = 10, p-value = 0.001203alternative hypothesis: true mean is greater than 331595 percent confidence interval:3542.928 Inf

sample estimates:mean of x3729.364

On rejette donc H0.

c) Le niveau de confiance auquel on rejette H0 est 1− p = 0,9988.

d) La statistique à utiliser est la même qu’à l’exercice 7.7.

e) On a y = 4,223 > 3,94. On ne rejette donc pas H0.

f) La valeur p du test sur la variance est p = Pr[Y < 4,223] = 0,0574.

g) Les moyennes semblent être différentes entre les deux groupes, maisles variances égales. En effet, les résultats sur le test de l’égalité desvariances est> var.test(x, y)

F test to compare two variances

data: x and yF = 0.9718, num df = 10, denom df = 10, p-value= 0.9648

Page 121: Exercices et solutions - Université Laval

Solutions 111

alternative hypothesis: true ratio of variances is not equal to 195 percent confidence interval:0.2614662 3.6120359

sample estimates:ratio of variances

0.9718155

On ne rejette donc clairement pas l’hypothèse selon laquelle σ2X = σ2

Y.Ainsi, on peut tester

H0 : µX = µY

H1 : µX ≠ µY

ou

H0 : µX = µY

H1 : µX < µY.

En supposant les variances égales. Les résultats de ces tests sont, dansl’ordre :> t.test(x, y, alt = "two.sided", var.equal = TRUE)

Two Sample t-test

data: x and yt = -2.3778, df = 20, p-value = 0.0275alternative hypothesis: true difference in means is not equal to 095 percent confidence interval:-644.75458 -42.15451sample estimates:mean of x mean of y3385.909 3729.364

> t.test(x, y, alt = "less", var.equal = TRUE)

Two Sample t-test

data: x and yt = -2.3778, df = 20, p-value = 0.01375alternative hypothesis: true difference in means is less than 095 percent confidence interval:

-Inf -94.33337sample estimates:mean of x mean of y3385.909 3729.364

Dans les deux cas, on rejette assez facilement l’hypothèse H0. On éta-blit donc que les fillettes nées au Québec sont en moyenne plus petitesque les garçons.

7.9 a) La plus petite valeur de la statistique de Wilcoxon s’obtiendra lorsquetous les sujets du groupe traitement recevront les plus petits rangs,

Page 122: Exercices et solutions - Université Laval

112 Solutions

c’est-à-dire les rangs de 1 à 17. La statistique est alors

WS =17

∑i=1

i =(17)(18)

2= 153.

b) La plus grande valeur de la statistique de Wilcoxon s’obtiendra lorsquetous les sujets du groupe traitement recevront les plus grands rangs,c’est-à-dire les rangs de 27 à 40. La statistique est alors

WS =40

∑i=1

i−23

∑i=1

i =(40)(41)

2− (23)(24)

2= 544.

c) Comme la distribution de la statistique de Wilcoxon sous l’hypothèsenulle est symétrique, la moyenne est donc la valeur centrale, c’est-à-dire

153 +544− 153

2= 348,5.

7.10 a) Simplement WS = 1 + 3 + 5 + 6 = 15.

b) Il y a (74) = (7

3) = 35 configurations possibles.

c) Il faut trouver les 35 configurations possibles et calculer les 35 valeursde WS correspondantes. On obtient : 1 fois 10 ; 1 fois 11 ; 2 fois 12 ; 3fois 13 ; 4 fois 14 ; 4 fois 15 ; 5 fois 16 ; 4 fois 17 ; 4 fois 18 ; 3 fois 19 ; 2fois 20 ; 1 fois 21 et 1 fois 22. La valeur p est donc

p = (3)(

435

)+ (1)

(5

35

)(1)(

335

)+ (1)

(235

)+ (2)

(1

35

)=

2435

.

Page 123: Exercices et solutions - Université Laval

Bibliographie

Freund, J. E. 1992, Mathematical Statistics, 5e éd., Prentice Hall, Upper SaddleRiver, NJ, ISBN 0-1356383-4-8.

Hogg, R. V., A. T. Craig et J. W. McKean. 2005, Introduction to MathematicalStatistics, 6e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1300850-7-3.

Hogg, R. V. et E. A. Tanis. 2001, Probability and Statistical Inference, 6e éd.,Prentice Hall, ISBN 0-1302729-4-9.

Mood, A. M., F. A. Graybill et D. C. Boes. 1974, Introduction to the Theory ofStatistics, 3e éd., McGraw-Hill, Boston, ISBN 0-0704286-4-6.

Owen, W. J. 2008, Mathematical Statistics with Applications – Student SolutionsManual, 7e éd., Duxbury Press, ISBN 978-0-49538506-6.

R Development Core Team. 2009, R: A Language and Environment for StatisticalComputing, R Foundation for Statistical Computing, Vienna, Austria. URLhttp://www.r-project.org.

Wackerly, D. D., W. Mendenhall et R. L. Scheaffer. 2008, Mathematical Statisticswith Applications, 7e éd., Duxbury Press, ISBN 978-0-49511081-1.

113

Page 124: Exercices et solutions - Université Laval
Page 125: Exercices et solutions - Université Laval
Page 126: Exercices et solutions - Université Laval