62
Module: Statistiques inf´ erentielles ———————– Poly de Cours - S3 ———————– Version du 29 novembre 2012 Universit´ e Paul Sabatier - Toulouse 3 IUT de Toulouse 3 A epartement GEA PONSAN Clement Rau [email protected]

Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau [email protected]. Table des mati eres

Embed Size (px)

Citation preview

Page 1: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Module: Statistiques inferentielles

———————–

Poly de Cours - S3

———————–Version du 29 novembre 2012

Universite Paul Sabatier - Toulouse 3

IUT de Toulouse 3 A

Departement GEA PONSAN

Clement Rau

[email protected]

Page 2: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Table des matieres

1 Definitions de base - Denombrements 6

1.1 Operations ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.2 Reunion d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.3 Intersection d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.4 Complementaire d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.5 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.6 Operations ensemblistes et Operations logiques . . . . . . . . . . . . . . . . . 7

1.2 Ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.2 Cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.3 Cardinal d’un produit cartesien . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3 Denombrements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3.1 Nombre de partie d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . 9

1.3.2 La notion de p-listes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3.3 Les arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3.4 Les combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3.5 Formule du binome de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Probabilites pour un Univers Discret 14

2.1 Ensembles, Univers, evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Probabilites d’evenements – Equiprobabilite . . . . . . . . . . . . . . . . . . . . . . . 15

2.2.1 Probabilites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.2.2 Equiprobabilites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.4 Probabilites conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Variable aleatoire discrete 24

3.1 Variable aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.1.1 Definition generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.1.2 Variables aleatoires discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.1.3 Variables aleatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.2 Loi d’une variable aleatoire discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2

Page 3: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

TABLE DES MATIERES 3

3.2.2 Fonction de repartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.3 Parametres d’une loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.3.1 Esperance mathematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.3.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.3.3 Proprietes de l’esperance et de la variance . . . . . . . . . . . . . . . . . . . . 29

3.4 Couple de variables aleatoires discretes . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.4.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.4.3 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.4.4 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.4.5 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.5 Lois discretes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.5.1 Loi uniforme sur 1, . . . , n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.5.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.5.3 Loi binomiale B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.5.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.6 Approximation d’une loi de Poisson par une Binomiale . . . . . . . . . . . . . . . . . 37

4 Variables aleatoires continues, loi normale 40

4.1 Loi d’une variable aleatoire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.1.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.1.2 Problematique de la notion de loi dans le cas continu . . . . . . . . . . . . . . 40

4.1.3 Fonction de repartition et loi a densite . . . . . . . . . . . . . . . . . . . . . . 40

4.2 Lois a densite classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2.2 Lois exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.3 La loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.3.1 Loi normale centree reduite N (0, 1) . . . . . . . . . . . . . . . . . . . . . . . 42

4.3.2 Loi normale generale N (µ, σ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.4 La Loi normale comme limite en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.5 Lois derivees de la loi Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.5.1 Loi du Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.5.2 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5 Une introduction aux Theoremes limite en Probabilites 48

5.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

5.1.1 Un premier pas : Loi faible des grands nombres . . . . . . . . . . . . . . . . . 48

5.1.2 Loi forte des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.2 Theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.3 Quelques applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5.3.1 Marcheur dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5.3.2 Intervalle de confiance lors d’elections . . . . . . . . . . . . . . . . . . . . . . 51

5.3.3 Introduction aux tests statistiques (le test du Chi 2) . . . . . . . . . . . . . . 52

Page 4: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

TABLE DES MATIERES 4

6 Annexe 59

6.1 Tables Loi Normale N (0; 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6.2 Table loi du Chi 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

Page 5: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Introduction

Tandis que la statistique peut etre assimilee a une analyse, parfois tres precise, de donnees et

est basee sur des valeurs connues, le but de la theorie des probabilites est de modeliser au mieux

les issues eventuelles d’experiences futures (en ne se basant en general sur les resultats d’etudes

statistiques). Contrairement a la plupart des autres branches des mathematiques, elle repose for-

tement sur la notion d’incertitude et est ainsi consacree a l’etude de phenomenes aleatoires. Les

probabilites permettent d’evaluer les degres de prevision d’evenements possibles mais non certains,

et introduisent une notion intermediaire entre ”sur” et ”impossible”. Cette theorie ne permet pas

de ”predire” ce qu’il peut se passer sur une experience aleatoire ”isolee”, parcontre si l’on repete

cette experience de maniere independante et un grand nombre de fois, la theorie permet de ”cer-

ner” certaines quantites. Les probabilites permettent ainsi l’etablissement de criteres objectifs de

mesure de l’incertitude qui conduisent parfois a des paradoxes celebres saluant les defaillances de

notre intuition cartesienne dans ce domaine. Un autre avantage de cette theorie est qu’elle offre

un cadre naturel d’analyse pour des systemes trop complexes pour que l’on puisse en saisir tous

les elements (grandes populations, systemes de particules, ordinateurs, comportements collectifs,

marches boursiers etc.). Ainsi, la connaissance, meme parfaite, d’un echantillon de population ne

peut conduire a une certitude totale, mais seulement a une incertitude qui peut etre estimee et

quantifiee en terme de probabilites.

Ces notes de cours restant bien evidemment perfectibles, je remercie toute personne me rappor-

tant des coquilles, erreurs ou commentaires.

5

Page 6: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 1

Definitions de base -

Denombrements

Le formalisme probabiliste, tel qu’il est etabli aujourd’hui, decrit les issues possibles de tout

phenomene, aleatoire ou non, en termes ensemblistes, dont nous rappelons brievement ici la signi-

fication.

1.1 Operations ensemblistes

1.1.1 Generalites

Les ensembles seront principalement notes a l’aide de lettres majuscules A,B,C,D etc., tan-

dis que les objets qui les composent, ses elements, seront designes par des lettres minuscules

i, j, k, l, x, y etc. Pour signifier l’appartenance d’un element i a un ensemble A, on dit parfois que

”i est dans A”, on le note i ∈ A. Si au contraire un element i n’appartient pas a A, on note i /∈ A.

1.1.2 Reunion d’ensembles

La reunion de deux ensembles A et B, notee A ∪ B, est l’ensemble constitue des elements de

A et des elements de B. On a toujours A ∪ ∅ = ∅ ∪A = A.

Propriete 1 (Commutativite)

A ∪B = B ∪A

Propriete 2 (Associativite)

A ∪ (B ∪ C) = (A ∪B) ∪ C := A ∪B ∪ C

1.1.3 Intersection d’ensembles

L’intersection de deux ensembles A et B, notee A ∩ B, est l’ensemble constitue des elements

etant a la fois dans A et dans B. On a toujours A ∩ ∅ = ∅ ∩A = ∅.

6

Page 7: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 7

Lorsque A et B n’ont aucun element en commun, on dit qu’ils sont disjoints et on note A∩B =

∅.

Propriete 3 (Commutativite)

A ∩B = B ∩A

Propriete 4 (Associativite)

A ∩ (B ∩ C) = (A ∩B) ∩ C := A ∩B ∩ C

Propriete 5 (Distributivite)

A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C)

A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)

1.1.4 Complementaire d’un ensemble

Soit Ω un ensemble et A une partie de Ω. Le complementaire de A dans Ω, note Ω \ A, ou

A lorsqu’il n’y a pas d’ambiguite sur Ω (ou encore Ac), est l’ensemble constitue des elements de Ω

qui ne sont pas elements de A. On appelle aussi parfois ”Ω prive de A” l’ensemble Ω \A.

Par ailleurs, on a toujours A ∪A = Ω et A ∩A = ∅.

Propriete 6 (Lois de Morgan)

A ∪B = A ∩B (1.1)

A ∩B = A ∪B (1.2)

1.1.5 Inclusion

Si tous les elements d’un ensemble A sont aussi elements d’un autre ensemble B, on dit que ”A

est inclus dans B” et on le note A ⊂ B. On dit aussi que ”A est un sous-ensemble de B”.

On a toujours

A ⊂ A ∪B; A ∩B ⊂ A; A ∩B ⊂ A ∪B; ∅ ⊂ A.

1.1.6 Operations ensemblistes et Operations logiques

On peut des a present noter le lien entre ces operations et les operations (ou connecteurs)

logiques ”OU”, ”ET” et ”NON” :

– Un element de A ∪B est un element qui appartient a A ”OU” a B.

– Un element de A ∩B est un element qui appartient a A ”ET” a B.

– Un element de A est un element qui n’appartient PAS a A.

Attention 1 Le connecteur logique OU mentionne correspond a un ”ou inclusif” : A ∪ B est

l’ensemble des elements qui sont dans A, ou dans B mais qui peuvent etre dans les 2.

Page 8: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 8

1.2 Ensemble fini

1.2.1 Definitions

Definition 1 On appelle ensemble fini un ensemble ayant un nombre fini d’elements distincts.

Definition 2 Le nombre d’elements d’un ensemble fini A est appele cardinal de A, note card [A].

Exemple 1 E = a, b, c et card [E] = 3.

1.2.2 Cardinal

Propriete 7 Soient A et B deux ensembles finis quelconques,

card [A ∪B] = card [A] + card [B]− card [A ∩B] .

Si A et B sont disjoints, c’est-a-dire que A ∩B = alors,

card [A ∪B] = card [A] + card [B] .

Corollaire 1 Soit A est un sous ensemble de E.

card[A]

= card [E]− card [A]

1.2.3 Cardinal d’un produit cartesien

Definition 3 Soient E et F deux ensembles, le produit cartesien note E × F est l’ensemble de

tous les couples (x; y) ou x est element de E et y element de F .

Attention 2 E × F est different de F × E.

Theoreme 1 Si E et F sont finis, on a :

card [E × F ] = card [E]× card [F ]

1.3 Denombrements

Dans le cadre d’un ensemble fini E, la problematiques consiste en :

– la constitution des collections d’ensembles ou d’applications ayant une caracteristique com-

mune (cas favorable),

– comptabiliser le nombre d’objets constituant cette collection.

Le denombrement ne s’applique qu’a des ensembles finis et fait intervenir deux criteres fonda-

mentaux pour la constitution et la distinction des objets a denombrer : la repetition et l’ordre.

Definition 4 (Repetition) Lors de la constitution des collections, chaque element de E peut etre

utilise plusieurs fois.

Definition 5 (Ordre) Pour distinguer deux collections, on peut tenir compte de l’ordre des elements

qui les composent.

Remarque 1 Si l’on autorise la repetition on doit necessairement faire intervenir l’ordre.

Page 9: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 9

1.3.1 Nombre de partie d’un ensemble fini

Propriete 8 Soit En un ensemble contenant n elements. Il y a 2n parties disctincts de E.

Demonstration :

Il existe diverses demonstrations de cette proprietes. On peut par exemple utiliser un arbre et faire

une correspondance entre une feuille et une partie. On peut egalement utiliser la formule du binome

de Nenwton...

J

1.3.2 La notion de p-listes

Definition 6 Soit En un ensemble contenant n elements. Une p-liste d’elements de En, est une

liste ordonnee de p elements de En avec repetitions possible.

Propriete 9 (Expression du nombre de p-listes) Le nombre de p-liste distinctes est egal a np.

Exemple 2 Considerons l’ensemble E = 1, 2, 3, A,B correspondant aux differentes touches d’un

clavier de digicode dont le code est une succession de 3 caracteres issus de E. Combien y-a-t-il de

code differents ?

Ce sont les 3-listes de E il y en a 53 soit 125.

1.3.3 Les arrangements

Considerons En un ensemble fini contenant n elements differents et p un entier naturel inferieur

ou egal a n.

Definition 7 Un arrangement a p elements de En est un echantillon ordonne sans remise de p

elements differents de En.

Propriete 10 (Expression du nombre d’arrangements) Le nombre d’arrangements a p elements

de En note Apn est egal a :

Apn = n× (n− 1)× (n− 2)× · · · × (n− p+ 1)

Demonstration :

Pour le premier element, on a n choix possibles. Le premier etant fixe, pour le deuxieme element,

on a (n− 1) choix possibles le tirage etant sans remise. Le premier et le deuxieme etant fixes pour

le troisieme element, on a (n − 2) choix possibles... et ainsi de suite jusqu’au pieme element, pour

lequel on a [n− (p− 1)] = n− p+ 1 choix possible. On a donc bien

n× (n− 1)× (n− 2)× · · · × (n− p+ 1)

arrangements a p elements de En.

J

Page 10: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 10

Definition 8 On appelle factorielle n le produit des n premiers entier :

n! = n× (n− 1)× (n− 2)× · · · × 1

avec la convention 0! = 1.

Propriete 11

Apn =n!

(n− p)!

Demonstration :

n× (n− 1)× (n− 2)× · · · × (n− p+ 1) =n× (n− 1)× · · · × (n− p+ 1)× (n− p) · · · × 1

(n− p)× · · · × 1,

=n!

(n− p)!.

J

Remarque 2 n! est une touche de la plupart des calculatrices.

Exemple 3 Un joueur se demande combien il peut ecrire de grilles differentes de tierce pour une

course de 16 chevaux. Il y a 16 possibilites pour le premier, 15 pour le second et 14 pour le troisieme.

On n’accepte pas les repetitions et on tient compte de l’odre, il s’agit d’arrangements et on a donc

A316 = 16× 15× 14 = 3360 possibilites.

Definition 9 (Les permutations) Une permutation de En est un echantillon ordonne sans

remise des n elements differents pris dans En. C’est donc le cas particulier d’un arrrangement de

n elements de En.

Propriete 12 Le nombre de permutations de En est donc egal a :

Pn = n!

Exemple 4 Si le joueur de tierce a precedemment choisi les 3 chevaux qu’il va jouer mais ne sait

pas dans quel ordre il va les placer, il a 3 ! choix possibles c’est a dire 3× 2× 1 = 6 possibilites de

tierce.

1.3.4 Les combinaisons

Soit En un ensemble fini contenant n elements differents et p un entier naturel inferieur ou egal

a n.

Definition 10 Une combinaison a p elements de En est un echantillon non ordonne sans remise

de p elements differents de En. C’est un sous ensemble a p elements de En. Dans une combinaison

de p elements, les p elements sont distincts et non ordonnes.

Propriete 13 (Expression du nombre de combinaisons) Le nombre de combinaisons a p elements

de En note Cpn est egal a :

Cpn =n!

p! (n− p)!

Page 11: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 11

Demonstration :

On considere les p premiers elements de En. Avec ces p elements on peut former p! arrangements

et ces p! arrangements donnent une seule combinaison or on peut former Apn arrangements avec les

n elements de En. on a doncApnp! combinaisons differentes de En.

J

Remarque 3 – Si p = 0 alors on a une seule combinaison a zero element : la partie vide.

– Si p = n alors on a une seule combinaison a n elements de En : la partie En.

– Si p = 1 alors on a n combinaisons a un element de En, les n sous-ensembles a un element

deEn.

Exemple 5 Nous avons vu ci-dessus avec l’exemple du joueur de tierce que quand on a choisi sans

ordre une partie de 3 elements parmi 16, il reste 3 ! = 6 manieres d’ordonner cette partie. Par

exemple si on choisit la partie (2,7,9) on peut lui associer les 6 permutations : (2,7,9), (2,9,7),

(7,2,9), (7,9,2), (9,2,7) et (9,7,2). En d’autres termes il est possible de regrouper les arrangements

par paquets de 6 correspondant a la meme partie. Le nombre d’arrangements (ordonnes) de 3

elements parmi 16 est donc egal a 6 fois le nombre de combinaisons (non ordonnees) de 3 elements

parmi 16. On a donc une application du ”Principe des bergers” :

C316 =

A316

3!.

Propriete 14 (Formules de calcul)

Cpn = Cn−pn

Cpn = Cp−1n−1 + Cpn−1

Demonstration :

1. Choisir les p elements que l’on veut dans un ensemble de n elements revient exactement a

choisir les n− p elements que l’on ne veut pas, d’ou le resultat. Mathematiquement, on a :

Cn−pn =n!

(n− p)![n− (n− p)]!,

=n!

p!(n− p)!,

= Cpn.

2. Soit E une ensemble de n element. Soit A l’un de ces elements. Pour choisir p elements de

E, je peux soit prendre A et en choisir p-1 autres parmi les n-1 restants (j’ai alors Cp−1n−1

possibilites), soit laisser A et en prendre p autres parmi les n − 1 restants (j’ai alors Cpn−1

possibilites). D’ou le resultat. Mathematiquement, on a

Cp−1n−1 + Cpn−1 =

(n− 1)!

(p− 1)!(n− p)!+

(n− 1)!

(p)!(n− p− 1)!,

=p(n− 1)!

p!(n− p)!+

(n− p)(n− 1)!

p!(n− p)!,

=(p+ n− p)(n− 1)!

p!(n− p)!,

= Cpn.

Page 12: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 12

J

Remarque 4 Quand n > p2 il est plus rapide de calculer Cn−pn que Cpn. Par exemple :

C232 = C30

32 ,

C232 =

32× 31

2× 1,

C3032 =

32× 31× · · · × 4× 3

30× 29× · · · × 2× 1.

Triangle de Pascal

Les formules de calcul ci-dessus nous donne une methode de calcul des combinatoire par recurrence

appele triangle de pascal :

1.3.5 Formule du binome de Newton

Theoreme 2 Soient a et b deux reels :

(a+ b)n =

n∑k=0

Cknakbn−k.

Demonstration :

Par recurrence sur n.

Pour n = 0 la propriete est immediate puisque 1 = 1.

Supposons la propriete vraie pour n et regardons si elle est vraie pour n+ 1.

Page 13: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 1. DEFINITIONS DE BASE - DENOMBREMENTS 13

(a+ b)n+1 = (a+ b)n (a+ b)

= a(a+ b)n + b(a+ b)n

=

n∑k=0

Cknakbn−k + b

n∑k=0

Cknakbn−k

=

n∑k=0

Cknak+1bn−k +

n∑k=0

Cknakbn−k+1

On considere maintenant k′ = k + 1, on a :

(a+ b)n+1 =

n+1∑k′=1

Ck′−1n ak

′bn−k

′+1 +

n∑k=0

Cknakbn−k+1

= an+1 +

n∑k′=1

Ck′−1n ak

′bn−k

′+1 +

n∑k=1

Cknakbn−k+1 + bn+1

= an+1 +

n∑k=1

(Ck−1n + Ckn

)akbn−k+1 + bn+1

= an+1 +

n∑k=1

Ckn+1akbn−k+1 + bn+1

=

n+1∑k=0

Ckn+1akbn−k+1.

La propriete est donc vraie pour n+ 1. Par le principe de raisonnement par recurrence, la propriete

est vraie pour tout entier n.

Remarque 5 On peut egalement demontrer cette propriete de maniere ”ensembliste”, en develop-

pant et en s’interessant au nombre de terme en akbn−k...

J

Page 14: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 2

Probabilites pour un Univers

Discret

2.1 Ensembles, Univers, evenements

Le formalisme probabiliste est une branche relativement nouvelle des mathematiques qui se

base donc sur la theorie des ensembles. Dans cette theorie, les issues des experiences dont on

veut evaluer les chances relatives sont formalisees en termes d’evenements dont la realisation est

l’aboutissement d’un ensemble de causes anterieures. Le hasard est parfois vu comme l’ensemble de

ces causes que l’on ne peut pas maıtriser, qui sont alors dites aleatoires. Dans le cas de systemes

physiques complexes, elles sont souvent le reflet de notre ignorance.

Definition 11 Les evenements sont des ensembles que l’on manipule a l’aide d’operations en-

semblistes elementaires et qui representent les issues possibles de l’experience aleatoire consideree.

Definition 12 On parle d’evenement elementaire lorsqu’il s’agit du resultat d’une experience

aleatoire menant a une solution unique, et l’ensemble des evenements elementaires forment ce que

l’on nomme l’univers des possibles, ou tout simplement l’univers note Ω.

Les evenements non-elementaires dont on peut vouloir evaluer les chances ou probabilites sont

exprimes en termes d’operations ensemblistes de reunions, d’intersections, ou de complementaires.

Ces operations correspondent egalement aux operations logiques OU, ET et NON. Ainsi, si l’on

considere deux evenements (elementaires ou non) representes par les ensembles A et B, l’evenement

consistant a obtenir A OU B est represente par l’ensemble A ∪B, qui est la reunion de A et de B.

De meme, l’evenement consistant a obtenir A ET B sera represente par l’intersection A∩B, tandis

que la negation de l’evenement A sera son complementaire Ac ou A. Cette negation est l’evenement

qui consiste a ne pas obtenir A.

Exemple 6 (jet d’un de a six faces) L’univers est Ω = 1, 2, 3, 4, 5, 6, avec pour evenements

elementaires :

”obtenir un 1” note 1, ”obtenir un 2” note 2,...,”obtenir un 6”= 6.

14

Page 15: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 15

Tous les evenements dont on calculera la probabilite peuvent etre obtenus par manipulations en-

semblistes des evenements elementaires precedents. Par exemple, l’evenement ”obtenir un resultat

pair” consiste a obtenir un 2, un 4 ou un 6 et sera note au choix

2, 4, 6 = 2 ∪ 4 ∪ 6.

L’ecriture en termes d’evenements elementaires sera primordiale pour les calculs de probabilites et

permet de representer un tres grands nombre d’evenements. On notera par exemple

”obtenir un resultat ≤ 3” = 1, 2, 3 = 1 ∪ 2 ∪ 3.

De meme, l’evenement ”obtenir un resultat pair, (et) inferieur ou egal a 3” sera note

2, 4, 6 ∩ 1, 2, 3 = 2.

Le contraire d’un evenement A correspond a son evenement complementaire note

Ac ou A.

Pour l’exemple precedent, ”ne pas obtenir un nombre pair” sera note

2, 4, 6 = 2, 4, 6c = Ω \ 2, 4, 6 = 1, 2, 3.

Tout evenement impossible est represente par l’ensemble vide ∅ et deux evenements A et B

sont dits incompatibles ou disjoints si A ∩ B = ∅, tandis que l’ensemble Ω lui-meme est qualifie

d’evenement certain. Lorsque cet univers est fini ou infini denombrable, on parle de probabilites

discretes et de probabilites continues dans le cas contraire.

2.2 Probabilites d’evenements – Equiprobabilite

2.2.1 Probabilites

Definition 13 La probabilite associee a une experience aleatoire est une fonction qui a un evenement

associe un nombre reel compris entre 0 et 1, sa probabilite :

P : P(Ω) −→ [0, 1]

A 7−→ P[A]

ou P(Ω) est l’ensemble de toutes les parties possibles de l’univers Ω (i.e. l’ensemble de tous les

evenements possibles de l’experience aleatoire concernee).

Une probabilite est d’abord construite par une evaluation des probabilites des evenements

elementaires. Lorsqu’il y en a un nombre fini x1, . . . , xn, et donc pour un univers Ω = x1, . . . , xnde cardinal n, on obtient a l’aide des statistiques ou parfois a l’aide d’hypotheses realistes, une

famille de nombres (pi)i=1..n compris entre 0 et 1 et tels que pour chaque evenement elementaire

Ai =”obtenir i”,

pi = P[Ai] ∈ [0, 1].

On etend ensuite cette probabilite sur tous les evenements possibles en respectant les regles

intuitives elementaires suivantes erigees en axiomes :

Page 16: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 16

Definition 14 (Axiomes des probabilites)

– Evenement certain : P[Ω] = 1.

– Evenement impossible : P[∅] = 0

– Additivite : Si A et B sont des evenements incompatibles, i.e. A ∩B = ∅,

P[A ∪B] = P[A] + P[B].

La somme des probabilites des evenements elementaires doit ainsi etre egale a 1 :∑i

pi = 1.

Propriete 15 Pour des evenements non disjoints, l’additivite devient

P[A ∪B] = P[A] + P[B]− P[A ∩B].

En revanche, on n’a pas en general d’expression pour la probabilite de l’intersection. En parti-

culier, on n’a pas de factorisation du type P[A ∩B] = P[A] · P[B]. Lorsque cela sera le cas, on dira

que les evenements A et B sont independants.

2.2.2 Equiprobabilites

Definition 15 Les evenements elementaires sont dits equiprobables, si toutes les probabilites

elementaires pi sont identiques. Cette hypothese est en general emise a partir d’etudes statistiques

l’indiquant, souvent par simple soucis de bon sens, et parfois seulement grace au calculs des proba-

bilites elementaires a l’aide de calculs combinatoires (dits ”de denombrements”).

En cas d’equiprobabilite, et seulement dans ce cas, on pourra evaluer la probabilite d’un evenement

A par

P[A] =Card(A)

Card(Ω)

c’est a dire le rapport du nombre de cas favorables sur le nombre de cas possibles.

Attention 3 C’est loin d’etre le cas en general.

Exemple 7 Revenons a l’exemple de l’experience du jet d’un de a six faces, les evenements elementaires

sont notes Ai pour i = 1, . . . , 6 et l’hypothese d’equiprobabilite, emise lorsque le de n’est ni truque,

ni fausse, conduit aux memes probabilites elementaires

pi = P[Ai] = P[obtenir i] =1

6

puisque la taille de l’univers des evenements elementaires est de 6 et que chaque evenement elementaire

Ai est un singleton (i.e. un ensemble restreint a un element).

Definition 16 On dit qu’une famille d’evenements (Ai)i∈I forme une partition de l’univers lors-

qu’ils sont disjoints (Ai ∩Aj = ∅, ∀i 6= j ∈ I) et qu’ils recouvrent Ω (∪i∈IAi = Ω).

Propriete 16 L’ensemble des evenements elementaires forment une partition particuliere de l’uni-

vers Ω.

Page 17: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 17

En appliquant la regle d’additivite et l’axiome de l’evenement certain , on obtient la formule

suivante, valide pour toute ”probabilite”, i.e. lorsque les axiomes des probabilites sont verifies (Et

donc pas seulement en cas d’equiprobabilite) :

Theoreme 3 (Formule des probabilites totales (I) ) Pour toute partition (Ai)i∈I , et tout evenement

B, on a :

P[B] =∑i∈I

P[B ∩Ai]. (2.1)

Demonstration :

Comme ∪i∈IAi = Ω, on a ∪i∈I(B ∩Ai) = B et les evenements Ai ∩B et Aj ∩B sont disjoints pour

j 6= i. Par consequent, on a :

P[B] = P[∪i∈I(B ∩Ai)],

=∑i∈I

P[B ∩Ai].

J

Exemple 8 Dans le cas d’un jet de de, la partition elementaire de l’univers en

Ω = ∪6i=1i = 1 ∪ 2 ∪ 3 ∪ 4 ∪ 5 ∪ 6

donne par exemple

p1 + p2 + p3 + p4 + p5 + p6 =1

6+

1

6+ · · ·+ 1

6= 1.

Exemple 9 Un autre exemple de partition est donne par la paire A,B et les evenements A =”obtenir

un resultat pair et B=”obtenir un resultat impair”. On a en effet A ∪ B = Ω et A ∩ B = ∅, et on

peut verifier la formule des probabilites totales

P[A] + P[B] = 1

puisque P[A] = p2 + p4 + p6 = 36 = 1

2 et P[B] = p1 + p2 + p3 = 36 = 1

2 .

Cette propriete est egalement generale et permet d’obtenir que pour toute probabilite P, la

probabilite du complementaire d’un evenement A.

Propriete 17

P[A] = 1− P[A]

Demonstration :

A,A est une partition de Ω.

J

Exemple 10 – Probabilite de tirer ”au moins 2” en lancant les des.

A = X ≥ 2 = X = 2 ∪ X = 3 ∪ X = 4 ∪ X = 5 ∪ X = 6,

A = X = 1

P[A] = 1− P[A] = 1− 5

6=

5

6

Page 18: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 18

– Probabilite de tirer au moins une fois pile en lancant n fois une piece.

A = 1 fois pile ou 2 fois pile ou ... n fois pile ,

A = 0 fois pile = n fois face

P[A] = 1− P[A] = 1− 1

2n

Avec de telles proprietes, on verifie aisement qu’une probabilite possede une propriete de mo-

notonie par inclusion :

Propriete 18

A ⊂ B =⇒ P[A] ≤ P[B].

Si A est inclus dans B, on dit parfois que A implique B, et il est alors intuitif que la probabilite

de A est inferieure a celle de B (B sera toujours realise lorsque A le sera, et sa probabilite ne pourra

etre que superieure ou egale).

2.3 Independance

Une hypothese primordiale en theorie des probabilites est l’hypothese d’independance. Elle est

parfois realiste ou simplificatrice selon les experiences.

Definition 17 On dit que deux evenements A et B sont independants lorsque

P[A ∩B] = P[A] · P[B]. (2.2)

La seule maniere de prouver l’independance est de prouver cette formule d’une maniere ou d’une

autre, le plus souvent en calculant les diverses probabilites impliquees dans (2.2).

Remarque 6 Le mot independance utilise doit etre compris dans le sens ou l’obtention de l’un n’a

aucune influence sur l’obtention de l’autre. On verra ceci plus clairement avec la notion de proba-

bilites conditionnelles. Parfois, cette independance est une hypothese pour simplifier les modeles ou

pour suivre une intuition.

Exemple 11 Considerons par exemple deux jets de des successifs. Une hypothese naturelle consiste

a considerer ces evenements comme etant independants de maniere a pouvoir ecrire que pour les

evenements A : ”obtenir un six au 1er jet” et B=”obtenir un six au 2e jet”

P[A ∩B] = P[A] · P[B] =1

6· 1

6=

1

36

de sorte que, sous l’hypothese d’independance des deux jets, la probabilite d’obtenir un double six

est evaluee a 136 ≈ 0.00278, soit environ 2.78%.

On peut egalement decouvrir que deux evenements issus de la meme experience aleatoire sont

independants. Pour l’experience d’un seul jet de de, on constate pour les evenements A=”obtenir

un jet ≤ 4” et B=”obtenir un jet pair”, on a P[A] = 23 , P[B] = 1

2 ,

P[A ∩B] = P[2, 4] =1

3

Page 19: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 19

et

P[A] · P[B] =2

3· 1

2=

1

3.

Ces evenements sont donc independants, puisque l’on constate l’egalite P[A ∩ B] = P[A] · P[B],

refletant ainsi l’idee que savoir que l’on a un resultat impair n’influence pas les chances d’obtenir

un resultat inferieur ou egal a 4. Si par contre on considere C=”obtenir un jet ≤ 3”, les evenements

B et C ne sont pas independants car

P[B ∩ C] = P[2] =1

6

et

P[B] · P[C] =1

2· 1

2=

1

4.

Intuitivement, cela se justifie par un lien entre C et B : il y a moins d’elements pairs (donc ”de

B”) en dessous de 3 (donc ”dans C”) que dans l’univers.

Exemple 12 Une autre situation usuelle d’application de l’hypothese d’independance est fourni

par des tirages au sort successifs avec ou sans remise. Lorsque le tirage est effectue avec remise

du premier element tire au sort, on se retrouve dans une situation identique lors du second tirage

au sort et le resultat du premier n’influence en rien celui du second. On considere donc que deux

tirages successifs avec remise sont independants. Lorsque le tirage est au contraire effectue sans

remise, l’element tire lors du premier tirage ne peut plus etre tire lors du second, diminuant par

exemple les probabilites d’obtenir un element partageant avec lui certaines proprietes. Les resultats

des deux tirages sont lies et on considere donc que deux tirages successifs sans remise ne sont pas

independants.

2.4 Probabilites conditionnelles

Lorsque les evenements ne sont pas independants, la probabilite de l’un n’est pas la meme selon

que l’autre est realise ou non.

Exemple 13 On pourra prendre l’exemple de la pluie et du vent. Il y a plus de chances qu’il pleuve

s’il y a du vent plutot qu’en absence de vent.

Definition 18 Si P[B] 6= 0 alors on appelle probabilite conditionnelle de A sachant B :

P[A|B] =P[A ∩B]

P[B].

Attention 4 Il convient de ne pas confondre P[A|B] et P[A ∩B]

P[A|B] evalue les chances d’obtenir A lorsque l’on sait que B est realise tandis que P[A ∩ B]

evalue les chances de voir A et B de se realiser simultanement. Dans le 1er cas, on evalue les chances

de A sur une sous population, celle pour laquelle B est realisee, et on pondere la probabilite de

l’intersection en fonction de la taille de B : plus B est important, i.e. plus P[B] est grand, plus A∩Ba des chances de se realiser, ceci quelle que soit l’importance de A. En comparant la probabilite

d’avoir A ET B avec celle d’avoir B, on obtient un nombre P[A|B] entre 0 et 1 qui evalue les

Page 20: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 20

chances que A soit realise sachant que B est realise. Lorsque B est fixe, cela determine une nouvelle

probabilite

PB : P(Ω) −→ [0, 1]

A 7−→ PB [A] := P[A|B].

Il s’agit d’une probabilite car elle verifie les axiomes des probabilites. Les deux notations P[A|B]

et PB [A] sont equivalentes et seront utilisees en fonction des circonstances. En particulier, lorsqu’il

s’agit d’utiliser les axiomes des probabilites (pour par exemple utiliser l’additivite), on preferera la

notation PB .

La connaissance des probabilites conditionnelles permet d’obtenir une expression pour la pro-

babilite de l’intersection :

Propriete 19 Pour tous evenements A et B on a :

P[A ∩B] = P[A|B]P[B]

= P[B|A]P[A].

Exemple 14 – En lancant un de, la probabilite de tirer 4 sachant que l’on a un nombre pair

est :

P[4|pair] =1

31/6

1/2=

2

6

– Dans un jeu de 32 carte, la probabilite de tirer un roi sachant que l’on a tirer un coeur est

de :

P[roi|coeur] =1

81/32

8/32=

1

8

Exemple 15

P[4 ET pair] = P[4] =1

6

P[4|pair]× P[pair] =1

3× 1

2=

1

6

P[pair|4]× P[4] = 1× 1

6=

1

6

Propriete 20 (Formule de Bayes) Si P[A] 6= 0, alors on a :

P[B|A] =P[A|B]P[B]

P[A]. (2.3)

Exemple 16 On consiere la population d’un pays. Cette population est composee de 47% d’hommes

et de 53% de femmes. Parmi les femmes, 40% sont blondes. Parmi les hommes, 30% sont blonds.

On prend une personne au hasard. Quelle est la probabilite des evenements suivants :

Page 21: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 21

1. Quelle est la probabilite que ce soit une femme ?

2. Quelle est la probabilite que ce soit un homme ?

3. Quelle est la probabilite que ce soit une femme blonde ?

4. Quelle est la probabilite que ce soit un homme blond ?

5. Quelle est la probabilite que ce soit une femme, sachant que cette personne est blonde ?

6. Quelle est la probabilite que ce soit une blonde, sachant que cette personne est une femme ?

Pour resoudre ce probleme, on peut utiliser un schema ou un tableau. Commencons en utilisant

un schema, et en considerant un ensemble de 10 000 personnes. Sur ces 10000 personnes, il ya 5

300 femmes et 4 700 hommes. Sur les 4 700 hommes, 30% sont blonds, soit 1410 hommes blonds.

Sur les 5 300 femmes, 40% sont blondes, soit 2120 femmes blondes. On a donc le schema suivant :

On retrouve ces resultats par un tableau :

homme femme

blond 0, 47× 0, 3 = 0, 141 0, 53× 0, 4 = 0, 212 0,353

pas blond 0, 47× 0, 7 = 0, 329 0, 53× 0, 6 = 0, 318 0,647

0,47 0,53 1

On peut maintenant repondre aux questions :

1. Quelle est la probabilite que ce soit une femme ?

Il y a 53% de femmes, soit une probabilite de 0,53.

2. Quelle est la probabilite que ce soit un homme ?

Il y a 47% d’hommes, soit une probabilite de 0,47.

3. Quelle est la probabilite que ce soit une femme blonde ?

Il y a 2120 femmes blondes sur 10 000 personnes, soit une probabilite de 0,212.

4. Quelle est la probabilite que ce soit un homme blond ?

Il y a 1 410 hommes blonds sur 10 000 personnes, soit une probabilite de 0,141.

5. Quelle est la probabilite que ce soit une femme, sachant que cette personne est blonde ?

Il y a 2 120 femmes blondes sur 3 530 personnes blondes, soit une probabilite de 21203530 ∼ 0, 6.

On pouvait aussi le calculer en utilisant la formule :

P[femme/blonde] =P[femme ∩ blonde]

P[blond]=

0, 212

0, 3530∼ 0, 6 (2.4)

Page 22: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 22

6. Quelle est la probabilite que ce soit une blonde, sachant que cette personne est une femme ?

Il y a 2 120 femmes blondes sur 5 300 femmes, soit une probabilite de 21205300 = 0, 4.

On pouvait aussi le calculer en utilisant la formule :

P[femme/blonde] =P[femme ∩ blonde]

P[femme]=

0, 212

0, 53∼ 0, 4 (2.5)

On retrouve bien les 40% de l’enonce.

Les probabilites conditionnelles permettent egalement d’obtenir une seconde forme de la formule

des probabilites totales :

Theoreme 4 (Formule des probabilites totales (I) ) Pour toute partition (Ai)i∈I , et tout evenement

B, on a :

P[B] =∑i∈I

P[B ∩Ai]. (2.6)

Propriete 21 (Formule des probabilites totales (II)) Pour toute partition (Ai)i∈I , et tout

evenement B, on a :

P[B] =∑i∈I

P[B|Ai]P[Ai]. (2.7)

Remarque 7 En couplant la formule de Bayes et la formule des probabilites totales (II) a la par-

tition (A, A), on obtient version tres utile en pratique de la formule de Bayes suivante :

Si P[A] 6= 0, alors on a :

P[B|A] =P[A|B]P[B]

P[A|B]P[B] + P[A|B]P[B]. (2.8)

La formule de Bayes est tres importante et utile en probabilites car elle permet de tromper de

mauvaises intuitions dues a une vision trop equiprobable du monde.

Remarque 8 On peut voir qu’il s’agit de comprendre la formule de Bayes comme une moyenne

ponderee et que nos intuitions sont souvent mises a mal lorsque l’un des evenement du condition-

nement (B ou A) est relativement rare.

Exemple 17 On estime qu’une personne ayant correctement revise ses cours pour cet examen a

une probabilite de 20% d’echouer a l’examen. En revanche, on estime qu’une personne n’ayant pas

revise ses cours a une probabilite de 60% d’echouer a cet examen.

On sait aussi que 50% des personnes ont correctement revise leurs cours et 50% n’ont pas correc-

tement revise leurs cours.

Une personne passe deux fois de suite cet examen et echoue par deux fois mais affirme pourtant

avoir parfaitement reviser. Est-ce plausible ?

Appelons E l’evenement ”echouer 2 fois” , A l’evenement ”la personne a revise ses cours ”.

La probabilite de ”E sachant A” est P[E|A] = (0, 20)2 = 0, 04. La probabilite de ”E sachant A” est

P[E|A] = (0, 60)2 = 0, 36.

Page 23: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 2. PROBABILITES POUR UN UNIVERS DISCRET 23

A priori, on suppose que la personne qui a echoue 2 fois a l’examen a correctement revise avec une

probabilite de 0,50. On a donc P(A) = P(B) = 0, 50. La formule de Bayes donne alors :

P[A|B] =P[B|A]P[A]

P[B|A]P[A] + P[B|A]P[A]

Probabilite d’avoir reviser sachant que l’on a echoue 2 fois = 0,10. Probabilite de ne pas avoir

reviser sachant que l’on a echoue 2 fois = 0,90. Il y a donc une probabilite de 0,90 que la personne

n’a pas revise. Ce qu’elle dit est peu plausible !

Page 24: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 3

Variable aleatoire discrete

3.1 Variable aleatoire

3.1.1 Definition generale

Definition 19 On appelle variable aleatoire le resultat d’une epreuve aleatoire lorsque l’issue

de celle-ci peut etre representee par un nombre.

Une variable aleatoire est generalement designee par une lettre majuscule X,Y, etc. et peut

egalement etre definie en tant qu’application depuis l’univers Ω dans R

X : Ω −→ R

ω 7−→ X(ω)

en considerant ω ∈ Ω comme une realisation particuliere de l’epreuve en question. L’ensemble des

valeurs numeriques prises par X est pour cette raison note X(Ω), puisqu’il s’agit de l’image de Ω

par X.

3.1.2 Variables aleatoires discretes

Definition 20 On appelle variable aleatoire discrete une variable aleatoire qui ne prend que

des valeurs ponctuelles (”isolees”).

Exemple 18 – Resultat d’un jet de de. Le resultat X est une variable aleatoire

X : Ω 3 ω 7−→ X(ω)

a valeur dans X(Ω) = 1, 2, 3, 4, 5, 6– Lancer de 2 pieces de monnaies identiques dont l’issue est P (pour pile) et F (pour face).

L’univers

Ω = PP, PF, FP, FF

n’est pas compose de grandeur numeriques mais on peut par exemple s’interesser au nombre

de fois ou face (F) est apparu, definissant ainsi une variable aleatoire X : Ω −→ 0, 1, 2 ⊂ Rdefinie par le tableau

24

Page 25: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 25

Ω PP PF FP FF

X 0 1 1 2

Cette application ne prenant qu’un nombre fini de valeurs, la variable aleatoire X est discrete

avec X(Ω) = 0, 1, 2.

Les evenements X = xi (xi etant une valeur possible de X), engendres par les differentes va-

leurs prises par une variable aleatoire constituent les evenements elementaires de X. Les evenements

elementaires de l’exemple precedent seront ainsi notes X = 0 (”Aucun face n’a ete tire”), X = 1(”Un face a ete tire”) et X = 2 (”Deux faces ont ete tires”).

On definit donc naturellement des variables aleatoires en associant un nombre a chaque evenement

elementaire. Comme on le verra, l’etude systematique des variables aleatoires fournit un cadre

theorique d’etude des phenomenes aleatoires.

3.1.3 Variables aleatoires continues

Definition 21 On appelle variable aleatoire continue une variable aleatoire dont l’ensemble

des valeurs est R ou une reunion d’intervalles de R.

Exemple 19 – Duree de vie d’une ampoule electrique : Bien que n’etant pas eternelle, on

considere souvent qu’une ampoule electrique peut avoir n’importe quelle duree de vie et qu’elle

peut tomber en panne ou ne pas tomber en panne a tout moment. Aucune duree n’est exclue et

la variable X qui la represente est une variable aleatoire continue dont l’ensemble des valeurs

est R+ = [0,+∞[. D’une maniere plus realiste, les ampoules ont une duree de vie maximale

D et X est une variable aleatoire continue a valeurs dans l’intervalle X(Ω) = [0, D], mais la

duree maximale etant souvent inconnue, on considere generalement X(Ω) = R∗+.

– Etude de la taille dans une population donnee : Si on considere sur une population de taille

N dont on note ti la taille de chaque individu i (i = 1, . . . , N), la variable X qui denote la

taille d’un individu de la population pris au hasard, l’ensemble des valeurs prises par X est

l’ensemble discret X(Ω) = t1, t2, . . . , tN. Neanmoins, la taille d’un individu pouvant a priori

prendre toute valeur reelle positive, on considere pour etudier des populations en general que

X peut egalement prendre toutes les valeurs reelles et est donc une variable continue a valeurs

dans R+ (ou dans un sous-intervalle si on veut considerer une taille maximale).

Dans la suite de ce chapitre, on ne considerera que des variables aleatoires discretes.

3.2 Loi d’une variable aleatoire discrete

3.2.1 Definition

Definition 22 La loi d’une variable aleatoire discrete X est une probabilite PX definie sur

ses evenements elementaires par l’application

PX : X(Ω) −→ [0, 1]

x 7−→ PX(x) := P[X = x].

Page 26: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 26

On note invariablement P[X = x],P[X = x],PX(x) ou p(x) la probabilite que X prenne

la valeur x. On verifie aisement que cette application est bien une probabilite dont l’univers est

l’ensemble X(Ω) des valeurs prises par X.

Exemple 20 Si on reprend l’exemple d’un de a six faces equilibrees, et que X represente le resultat

d’un jet, on a X(Ω) = 1, 2, 3, 4, 5, 6 et directement

PX [X(Ω)] = PX [1, 2, 3, 4, 5, 6] = P[X ∈ 1, 2, 3, 4, 5, 6] = 1.

De meme, l’axiome de l’evenement impossible (PX [∅] = 0) et de l’additivite pour des evenements

disjoints sont verifies. Donner la loi d’une variable aleatoire revient alors a donner les probabilites

des evenements elementaires qu’elle induit, et on presente souvent ces donnees sous forme d’un

tableau, en notant d’une maniere generale X(Ω) = (xi)i=1,...,N = (x1, x2, . . . , xN ) pour une variable

aleatoires a N valeurs possibles (qui ne sont pas forcement 1, 2, . . . , N),

X x1 x2 . . . xN

PX p1 p2 . . . pN

ou l’on note respectivement p1 = PX(1) = P[X = 1], p2 = PX(2) = P[X = 2], . . . , pN = PX(N) =

P[X = N ]. Ce tableau peut se representer graphiquement par un diagramme en batons.

Exemple 21 Ω = PP, FP, PF, FF, X = nombre de ”Face”

x 0 1 2

PX(x) 1/4 1/2 1/4

3.2.2 Fonction de repartition

Definition 23 Une loi de probabilite est souvent definie a partir de sa fonction de repartition

F :

F : R −→ [0, 1]

x 7−→ F (x) = P[X ≤ x]

parfois egalement appelee fonction cumulative car on cumule les probabilites de toutes les valeurs

inferieures ou egales a x.

Page 27: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 27

Dans le cas discret, il suffit d’additionner les probabilites elementaires :

F (xi) = P[X ≤ xi] = P[X = x1] + · · ·+ P[X = xi] = p1 + p2 + · · ·+ pi.

Propriete 22 Si X est une variable aleatoire discrete de fonction de repartition F , alors on a les

proprietes suivantes :

– F est une fonction en escalier avec limx→−∞ F (x) = 0 et limx→+∞ F (x) = 1.

– F est une fonction croissante.

– Pour tous a, b ∈ R et a < b,

F (b)− F (a) = P[a < X ≤ b].

La croissance se deduit de ce dernier point puisque si a < b, F (b)−F (a) = P[a < X ≤ b] ∈ [0, 1]

est en particulier positif.

Exemple 22 Dans l’exemple du nombre de ”Face” en 2 lancers, on obtient la courbe en escalier

suivante :

3.3 Parametres d’une loi

3.3.1 Esperance mathematique

Definition 24 L’esperance mathematique E[X] d’une variable aleatoire X joue le role devolu

a la moyenne en statistiques : elle correspond a la valeur moyenne esperee par un observateur lors

d’une realisation de la variable aleatoire X. Les valeurs prises par cette variable sont ponderees par

les probabilites des evenements elementaires de sorte que l’on definit

E[X] =

N∑i=1

pi · xi =

N∑i=1

xi · P[X = xi]

lorsque X peut prendre N valeurs differentes x1, . . . , xN avec comme probabilites elementaires

pi = P[X = xi].

Page 28: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 28

Exemple 23 Lors du lancer de 2 pieces, le nombre de ”face” moyen ou espere correspond a

l’esperance mathematique de la variable aleatoire X deja introduite, donnee par

E[X] =1

4· 0 +

1

2· 1 +

1

4· 2 = 1

Propriete 23 Si X est une variable aleatoire discrete et f une fonction a valeurs reelles definie

sur X(Ω), alors Y = f(X) est aussi une variable aleatoire definie sur le meme espace de probabilite

Ω. Connaissant la loi de X, on peut alors determiner la loi de Y .

Exemple 24 Par exemple, si Y = X2, on a PY (y) = P[Y = y] = 0 pour y < 0, et pour y ≥ 0,

PY (y) = P[Y = y] = P[|X| = √y]

= P[X =√y ∪ X = −√y]

= P[X =√y] + P[X = −√y]

= PX(√y) + PX(−√y)

On peut determiner l’esperance de Y a partir de sa loi, mais egalement directement a partir de

celle de X grace a la formule

E[f(X)] =∑

x∈X(Ω)

f(x)PX(x).

Remarque 9 L’esperance E[X] n’est qu’un indicateur moyen et ne peut caracteriser la loi une

variable aleatoire a lui tout seul.

3.3.2 Variance

Pour decrire plus precisement le comportement deX, sans pour autant caracteriser completement

la loi de X, on peut s’interesser aux ecarts de X par rapport a cette moyenne. Cependant, si on

considere simplement la difference X − E[X], on obtient un ecart moyen E[X − E[X]] = 0 (par

linearite de l’esperance, voir 3.3). On pourrait considerer la valeur moyenne de |X −E[X]| mais on

prefere considerer la moyen de (X − E[X])2, plus pertinente mathematiquement.

Definition 25 La variance mesure ainsi la deviation moyenne autour de la moyenne esperee

E[X], et est definie par

V[X] = E[(X − E[X]

)2]=

N∑i=1

pi ·(xi − E[X]

)2.

Propriete 24 (formule de Koenig) Elle est toujours positive puisqu’il s’agit de l’esperance d’un

carre.

On a l’expression suivante :

V[X] = E[X2]− (E[X])2. (3.1)

Definition 26 Pour mesurer la dispersion d’une variable aleatoire X, on considere souvent en

statistiques l’ecart-type, lie a la variance par :

σX =√V(X). (3.2)

Page 29: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 29

Exemple 25 Lorsque X est le nombre de face obtenu lors du lancer de 2 pieces equilibrees, la

variance est

V[X] =1

4· (0− 1)2 +

1

2· (1− 1)2 +

1

4· (2− 1)2 =

1

2.

Le lien entre la variance et le dispersion moyenne autour de la moyenne peut etre explicite grace

a l’inegalite de Bienayme-Tchebychev (cf (3.5)).

3.3.3 Proprietes de l’esperance et de la variance

Propriete 25 (Linearite de l’esperance) Si X et Y sont deux variables aleatoires definies sur

le meme univers Ω et a, b deux reels,

E[aX + bY ] = aE[X] + bE[Y ]. (3.3)

En particulier, E[aX] = aE[X].

Propriete 26 (Non-linearite de la variance) Pour toute variable aleatoire X et a, b ∈ R

V(aX + b) = a2V[X].

Propriete 27 (Inegalite de Markov) Soit X une variable aleatoire positive d’esperance finie,

alors pour tout a > 0

P[X ≥ a] ≤ 1

aE[X]. (3.4)

Propriete 28 (Inegalite de Bienayme-Tchebychev) Soit X une variable aleatoire reelle de

variance finie, alors pour tout a > 0

P[| X − E[X] |≥ a] ≤ 1

a2V(X). (3.5)

3.4 Couple de variables aleatoires discretes

3.4.1 Definition

Definition 27 Un couple aleatoire discret est un couple (X,Y ) de variables aleatoires definies

sur le meme univers Ω et a valeurs dans

X(Ω)× Y (Ω) = (x, y) : x ∈ X(Ω), y ∈ Y (Ω).

Par la suite, on notera X = x, Y = y pour designer l’evenement elementaire X = x∩ Y =

y.

Definition 28 On appelle loi de probabilite ou loi jointe de (X,Y ), l’application PXY de

X(Ω) × Y (Ω) dans [0, 1] qui a chaque couple d’evenements elementaires (x, y) associe la proba-

bilite

PXY (x, y) = P[X = x, Y = y].

Dans la pratique, ces probabilites jointes sont donnees a l’aide d’un tableau a double entree

dont les lignes correspondent au valeurs possibles xi ∈ X(Ω) prises par X, les colonnes a celles

yi ∈ Y (Ω) prises par Y , et l’element de la ligne i et colonne j a la probabilite jointe PXY (xi, yj) :

Page 30: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 30

X | Y y1 y2 . . . yj . . . yN

x1 PXY (x1, y1) PXY (x1, y2) PXY (x1, yj) PXY (x1, yN )

x2 PXY (x2, y1) PXY (x2, y2) PXY (x2, yj) PXY (x2, yN )

. . .

xi PXY (xi, y1) PXY (xi, yj) PXY (xi, yN )

. . .

xn PXY (xn, y1) PXY (xn, yj) PXY (xn, yN )

Exemple 26 Une urne contient 3 boules numerotees 1, 2, 3. On tire successivement, sans remise

et equiprobablement deux boules de l’urne. Soit X et Y les numeros obtenus aux 1er et 2nd tirages.

Les resultats du 2nd dependent trivialement de ceux du 1er. Pour determiner la loi du couple, on

utilise les probabilites conditionnelles pour ecrire

PXY (x, y) = P[X = x, Y = y] = P[Y = y | X = x] · P[X = x].

La loi du couple est alors donnee par le tableau suivant

x | y 1 2 3

1 0 1/6 1/6

2 1/6 0 1/6

3 1/6 1/6 0

D’une maniere generale, on peut calculer l’esperance d’une fonction f des deux variables X et

Y grace a la loi du couple en ecrivant

E[f(X,Y )] =∑

(x,y)∈X(Ω)×Y (Ω)

f(x, y) · PXY (x, y).

3.4.2 Lois marginales

Il se peut que connaissant la loi du couple on ne veuille s’interesser qu’a une seule de ses

coordonnees : on parlera alors de loi marginale.

Definition 29 Soit (X,Y ) un couple aleatoire discret. On appelle loi marginale de X l’applica-

tion PX de X(Ω) dans [0, 1] definie pour tout x ∈ X(Ω) par

PX(x) = P[X = x] =∑

y∈Y (Ω)

PXY (x, y).

On definit de maniere analogue la loi marginale de Y .

Exemple 27 Dans l’exemple precedent, la loi marginale de X est ainsi obtenue en sommant les

lignes du tableau de la loi jointe, et est donnee par le tableau

x 1 2 3

PX(x) 1/3 1/3 1/3

tandis que l’on obtient la loi marginale de Y en sommant les colonnes :

y 1 2 3

PY (y) 1/3 1/3 1/3

Page 31: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 31

3.4.3 Covariance

Definition 30 Soit (X,Y ) un couple aleatoire discret. On appelle covariance de (X,Y ), notee

Cov(X,Y ), le nombre reel

Cov(X,Y) = E[(X− E(X)) · (Y − E(Y)]. (3.6)

On peut egalement la calculer a l’aide d’une formule de type Koenig :

Cov(X,Y) = E[XY]− E[X] · E[Y].

Elle permet de quantifier un lien entre les 2 variables marginales X et Y via le coefficient de

correlation ρXY donne lorsque σX et σY sont non nulles par :

ρXY =Cov(X,Y)

σXσY. (3.7)

Ce coefficient de correlation est tres utile pour determiner le lien entre deux caracteres en

statistiques descriptives.

3.4.4 Independance

Les lois marginales se calculent simplement a partir de la loi du couple. Par contre, il est en

general impossible de calculer la loi du couple a partir de ses lois marginales. Le cas simple de

variables aleatoires reelles independantes permet cependant de retrouver la loi du couple mais c’est

loin d’etre le cas en general.

Definition 31 Soit (X,Y ) un couple aleatoire discret. On dit que les variables aleatoires X et Y

sont independantes lorsque tous leurs evenements elementaires le sont deux a deux, i.e.

∀(x, y) ∈ X(Ω)× Y (Ω), PXY (x, y) = PX(x) · PY (y).

Dans ce cas, les variables sont egalement non correlees, c’est a dire que ρXY = Cov(X,Y ) = 0.

La reciproque est fausse en general.

Propriete 29 Si X et Y sont deux variables aleatoires independantes, alors

E[XY ] = E[X] · E[Y ],

V[X + Y ] = V[X] + V[Y ] = V[X − Y ].

La reciproque est fausse : deux variables aleatoires verifiant une des relatione precedentes,

peuvent ne pas etre independantes. (exo : fabriquer un contre ex)

3.4.5 Lois conditionnelles

Definition 32 Soit (X,Y ) un couple aleatoire discret. On appelle loi conditionnelle de X sa-

chant Y , l’application pX|Y de X(Ω) dans [0, 1] definie pour tout (x, y) ∈ X(Ω)× Y (Ω) par

pX|Y [x | y] = P[X = x | Y = y] =PXY (x, y)

PY (y).

On definit de maniere analogue la loi conditionnelle de Y sachant X.

Page 32: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 32

Exemple 28 Dans l’exemple precedent, la loi conditionnelle de Y sachant que le chiffre 1 a ete

tire au premier tirage est donnee par le tableau suivant :

y 1 2 3

PY |X [y | 1] 0 1/2 1/2

On peut egalement calculer la loi du couple (la loi jointe) a partir des lois conditionnelles en

toutes circonstances, et en particulier qu’il y ait independance ou non, grace au theoreme suivant.

Theoreme 5 Soit (X,Y ) un couple aleatoire discret. La formule des probabilites composees permet

d’ecrire

PXY (x, y) = PX(x) · PY |X(y | x) si PX(x) 6= 0

PXY (x, y) = PX(y) · PX|Y (x | y) si PX(y) 6= 0

0 sinon.

En particulier, lorsque X et Y sont independantes, les probabilites conditionnelles se confondent

avec les lois jointes : PX|Y (x | y) = PX(x) et PY |X(y | x) = PY (y).

3.5 Lois discretes usuelles

On considere une variable aleatoire discrete X sur un univers quelconque Ω. Lorsque X prend n

valeurs, l’ensembleX(Ω) des valeurs prises parX est designe par (xi)i=1...n, i.e. (x1, x2, . . . , xi, . . . , xn),

, et (xi)i∈N lorsque X en prend une infinite. Le comportement aleatoire de X peut etre tres different

selon les phenomenes etudies, et toute forme de loi est a priori envisageable. Cependant, certains

parametres objectifs de caracterisation (moyenne, dispersion, etc.) permettent de degager des com-

portements recurrents et des familles de lois qui permettent une modelisation approchee raisonnable

de la plupart des phenomenes aletoires courants. Nous decrivons ici les lois discretes les plus im-

portantes, a travers certains exemples de modelisations.

3.5.1 Loi uniforme sur 1, . . . , n

Elle modelise des situations d’equiprobabilite.

Definition 33 On dit qu’une variable aleatoire X suit une loi uniforme discrete lorsqu’elle

prend ses valeurs dans 1, . . . , n avec des probabilites elementaires identiques. Puisque la somme

des ces dernieres doit valoir 1, on en deduit qu’elles doivent toutes etre egales a un 1/n :

∀k = 1 . . . n, P[X = k] =1

n.

On note egalement ces probabilites pk, p(k) ou PX(k). Ces probabilites elementaires sont en parti-

culier independantes de la modalite k.

Propriete 30 (Esperance et variance) On calcule aisement

E[X] =n+ 1

2,

V[X] =n2 − 1

12.

Page 33: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 33

Demonstration :

E[X] = 1.1

n+ 2.

1

n+ 3.

1

n+ · · ·+ +n.

1

n,

=1

n.

n∑k=1

k,

=1

n.n(n+ 1)

2,

=n+ 1

2.

∑nk=1 k = n(n+1)

2 est la somme des premiers termes d’une suite arithmetique de raison 1 de

premier terme 1.

E[X2] = 12.1

n+ 22.

1

n+ 32.

1

n+ · · ·+ +n2.

1

n,

=1

n.

n∑k=1

k2,

=1

n.n(n+ 1)(2n+ 1)

6,

=(n+ 1)(2n+ 1)

6.

∑nk=1 k

2 = n(n+1)(2n+1)6 est un resultat classique qui se demontre par recurrence.

V[X] = E[X2]− (E[X])2,

=(n+ 1)(2n+ 1)

6− (n+ 1)2

4,

= (n+ 1)

[2n+ 1

6− n+ 1

4

],

= (n+ 1)

[4n+ 2− 3n− 3

12

],

= (n+ 1)n− 1

12,

=n2 − 1

12.

J

Exemple 29 X = resultat d’un jet de de a six faces non-pipe.

Les n = 6 modalites possibles, x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6, ont toutes pour

probabilite elementaire 1/6 :

∀k = 1 . . . 6, PX(k) = P[X = k] =1

6

et on peut calculer E[X] = 72 ; V[X] = 35

12 .

Page 34: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 34

3.5.2 Loi de Bernoulli

Definition 34 Cette loi est celle de toute variable aleatoire X modelisant une experience dont

l’issue ne possede que deux alternatives de type ”succes ou echec”, ”vrai ou faux”, ”marche ou

arret”, pile ou face”, etc. Un succes est represente par l’evenement X = 1 tandis que X = 0

correspond a un echec X(Ω) = 0; 1. Puisque l’on a P[X = 0] = 1 − P[X = 1], la loi de X

ne depend que d’un parametre (la probabilite de succes) ; on parle alors de la loi de Bernoulli de

parametre p caracterisee par

P[X = 1] = p,

P[X = 0] = 1− p.

Propriete 31 (Esperance et variance)

E[X] = p,

V[X] = p(1− p).

3.5.3 Loi binomiale B(n, p)

Definition 35 La loi binomiale est la loi de probabilite d’une variable aleatoire representant une

serie d’epreuves de Bernoulli possedant les proprietes suivantes :

– Chaque epreuve donne lieu a deux eventualites exclusives de probabilites constantes p et q =

1− p.

– Les epreuves repetees sont independantes les unes des autres.

– La variable aleatoire X correspondante prend pour valeur le nombre de succes dans une suite

de n epreuves.

Deux parametres, le nombre d’epreuves (identiques mais independantes) repetees n et la pro-

babilite p de succes dans lepreuve de Bernoulli en question caracterisent cette loi. Lors d’une telle

experience, on dit que X suit une binomiale B(n, p), a valeurs dans X(Ω) = 1, 2, . . . , n.

Exemple 30 Le nombre X de ”Pile” obtenus au cours de n lancers independants d’une piece

equilibree est une variable aleatoire discrete, a valeurs dans 0, 1 et suivant une loi binomiale

B(n, p) avec p = 12 , puisque la probabilite de succes est celle d’obtenir un pile, i.e. 1

2 .

Theoreme 6 On a par ailleurs

X = X1 + · · ·+Xk + · · ·+Xn

ou les Xk sont des variables aleatoires de Bernoulli independantes de parametre p, correspondant

au succes d’une seule epreuve de pile ou face.

Exemple 31 Le nombre de boules rouges extraites au cours de n tirages successifs avec remise

(pour assurer l’independance) d’une boule dans une urne contenant des boules rouges et blanches

dans des proportions p et q = 1− p est une variable aleatoire suivant une loi binomiale B(n, p).

Page 35: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 35

Pour determiner les probabilites des evenements elementaires d’une variable aleatoire suivant

une loi binomiale, il nous faut tout d’abord determiner le nombre de possibilites d’obtenir k succes

au cours de n epreuves. Il s’agit de determiner le nombre de combinaisons (non ordonnees) de k

objets pris parmi n, avec bien sur k ≤ n. Les combinaisons sont non ordonnees car seul importe

d’avoir k objets (succes pour nous) et non pas a quel(s) tirage(s) ces succes ont eu lieu. On connaıt

le nombre de possibilites de k succes et n echec, (Ckn) il suffit de les multiplier par les probabilites

de succes et d’echec pour obtenir la loi binomiale. On a donc :

Propriete 32 Les probabilites elementaires d’une variable aleatoire X suivant une loi binomiale

B(n, p) sont donnees pour tout nombre de succes k = 1 . . . n par :

P[X = k] = Ckn · pk · (1− p)n−k.

Remarque 10 On a bien, en utilisant la formule du binome,

n∑k=0

P[X = k] =

n∑k=0

Ckn · pk · (1− p)n−k

= 1

Propriete 33 (Esperance et variance)

E[X] = np,

V[X] = np(1− p).

Demonstration :

On a l’ecriture X = X1 +X2 + · · ·+Xk+ · · ·+Xn, ou les Xk sont n variables aleatoires de Bernoulli

independantes. On a en effet par linearite de l’esperance

E[X] = E[X1] + E[X2] + · · ·+ E[Xk] + · · ·+ E[Xn] = n · E[X1] = n · p

et par independance des variables aleatoires (Xk)k=1...n

V[X] = V[X1] + V[X2] + · · ·+ V[Xk] + · · ·+ V[Xn] = n · V[X1] = n · p · (1− p)

J

Exemple 32 1. Un atelier comporte 10 machines identiques. Chaque machine a une probabilite

p = 0.01 de tomber en panne a un moment dans la journee. Lorsque l’on suppose que les

machines tombent en panne de maniere independantes, la variable aleatoire X designant le

nombre de machines en panne a un moment donne dans la journee suit une loi B(10, 0.01).

Le nombre moyen de pannes par jour est donc E[X] = 10 · 0.01 = 0.1, la variance etant

V[X] = 10 · 0.01 · 0.99 = 0.099.

2. Une machine qui a une probabilite p = 0.01 de tomber en panne dans la journee est amenee a

fonctionner pendant 20 jours consecutifs. Alors, en supposant l’independance des pannes, i.e.

si l’on considere qu’apres chaque panne la machine est restauree a l’identique, X suit une loi

B(20, 0.01).

Page 36: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 36

3.5.4 Loi de Poisson

Lorsque le nombre d’epreuves n devient tres important, la manipulation de la loi binomiale

devient elle tres fastidieuse et est parfois remplacee en premiere approximation par son homologue

asymptotique, la loi de Poisson (theoreme 7). Celle-ci evalue le nombre aleatoire d’evenements de

meme probabilite pendant une duree donnee. Elle peut modeliser par exemple le nombre d’appels

recus par un standard telephonique, le nombre de voyageurs se presentant a un guichet dans la

journee, etc. Pour des raisons tues ici, elle s’exprime a l’aide de la fonction exponentielle et depend

d’un parametre λ > 0, qui correspond au nombre moyen d’occurence du phenomene observe pendant

la duree donnee. Plus formellement :

Definition 36 Une variable aleatoire X suit une loi de Poisson de parametre λ > 0, notee

P(λ) lorsque X(Ω) = N et pour tout k ∈ N

PX(k) = P[X = k] = e−λλk

k!

Propriete 34

P[X = k + 1] =λ

k + 1P[X = k]

On admettra que :

Propriete 35 (Esperance et variance)

E[X] = λ,

V[X] = λ.

Exemple 33 Si on sait qu’en general un standard telephonique recoit 20 appels dans la journee

et que l’on peut modeliser le nombre aleatoire d’appels par une loi de Poisson, on pourra calculer

la probabilite d’avoir k appels, pour tout k, a l’aide des formules donnees par une loi de Poisson

P(20).

Remarque 11 Dans la pratique, des tables donnant les probabilites elementaires pour differentes

valeurs du parametre sont disponibles et utilisees.

Propriete 36 Si X1 et X2 sont deux variables aleatoires independentes suivant respectivement des

lois de Poisson P(λ1) et P(λ2), alors X = X1 +X2 suit une loi de Poisson P(λ1 + λ2)

Demonstration :

P[X1 = k1] = e−λ1λk11

k1!

P[X2 = k2] = e−λ2λk22

k2!

Page 37: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 37

P[X1 +X2 = k] =

k∑i=0

P[X1 = i ∩ X2 = k − i]

=

k∑i=0

P[X1 = i]P[X2 = k − i]

=

k∑i=0

e−λ1λi1i!e−λ2

λk−i2

(k − i)!

= e−(λ1+λ2)k∑i=0

λi1i!

λk−i2

(k − i)!

= e−(λ1+λ2) 1

k!

k∑i=0

k!

i!(k − i)!λi1λ

k−i2

= e−(λ1+λ2) 1

k!

k∑i=0

Cinλi1λk−i2

= e−(λ1+λ2) (λ1 + λ2)k

k!

J

3.6 Approximation d’une loi de Poisson par une Binomiale

La loi de Poisson est souvent utilisee comme approximation de certaines lois binomiales pour

de grands echantillons, i.e. des lois binomiales correspondant a des grands nombres n d’epreuves

de Bernoulli. Il y a bien sur quelques restrictions dont nous tairons ici les justifications theoriques,

et le parametre de la loi approximante doit etre choisi de sorte que l’esperance soit celle de la loi

binomiale approximee.

Definition 37 On dit qu’une suite de variables aleatoires (Xn : n ∈ N) convergence en loi vers

la variable aleatoire X si et seulement si on a, pour tout evenement A :

P[Xn ∈ A] →n→∞

P[X ∈ A]

On notera XnL−→

n→∞X.

Remarque 12 Si les variables (Xn : n ∈ N) et X sont discretes alors il suffit que pour tout x ∈ R,

P[Xn = x] →n→∞

P[X = x]

Theoreme 7 Soient Xn ∼ B(n, p), Y ∼ P(µ). Alors on a :

XnL−→

n→∞, p→0, np=µY

Preuve : exercice ! ! ! (rappel limn(1 + xn )n = ex.)

Exemple 34

Conparaison des fonctions de repartitions d’une loi B(100, 0.1) et de celle d’une loi P(10).

Page 38: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 38

Remarque 13 Dans la pratique, on considere que l’approximation est bonne lorsque

n ≥ 30, p ≤ 0.1 et n · p < 15

Exemple 35 (Utilisation du theoreme de convergence en loi) Considerons X ∼ B(100, 0.1)

et Y ∼ P(10). Nous sommes sous les hypotheses du theoreme 7 (n = 100 ≥ 30, p = 0.1,

n · p = 10 < 15). Ce theoreme nous assure que :

P[X = 5]∼= P[Y = 5]

Le premier terme de l’egalite est :

P[X = 5] = C51000.1950.95

= 0, 034

Le resultat a ete trouve par informatique la plupart des calculatrices etant incapable de le calculer

contrairement a l’autre terme :

P[Y = 5] =105

5!exp(−10)

= 0, 037

Exemple 36

Conparaison des fonctions de repartitions d’une loi B(100, 0.5) et de celle d’une loi P(50).

Page 39: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 39

Remarque 14 Il existe d’autres resultats de convergence en loi notamment le theoreme de la limite

centrale 9 page 46.

Page 40: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 4

Variables aleatoires continues, loi

normale

4.1 Loi d’une variable aleatoire continue

4.1.1 Definitions

Definition 38 On appelle variable aleatoire continue une variable aleatoire dont l’ensemble

des valeurs est R ou une reunion d’intervalles de R.

4.1.2 Problematique de la notion de loi dans le cas continu

Sa loi, c’est a dire la description des valeurs probables de X (avec quantification de ces probabi-

lites) est plus brievement qualifiee de loi continue. La description d’une loi continue differe de celles

des lois discretes puisque pour une variable aleatoire continue X, la probabilite que X prenne une

valeur bien precise x PX(x) = P[X = x] est nulle. Il y a en effet une infinite de valeurs dans R ou

dans un intervalle, et au regard de toutes ces valeurs precises, le poids de la valeur particuliere est

tellement insignifiant qu’il en est nul ! Il n’est ainsi pas possible de definir la loi de X par la donnee

des probabilites des evenements elementaires. Par contre, il est possible de deduire les probabilites

que X prenne ses valeurs dans une partie de R a partir de la fonction de repartition qui vaut dans

ce cas continu

F (x) = P[X ≤ x] = P[X < x].

4.1.3 Fonction de repartition et loi a densite

On considere une variable aleatoire X de fonction de repartition FX

F (x) = P[X ≤ x].

Propriete 37 On a les proprietes suivantes :

– F est une continue,

– limx→−∞ F (x) = 0 et limx→+∞ F (x) = 1,

– F est une fonction croissante,

40

Page 41: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 41

– Pour tous a, b ∈ R et a < b,

F (b)− F (a) = P[a < X ≤ b].

Le defaut de la fonction de repartition (que ne possede pas la notion de loi des variables aleatoires

discretes) est qu’elle ne fait pas apparaıtre l’additivite des probabilites. Fort du parallele que l’on

peut faire entre probabilites et surfaces, il est tres avantageux de restreindre l’etude a une classe de

variables aleatoires dites a densite.

Definition 39 Une variable aleatoire possede une densite si Fx est derivable. La derivee notee

fX est appelee densite de probabilite de la variable aleatoire X.

Propriete 38 De ce fait,

P[a ≤ X ≤ b] =

∫ b

a

fX(t)dt,

et la probabilite de trouver X dans un intervalle [a, b] donne apparaıt comme l’aire d’une partie du

graphique situee entre la courbe de la densite fX et l’axe des abscisses.

Remarque 15 Dans les applications, il n’est pas necessaire de calculer ces aires a l’aide de calculs

car des tables de lois recapitulant les valeurs principales existent.

Propriete 39 La donnee d’une densite f permet donc de decrire completement notre variable

aleatoire en caracterisant sa loi grace aux proprietes suivantes :

– ∀x ∈ R, f(x) ≥ 0.

– ∫ +∞

−∞f(x)dx = 1.

P[a < X ≤ b] = F (b)− F (a) =

∫ b

a

f(x)dx.

4.2 Lois a densite classiques

4.2.1 Loi uniforme

Cette loi modelise un phenomene uniforme sur un intervalle donne.

Definition 40 La v.a. X suit une loi uniforme sur l’intervalle borne [a; b] si elle a une densite f

constante sur cet intervalle et nulle en dehors. Elle est notee U([a; b]). Sa densite est alors,

f(x) =

1/(b− a) si x ∈ [a; b],

0 sinon

Cette loi est l’equivalent continue de la loi discrete equirepartie. Son esperance est E[X] = (b−a)/2

et sa variance est V ar(X) = (b− a)2/12.

Le resultat suivant permet d’eviter des calculs fastidieux pour determiner la probabilite uniforme

d’un intervalle.

Propriete 40 Si X est une v.a de loi uniforme sur [a; b] alors pour tout intervalle I de R :

P(X ∈ I) =l([a; b] ∩ I)

l([a; b]),

ou l(J) designe la longueur de l’intervalle J (ex : l([a ;b])=b-a).

Page 42: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 42

4.2.2 Lois exponentielles

Definition 41 Soit α un reel strictement positif. La v.a X suit une loi exponentielle de parametre

α, notee E(α), si elle admet pour densite :

f(x) = αe−αx1[0;+∞[(x).

Son esperance est E(X) = 1/α et sa variance est var(X) = 1/α2. Les lois exponentielles sont

souvent utilisees pour modeliser des temps d’attente ou des durees de vie. Par exemple, les temps

d’attente a partir de maintenant du prochain tremblement de terre, de la prochaine panne d’un

appareil, de la prochaine desintegration dans un reacteur nucleaire suivent des lois exponentielles.

Le parametre α designe alors l’inverse du temps d’attente moyen.

4.3 La loi normale

4.3.1 Loi normale centree reduite N (0, 1)

Definition

La loi normale, ou loi normale centree reduite est la loi la plus connue des probabilites, parfois

sous le vocable loi de Laplace-Gauss et caracterisee par une celebre ”courbe en cloche”.

Definition 42 La loi normale centree reduite est une la loi continue, d’une v.a. X a valeurs

dans X(Ω) = R tout entier, definie a partir de la densite

f(x) =1√2πe−x22

Il n’existe par contre pas d’expression simple de sa fonction de repartition autre que la formule

integrale

∀a ∈ R, F (a) =

∫ a

−∞f(t)dt

Il s’agit de l’aire de la surface situee sous la courbe et a gauche de l’axe vertical x = a (Voir la

figure 4.1 page 43).

Remarque 16 Dans les pratiques, les probabilites d’evenements de v.a. suivant une loi normales

sont repertoriees dans des tables facilement manipulables.

Parametres

Un calcul integral plus elabore donne :

Propriete 41 (Esperance et variance)

E[X] = 0,

V[X] = 1.

Page 43: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 43

Figure 4.1 – A gauche : Densite de probabilite de la loi N (0, 1), a droite sa fonction de

repartition.

4.3.2 Loi normale generale N (µ, σ)

Definition

Definition 43 Il s’agit d’une modification ”spatiale” de la Loi normale : la forme en cloche de la

densite est la propriete principale de la famille des lois normales, qui peuvent eventuellement etre

translatee pour devenir assymetrique d’esperance non nulle µ, ou dilatee ou contractee autour de

la moyenne en jouant sur la variance σ2 (Voir la figure 4.2 page 44). La densite est modifiee en

f(x) =1

σ√

2πe−(x−µ)2

2σ2

L’usage d’un changement de variable t = (x−µ)σ permet de se ramener a un calcul d’integrale a

partir de la loi N (0, 1), ce qui nous permettra de consulter les tables existant pour la loi standard

precedente. On a le theoreme suivant :

Theoreme 8 Soit X une variable aleatoire de loi normale N (µ, σ) et Z la variable aleatoire definie

par

Z =X − µσ

suit une loi normale centree reduite N (0, 1).

Parametres

Le changement de variable donne aussi :

Propriete 42 (Esperance et variance)

E[X] = µ,

V[X] = σ2.

Page 44: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 44

Figure 4.2 – Densite de probabilite de la loi normale N (1; 0, 5).

Manipulation de la loi normale

Remarque 17 On notera Φ la fonction de repartition de la loi normale centree reduite N (0, 1).

On utilise les valeurs de Φ(a) tabulees et le changement de variable pour calculer les valeurs de

la fonction de repartition F d’une loi normale generale.

Exemple 37 Considerons X une v. a. qui suit une loi N (6, 2) et Z une v.a. de loi N (0, 1), on a

par exemple

FX(7) = P[X ≤ 7]

= P[X − 6

2≤ 7− 6

2

]= P

[Z ≤ 1

2

]= Φ

(1

2

)= 0.6915.

Les valeurs ne sont tabulees que pour des valeurs de a positives, mais on s’en sort a l’aide de la

propriete suivante de le fonction de repartition Φ de la loi normale :

Propriete 43 Soit Z une v.a. de loi N (0, 1) ; on a alors

Φ(−a) = 1− Φ(a)

et en particulier Φ(0) = 12 . On a par ailleurs

P[| Z |≤ a] = 2 · Φ(a)− 1

Page 45: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 45

Exemple 38 –

P[X > 1] = P[X − 6

2>

1− 6

2

]= P

[Z >

−5

2

]= Φ

(5

2

)= 0.9938.

P[4 ≤ X ≤ 8] = P[− 1 ≤ Z ≤ 1

]= P

[| Z |≤ 1

]= 2Φ(1)− 1

= 0.6826.

Remarque 18 En utilisant les techniques precedentes, on constate tout d’abord que la loi normale

N (m,σ) est une loi symetrique autour de l’axe median x = µ. On a ainsi 50% des individus au

dessus de la moyenne et 50% en dessous. C’est loin d’etre le cas en general bienque notre intuition

nous pousse souvent a le croire, participant a une intuition probabiliste erronee.

Exemple 39 Cette loi permet aussi de mieux apprehender le lien entre variance et dispersion :

dans un intervalle [m− σ,m+ σ] de longueur 2σ et centre autour de la moyenne, on peut calculer

qu’il y a 68% des individus, lorsque qu’une v.a. suit une loi N (m,σ) :

P[m− σ ≤ X ≤ m+ σ] = 0.68

On etablit aussi la regle des ”3 σ” : 95% d’un echantillon representatif d’une loi normale N (m,σ)

est approximativement situe entre m− 2σ et m+ 2σ. Plus exactement,

P[m− 1.96σ ≤ X ≤ m+ 1.96σ] = 0.95

et on a meme 99, 7% des individus entre m− 3σ et m+ 3σ :

P[m− 3σ ≤ X ≤ m+ 3σ] = 0.997

Autrement dit, lorsque l’on a une variable aleatoire qui suit une loi normale N (m,σ), on est ”pra-

tiquement sur” que la valeur se situera entre m− 3σ et m+ 3σ.

Sommes de v.a. normales independentes

Propriete 44 Soit X1 et X2 deux v.a. independentes de lois respectives N (µ1, σ1) et N (µ2, σ2).

Alors X1 + X2 suit une loi normale N (µ1 + µ2,√σ2

1 + σ22) et X1 − X2 suit une loi N (µ1 −

µ2,√σ2

1 + σ22).

4.4 La Loi normale comme limite en loi

L’importance de la Lois Normale est due a son apparition comme loi limite de nombreux

phenomenes, a travers par exemple le celebre Theoreme de la limite centrale.

Page 46: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 46

Theoreme 9 Soit X1, X2, . . . une suite de variables aleatoires definies sur le meme espace de pro-

babilite, suivant la meme loi L et independantes. Supposons que l’esperance µ et l’ecart-type σ de

L existent et soient finis (σ 6= 0).

Considerons la somme Sn = X1 + ...+Xn. Alors l’esperance de Sn est nµ et son ecart-type vaut√nσ. Alors

Zn =Sn − nµσ√n

converge vers la loi normale centree reduite N (0; 1) lorsque n tend vers l’infini.

Corollaire 2 (Theoreme de laplace) C’est notamment le cas pour une loi de bernoulli b(p) et

dans ce cas, Sn n’est autre que la loi binomiale B(n; p) qui verifie bien les hypotheses. On a :

Sn − np√npq

L−→n→∞

U

avec U ∼ N (0; 1).

Dans la pratique, on considere que l’approximation est bonne lorsque

n ≥ 30, p ≥ 0.1 et n · p > 15

Figure 4.3 – Illustration du Theoreme de la limite centrale.

Exemple 40 (Utilisation du Theoreme de la limite centrale) Considerons X ∼ B(100, 0.4)

et U ∼ N (0; 1). On cherche a evaluer

P[X ≤ 45].

Page 47: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 47

Pour ce faire, il suffit d’ecrire :

P[X ≤ 45] = P[X − 40√

100 · 0, 4 · 0, 6≤ 45− 40√

100 · 0, 4 · 0, 6]

= P[X − 40√

100 · 0, 4 · 0, 6≤ 1, 02]

il est facile de voir que les deux evenements sont identiques et donc que les deux probabilites sont

egales. Maintenant, il suffit de dire que nous sommes sous les hypotheses du theoreme 2 (n = 100 ≥30, p = 0.4, n · p = 40 > 15) et que ce dernier nous assure que :

P[X ≤ 45] = P[X − 40√

100 · 0, 4 · 0, 6≤ 1, 02]

∼= P[U ≤ 1, 02]

Par informatique on trouve (la plupart des calculatrices etant incapable de le calculer et aucun

etudiant assez courageux pour calculer les 46 termes de la somme...) :

P[X = 5] =

45∑i=0

Ci1000.4i0.6100−i

= 0, 869

Une lecture dans la table nous permet d’affirmer que :

P[U ≤ 1, 02] = 0, 849

Ce qui est une tres bonne approximation.

4.5 Lois derivees de la loi Normale

Parfois d’autres lois que la loi normale sont utiles dans les approximations (cf. les calculs d’inter-

valle de confiance, de test). Ce sont les lois de Student et du χ2 (lire khi-deux). Ces lois dependent

d’un parametre n entier, appele degre de liberte (d.d.l.). De meme que pour la loi normale N (0; 1),

on disposera de tables pour ces lois.

4.5.1 Loi du Khi-deux

Definition 44 Soient X1, ..., Xn des v.a independantes de meme loi N (0; 1). Posons χ2 =∑i=1...nX

2i ,

par definition la v.a. χ2 suit une loi du khi-deux a n degre de liberte (abreviation d.d.l.). On note

χ2(n) cette loi.

Quelques Proprietes :

- χ2 ≥ 0, cette loi n’est donc pas symetrique,

- χ2 admet une densite,

- E(χ2) = n et var(χ2) = 2n

4.5.2 Loi de Student

Definition 45 Soient X ∼ N (0; 1) et Y ∼ χ2(n). Posons T = X√Y/n

. Alors T suit une loi de

Student a n degre de liberte et on la note T (n).

Page 48: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 5

Une introduction aux Theoremes

limite en Probabilites

”En essayant continuellement, on finit par reussir. Donc plus ca rate, plus on a de chances que

ca marche.”

5.1 Loi des grands nombres

La loi des grands nombres est la formulation rigoureuse des faits intuitifs suivants : si on lance

un grand nombre de fois une piece en l’air, il y aura en moyenne 50% de piles (et donc aussi

50% de face). Precisons cette remarque. On joue n fois au pile ou face, avec proba p de tomber sur

pile. Pour 1 ≤ i ≤ n on pose Xi = 1pile, alors :∑i=1..nXi

n=nb de piles

n.

Et il semble assez naturel que lorsque n est grand le rapport nb de piles/n tende vers la proba de

tomber sur pile, c’est a dire precisement p = E(X1). Ainsi dans ce cas particulier, il semble que

lorsque n grand, ∑i=1..nXi

n→ E(X1).

De meme, si on lance un grand nombre de fois un de a 6 faces en l’air, il y aura en moyenne

1/6 eme des faces qui seront, par exemple, des 4 (si la piece et le de sont equilibres). Il existe

deux versions de la LGN qui correspondent a deux modes de convergence : la faible ou on enonce

la convergence en ”probabilite”’ et la forte avec la convergence ”presque sure.” (cf. paragraphes

suivant pour definition de ces modes de convergence)

5.1.1 Un premier pas : Loi faible des grands nombres

Theoreme 10 Soit (Xn)n∈N? une suite de v.a. reelles deux a deux independantes et de meme loi

tel que E(X21 ) <∞. Alors,

∀ε > 0 limn

P( | 1n

∑i=1..n

Xi − E(X1)| > ε ) = 0

48

Page 49: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 49

Ce type de convergence s’appelle la convergence en probabilite. Autrement dit, la moyenne arithmetique

de X1, ..., Xn converge en probabilite vers l’esperance de X1. Ce resultat peut etre ”facilement”

prouve a l’aide de l’inegalite de l’inegalite de Bienayme Tchebychev (cf. feuille d’exos), ce qui

donne une esquisse d’intuition de la veracite de ces proprietes, aux plus motives d’entre vous.

5.1.2 Loi forte des grands nombres

Il existe une version de la loi des grands nombres pour la convergence presque sure, on parle de

la loi forte (car la convergence presque sure est plus forte que celle en probabilite.)

Theoreme 11 Soit (Xn)n∈N? une suite de v.a. reelles deux a deux independantes et de meme loi

tel que E(|X1|) <∞. Alors,

pour presque tout ω, limn

1

n

∑i=1..n

Xi = E(X1).

On parle de convergence presque sure (p.s en abrege). Cela signifie que pour presque chaque

realisation ω, la quantite moyenne arithmetique des Xi converge vers E(X1). Attention, la ”vi-

tesse” de convergence depend du ω. On admet ce Theoreme (LGN) fondamental dont les preuves

sont beaucoup plus complexes que celles de sa version faible.

Exemple 41 Appliquer la loi des grands nombres au jeu du pile ou face. Pour i = 1..n, posez

Xi = 1pile.

Exemple 42 Application : estimation d’une proportion inconnue. On se propose d’estimer le pa-

rametre p inconnu d’une loi de Bernoulli en observant un grand nombre de fois un phenomene

aleatoire de loi de Bernoulli(p), c’est a dire en observant les valeurs d’une suite de v.a. Xi

independantes et de loi de Bernoulli(p). Considerons une urne comportant des boules rouges en

proportion inconnue p et des boules vertes (en proportion 1−p). D’apres la LGN, un grand nombre

de tirages de boules dans l’urne donnera une estimation de la proportion p en comptant (la frequence

du) nombre de boules rouges ainsi tirees.

Seulement, quel est le nombre raisonnable de boules a tirer pour avoir une reponse assez precise ?

Pour repondre a cette question, on peut fabriquer un intervalle dans lequel on est certain que le

parametre p se trouve avec une certaine probabilite. On appelle un tel intervalle, un intervalle de

confiance. L’inegalite de Bienayme Tchebychev (cf. feuille d’exos) permet de donner un intervalle

(exo). [ le paragraphe suivant (avec le TCL) donne egalement un intervalle]

Exemple 43 (Sondage) : Avant le second tour d’une election, opposant les candidats D et G,

un institut de sondage interroge au hasard 1000 personnes dans la rue. On note p la proportion

d’electeurs decides a voter pour G dans la population totale et on suppose l’echantillon de personnes

interrogees representatif. Dans l’echantillon sonde, cette proportion est egale a 0, 54. A l’aide de

Bienayme Tchebychev, proposer un intervalle de confiance pour p avec un risque d’erreur de 5%.

Faut il augmenter la taille de l’echantillon pour repondre a la question ?

5.2 Theoreme central limite

On sait maintenant que sous certaines conditions, la moyenne arithmetique Xn =∑iXi/n, de

v.a. independantes ayant la meme lois converge vers l’esperance. On sait donc que Xn − E(X1)

Page 50: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 50

tend vers 0. On aimerait aller a l’ordre superieur et connaitre ”la vitesse” de convergence vers 0.

Le (TCL) Theoreme central limite repond a la question :

Theoreme 12 Soit (Xn)n≥1 une suite de v.a. reelles independantes et de meme loi, de moyenne

m et d’ecart type σ. Notons

Xn =X1 + ...+Xn

n

et Zn les v.a. associees centrees reduites :

Zn =

√n(Xn −m)

σ.

Alors pour tout intervalle [a; b], on a :

limn

P(Zn ∈ [a; b]) = P(Y ∈ [a; b]) =1√2π

∫ b

a

e−t2/2 dt,

ou Y suit une N (0; 1).

On dit que la loi de la v.a. Zn =√n(Xn−m)

σ converge en loi vers une normale centree reduite

N (0; 1).

Autrement dit les sommes renormalisees se comportent asymptotiquement comme la loi normale.

De facon generale, l’ecart entre les moyennes arithmetiques et l’esperance (ecart qui tend vers 0

par la LGN) se comporte apres normalisation comme la loi normale (ou bien encore en notant que

Xn −m = 1n

∑i=1..n(Xi −m), la moyenne des ecarts (renormalisee) ”tend” vers une Gaussienne.)

Connaissant la densite de la loi normale, on peut le ”lire” intuitivement comme suit. Si n est

assez grand alors Zn est tres probablement compris entre -3 et 3 (la probabilite est 0.9973). Soit

encore :X1 + ...+Xn

n− E(X1) ∈ [− 3σ√

n;

3σ√n

],

avec grosse probabilite.

Remarque 19

1. Quelque soit la loi des Xi (moment d’ordre 1 fini), les sommes renormalisees convergent vers

une meme loi limite, la loi Normale, ce qui explique le nom de cette loi et son caractere

universel.

2. Le√n est necessaire ! Prendre Xi ∼ N (0; 1) et regarder les variances des 2 termes.

3. En pratique, lorsque l’on considere un grand nombre de v.a. independantes et de meme loi

X1, ..., Xn, on approxime leur somme Sn ou leur moyenne Xn par des variables normales

suivantes :

Sn ∼ N(nm;√nσ)

et Xn ∼ N(m;σ/

√n),

ou m = E(X1) et σ2 = var(X1).

4. Si l’on prend Xi ∼ Bernoulli(p), on retrouve qu’une Binomiale approche une Normale. [On

a donc deux approximations possibles pour les lois binomiales B(n; p) : celle par une loi de

Poisson P(np) lorsque n est grand, p petit et np de l’ordre de quelques unites et celle par

N(np;√np(1− p)

)lorsque n est grand. Seule la pratique permet de decider laquelle des

deux est la meilleure approximation. ]

Page 51: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 51

Le TCL est fondamental en statistique pour l’obtention d’intervalles de confiance. Il est a l’ori-

gine de beaucoup d’approximation de lois et permet de se ramener a la loi normale pour laquelle

on dispose de tables des valeurs.

5.3 Quelques applications

5.3.1 Marcheur dans Z

Soit un marcheur aleatoire (imaginez un bonhomme ivrogne) qui se deplace sur l’axe Z en

sautant aleatoirement a chaque unite de temps (a chaque seconde par exemple) sur un de ces 2

voisins (droite ou gauche). Notons Xi sa position a l’instant i. On suppose que le marcheur debute

a l’origine a t = 0, c’est a dire X0 = 0.

On a les relations suivantes : pour tout i ≥ 0,

Xi+1 = Xi + εi,

ou les εi ∈ −1,+1 avec P(ε = −1) = P(ε = +1) = 1/2.

On applique le TCL aux εi (qui sont independants, de meme lois). On a : E(εi) = 0 et var(εi) = 1.

On obtient que pour n grand, la loi de Xn√n

s’approxime par une N (0; 1). Ainsi, connaissant la forme

de la densite de la normale, on deduit qu’avec grosse probabilite le marcheur se trouve dans la boule

de centre 0 et de rayon√n, au bout d’un temps n.

5.3.2 Intervalle de confiance lors d’elections

Deux candidats A et B sont en course pour une election. Soit p la probabilite de gens votant

pour A. A l’issue d’un sondage sur n personnes, on se propose de donner un intervalle de confiance

dans lequel p doit se trouver avec un certain pourcentage α.

Pour 1 ≤ i ≤ n, posons Xi = |x| =

1 si la personne i vote pour A

0 sinon.

Les Xi sont independants et suivent des loi de Bernoulli de parametre p inconnu. On a E(X1) = p

et V ar(X1) = p(1− p). Le TCL autorise l’approximation (en loi) suivante pour n grand :√n

p(1− p)(

∑iXi

n− p) ∼ N (0; 1) .

D’ou, pour tout ε > 0, on a :

P(|√

n

p(1− p)(

∑iXi

n− p)| < ε) ≈ P(|Y | < ε),

Page 52: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 52

ou Y ∼ N (0; 1) .

C’est a dire que l’on est certain avec le taux α = P(|Y | < ε) que ,

p ∈ [Xn − ε√p(1− p)

n; Xn + ε

√p(1− p)

n]

Si l’on veut par exemple donner une fourchette pour p avec un taux α = 0, 95, on choisit ε = 1, 96

( cf. table de la loi normale). Ainsi avec 95%, on peut affirmer que,

p ∈ [Xn −1, 96

2√n

; Xn +1, 96

2√n

]

(On a utilise le fait que pour p ∈ [0; 1], p(1− p) ≤ 1/4 ) De cette derniere expression, on remarque

que si l’on augmente la taille n de l’echantillon, l’intervalle (de confiance) se ”resserre”, ce qui

permet de lever eventuellement un indetermination dans le cas ou 1/2 ∈ [Xn − 1,962√n

; Xn + 1,962√n

].

5.3.3 Introduction aux tests statistiques (le test du Chi 2)

Cette section ne represente qu’un survol de la theorie des tests.

Introduction generale

L’une des fonctions des statistiques est de proposer, a partir d’observations d’un phenomene

aleatoire (ou modelise comme tel) une estimation d’un des parametres du phenomene. C’est pas

exemple le but recherche dans la construction d’intervalles de confiance. Les statistiques servent

aussi a prendre des decisions. Peut on considerer qu’un medicament est plus efficace qu’un placebo ?

Le nombre de consultations de Google par seconde suit il une loi de Poisson ? Les genes pilotant

la couleur des yeux et ceux des cheveux sont ils sur les memes chromosomes ? Il y a deux points

communs (au moins) a toutes ces questions : leurs reponses sont des oui-non et le phenomene sous-

jacent est aleatoire. Les tests statistiques vont permettre d’apporter une reponse a des questions

manicheennes en controlant l’alea inherent a la situation.

En statistiques, les deux eventualites sont appelees des hypotheses et sont notees H0 (hypothese

nulle) et H1 (hypothese alternative). Souvent H1 sera le contraire de H0. Dans tous les cas, le

postulat est qu’une et une seule des deux hypotheses est vraie.

Un test statistique est un algorithme qui conduit a ne pas rejetter H0 ou rejetter H0 a partir des

observations du phenomene. L’idee de base des tests, est de trouver une statistique (une fonction

des observations) dont on connait la loi (ou qui s’approxime par une loi connue) si H0 est vraie et

qui ne se comporte pas de la meme maniere selon que H0 ou H1 est vraie.

( le ”qui s’approxime par une loi connue” dans la phrase precedente, est en general une consequence

du TCL. On devine ainsi l’importance capitale de ce Theoreme dans cette theorie.)

Il y a deux grands types de tests : les tests parametriques et les tests non parametriques (exemple :

test du χ2). Un test non parametrique teste une propriete (independance ou pas, homgeneite ou

pas ). Un test parametrique consiste a verifier si une caracteristique d’une population, que l’on

notera θ, satisfait une hypothese que l’on pose a priori, appelee hypothese nulle H0. Il s’agit donc

de tester un parametre. Elle est en general de la forme H0 : θ = θ0 ou H0 : θ > θ0 ou encore

H0 : θ < θ0. Comme pour les intervalles de confiance, on a besoin pour cela d’un echantillon dont

les valeurs sont celles prises par n v.a. X1, ..., Xn independantes de meme loi.

Page 53: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 53

Un premier exemple

On suppose que la taille d’une population suit une loi Gaussienne N(µ;σ2

). On connait σ2

mais la valeur µ est inconnue. Certaines circonstances amenent a formuler la question suivante :

la moyenne theorique µ est-elle egale a une certaine valeur µ0 ? Pour cela, on desire faire le test

suivant :H0 : µ = µ0 contre H1 : µ 6= µ0 .

Soit un echantillon X1, ..., Xn des tailles de n personnes de la population. H0 implique que

Xi ∼ N(µ0;σ2

). Ainsi, pour n grand, le TCL donne alors que la v.a.

Un :=

√n

σ(Xn − µ0) ∼ N (0; 1) .

Vu l’allure de la densite de la normale centree reduite, on definit une zone rejet Rα de la forme

Rα =]−∞;−tα[∪]− tα; +∞[ ou le nombre tα est donne par la table N (0; 1) de la v.a. U avec

P(|U | > tα) = α

Si on choisit α = 0, 05, on a tα = 1, 96 d’apres la table N (0; 1). Et si choisit α = 0, 1, on a

tα = 1, 645.

Il reste alors a calculer la valeur u de U a partir de l’echantillon et a decider en fonction de

l’appartenance de u a Rα ou non.si u ∈ Rα on rejette H0 avec un risque d’erreur α %

si u /∈ Rα on ne rejette pas H0 avec un risque d’erreur α %

Le test du χ2

Toujours selon le meme schema, sous une certaine hypothese H0, on construit ”une statistique”

(fonction des observations) qui doit tendre vers une loi connue. Dans le test du χ2, la convergence

de la ”statistique trouvee” n’est pas une consequence ”immediate” du TCL mais c’est dans le meme

esprit que celle ci se prouve (d’ou la place de ce test dans cette section).

Le test du khi-deux concerne uniquement les lois discretes, mais on peut l’utiliser aussi pour des

echantillons continus regroupes en classes. Le modele de base est toujours un echantillon (X1, ..., Xn)

d’une loi inconnue. Les classes, notees c1, ..., ck, sont une partition de l’ensemble des valeurs pos-

sibles. L’hypothese a tester porte sur les probabilites des classes, pour lesquelles on se donne des

valeurs theoriques Ptheo(c1)..., Ptheo(ck).

H0 : ∀i = 1, ..., k, P(Xi ∈ ci) = Ptheo(ci).

Sous l’hypothese H0 la distribution empirique de l’echantillon sur les classes doit etre proche de

la distribution theorique. La distribution empirique (observee) Pobs est celle des frequences de

l’echantillon dans les classes :

Pobs(cj) =1

n

∑i=1...n

1cj(Xi) =Nombre de Xi tombant dans la classe cj

n.

On mesure l’adequation de la distribution empirique a la distribution theorique par la distance du

khi-deux.

Page 54: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 54

Definition 46 On appelle distance du khi-deux de Ptheo par rapport a Pobs, et on note Dχ2(Ptheo, Pobs),

la quantite :

Dχ2(Ptheo, Pobs) =∑i=1...k

(Ptheo(ci)− Pobs(ci))2

Ptheo(ci)

La ”distance” du khi-deux est donc une moyenne ponderee d’ecarts quadratiques entre les

valeurs de Ptheo et Pobs. Ce n’est pas une distance au sens usuel du terme, puisqu’elle n’est meme

pas symetrique. La loi de probabilite de Dχ2(Ptheo, Pobs) n’a pas d’expression explicite en general.

On utilise le resultat suivant :

Propriete 45 Sous l’hypothese H0, la loi de la variable aleatoire nDχ2(Ptheo, Pobs) converge quand

n tend vers l’infini, vers la loi du khi-deux de parametre k-1.

Si l’hypothese H0 est fausse, alors la variable nDχ2(Ptheo, Pobs) tend vers l’infini ( appliquer k fois

la loi des grands nombres, on obtient un terme lineaire en n). En pratique, la statistique du test

du khi-deux se calcule sous la forme suivante :

U = nDχ2 =∑i=1...k

(ntheo(ci)− nobs(ci))2

ntheo(ci),

ou

• ntheo(ci) est l’effectif theorique de la classe ci, a savoir le produit nPtheo(ci),

• nobs(ci) est l’effectif observe de la classe ci.

On peut distinguer trois types de test du χ2 :

1. le test du χ2 d’adequation a une loi de probabilite sur un ensemble fini. Est il raisonnable de

penser que les resultats que j’observe sont des realisations i.i.d d’une loi (p1, p1, ..., pk) sur un

ensemble 1, 2, ..., k. Exemple, H0 : le caractere X suit-il une loi particuliere ? ,

2. le test χ2 d’homogeneite de plusieurs echantillons : deux medicaments ont-ils le meme effet

(guerison, etat stationnaire...) sur la population atteinte ? Exemple, H0 : le caractere X

suit-il la meme loi dans deux populations donnees ? ,

3. le test du χ2 d’independance. H0 : les caracteres X et Y sont-ils independants ?

Ces trois tests ont un principe commun qui est le suivant : on repartit les observations dans k

classes dont les effectifs sont notes n1,obs, ..., nk,obs. L’hypothese H0 permet de calculer les effectifs

theoriques, notes n1,theo, ..., nk,theo (ni,theo represente l’effectif theorique dans la classe i). On rejette

H0 si les effectifs observes sont trop differents des effectifs theoriques. Pour cela on donc utilise la

statistique de test decrite precedement :

U =

∑i=1..k(ni,obs − ni,theo)2

ni,theo.

Fait 1 : Le point central est que grace a la propriete 45, on peut prouver que lorsque la taille de

l’echantillon augmente, la statistique U tend vers la loi d’un χ2(k − 1−m) ou k est le nombre de

classes et m est le nombre de parametres estimees necessaires au calcul des effectifs theoriques (les

Ni doivent etre superieur a 5).

Page 55: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 55

Figure 5.1 – Densite de la loi d’un χ2 (a plus de 3 parametres).

Il faut donc s’assurer que les effectifs theoriques sont plus grands que 5 et faire des regroupe-

ments de classes si besoin est. A partir de la, on calcule la zone de rejet unilaterale Rα = [tα,+∞][

au risque α en determinant tα dans la table de la loi χ2(k − 1 −m) par P(U > tα) = α. La regle

decision est la suivante : si u =∑i=1..k(ni,obs−ni,theo)2

ni,theoappartient a Rα, on rejette H0

si u =∑i=1..k(ni,obs−ni,theo)2

ni,theon’appartient pas a Rα, on accepte H0

Remarque 20

1. Contrairement aux autres tests, les tests du χ2 n’exigent pas de formuler l’hypothese alternative

H1, qui correspond a la negation de H0.

2. Les effectifs theoriques doivent etre superieurs a 5. Si ce n’est pas le cas, il faut regrouper des

classes.

3. Dans la statistique U = χ2(k − 1−m), on manipule des effectifs et non des pourcentages.

Exemple A : Adequation a une loi

Exemple a

Un croisement entre roses rouges et blanches a donne en seconde generation des roses rouges, roses

et blanches. Sur un echantillon de taille 600, on a trouve les resultats suivants :

Couleur Effectif

rouges 141

roses 315

blanches 144

Peut on affirmer que les resultats sont conformes aux lois de Mendel ?

Il s’agit de tester H0 : prouges = pblanches = 0.25, proses = 0.5 par exemple au risque α = 0.05.

On dresse alors le tableau suivant :couleur effectifs observes Ni effectifs theoriques ni,theo

rouges 141 0.25 × 600

roses 315 0.5× 600

blanches 144 0.25× 600

Ici, on a k = 3 classes et m = 0 (aucun parametre a estimer pour pouvoir calculer les effectifs

Page 56: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 56

theoriques) donc k − 1 −m = 2. On calcule ensuite Rα =]tα; +∞[ ) l’aide de la table du χ2(2) et

on obtient t = 5, 991. Enfin, on calcule :

u = U(ω) =(141− 150)2

150+

(315− 300)2

300+

(144− 150)2

150= 1.53 /∈ Rα.

On propose le non rejet de l’hypothese : on ne peut pas dire que les observations contre- disent la

loi de Mendel.

Exemple b :

On observe le nombre X d’accidents journaliers sur une periode de 50 jours dans une certaine ville.

On obtient :Nombre d’accidents Nombre de jours

0 21

1 18

2 7

3 3

4 1

On constate que X = 0.9 et que var(X) = 0, 97. Peut on affirmer que X suit une loi de Poisson au

risque α = 0.05 ?

Soit H0 : ” X suit une loi de Poisson de parametre 0.9”, on dresse donc le tableau suivant :

Nombre d’accidents Nombre de jours Nombre de jours theorique

0 21 50× e−0.9 = 20.330

1 18 50× e−0.9 × 0.9 = 18.295

au moins 2 11 50× (1− e−0.9(1 + 0.9)) = 11.376

On a regroupe les 3 dernieres classes pour avoir un effectif theorique superieur a 5 dans la derniere

classe. Dans cet exemple, on a k = 3 classes et m = 1 parametre estime (a savoir le parametre

λ = X = 0.9 de la loi de Poisson) necessaire au calcul des effectifs theoriques. Donc k−1−m = 1 est

le nombre de d.d.l de U ; On calcule alors Rα = [tα; +∞[ a l’aide de χ2(1) et on obtient tα = 3.841.

Pour finir, on calcule

u = U(ω) =(21− 20.33)2

20.33+

(18− 18.295)2

18.295+

(11− 11.376)2

11.376= 0.039 /∈ Rα.

Et donc on ne rejette pas H0 au risque d’erreur 0.05.

Exemple B : Independance

Soient Y et Z deux v.a. a valeur respectivement dans 1, ..., r et 1, ..., s. La loi de (Y,Z)

est donnee par une matrice P = (pi,j)1≤i≤r, 1≤j≤s a coefficients positifs dont la somme vaut 1,

pi,j = P(Y = i, Z = j). Notons pour 1 ≤ i ≤ r et 1 ≤ j ≤ s,

pi. = P(Y = i) = pi,1 + pi,2 + ...+ pi,s et p.j = P(Z = j) = p1,j + p2,j + ...+ pr,j .

Les v.a. Y et Z sont independantes si et seulement si, pour tous i et j, on a : pi,j = pi.p.j

Soient un echantillon (Y1, Z1), ..., (Yn, Zn) de ces v.a, on definit alors les v.a. suivantes :

Ni,j = cardl ∈ [1;n]; (Yl, Zl) = (i, j), Ni. = Ni,1 + ...+Ni,s et N.j = N1,j + ...+Nr,j .

Le fait 1 donne la propriete suivante :

Page 57: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 57

Propriete 46 Avec les notations ci-dessus,

Un =∑i=1..r

∑j=1..s

(Ni,j − Ni.N.jn )2

Ni.N.jn

→ χ2((r − 1)(s− 1)) en loi si Y et Z independantes,

→ +∞ p.s sinon.

quand n tend vers l’infini.

Remarque 21 avec les notations du fait 1, on a ici : k = rs et m = r − 1 + s − 1 (puisque la

donnee des r − 1 premiers coefficients de la loi de Y donne le dernier et idem pour Z et que la

donnee des lois marginales d’une loi, determine la loi du couple). Ainsi, k−m− 1 = (r− 1)(s− 1).

Exemple c (Yeux et cheveux...)

Depuis la terrasse d’un cafe ensoleillee, un statisticien en plein travail a note les couleurs des yeux

et des cheveux de 124 passants.

PPPPPPPPPYeux

Cheveuxblonds brun roux noir

bleus 25 9 7 3

gris 13 17 7 10

marrons 7 13 5 8

Les deux criteres sont ils independants au niveau 5% ?

Soient les 2 v.a. Y : Ω→ bleu, gris, noir et Z : Ω→ blond, brun, roux, noir.on notera i = 1 [resp. 2, 3] pour bleu [resp. gris, noir], et j = a [resp. b, c, d] pour blond [resp. brun,

roux,noir]. On calcule les Ni. et N.j. On a :

N1. = nombre total de personnes ayant les yeux bleus = 25 + 9 + 7 + 3 = 44, et de meme N2. =

47, N3. = 33 puis N.a = nombre total de personnes ayant les cheveux blonds = 45, et N.b =

39, N.c = 19, N.d = 21.

Enfin, on verifie que l’effectif total n vaut bien 124 avec par exemple∑iNi.(= 124). On peut alors

construire le tableau des effectifs theoriques Ni.N.j/n.

PPPPPPPPPYeux

Cheveuxblonds brun roux noir

bleus 44× 45/124 ' 15, 97 13, 84 6, 74 7, 45

gris 17, 05 14, 78 7, 2 7, 96

marrons 11, 98 10, 38 5, 06 5, 59

Figure 5.2 – Tableau des effectifs theoriques

On calcule alors la statistique Un = (25−15,97)2

15,97 + (9−13,84)2

13,84 + ...+ (8−5,59)2

5,59 (prop 46) et on trouve

Un ' 15, 08.

La table du χ2(6) (cf. Annexe) donne P(χ2(6) > 12.59) ' 0.05 (au risque 5%) et donc on rejette

l’hypothese d’independance de la couleur des yeux et de la couleur des cheveux.

Page 58: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 58

Exemple C : Homegeneite

Les test du χ2 permettent aussi de tester l’homogeneite de plusieurs echantillons. On etudie un

caractere pouvant prendre k valeurs A1, A2, ..., Ak (ou k modalites, ou a valeurs dans k classes).

On dispose de l echantillons E1, E2, ..., El differents. Pour tout i ∈ 1, ..., k, on connaıt l’effectif

observe Oi,j de la valeur Ai dans l’echantillon Ej . On souhaite tester :

”H0 : les echantillons sont issus de la meme loi ” contre ”H1 : les echantillons n’ont pas meme loi.”

On definit,

Oi. = Oi,1 + ...+Oi,l et O.j = O1,j + ...+Ok,j ,

et

n =∑i=1..k

∑j=1..l

Oi,j =∑i=1..k

Oi. =∑j=1..l

O.j

Oi. represente l’effectif observe de la valeur Ai parmi la reunion de tous les echantillons et Oj.

represente l’effectif de l’echantillon j.

On a la propriete similaire au fait 1 :

Propriete 47 Avec les notations ci-dessus,

Un =∑i=1..k

∑j=1..l

(Oi,j − Oi.O.jn )2

Oi.O.jn

→ χ2((k − 1)(l − 1)) en loi si H0 vraie

→ +∞ p.s sinon

quand n tend vers l’infini.

Exemple d (Y a t il un nouvel Omo ?)

On cherche a invalider la reflexion suivante qui affirme que toute les lessive se valent. On utilise

trois lessives appelees A, B et C. Une fois que la machine a laver a effectue son programme, on

classe a la sortie du lavage les vetements en trois categories : tres sale (TS), legerement sale (LS)

et propre (P). On obtient le tableau suivant :

PPPPPPPPPLessive

LingeTS LS P

A 30 65 205

B 23 56 121

C 75 125 300

Peut on dire au niveau 5% que toutes les lessives sont identiques ?

Page 59: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

Chapitre 6

Annexe

59

Page 60: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 6. ANNEXE 60

6.1 Tables Loi Normale N (0; 1)

Figure 6.1 – Table de la fonction de repartition

Page 61: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 6. ANNEXE 61

Figure 6.2 – Table de l’inverse de la fonction de reparition.

Lorsque P ≤ 0.5, il faut utiliser la colonne de gauche et la ligne superieure. (Les fractiles sont

negatifs).

Lorsque P ≥ 0.5, il faut utiliser la colonne de droite et la ligne inferieure. (Les fractiles sont positifs.)

Page 62: Module: Statistiques inf erentielles |||||||{ Poly de ...rau/retro stat inf/poly stat inf.pdf · D epartement GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr. Table des mati eres

CHAPITRE 6. ANNEXE 62

6.2 Table loi du Chi 2