32
Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées M206ICP : Introduction au calcul des probabilités Notes de cours par Clément Boulonne L2 Mathématiques 2007 - 2008

M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

  • Upload
    hathien

  • View
    212

  • Download
    0

Embed Size (px)

Citation preview

Page 1: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Université des Sciences et Technologies de LilleU.F.R. de Mathématiques Pures et Appliquées

M206ICP : Introduction au calcul desprobabilités

Notes de cours par Clément Boulonne

L2 Mathématiques 2007 - 2008

Page 2: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Table des matières

1 Espaces probabilisés 41.1 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 La probabilité comme fonction d’ensembles . . . . . . . . . . . . . . . . . . . . . 51.3 Probabilités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Propriétés générales des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Conditionnement et indépendance 102.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . 132.2.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Variables aléatoires 153.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3.1 Loi de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.3.2 Loi uniforme sur un ensemble fini de réels . . . . . . . . . . . . . . . . . 183.3.3 Lois binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.3.4 Lois hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.3.5 Lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3.6 Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.4 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.4.2 Loi pour les variables aléatoires continues . . . . . . . . . . . . . . . . . . 213.4.3 Analogie entre variable aléatoire continue et discrète . . . . . . . . . . . 21

3.5 Indépendance des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 223.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.5.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.6 Epreuves de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Espérance mathématique 254.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.1.1 Aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.1.2 Aspect continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.1.3 Retour à l’aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2

Page 3: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

3

4.3 Inégalité de Markov et Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Loi des grands nombres 315.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Page 4: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Références

Certaines parties du cours ont été recopiées du polycopié de cours suivant :1) Ch. Suquet, Introduction au Calcul des Probabilités, 2007-2008

Les cours sont téléchargeables sur le site IPEIS (Intégration, Probabilités Elémentaires etInitiation à la Statistique) de l’Université Lille 1.

4

Page 5: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 1

Espaces probabilisés

1.1 EvenementsDéfinition 1.1.1. On note Ω un ensemble non vide dont les éléments représentent tous lesrésultats possibles ou événements élémentaire d’une expérience alétoire. Ω = ω, on dira queω, élément de Ω est un événement élémentaire.

Exemple 1.1.1. On lance une pièce symétrique et on regarde à sa tombée sur le sol, la piècetombe sur pile ou face. On aura alors :

Ω = P, F

On pioche sur un jeu de 52 cartes, une carte. On aura alors :

Ω = A♣, A♠, A♦, A♥, ..., K♣, K♠, K♦, K♥

Dans un intervalle [0, 1], on choisit un point au hasard sur le segment :

Ω = x ∈ [0, 1]

On peut aussi mesurer une température à n’importe quel point du globe :

Ω = −273C,∞

Définition 1.1.2. F = A, A ⊂ Ω et est appelé événement et F est la famille des événementspossibles.

Exemple 1.1.2. Si on jette un dé, l’évément A peut être “obtention d’un chiffre paire” et doncA = 2, 4, 6 composé de trois événements élémentaires ω1 = 2, ω2 = 4, ω3 = 6.

Définition 1.1.3. On note AC , un événement qui se réalise si A ne se réalise pas. On l’appelleévénement contraie ou complémentaire de A.

Définition 1.1.4. A ∩B est la réalisation de A et B en même temps.

Définition 1.1.5. A ∪B est la réalisation de A ou la réalisation de B.

5

Page 6: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

6 Chapitre 1. Espaces probabilisés

1.2 La probabilité comme fonction d’ensemblesPropriété 1.2.1. F a les propriétés suivantes :

1. Ω ∈ F2. A ∈ F ⇒ AC ∈ F3. F est stable par opérations de réunion et d’intersection sur les suites d’événements. C’est-

à-dire, si (Ak) est un ensemble d’évenement fini et dénombrable alors :⋃k

Ak ∈ F et⋂k

Ak ∈ F

Démonstration. On démontre la propriété 3 sur les opérations d’intersection.(⋂k

Ak

)C=⋃K

ACk ∈ F

Définition 1.2.1. La famille qui vérifie les trois propriétés s’appelle une tribu (ou σ-algébre).

Exemple 1.2.1 (Plus grande et plus petite tribu possible). Soit Ω fixé. F = ∅,Ω est la pluspetite tribu possible. F = P(Ω) = A|A ⊂ Ω est la plus grande tribu possible.

Définition 1.2.2 (Parties de Ω). On appelle parties de Ω et on note P(Ω) :

P(Ω) = A|A ⊂ Ω

Exemple 1.2.2. Si Ω = P, F alors P(Ω) = Ω, ∅, P, F.

Définition 1.2.3. Si card(Ω) = n alors card(P(Ω)) = 2n.

Définition 1.2.4. Soit Ω un ensemble et F une famille d’événement observables sur Ω. Onappelle P (A) la probabilité d’un événement, c’est-à-dire : P : F → R tel que nA

n→ P (A) la

fréquence où l’événement est réalisé. Concrétement, P doit vérifié :1. P (Ω) = 12. 0 ≤ P (Ω) ≤ 1, ∀A ∈ F3. (Ak), (Ak ∈ F), si Ak ∩ Aj = ∅ (avec k 6= j) alors :

P

(⋃k

Ak

)=∑k

P (Ak)

La troisième propriété s’appelle σ-additivité.

Définition 1.2.5. Soit Ω 6= 0, F tribu et P une probabilité alors (Ω,F , P ) est un espaceprobabilisé.

Exemple 1.2.3. Ω = P, F, F = P(Ω) = ∅,Ω, F, P1. cas symétrique :

P (∅) = 0, P (Ω) = 1, P (P ) = 12 , P (F ) = 1

22. cas non-symétrique :

P (∅) = 0, P (Ω) = 1, P (P ) = p, P (F ) = 1− p

Page 7: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 1. Espaces probabilisés 7

1.3 Probabilités classiquesProposition 1.3.1. Soit card(Ω) <∞, P (ωi) = P (ωj), ∀ωi, ωj ∈ Ω et F = P(Ω). Alors :

P (A) = cardAcard Ω (Définition classique des probabilités)

Démonstration. ∃p tel que p = P (ωi = P (ωj). On a : A =⋃ω∈Aω. D’après la σ-additivité.

P (A) =∑ω∈A

P (ω) = p(cardA)

et si A = Ω alors P (Ω) = 1 = p(card(Ω)).

Exemple 1.3.1. Les probabilités classiques peuvent être considéré par le lancer d’une piècedans le cas symétrique.

Exemple 1.3.2. On effectue une partie de pile ou face en trois coups. Quelle est la probabilitéd’obtenir pile aux premier et troisième lancers ? On peut modéliser cette expérience en prenantΩ = P, F3 et pour famille d’événement observables F = P(Ω) l’ensemble de toutes les partiesde Ω. La pièce étant supposée symétrique, nous n’avous a priori pas de raison de supposer quel’un des 8 triplets de résultats possibles soit favorisé ou dévaforisé par rapport aux autres. Onchoisit donc P de sorte que tous les événements élémentaires aient même probabilité (hypothèsed’équiprobabilité ou probabilité classique) soit :

∀ω ∈ Ω, P (ω) = 1card Ω = 1

23

L’événement B dnt on veut calculer la probabilité s’écrit :

B = (P, F, P ), (P, P, P )

D’où :P (B) = 1

8 + 18 = 1

4Exemple 1.3.3. Dans une urne, on a mls n boules blanches et n boules noirs indiscernable autoucher. On a donc n+m boules. On choisit k boules et on veut calculer P (Al) tel que :

Al = on a pioché l boules blanches

Donc :P (Al) = card(Al)

card ΩOn a alors :

card(Ω) = Ckn+m

et :card(Al) = C l

m × Ck−ln

Donc :P (Al) = C l

m × Ck−ln

Ckn+m

Page 8: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

8 Chapitre 1. Espaces probabilisés

Pour un exemple concret, on peut prendre celui du Loto. n = 6, n+m = 49, l = 6 et k = 6.

P (A6) = 1C6

49= 7.15112384202e− 08

Pour n = m et k = n, on a :

P (Al) = C lnC

k−ln

C2nn

=

(C ln

)2

Cn2n

On a : l = 0, ..., n. Soit A0, ..., An alors :

Ak ∩ Al = ∅, k 6= l⋃k

Ak k Ω

On a aussi :1 = P (Ω) = P

(⋃l

Al

)=

n∑l=0

P (Al)

Donc :n∑l=0

(C ln

)2

Cn2n

= 1⇒ Cn2n =

n∑l=0

(C ln

)2

Définition 1.3.1. On dit que Ω est un espace discret si card(Ω) <∞.

Proposition 1.3.2. Soit F = P(Ω) et soit P une probabilité sur F . Il existe une famille(pk)k≥0 tel que :

1. pk ≥ 02.∑k

pk = 1

3. ∀A, P (A) =∑

k|ωk∈Apk

Démonstration. On a P (wk) = pk. La propriété 1 est évidente. On démontre la propriété 3avant la 2.

A =⋃

k|ωk∈Aωk

P (A) =∑

k|ωk∈AP (ωk) =

∑k|ωk∈A

pk

Exemple 1.3.4. Soit Ω = N, pk = λke−λ

k! pour λ > 0, k = 0... On appelle loi de Poisson P(λ)la probabilité qui vérifie pk = λke−λ

k! .

1.4 Propriétés générales des probabilitésSoit P une probabilité :

Propriété 1.4.1. P (AC) = 1− P (A), P (A) = 1− P (AC).

Propriété 1.4.2. A ⊂ B ⇒ P (A) ≤ P (B)

Page 9: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 1. Espaces probabilisés 9

Démonstration. On a : B = A ∪ (B\A). Or A et B\A sont disjoints alors :

P (B) = P (A) + P (B\B) ≥ P (A)

Propriété 1.4.3. Soit A et B deux ensembles alors :

P (A ∪B) = P (A) + P (B)− P (A ∩B)

Démonstration. A ∪B = A ∪ (B\A) alors :

P (A ∪B) = P (A) + P (B\A)

et B = (A ∩B) ∪B\AP (B) = P (A ∩B) + P (B\A)

Propriété 1.4.4. P (A ∪B) ≤ P (A) + P (B)

Démonstration. Conséquence de la Propriété 1.4.3.

Propriété 1.4.5. Soient (A1, ..., An) alors :

P

(n⋃k=1

Ak

)≤

n∑k=1

P (Ak)

Démonstration. Par réccurence. Initialisation évidente car c’est la Propriété 1.4.3.

P

(n+1⋃k=1

Ak

)= P

n⋃k+1

Ak ∪ Ak+1

≤ P

(n⋃k=1

Ak

)+ P (An+1)

Remarque. Si (Ak) infini alors la Propriété 1.4.5. est vérifiée.

Propriété 1.4.6 (Propriété de continuité de P ). a) (An) croissante (∀n,An ⊂ An+1) alorsP (An) est croissante. On a alors :

limn→+∞

P (An) = P

(⋃k

Ak

)

b) (An) décroissate (∀n,An+1 ⊂ An) alors P (An) converge vars P(⋂

k

Ak

).

Page 10: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

10 Chapitre 1. Espaces probabilisés

Démonstration. a) ⇒ b) : soit (An) décroissante. Si on prend Bn = ACn , on a (Bn) croissante.

Alors P (Bn) −−−→n→∞

P

(⋃k

Bk

). Mais P (Bn) = 1−P (An). Donc : P (An)→ 1−P

(⋃k

Bk

)Or :

1− P(⋃

k

Bk

)C = P

(⋂k

(Bk)C)

= P

(⋂k

(AK)).

Propriété 1.4.7. La Remarque précédente peut constitué une propriété. On rappelle : soit (Ak)infini alors :

P

( ∞⋃k=0

Ak

)≤∞∑k=1

P (Ak)

Démonstration. Bn =n⋃k=1

Ak avec (Bn) croissante. On a :

P (Bn) −−−→n→∞

P

( ∞⋃k=1

Bn

)

et : ∞⋃k=1

Bk =∞⋃k=1

Ak

alors :P (Bn)

(→ P

( ∞⋃k=1

Ak

))= P

(n⋃k=1

Ak

)≤

n∑k=1

P (Ak) ≤ P (An)

Page 11: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 2

Conditionnement et indépendance

2.1 Probabilités conditionnelles

2.1.1 IntroductionComment doit-on modifier la probabilité que l’on attribue à un évenement lorsque l’on

dispose d’une information supplémentaire ? Le concept de probabilité conditionnelle permet derépondre à cette question.

Exemple 2.1.1. Soit card(Ω) <∞ alors :

P (A) = card(A)card(Ω)

et B une partie de Ω avec B ∩ A 6= ∅. Alors :

PA(B) = card(A ∩B)card(A) = P (A ∩B)

P (A)

Définition 2.1.1. PA : F → R+ alors :

PA(B) = P (A ∩B)P (A) , B ∈ F , P (A) > 0

PA(B) s’appelle la probabilité conditionelle sachant A.

Démonstration. On vérifie que la Définition 2.1.1. est une relation de probabilité.

1) PA(Ω) = P (A ∩ Ω)P (A) = P (A)

P (A) = 1

2) 0 ≤ PA(B) ≤ 1 car P (A ∩B) ≤ P (A).3) (Bk), Bk ∩Bl = ∅, k 6= l :

PA

(⋃k

(Bk))

=P

(A ∩

(⋃k

Bk

))P (A) =

P

(⋃k

A ∩Bk

)P (A) =

∑k

P (A ∩Bk)

P (A) =∑k

PA(Bk)

11

Page 12: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

12 Chapitre 2. Conditionnement et indépendance

Exemple 2.1.2. Supposons qu’on a deux urnes. Dans l’urne 1, on a : m boules blanches et nnoires et dans l’urne 2, m boules blanches et n boules noires. On transpose une boule au hasard(sans regarder sa couleur) de la urne 1 vers la urne 2. Ensuite, on tire au hasard une boule dansl’urne 2 et on regarde sa couleur.

Soit B = la deuxième boule tirée est blanche. On simplifie l’expérience en utilisant :• A1 = Première blanche• A2 = Première noire

alors on a :PA1(B) = m+ 1

m+ n+ 1 PA2(B) = m

m+ n+ 1

2.1.2 PropriétésProposition 2.1.1 (Conditionnement successifs). Soit B = A1 ∩A2 ∩ ...∩An avec P (Ai) > 0alors :

P (B) = P (A1)PA1(A2)PA1∩A2(A3)...PA1∩A2∩...∩An−1(An)

Démonstration.

P (A1)P (A1 ∩ A2

P (A1)P (A3 ∩ (A2 ∩ A1))

P (A1 ∩ A2)× ...× P (An ∩ (An−1 ∩ ... ∩ A1)

P (An−1 ∩ ... ∩ A1)

= P (A1 ∩ A2)P (A3 ∩ (A2 ∩ A1))

P (A1 ∩ A2)× ...× P (An ∩ (An−1 ∩ ... ∩ A1)

P (An−1 ∩ ... ∩ A1)

= ... = P (A1 ∩ A2 ∩ ... ∩ An) = P (B)

Exemple 2.1.3. Soit une urne avec 2n boule avec 2 boules identiques (même couleur) 2 à 2.On choisit 2 boules à la fois et on répete l’expérience jusqu’à tant qu’il n’y a plus de boules.

Soit B = chaque sorte de boules donne une paire de même couleur. On introduite desévénements :• A1 = les 2 premières sont de même couleurs• A2 = les 2 boules suivant A1 sont de même couleurs• · · ·• An = les 2 boules suivant An−1 sont de même couleurs

On a alors : B = A1 ∩ ... ∩ An.

P(A1) = nC2

2nPA1(A2) = n−1

C22n−2...

etP (B) = n

C22n

n− 1C2

2n−1...

1C2

2= n!×2n

2n(2n−1)(2n−2)...1 = n!2n(2n)! = 1∏

2k+1

Proposition 2.1.2 (Probabilité totale). Soit (Ak) qui forme une partition de Ω.1. disjoints2.⋃k

Ak = Ω

Soit B un événement. Alors :P (B) =

∑k

P (Ak)PAk(B)

Page 13: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 2. Conditionnement et indépendance 13

Démonstration. On a : B = B ∩ Ω = B ∩(⋃

k

Ak

)=⋃k

(B ∩ Ak). Alors :

P (B) = P

(⋃k

(B ∩ Ak))

=∑k

P (B ∩ Ak)

Exemple 2.1.4 (Retour sur l’Exemple 2.1.2). On a alors :

P (B) = P (A1)PA1(B) + P (A2)PA2(B)

et :P (A1) = m

m+ net P (A2) = n

m+ n

Donc :P (B) = m

m+ n× m+ 1m+ n+ 1 + n

m+ n× m

m+ n+ 1

Exemple 2.1.5. On considère un echequier de 64 cases. On choisit deux cases de l’échequieret on y place deux fois. On dit que deux fois sont en position d’attaque si ils sont sur la mêmediagonale. Soit B = les deux fous sont en position d’attaque. On introduit des événements.• A1 = le premier fou est à l’extrémité de l’échequier• A2 = le premier fou est à une case de l’extrémité de l’échequier• A3 = le premier fou est à deux cases de l’extrémité de l’échequier• A4 = le premier fou est à trois cases de l’extrémité de l’échequier

En A1, le premier fou a 7 possibilités d’être en position d’attaque avec le deuxième fou. En A2,il en a 9. En A3, il en a 11 et en A4, 13. On a alors :

P (A1) = 2864 , P (A2) = 20

64 , P (A3) = 1264 , P (A4) = 4

64

PA1(B) = 763 , PA2(B) = 9

63 , PA3(B) = 1163 , PA4(B) = 13

63Alors :

P (B) = 2864 ×

763 + 20

64 ×963 = 12

64× 63 + 4× 1364× 63

Proposition 2.1.3 (Formule de Bayes). Soit A un événement de proabilité non nulle. Si lesévénements Hi (1 ≤ i ≤ n) forment une partition de Ω et aucun P (Hi) n’est nul, on a pourtout j = 1, ..., n :

PA(Hj) =PHj(A)P (Hj)n∑i=1

PHi(A)P (Hi)

Démonstration. Par définition des probabilités conditionnelles on a :

PA(Hj) = P (A ∩Hj)P (A) =

PHj(A)P (Hj)P (A)

Et il ne reste plus qu’à dévelpper P (A) en conditionnant par la partition (Hi, 1 ≤ i ≤ n).

Page 14: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

14 Chapitre 2. Conditionnement et indépendance

2.2 Indépendance2.2.1 Indépendance de deux événements

Soit A,B ∈ Ω. On suppose que A est réalisé alors P (B) = PA(B) et P (A) = PB(A). Onaura donc :

P (A ∩B) = P (A)× P (B)

si P (A) > 0 et P (B) > 0.

Définition 2.2.1. Deux événements A et B sont indépendants si :

P (A ∩B) = P (A)× P (B)

Exemple 2.2.1. Soit un jeu de 36 cartes. On considère :

A = ♣

B = D

Alors :P (A) = 9

36 P (B) = 436

et :A ∩B = D♣

P (A ∩B) = 9× 436× 36 = 36

362 = 136

Proposition 2.2.1. Si A et B sont indépendants alors AC et B sont indépendants.

Démonstration.

P (AC)P (B) = (1− P (A))P (B) = P (A)− P (A)P (B)= P (A)− P (A ∩B) = P (A ∩BC)

Conséquence. 1. Si A et B sont indépendants alors A et BC sont indépendants et AC et BC

sont indépendants.2. On a aussi Ω et A sont indépendants et ∅ et A sont indépendants.

2.2.2 Indépendance mutuelleDéfinition 2.2.2 (Fausse définition pour l’indépendance de plusieurs éléments). Soit A1, ..., Anun ensemble d’événements. On dit que A1, ..., An sont tous indépendants si Ai, Aj sont indé-pendants pour i 6= j.

Mais on va voir quette définition n’est pas vraie.

Exemple 2.2.2. Soit Ω = ω1, ω2, ω3, ω4, pωi = 14

A1 = ω1, ω2

A2 = ω1, ω3

Page 15: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 2. Conditionnement et indépendance 15

A3 = ω1, ω3

On a :P (Ai) = 1

2Mais pour i 6= j, Ai, Aj sont indépendants car :

P (Ai ∩ Aj) = Pω=1 = 1

4 = 12 ×

12

Mais B = A2 ∩ A3 et A1. On vérifie si oui ou non on a P (B ∩ A1) = P (B) ∩ P (A1).

P (B) = 14 P (A1) = 1

2

P (B ∩ A1) = Pω1 = 14 6=

14 ×

12

Définition 2.2.3. Soient A1, ..., An des événements. Ils sont indépendants si :

P (Ai ∩ Aj) = P (Ai)P (Aj) i 6= j

P (Ai ∩ Aj ∩ Ak) = P (Ai)P (Aj)P (Ak) i 6= j 6= k

· · · · · · · · ·

P

(n⋂i=1

Ai

)=

n∏i=1

P (Ai)

Proposition 2.2.2. Soient A1, ..., An des événements indépendants et T1, ..., Tk tel que :

Ti ∩ Tj = ∅

T1 ∪ ... ∪ Tk = 1, ..., n

Supposons que B1 soit une combinaison de Ai avec i ∈ T1, B2 soit une combinaison de Ai aveci ∈ T2,...,Bk soit une combinaison de Ai, i ∈ Tk alors B1, B2, ..., Bk sont indépendants.

Corollaire. On suppose Bj = Aj ou Bj = ACj . Si A1, ..., An sont indépendants alors B1, ..., Bn

sont indépendants.

Page 16: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3

Variables aléatoires

3.1 GénéralitésDéfinition 3.1.1. Soit (Ω,F , P ) est une espace probabilisée. On appelle variable aléatoirediscrète sur (Ω,F , P ) toute application X :

X : Ω → Rω 7→ X(ω)

vérifiant :1. ω |X(ω) ∈ Ω est une partie au plus dénombrable de R.2. Pour tout x ∈ X(Ω), A = ω ∈ Ω, X(ω) = x fait partie de la famille F d’événements

auxquels on peut attribuer une probabilité sur P .Un cas simple est que Ω soit fini et dénombrable alors F = P(Ω).

Exemple 3.1.1. On suppose qu’on lance 2 dés en même temps :

Ω = (i, j), i, j = 1...6

F = P(Ω)X(i, j) = i+ j. Les valeurs possibles sont 2, ..., 12. Quelle est la valeur de PX = k ?

PX = 2 = 136 PX = 10 = 3

36PX = 3 = 2

36 PX = 11 = 236

PX = 4 = 336 PX = 12 = 1

36

Définition 3.1.2 (Répartition ou loi). Soit F une fonction :

F (x) = PX ≤ x, x ∈ R

On l’appelle fonction de répartition de X avec X =]a, b]

PX ∈]a, b] = F (b)− F (a)

Démonstration. Soit A = X ≤ a, B = X ≤ b et C = X ∈]a, b[ alors :

A ∩ C = ∅

A ∪ C = B

PX ≤ b = P (A ∪ C) = P (A) + P (C) = PX ≤ a+ PX ∈]a, b]

16

Page 17: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3. Variables aléatoires 17

Propriétés de la fonction de répartition

Propriété 3.1.1. On a : 0 ≤ F (x) ≤ 1.

Propriété 3.1.2. Si x < y alors F (x) ≤ F (y).

Propriété 3.1.3. F est continue à droite.

Propriété 3.1.4. limx→−∞

F (x) = 0 et limx→+∞

F (x) = 1

Propriété 3.1.5. PX ∈]a, b] = F (b)− F (a)

Démonstration. On vérifie d’abord la croissance de F sur R. Soient s et t deux réels quelconquestel que s ≤ t. Tout ω vérifiant X(ω) ≤ s vérifie a fortiori X(ω) ≤ t. Cette implication se traduitpar l’inclusion d’événements X ≤ s ⊂ X ≤ t d’où P (X ≤ s) ≤ P (X ≤ t), autrement ditF (s) ≤ F (t). Ainsi F est croisate. Il en résulte qu’elle possède une limite à gauche et une limiteà droite en tout point de x de R.

Le reste de la preuve repose sur la propriété de continuité monotone séquentielle de laprobabilité qu’on rappelle :Rappel. Soit P une probabilité sur l’espace (Ω,F).(i) Si (An)n≥N∗ est une suite croissante d’événements (c’est-à-dire ∀n ∈ N∗, An ⊂ An+1) alors :

limn→+∞

P (An) = P (A) où A =⋃n∈N∗

An

.(ii) Si (Bn)n∈N∗ est une suite décroissante d’événements (c’est-à-dire ∀n ∈ N∗Bn+1 ⊂ Bn)

alors :lim

n→+∞P (Bn) = P (B) où B =

⋂n∈N∗

Bn

Soit x ∈ R fixé. Comme on est assuré de l’existence de la limite à droite de F en ce point,pour montrer que cette limite vaut F (x) et établir la continuité à droite F en x, il suffit devérifier que : F (x) = lim

n→+∞F(x+ 1

n

). Comme F (x + 1

n) = P (X ≤ x + 1

n), ceci résulte de la

propriété (ii) ci dessus appliquée aux événements Bn = X ≤ x+ 1n, en remarquant que :

⋂n∈N∗

X ≤ x+ 1

n

= X ≤ x (3.1)

En effet, pour tout ω ∈ X ≤ x, on a X(ω) ≤ x ≤ x+ 1npour tout n ∈ N∗ et donc ω ∈

⋂n∈N∗

Bn

d’où X ≤ x est inclus dans l’intersection des Bn (n ∈ N∗). Réciproquement, tout ω de cetteintersection vérifie : ∀n ∈ N∗, X(ω) ≤ x + 1

n. Le passage à la limite quand n tend vers l’infini

conservant l’intersection des Bn (n ∈ N∗) est incluse dans X ∈ x, ce qui achève la vérificationde (3.1).

Comme F est croissante, elle admet des limites en −∞ et +∞. Si X(Ω) est borné inférieu-rement 1, il est clair que F (x) = 0 pour tout x assz petit et donc lim

n→−∞F (x) = 0. Dans le cas

général, on identifie la limite en −∞ (dont on connait l’existence) grâce à une suite particulière :

limx→−∞

F (n) = limn→+∞

F (−n) = limn→+∞

P (X ≤ −n)

1Attention, dans le cas général x0 n’est pas nécessairement le plus petit élément de X(Ω), on peut très bienavoir par exemple X(Ω) = Z.

Page 18: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

18 Chapitre 3. Variables aléatoires

On utilise à nouveau la propriété (ii) avec Bn = X ≤ −n en montrant que :

⋂n∈N∗X ≤ −n = ∅ (3.2)

En effet, soit ω un élément de cette intersection. Alors X(ω) ≤ −n pour tout n ∈ N∗ doncen passant à la limite, X(ω) = −∞ ce qui est impossible puisque X ne prend que des valeursfinies2. Donc cette intersection est vide et par (ii), lim

n→+∞P (X ≤ −n) = P (∅) = 0. La preuve

de limx→+∞

F (x) = 1 est analogue.

3.2 Variables aléatoires discrètes

Définition 3.2.1. X est une variable aléatoire discrète si ∃V = x1, x2, ..., xn, V ⊂ R tel quePX ∈ V = 1. On a :

1) X = xk ∩ X = xn = ∅, k 6= n

2)⋃k

X = xk = X ∈ V

Proposition 3.2.1. Soit pk = PX = xk, ∀A ⊂ R

PX ∈ A =∑

k|xk∈Apk

Démonstration. On a que :

PX ∈ A = X ∈ A ∩ X ∈ V = P

X ∈ A ∩

⋃k

X = xk

= P

⋃k

X ∈ A ∩ X = xk

= P

⋃k|xk∈A

X = xk

=∑

k|xk∈Apk

Exemple 3.2.1. A = R, X ∈ A = Ω. On a alors :

1 =∑k

pk

Exemple 3.2.2. Soit xkk=1,...,n, x1 < x2 < ... < xn, pk = X = xk, F (x) = PX ∈ A =∑k|xk∈]−∞,x]

pk

2Ce qui signifie que X(Ω) soit borné...

Page 19: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3. Variables aléatoires 19

3.3 Lois discrètes classiques3.3.1 Loi de BernouilliDéfinition 3.3.1. La variable aléatoire X suit la loit de Bernoulli de paramètre p (p ∈ [0, 1])si elle ne prend que deux valeurs 0 et 1 avec :

P (X = 1) = p P (X = 0) = 1− p = q

On notera X ∼ B(p).

Si A est un événements de probabilité p, son indicatrice définie par :

1A(ω) =

1 si ω ∈ A0 si ω 6∈ A

=

1 si A est réalisé0 si A n’est pas réalisé

est une variable aléatoire suivant la loi de Bernouilli de paramètre p. Réciproquement, si X estun variable aléatoire de Bernouilli, on peut toujours écrire X = 1A en définissant A = ω ∈Ω, X(ω) = 1.

3.3.2 Loi uniforme sur un ensemble fini de réelsDéfinition 3.3.2. La variable aléatoire X suit la uniforme sur l’ensemble des réels x1, ..., xnsi PX est l’équiprobabilité sur cet ensemble.

Autrement dit, l’ensemble des valeurs possibles de X est X(Ω) = x1, ..., xn et :

∀k ∈ 1, ..., n P (X = xk) = 1n

Par exemple, le nombre de points indiqué par un dé suit la loi uniforme sur 1, 2, 3, 4, 5, 6.

3.3.3 Lois binomialesDéfinition 3.3.3. La variable aléatoire X suit la loi binomiale de paramètres n et p (n ∈ N∗et p ∈ [0, 1]) si l’ensemble des valeurs possibles est X(Ω) = 0, 1, ..., n et :

∀k ∈ 0, 1, ..., n P (X = k) = Cknp

k(1− p)n−k

Page 20: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

20 Chapitre 3. Variables aléatoires

Notation. X ∼ B(n, p)La forme ci-dessus définit bien une loi de probabilité puisuqe les Ck

npk(1−p)n−k sont positifs

et :n∑k=0

Cknp

k(1− p)n−k = (p+ (1− p))n = 1n = 1

en appliquant la formule du binôme de Newton (d’où le nom de la loi). La loi binomiale B(n, p)est la loi du nombre de succès obtenus en une suite de n épreuves répétées indépendantes avecpour chaque épreuve une probabilité de succès p.

De même, soit A1, ..., An une famille de n événements mutuellement indépendants ayanttous même probabilité p et notons Xi la variable de Bernouilli indicatrice de Ai :

Xi(ω) =

1 si ω ∈ Ai0 si ω ∈ ACi

Alors la variable aléatoire Sn = ∑ni=1Xi suit la loi binomiale B(n, p).

3.3.4 Lois hypergéométriquesAlors que la loi binomiale intervient dans les tirages avec remise, la loi hypergéométrique

correspond aux tirages sans remise.

Exemple 3.3.1. Dans une production totale de N objets dont M sont défectueux, on prélèveau hasard un échantillon de n objets (tirage sans remise). Soit X le nombre aléatoire d’objetsdéfectueux dans l’échantillon. Quelle est sa loi ?

On peut prendre comme espace Ω l’ensemble de tous les échantillons possibles (toutes lesparties à n éléments d’un ensemble de cardinalN) muni de l’équiprobabilité. Chaque échantillona ainsi une probabilité 1/Cn

N d’être choisi. Les échantillons (événements élémentaires) réalisentl’événement X = k sont ceux qui contiennent k objets défectueux et n−k objets défectueux.Ceci n’est réalisable que si 0 ≤ k ≤M et 0 ≤ n−k ≤ N−M . On dénombre ces échantillons. Onles forme en choisissant k objets défectueux dans une sous-population de M et en complétantpar n−k objets non défectueux chosis dans une population deN−M . Il y en a donc Ck

M×Cn−kN−M .

Finalement :

P (X = k) = CkM × Cn−k

N−MCnN

si

0 ≤ k ≤M

0 ≤ n− k ≤ N −M

Définition 3.3.4. La loi définie par l’équation suivante :

P (X = k) = CkM × Cn−k

N−MCnN

si

0 ≤ k ≤M

0 ≤ n− k ≤ N −M

s’appelle la loi hypergéométrique de paramètres N , M et n. Notation : X ∼ H(N,M, n). Leparamètre N est l’effectif de la population totale, M celui de la sous-population à laquelle ons’interesse et n la taille de l’échantillon observé.

Pour une taille d’échantillon n fixée, plus N et M sont grands, moins les tirages sans remisediffèrent des tirages avec remise. Plus précisement, la loi hypergéométrique converge vers la loibinomiale au sens suivant :

Page 21: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3. Variables aléatoires 21

Theorème 3.3.1. On suppose que quand N tend vers +∞, M = M(N) tend vers +∞ envérifiant la condition :

limN→+∞

M

N= p avec 0 < p < 1

Alors, n restant fixé, la loi hypergéométrique H(N,M, n) converge la loi binomiale B(n, p), cequi signifie que si (XN)N≥1 est une suite de variable aléatoire avec XN ∼ H(N,M, n) et Y estune variable de loi binomiale B(n, p) alors :

∀k ∈ 0, 1, ..., n limN→+∞

P (XN = k) = P (Y = k)

autrement dit :

∀k ∈ 0, 1, ..., n limN→+∞

CkM × Cn−k

N−MCnN

= Cknp

k(1− p)n−k

3.3.5 Lois géométriquesExemple 3.3.2. Une variable aléatoire X suit la loi géométrique de paramètre p ∈]0, 1[, siX(Ω) = N∗ et :

∀k ∈ N∗, P (X = k) = (1− p)k−1p

Notation. X ∼ G(p)G(p) est la loi du nombre de tentatives en n épreuves indépendantes.

3.3.6 Lois de PoissonDéfinition 3.3.5. On dit que la variable aléatoire discrèteX suit la loi de Poisson de paramètreλ > 0, si l’ensemble des valeurs possibles est X(Ω) = N et :

∀k ∈ N P (X = k) = e−λλk

k!Notation. X ∼ P(λ)

3.4 Variables aléatoires continues3.4.1 GénéralitésDéfinition 3.4.1. Soit X une variable aléatoire à valeurs dans R et fX une densité de pro-babilité sur R. On dit que X est une variable aléatoire continue de densité fX si pour toutintervalle A de R on a :

P (X ∈ A) =∫AfX(x)dx

La loi de la variable aléatoire X est la loi continue sur R de densité fX .

Pour déterminer la loi d’une variable aléatoire continue, il faut donc calculer sa densité.De manière équivalente, on déterminer la loi d’une variable continue en donnant la probabilitéqu’elle appartienne à un intervalle I quelconque.

Une variable aléatoire continue X, de densité fX , tombe entre a et b avec une probabilitéégale à :

P (a < X < b) =∫ b

afX(x)dx

Page 22: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

22 Chapitre 3. Variables aléatoires

Plus la densité fX est élevée au dessus d’un segment, plus les chances que X a d’atteindre cesegment sont élevées, ce qui justifie le terme "densité".

On a :P (X ∈ [a, b]) = P (X ∈ [a, b[) = P (X ∈]a, b[) = P (X ∈]a, b[)

3.4.2 Loi pour les variables aléatoires continuesLoi uniforme

X ∼ U [a, b] alors :fX(x) = 1

b− a1[a,b]

Loi gausienne (loi normale)

X ∼ N (a, σ2), a ∈ R2, σ ≥ 0, si :

fX(x) = 1√2πσ

exp(−(x− a)2

2σ2

)

3.4.3 Analogie entre variable aléatoire continue et discrète

F (x) = PX ≤ x = PX ∈]−∞, x] =∫]−∞,x]

fX(t)dt =∫ t

−∞fX(t)dt

Page 23: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3. Variables aléatoires 23

3.5 Indépendance des variables aléatoires

3.5.1 IntroductionSoient X et Y deux variables aléatoires. On a :

X ∈ B Y ∈ C

On va dire que X et Y sont indépendants si les événements X ∈ B et Y ∈ C sontindépendants.

3.5.2 GénéralitésDéfinition 3.5.1. Soient X1, ..., Xn variables aléatoires. On dit qu’ils sont indépendants si lesévénements X1 ∈ B1,...,Xn ∈ Bn sont indépendants, ∀B1, ..., Bn ⊂ R.

Theorème 3.5.1. X1, ..., Xn variables aléatoires discrètes et aj alors :

X1, ..., Xn indépendants⇔ PX1 = aj1 , ..., Xn = ajn =n∏k=1

PXk = ajk

pour chaque j1, ..., jn.

Démonstration. (⇒) Bk = ajk alors X1 = aj1,...,Xn = ajn sont indépendants. On aalors :

PX1 = aj1 , ..., Xn = ajn =n∏k=1

PXk = ajk

(⇐)PX1 ∈ B1, ..., Xn ∈ Bn =

∏PXk ∈ Bk

On remarquera que :

X1 ∈ B1, ..., Xn ∈ Bn =⋂(∗)X1 ∈ aj1 , ..., Xn ∈ ajn

avec (∗) = (j1, ..., jn) | ajk ∈ Bk pour k = 1, ..., n.

PX1 ∈ B1, ..., Xn ∈ Bn =∑(∗)PX = aj1 , ..., Xn = ajn

=∑(∗)

n∏k=1

PXk = ajk

=∏∑

PXk = ajk

=n∏k=1

PXk ∈ Bk → indépendants

car :

PAi∩Aj∩Ak = PXi ∈ Bi, Xj ∈ Bj, Xk ∈ Bk = PX1 ∈ R, ..., Xi−1 ∈ R, Xi ∈ Bi, Xi+1 ∈ R, ...

Page 24: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

24 Chapitre 3. Variables aléatoires

3.6 Epreuves de BernouilliDéfinition 3.6.1. Soit k un événement et εk sa variable aléatoire dont les valeurs de εk sont 0et 1 (de probabilités respectives q = 1− p et p). On considère la suite (ε1, ..., εn) avec ε1, ..., εnindépendants. On appelle la suite de n épreuves de Bernouilli l’ensemble des εk, ∀k = 1, ..., n.Les événements εk suivent la loi de Bernouilli de paramètre p.

Soit νn le nombre de succès de ces n événements alors :

νn =n∑k=1

εk

Proposition 3.6.1. νn ∼ B(n, p) c’est-à-dire :

pn(k) = Pνn = k = Cknp

k(1− p)n−k, ∀k ∈ 1, ..., n

Démonstration.

Pνk = k =∑(∗)Pε1 = a1, ε2 = a2, ..., εn = an (N)

avec (∗) = (a1, ..., an) | ai = 0, 1 etn∑i=1

ai = k.

νk = k =⋂(∗)ε1 = a1, ε2 = a2, ..., εn = an

Pε1 = a1, ..., εn = an =∏Pεk = ak = pk(1− p)n−k

(N) = pk(1− p)n−k card(A)avec :

A =

(a1, ..., an)∣∣∣∣ai =

01

etn∑i=1

ai = k

et card(A) = Cn

k .

Theorème 3.6.2 (Poisson). Soit pn(k) et p = pn tel que npn → λ. Alors ∀k, pn(k)→ λk

k! e−λ.

Démonstration.pn(k) = n!

k!(n−k)!pk(1− p)n−k

= 1k!n(n− 1)...(n− k + 1)pk(1− p)n−k

= 1k!

(n−1)...(n−k+1)nk−1 (np)k(1− p)n−k

= 1k

(n− 1n

...n− k + 1

n

)︸ ︷︷ ︸

An

(np)k︸ ︷︷ ︸Bn

(1− p)n−k︸ ︷︷ ︸Cn

On alors :

An = n− 1n

n− 2n

...n− k + 1

n=(1− 1

n

)(1− 2

n

)...

(1− k − 1

n

)→ 1

Bn = (np)k = (npn)k → λk

Cn = (1− p)n−k =(1 + xn

n

)n 1(1 + xn

n)n

avec xn = npn → −λ→ e−λ. D’où la formule.

Page 25: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 3. Variables aléatoires 25

Theorème 3.6.3 (Théorème local de Moivre-Laplace). Soit Sn une variable aléatoire qui suitune loi binomiale de paramètre p alors pour n suffisamment grand la variable :

Zn = Sn − np√npq

converge en loi vers une loi normale centrée N (0, 1).

pn(x) = 1npq

1√2πe−x

2nk/2

c’est-à-dire :maxk∈In

∣∣∣∣∣pn(k)fn(k)− 1

∣∣∣∣∣→ 0

avec In = k | |xnk ≤ C et xnk = k−np√npq

.

Page 26: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 4

Espérance mathématique

4.1 Généralités4.1.1 Aspect discretDéfinition 4.1.1. Soit X une variable aléatoire vérifiant :∑

xk∈X(Ω)|xk|P (X = xk) <∞

On appelle espérance mathématique de X le réel EX défini par :

EX =∑

xk∈X(Ω)xkP (X = xk)

L’espérance de X apparaît ainsi comme le barycentre des valeurs possibles de X pondérées parleurs probabilités de réalisation.

Propriété 4.1.1. 1) Si X = c alors EX = c

2) Si X > 0 alors EX ≥ 03) E(aX) = aEX (Linéarité de l’espérance)

Démonstration du 3). X = aj ⇔ aX = aaj

E(aX) =∑j

aajpj = a∑j

ajpj = aEX

4) E(X + Y ) = EX + EY

Démonstration du 4). Soit X = ai, pi = PX = ai et Y = bj, qj = PY = bj. Soit :

A =⋃j

(A ∩ y = bj)

On a :pi = PX = ai =

∑j

PX = ai, Y = bj

qj = pY = bj =∑i

PX = ai, Y = bj

26

Page 27: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 4. Espérance mathématique 27

EX + EY =∑i

aipi +∑j

bjaj

=∑i

ai

∑j

PX = ai, Y = bj

+∑j

bj

(∑i

PX = ai, Y = bj)

=∑i

∑j

aiPX = ai, Y = bj+∑j

∑i

bjPX = ai, Y = bj

=∑i

∑j

(ai + bj)PX = ai, Y = bj = E(X + Y )

Remarque. Si∑i

|ai|pi =∞ alors X n’a pas d’espérance mathématiques.

5) X ≥ Y ⇒ EX ≥ EY

Démonstration du 5).

X − Y ≥ 0⇒ E(X − Y ) ≥ 0⇒ EX − EY = 0

6) |EX| = E|X|

Démonstration du 6).−|X| ≤ X ≤ |X|

−E|X| ≤ EX ≤ E|X| ⇔ |EX| ≤ E|X|

Exemple 4.1.1. 1) X =

0, 1− p1, p

, Bernouilli :

EX = 0(1− p) + p = p

2) X ∼ B(n, p), k = 0, 1, ..., n :Pn(k) = Ck

npk(1− p)n−k

EX =n∑k=0

kCknp

k(1− p)n−k

Remarque. Si X suit la même loi que Y alors EX = EY .Soit νn ∼ B(n, p), E(X) = E(νn). On a que νn = ε1 + ...+ εn :

EX = Eνn = E(ε1 + ...+ εn)

= Eε1 + ...+ Eεn = np =n∑k=0

kCknp

k(1− p)n−k

Page 28: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

28 Chapitre 4. Espérance mathématique

3) Soit X suivant une loi de Poisson, k = 0, 1, 2, ...

PX = k = λk

k! e−λ

On a :EX =

∞∑k=0

kλk

k! e−λ = e−λ

∞∑k=1

kλk

k!

= λe−λ∞∑k=1

λk−1

(k − 1)! = λe−λeλ = λ

4.1.2 Aspect continuDéfinition 4.1.2. Soit X une variable aléatoire continue de densité p(x) ≥ 0. On a :

PX ∈ I =∫Ip(x) = 0

On note Xh = hk si X ∈ [kh, (k + 1)h[. On a alors que :

E(Xh) =∑k∈Z

khXh = kh =∑k∈Z

kh∫ kh+h

khp(x)dx =

∑k∈Z

∫ kh+h

khkhp(x)dx

=∑k∈Z

∫ +∞

−∞1∆k

(x)p(x)dx =∫ ∞−∞

∑k∈Z

1∆k(x)p(x)dx

=∫ ∞−∞

gh(x)p(x)dx =∫ ∞−∞

xp(x)dx

Elle existe si : ∫ ∞−∞|x|p(x)dx <∞

4.1.3 Retour à l’aspect discretProposition 4.1.2. X, Y deux variables discrètes et indépendantes. Alors :

E(XY ) = EXEY

Démonstration. Soit X de valeurs ai et de probabilité pi et Y de valeurs bj et de probabilité qjalors :

EXEY =∑i

aipi∑j

bjqj =∑i

∑j

aibjpiqj

=∑i

∑j

aibjPX = aiPY = bj =∑i

∑j

PX = ai, Y = bj = E(XY )

Proposition 4.1.3. Soit X de valeurs ai et de probabilité pi. Soit f : R → R tel que pourY = f(X), EY existe. Alors :

EY = Ef(X) =∑i

f(ai)pi

Page 29: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 4. Espérance mathématique 29

Démonstration. Soit Y de valeurs bj et de probabilités qj :

EY =∑j

bjPY = bj (∗)

On a :PY = bj = Pf(X) = bj (∗′)

On pose :Tj = k|f(ak) = bj

Alors :(∗′) =

∑k∈Tj

pk

et :

(∗) =∑j

bj

∑k∈Tj

pk

=∑j

∑k∈Tj

f(ak)pk

=∑i

f(ai)pi

Exemple 4.1.2. 1) Si X suit la loi uniforme sur l’ensemble fini x1, ..., xn, EX est égale à lamoyenne arithmétique des xi.

2) Si X suit la loi géométrique de paramétre p > 0 alors :

EX = 1p

3) Si X suit la loi hypergéométrique H(N,M, n) alors :

EX = nM

N

Des exemples sont données dans le polycopié de cours.

Exemple 4.1.3. 1) X ∼ U([a, b])

p(x) = 1b− a

1[a,b](x)

EX =∫ ∞−∞

xp(x)dx =∫ b

ax

1b− a

dx = 1b− a

[x2

2

]ba= a+ b

22) X ∼ N (a, σ2) alors EX = a.

4.2 MomentsDéfinition 4.2.1. Les expressions EXn, E|X|p, E|X − EX|p sont des moments.• EXn est le moment de X d’ordre n.• E|X|p est le moment absolu de X d’ordre p.• E|X − EX|p est le moment absolu centré d’ordre p.

Définition 4.2.2. On appelle variance de X :

VarX = E|X − EX|2

Page 30: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

30 Chapitre 4. Espérance mathématique

Propriété 4.2.1. VarX = E(X)2 − (EX)2

Démonstration.

VarX = E|X − EX|2 = E(X2 − 2XEX + (EX)2) = E(X2)− 2EXEX + (EX)2

Exemple 4.2.1.

ε =

0 1− p1 p

, Eε = p

Var ε = E(ε2)− p2 = p− p2 = p(1− p)

Propriété 4.2.2. VarX ≥ 0 et VarX = 0⇔ X = c

Propriété 4.2.3. Var(cX) = c2 VarX

Démonstration.

E(cX − E(cX)|2 = E|c− (X − EX)|2 = c2E|X − EX|2

Propriété 4.2.4. Var(X + a) = VarX

Propriété 4.2.5. X, Y indépendantes alors : Var(X + Y ) = VarX + VarY

Démonstration. Soit a = EX et b = EY

Var(X + Y ) = Var(X + Y − (a+ b)) = Var(X − a+ Y − b) (∗)

On note X1 = X − a et Y1 = Y − b.

(∗) = E(X1 + Y1)2 = EX21 + EY 2

1 + 2E|X1Y1|

= EX21 + EY 2

1 = VarX + VarY

Exemple 4.2.2. X ∼ B(n, p), EX = np

VarX =n∑k=0|k − np|2Ck

npk(1− p)n−k

On a que X ∼ νn

VarX = Var(νn) = Var(ε1 + ...+ εn) = Var ε1 + ...+ Var εn = np(1− p)

Page 31: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 4. Espérance mathématique 31

4.3 Inégalité de Markov et TchebychevProposition 4.3.1 (Inégalité de Markov). Soit X ≥ 0, alors ∀t ≥ 0

PX ≤ t ≤ EXt

Démonstration dans le cas discret. Soit X de valeurs ai et de probabilité pi. On a que ai ≥ 0

PX ≤ t =∑i|ai≥t

pi ≤∑i|ai≥t

aitpi ≤

1t

∑i

aipi = EXt

Proposition 4.3.2 (Inégalité de Tchebychev). Soit X une variable alétaoire tel que EX etVarX existent alors ∀t ≥ 0 :

P|X − EX| ≥ t = VarXt2

Démonstration.

P|X − EX| ≥ t = P|X − EX|2︸ ︷︷ ︸Y

≥ t2︸︷︷︸s

= EYs

= E|X − EX|2t2

= VarXt2

Page 32: M206ICP : Introduction au calcul des probabilités · UniversitédesSciencesetTechnologiesdeLille U.F.R.deMathématiquesPuresetAppliquées M206ICP : Introduction au calcul des probabilités

Chapitre 5

Loi des grands nombres

5.1 Loi des grands nombresTheorème 5.1.1 (Loi des grands nombres). Soit (Xn) variables aléatoires de même loi, EXk =a, VarXk = σ2 <∞. Alors :

Snn

P−→ a

Notation.n∑k=1

Xk = Sn

Définition 5.1.1. Yn P−→ Y si ∀ε > 0 :

P|Yn − Y | > ε −−−−→n→+∞

0

Démonstration. Soit ε > 0

P∣∣∣∣Snn − a

∣∣∣∣ < ε≤ E

(Snn− a

)≤

Var(Snn− a

)ε2 =

1n2 VarSn

ε2 = 1ε2

1n2

n∑i=1

Var(Xi)

= 1ε2nσ2

n= σ2

ε21n−−−−→n→+∞

0

Exemple 5.1.1. Soit A de valeurs εi de probabilité p :

εi =

1 si A à la i-ème épreuve0 si AC à la i-ème épreuve

nAn

= ε1 + ...+ εnn

P−→ Eε1 = p = P (A)

32