554
CLÉMENT BOULONNE L EÇONS À L ORAL DU CAPES DE M ATHÉMATIQUES Session 2019 Recueil compilé par Clément Boulonne Collection CAPES - 2019

LEÇONS À L ORAL DU CAPES DE MATHÉMATIQUES · 2019-06-06 · Pour terminer cette introduction à mon polycopié, laissez moi vous rappeler ce qu’attend le Jury pendant votre présentation

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • CLÉMENT BOULONNE

    LEÇONS À L’ORAL DU CAPES DEMATHÉMATIQUES

    Session 2019

    Recueil compilé par Clément Boulonne

    Collection CAPES - 2019

  • ii

  • Table des matières

    Avertissement

    L’ensemble de l’épreuve s’inscrit dans le cadre des programmes de mathématiques du collège etdes différentes séries du lycée général et technologique. La capacité du candidat à illustrer lesujet par des exemples sera valorisée.

    1 Expérience aléatoire, probabilité, probabilité conditionnelle 3

    2 Variables aléatoires discrètes 11

    3 Loi binomiale. Applications. 21

    4 Variables aléatoires réelles à densité 35

    5 Statistique à une ou deux variables, représentation et analyse des données 49

    6 Multiples et diviseurs dans N, nombres premiers 63

    7 PGCD et PPCM dans Z. Applications. 83

    8 Forme trigonométrique d’un nombre complexe. Applications. 91

    9 Trigonométrie. Applications. 103

    10 Géométrie vectorielle dans le plan et dans l’espace 117

    11 Repérage dans le plan, dans l’espace, sur une sphère 139

    12 Droites et plans dans l’espace 159

    13 Transformations du plan. Frises et pavages. 169

    14 Relations métriques et angulaires dans le triangle 191

    15 Solides dans l’espace : représentations et calculs de volume 207

    16 Périmètres, aires et volumes 221

    17 Produit scalaire dans le plan et dans l’espace 243

    18 Proportionnalité et géométrie 255

  • iv TABLE DES MATIÈRES

    19 Problèmes de constructions géométriques 273

    20 Problèmes d’alignement, de parallélisme, d’intersection 289

    21 Proportionnalité et linéarité. Applications. 305

    22 Systèmes d’équations linéaires et systèmes d’inéquation linéaires. Applications. 315

    23 Problèmes conduisant à une modélisation par des équations ou des inéquations 329

    24 Résolution de problèmes à l’aide de graphes orientés ou non orientés 343

    25 Problèmes conduisant à une modélisation par des matrices 355

    26 Problèmes conduisant à l’utilisation d’algorithmes 369

    27 Différents types de raisonnement en mathématiques 385

    28 Applications des mathématiques à d’autres disciplines 399

    29 Fonctions polynômes du second degré. Équations et inéquations du second degré.Applications. 409

    30 Suites numériques. Limites. 423

    31 Limite d’une fonction réelle de variable réelle 451

    32 Théorème des valeurs intermédiaires. Applications. 463

    33 Nombre dérivé. Fonction dérivée. Applications. 471

    34 Fonctions exponentielle et logarithme. Applications. 487

    35 Intégrales, primitives. 515

    36 Exemples de calculs d’intégrales (méthodes exactes, méthodes approchées) 529

    37 Problèmes conduisant à une modélisation par des suites ou par des fonctions 541

  • Préface

    À Seclin, le 30 avril 2019

    Chères lectrices, chers lecteurs.

    La liste des leçons requises pour le CAPES de Mathématiques (option Mathématiques) a étéencore une fois remaniée. On est passé de 38 leçons à 37. Cette année encore (2019), j’ai modifiéle contenu de mon polycopié « Les leçons à l’oral du CAPES de Mathématiques 2019 ».

    Vous y retrouverez des remaniements de leçons conformes à la liste des leçons requises pourla session 2019. J’ai aussi opéré les changements que certains lecteurs m’ont signalé par email.

    Je tenais donc à remercier :— G. ESCANDELL et M. CUDEL qui m’ont envoyé un rapport d’erreurs sur l’entièreté du

    polycopié,— K. NOUR pour sa proposition d’amélioration de la leçon 27 : « Différents types de raison-

    nements mathématiques,— S. COUTARD pour son rapport d’erreur sur la leçon 29 : « Fonctions polynômes du second

    degré. Équations et inéquations du second degré. Applications. »,— C. BRIS pour son rapport d’erreur sur la leçon 1 : « Expérience aléatoire, probabilité,

    probabilité conditionnelle » ,— R. CALVEZ pour son rapport d’erreur sur la leçon 16 : « Périmètres, aires et volumes ».

    Pour terminer cette introduction à mon polycopié, laissez moi vous rappeler ce qu’attend leJury pendant votre présentation de leçons :

    « L’épreuve comporte un exposé du candidat suivi d’un entretien avec le jury. Elle prend appuisur les programmes de mathématiques du collège et des différentes séries du lycée général ettechnologique. Les notions ,traitées dans ces programmes doivent pouvoir être abordées avec unrecul correspondant au niveau M1 du cycle master.

    L’épreuve permet d’apprécier la capacité du candidat à maîtriser et organiser des notions surun thème donné, et à les exposer de façon convaincante. Elle consiste en la présentation d’un planhiérarchisé qui doit mettre en valeur le recul du candidat par rapport au thème. Le candidat choisitun sujet parmi deux qu’il tire au sort. Pendant vingt minutes, il expose un plan d’étude détailléedu sujet qu’il a choisi. Cet exposé est suivi du développement par le candidat d’une partie de ceplan d’étude, choisie par le jury, puis d’un entretien portant sur ce développement ou sur tout autreaspect en lien avec le sujet choisi par le candidat. »

    Dans chaque chapitre de ce polycopié, vous aurez une proposition de plan (proposition ne veutpas dire qu’il faut ABSOLUMENT adopter ce plan pour le jour J) et ce qu’il faut exposer pendantl’épreuve.

    Bien entendu, dans la première partie, il faut faire un plan détaillé de la leçon, c’est-à-direécrire les titres et les résultats importants, faire des passerelles pour l’entretien du jury. Dans une

  • 2 TABLE DES MATIÈRES

    seconde partie, on pourra s’attarder sur les démonstrations et solutions de problèmes (les dévelop-pements de plan sont indiqués par le symbole ♦).

    Veillez à bien avoir des connaissances solides sur le thème. Il faut aller jusqu’aux notions vuesen Licence et ne pas se planter sur les connaissances basiques vues au collège et lycée.

    Enfin, si vous voyez encore des fautes typographiques ou mathématiques, si vous avez despropositions de plans pour tel ou tel leçon, vous pouvez m’envoyer un mail (mail indiqué dans larubrique Contact de mon site). Grâce à vous, le polycopié évolue d’année en année.

    Je vous souhaite bonne lecture et bonnes révisions.

    Clément BOULONNE (http://cbmaths.fr/)

    http://cbmaths.fr/

  • Leçon 1

    Expérience aléatoire, probabilité,probabilité conditionnelle

    NIVEAU LycéePRÉREQUIS théorie des ensembles

    RÉFÉRENCES [1, 2]

    1.1 Expérience aléatoire, événements

    1.1.1 Expérience aléatoire

    Définition 1.1. On dit qu’on fait une expérience de type aléatoire si on ne peut pas prévoir lerésultat final de cette expérience.

    Exemples 1.2. 1. On lance une pièce et on observe le côté exposé (pile ou face). Il y a deuxissues possibles sur cette expérience.

    2. On dispose d’une urne avec 100 boules, on tire une d’entre elles et on note le numéro.Cette expérience aléatoire a 100 issues possibles.

    Définition 1.3 (Univers). L’ensemble de toutes les issues d’une expérience aléatoire est appeléunivers. On note généralement cet ensemble Ω.

    Remarque 1.4. Dans cette leçon, on se limitera au cas où Ω est un ensemble fini.Exemple 1.5. On reprend les expériences de l’exemple 1.2

    1. Si on lance une pièce de monnaie, on obtient Ω = {P, F}.2. Si on tire une boule numérotée dans une urne où il en contient 100 alors Ω = {1, 2, . . . , 100}.

    1.1.2 Evénement associé à une expérience aléatoire

    Dans ce qui suit, nous allons décrire ce qu’est un événement :

    Définition 1.6 (Vocabulaire des évènements). — Un événement élémentaire (qu’on noteω) est ce qui constitue l’une des issue de la situation étudiée (un élément de Ω).

    — Un événement est un ensemble de plusieurs issues.— L’événement «A et B » (qu’on note A ∩ B) est l’événement constitué des issues com-

    munes aux deux événements.

  • 4 LEÇON NO1 • PROBABILITÉ

    — L’événement «A ouB » (qu’on noteA∪B) est l’événement constitué de toutes les issuesdes deux événements.

    — Deux événements incompatibles A et B (qu’on note A ∩ B = ∅) sont deux événementsqui n’ont pas d’éléments en commun.

    — L’événement est dit contraire de A (qu’on note A) si A et A sont incompatibles et A∪Aforme la totalité des issues.

    Exemples 1.7. On lance deux dés équilibrés. On calcule la somme des numéros qui apparaissentsur la face du dessus des deux dés.

    1. Obtenir un 7 est un événement élémentaire : ω = {7}.2. Obtenir un nombre pair est un événement :

    A = {2, 4, 6, 8, 10, 12} .

    3. Obtenir un multiple de trois est un événement :

    B = {3, 6, 9, 12} .

    4. A ∩B = {6, 12}.5. A ∪B = {2, 3, 4, 6, 8, 9, 10, 12}.6. Si C = {10, 11, 12} et D = {2, 3, 4, 5, 6} alors C ∩ D = ∅ donc C et D sont incompa-

    tibles.7. Ici, A représente l’événement « obtenir une somme impaire ». Ainsi, A représnte l’événe-

    ment « obtenir une somme paire » et en plus :— A ∩A = ∅.— A ∪A = Ω.

    1.2 Probabilité

    1.2.1 Loi de probabilités sur un univers Ω

    Définition 1.8. Soit Ω l’univers d’une expérience aléatoire. Définir une loi de probabilité P surΩ, c’est associer, à chaque événement élémentaire ωi, des nombres pi ∈ [0 ; 1] tels que :∑

    i

    pi = 1.

    On appelle les nombres pi, les probabilités (qu’on peut noter pi = P (ωi)).

    PROPOSITION 1.9 (PRINCIPE FONDAMENTAL). La probabilité P (E) d’un événement E estla somme des probabilités des événements élémentaires qui le composent.

    Corollaire 1.10. P (Ω) = 1.

    Remarque 1.11. Dans le corollaire 1.10, on sous-entend qu’il y a n (n ∈ N) événements élémen-taires dans Ω et on fait l’hypothèse d’équiprobabilité (voir définition 1.15).

    ♦ Démonstration du corollaire 1.10.

    P (Ω) = P(⋃

    i

    ωi

    )=∑i

    P (ωi) =∑i

    1n

    = 1.

  • 1.2 Probabilité 5

    Exercice 1.12. On se donne les probabilités d’apparition des faces d’un dé truqué :

    Issue ω 1 2 3 4 5 6Probabilités P (ω) 0, 05 0, 05 0, 1 0, 1 0, 2 inconnue

    1. Calculer la probabilité de l’événement A = « obtenir un résultat inférieur ou égal à 4 ».2. Calculer la probabilité d’obtenir un 6.

    ♦ Solutions de l’exercice 1.12. 1. On veut calculer la probabilité de l’événement A = « ob-tenir un résultat inférieur ou égal à 4 ». D’après le principe :

    P (A) = P (1) + P (2) + P (3) + P (4) = 0, 05 + 0, 05 + 0, 1 + 0, 1 = 0, 3.

    2. On veut calculer la probabilité d’obtenir un 6. Le corollaire 1.10 nous donne :

    P (1) + P (2) + P (3) + P (4) + P (5) + P (6) = 1

    donc P (6) = 0, 5.

    Définition 1.13. [Autre définition] Soit Ω un unique et A = P (Ω) l’ensemble des parties de Ω(c’est-à-dire l’ensemble de tous les événements associé à cette expérience aléatoire). On appelleprobabilité P toute application de P(Ω) dans R+ qui vérifie :

    1. P (Ω) = 12. Soit (Ai)i∈I avec I ⊂ N une famille d’événements de P(Ω) deux à deux disjoints (sii 6= j alors Ai ∩Aj = ∅) alors :

    P

    (⋃i∈I

    Ai

    )=∑i∈I

    P (Ai).

    1.2.2 Propriétés de calcul des probabilités

    PROPRIÉTÉS 1.14. Soient A,B ⊂ Ω. Alors :1. P (∅) = 0.2. P (A) = 1− P (A).3. P (A \B) = P (A)− P (A ∩B).4. A ⊂ B ⇒ P (A) ≤ P (B).5. P (A ∪B) = P (A) + P (B)− P (A ∩B).

    Démonstration. ♦

    1. On applique 2 de la définition 1.13 à A et ∅ (ils sont disjoints car A ∩ ∅ = ∅) d’où :

    P (A ∪ ∅) = P (A) + P (∅)⇔ P (A) = P (A) + P (∅)

    et donc on en déduit que P (∅) = 0.2. Comme A ∩A = ∅ et A ∪A = ∅, on a :

    P (A ∪A) = P (A) + P (A)⇔ P (Ω) = P (A) + P (A).

    Or P (Ω) = P (A ∪A) = 1, d’où P (A) = 1− P (A).

  • 6 LEÇON NO1 • PROBABILITÉ

    3. On a : A = (A \ B) ∪ (A ∩ B), de plus (A \ B) et A ∩ B sont disjoints donc on peutappliquer la définition :

    P (A) = P (A \B) + P (A ∩B).

    4. A ⊂ B implique que B = (B ∩ A) ∪ A. Cette réunion d’ensembles est en plus disjointedonc :

    P (B) = P (A) + P (B ∩A).

    Comme P (B ∩A) ≥ 0, P (A) ≤ P (B).

    5. On a :A ∪B = (A \B) ∪ (A ∩B) ∪ (B \A).

    Les ensembles présents dans la réunion sont deux à deux disjoints donc :

    P (A ∪B) = P (A \B) + P (A ∩B) + P (B \B)= P (A)− P (A ∩B) + P (A ∩B) + P (B)− P (A ∩B)= P (A) + P (B)− P (A ∩B).

    1.2.3 Équiprobabilité

    Définition 1.15 (Équiprobabilité). Si tous les éléments de Ω (l’univers d’une expérience aléa-toire) ont la même propriété d’apparition alors Ω est dit équiprobable. Si Ω = {a1, . . . , an}alors :

    P ({ai}) =1n, pour tout 1 ≤ i ≤ n.

    PROPRIÉTÉ 1.16. Si Ω est équiprobable, la probabilité d’un événement A ⊂ Ω contenant nAéléments est :

    P (A) = 1n

    + 1n

    + · · ·+ 1n︸ ︷︷ ︸

    nA fois

    = nAn

    = card(A)card(Ω) .

    Exercice 1.17. On lance un dé (non truqué), ainsi Ω = {1, 2, 3, 4, 5, 6}. On est dans le cas d’uneéquiprobabilité.

    1. Calculer la probabilité d’obtenir un 5.

    2. Calculer la probabilité d’obtenir un nombre pair.

    ♦ Solutions de l’exercice 1.17. 1. La probabilité d’avoir un 5 est P (5) = 16 ({5} étant unévénement élémentaire).

    2. Comme l’événement « obtenir un nombre pair » est l’ensemble T = {2, 4, 6}. On a :card(T ) = 3, d’où :

    P (T ) = 36 =12 .

  • 1.3 Probabilité conditionnelle 7

    1.3 Probabilité conditionnelle

    1.3.1 Un exemple pour débuter

    Exemple 1.18. On considère une population de 500 individus parmi lesquels il y a 180 femmeset 90 des 500 individus ont l’allèle du daltonisme. On choisit un individu au hasard dans cettepopulation (c’est une expérience aléatoire). On note :

    F = « l’individu choisi est une femme »D = « l’individu choisi possède l’allèle du daltonisme »

    ♦ L’univers Ω est l’ensemble des individus, il est équiprobable. Chaque individu a la même pro-babilité d’être choisi, cette probabilité est égale à 1500 . Donc :

    P (D) = card(D)card(Ω) =90500 = 0, 18.

    Maintenant, on se restreint à la sous-population des femmes. On sait que 9 femmes possèdentl’allèle du daltonisme. L’univers Ω′ est l’ensemble des femmes F . Il est équiprobable. Chaquefemme a une chance sur 180 d’être choisie.

    On cherche la probabilité qu’une femme choisi au hasard possède l’allèle du daltonisme :

    card(D ∩ F )card(Ω′) =

    9180 = 0, 05.

    On note cette probabilité :

    PF (D) =card(D ∩ F )

    card(F ) =P (D ∩ F )P (F ) .

    1.3.2 Probabilité conditionnelle

    Définition 1.19. Soit F un événement de probabilité strictement positive (c’est-à-dire F ⊂ Ω etP (F ) > 0). On appelle probabilité conditionnelle à F , l’application PF : P(Ω) → [0 ; 1] telleque :

    PF : P(Ω) → [0 ; 1]

    A 7→ PF (A) =P (A ∩ F )P (F )

    .

    PROPOSITION 1.20. L’application PF est une probabilité.

    ♦ Démonstration de la proposition 1.20. On vérifie que PF prend ses valeurs dans [0 ; 1]. Si A ∩F ⊂ F alors P (A ∩ F ) ≤ P (F ) et ainsi :

    P (A ∩ F )P (F ) = PF (A) ≤ 1

    et PF (A) ≥ 0 comme quotient de deux probabilités. On vérifie le point 1 de la définition 1.13 :

    PF (Ω) =P (Ω ∩ F )P (F ) =

    P (F )P (F ) = 1.

  • 8 LEÇON NO1 • PROBABILITÉ

    On vérifie ensuite le point 2 de la définition 1.13. Soit (Ai)i∈I une famille d’événements dans Ωdeux à deux disjoints.

    PF

    (⋂i∈I

    Ai

    )= P ((

    ⋃i∈I Ai) ∩ F )P (F ) =

    P (⋃i∈I(Ai ∩ F ))P (F ) .

    Mais Ai ∩ F ⊂ Ai donc tous les (Ai ∩ F ) sont deux à deux disjoints et :

    PF

    (⋂i∈I

    Ai

    )=∑i∈I P (Ai ∩ F )P (F ) =

    ∑i∈I

    P (Ai ∩ F )P (F ) =

    ∑i∈I

    PF (Ai).

    PROPRIÉTÉ 1.21 (PROBABILITÉS COMPOSÉES). Soit Ω un univers, F etA deux événementstel que P (F ) > 0. Alors,

    P (A ∩ F ) = PF (A)× P (F ) = PA(F )× P (A).

    1.3.3 Formule des probabilités totales et de Bayes

    PROPRIÉTÉ 1.22 (FORMULE DES PROBABILITÉS TOTALES). Soit {E1, E2, . . . , En} unepartition de Ω d’événements non vides. Soit A ⊂ Ω. Alors :

    P (A) =n∑i=1

    PEi(A)× P (Ei).

    Exemple 1.23. On considère deux urnes U1 et U2. L’urne U1 contient 6 boules rouges et 4 boulesvertes et l’urne U2 contient 7 boules vertes et 3 boules rouges. On lance un dé. S’il indique lechiffre 1, on choisit l’urne U1 sinon on choisit l’urne U2. On effectue ensuite deux tirages avecremise. On cherche la probabilité d’avoir tiré deux rouges en tout.

    ♦ On note :

    R = {rouge au 1er tirage} , R′ = {rouge au 2e tirage} ,H1 = {choix de l’urne U1} , H2 = H1 = {choix de l’urne U2} .

    On a ainsi :

    PH1(R) =610 =

    35 , PH1(R ∩R

    ′) =(3

    5

    )2PH2(R) =

    310 , PH2(R ∩R

    ′) =( 3

    10

    )2.

    La forme de conditionnement donne :

    P (R) = PH1(R)P (H1) + PH2(R)P (H2)

    = 16 ×35 +

    56 ×

    310 =

    110 +

    14 =

    4 + 1040 =

    720

    et

    P (R ∩R′) = PH1(R ∩R′)P (H1) + PH2(R ∩R′)P (H2)

    = 16 ×(3

    5

    )2+ 56

    ( 310

    )2= 27200 .

  • 1.3 Probabilité conditionnelle 9

    PROPRIÉTÉ 1.24 (FORMULE DE BAYES). Soit {E1, E2, . . . , En} une partition d’événementsnon vides de Ω. Soit A ⊂ Ω. Alors :

    PA(Ei) =PEi(A)× P (Ei)∑ni=1 PEi(A)× P (Ei)

    .

    Exemple 1.25. Un test sanguin a une probabilité de 0, 95 de détecter un certain virus lorsquecelui-ci est effectivement présent. Il donne néanmoins un faux résultat positif pour 1% des per-sonnes non infectées. On cherche la probabilité que la personne ait le virus sachant qu’elle estpositif (et on sait que 0, 5% de la population est porteuse du virus).

    ♦ On note :

    V = {la personne testée a le virus} ,T = {la personne testée a un test positif} .

    On cherche PT (V ). Or, on sait que :

    P (V ) = 0, 005, PV (T ) = 0, 95, PV (T ) = 0, 01.

    On en déduit par la formule de Bayes,

    PT (V ) =P (T ∩ V )P (T ) =

    PV (T )P (V )PV (T )P (V ) + PV (T )P (V )

    = 0, 95× 0, 0050, 95× 0, 005 + 0, 01× 0, 995 ≈ 0, 323.

    1.3.4 Indépendance

    Définition 1.26 (Indépendance de deux événements). Deux événements E et F sont indépen-dants si :

    P (E ∩ F ) = P (E)× P (F ).

    Remarque 1.27. D’après la propriété des probabilités composées, P (E) = PF (E) (si P (F ) > 0).Ce résultat correspond à l’idée intuitive que si E et F sont indépendants alors la réalisation de Fn’apporte pas d’information sur E.

    Exemple 1.28. On jette deux fois le même dé. Les événements

    A = {obtention d’un chiffre pair au premier lancer} ,B = {obtention du 1 au deuxième lancer} ,

    sont indépendants.♦ En effet, en prenant Ω = {1, 2, 3, 4, 5, 6}2 et si on fait l’hypothèse d’équiprobabilité dans Ω

    (P équiprobable), on vérifie que :

    P (A) = 3× 636 =12 , P (B) =

    6× 136 =

    16 .

    P (A ∩B) = 3× 136 =112 , P (A)P (B) =

    12 ×

    16 =

    112 .

  • 10 LEÇON NO1 • PROBABILITÉ

    1.3.5 Un exercice pour finir

    Exercice 1.29. Dans une urne sont placés 100 jetons rouges, dont 50 portent le numéro 0 et 50portent le numéro 1. On ajoute dans cette urne 30 jetons verts numérotés 0.

    Combien de jetons verts numérotés 1 faut-il rajouter dans l’urne pour que les événements A :« le jeton est rouge » etB « le jeton est numéroté 0 » soient indépendants lors d’un tirage au hasardd’un jeton de cette urne?

    ♦ Solutions de l’exercice 1.29. Soit x le nombre de jetons verts numérotés 1 qu’il faut rajouterdans l’urne. On peut dresser un tableau à double entrée pour obtenir le nombre de jetons de chaquecatégorie.

    Jetons no 0 no 1Rouges 50 50Verts 30 x

    On veut trouver la valeur de x telle que les événements A : « le jeton est rouge » et B « le jeton estnuméroté 0 » soient indépendants lors d’un tirage au hasard d’un jeton de cette urne. On a ainsi :

    P (A ∩B) = P (A)P (B)⇔ 50130 + x =100

    130 + x ×50 + 30130 + x

    ⇔ 50130 + x =8000

    (130 + x)2 (∗)

    130 + x 6= 0 car x ≥ 0 donc :

    (∗)⇔ 50(130 + x)2 = 8000(130 + x)⇔ 50(130 + x) = 8000⇔ 130 + x = 160⇔ x = 160− 130⇔ x = 30.

    Il faut donc rajouter 30 jetons verts numérotés 1 pour que les événements A : « le jeton est rouge »et B « le jeton est numéroté 0 » soient indépendants lors d’un tirage au hasard d’un jeton de cetteurne.

    Références pour la leçon no 1

    [1] G. COSTANTINI. Probabilité (discrètes). Cours de Première S.

    [2] P. RIBEREAU. Cours 5 Probabilités : Notion, probas conditionnelles et indépendance.

  • Leçon 2

    Variables aléatoires discrètes

    NIVEAU Terminale SPRÉREQUIS probabilités

    RÉFÉRENCES [3], [4], [5]

    2.1 Loi de probabilités. Fonction de répartition

    Dans cette leçon, les variables aléatoires considérées seront discrètes (c’est-à-dire l’ensembleX(Ω) des valeurs prises par X est fini ou dénombrable).

    Soit (Ω,F , P ) un espace probabilisé modélisant une certaine expérience aléatoire. On se placedans le cas où Ω est discret et dans ce cas on supposera que la tribu F des événements est égale àl’ensemble P(Ω) de tous les sous-ensembles de Ω.

    Définition 2.1 (Variable aléatoire discrète). On appelle variable aléatoire discrète définie surΩ toute application X : Ω→ R telle que :

    1. L’ensemble X(Ω) = {xi, i ∈ D} (avec D = {1, 2, . . . , N} si X(Ω) est fini, et D = N∗si X(Ω) est dénombrable) des valeurs prises par X est fini ou dénombrable.

    2. Pour tout xi ∈ X(Ω), on a :

    [X = xi] := {ω ∈ Ω, X(ω) = xi} ∈ F

    (c’est-à-dire l’ensemble [X = xi] est un événement). On dit que c’est l’événement «Xprend la valeur xi ».

    Exemple 2.2. On lance trois fois une pièce non truqué et on compte le nombre de fois où onobtient « Face ». On définit ainsi une variable aléatoire X : Ω→ R avec :

    Ω = {PPP, PPF, PFP, FPP, PFF, FPF, FFP, FFF}

    etX(PPP ) = 0, X(PPF ) = 1, X(PFP ) = 1, X(FPP ) = 1

    X(FFP ) = 2, X(FPF ) = 2, X(PFF ) = 2, X(FFF ) = 3.

    Définition 2.3 (Loi de probabilité). Soit P une probabilité sur un univers Ω. SoitX une variablealéatoire définie sur Ω telle queX(Ω) soit fini de cardinal n. Lorsqu’à chaque valeur xi (1 ≤ i ≤

  • 12 LEÇON NO2 • VARIABLES ALÉATOIRES DISCRÈTES

    n) de X on associe les probabilités pi de l’événement «X = xi », on dit que l’on définit une loide probabilité PX de la variable aléatoire X .

    Exemple 2.4. Dans l’exemple précédent, on a équiprobabilité de Ω (la probabilité d’obtenir undes événements élémentaires étant de 18 ). La probabilité d’obtenir 2 fois le côté face de la pièceest de :

    PX(2) = P (X = 2) =38 .

    Définition 2.5 (Fonction de répartition). La fonction de répartition de la variable aléatoire Xest la fonction F telle que :

    F : R → [0 ; 1]x 7→ F (x) = P (X ≤ x) .

    PROPRIÉTÉ 2.6. La fonction de répartition est toujours une fonction croissante et bornée par 0et 1.

    Exemple 2.7. Avec l’exemple précédent, on a :— Pour x ∈ ]−∞ ; 0[, on a :

    F (x) = 0

    — Pour x ∈ ]0 ; 1], on a :F (x) = 18

    — Pour x ∈ ]1 ; 2], on a :F (x) = 18 +

    38 =

    12

    — Pour x ∈ ]2 ; 3], on a :F (x) = 18 +

    38 +

    38 =

    78

    — Pour x ∈ ]3 ; 4], on a :F (x) = 18 +

    38 +

    38 +

    18 = 1.

    Voici la représentation graphique :

    0, 5

    0, 75

    y

    −3 −2 −1 1 2 3

    x[

    [

    [

    [

    2.2 Espérance mathématique

  • 2.2 Espérance mathématique 13

    Définition 2.8 (Espérance mathématique). Soient Ω l’univers correspondant à une expériencealéatoire, P une probabilité sur Ω et X une variable aléatoire sur Ω telle que X(Ω) soit fini a. Onnote {x1, . . . , xn} l’ensemble X(Ω) (c’est-à-dire l’ensemble des valeurs prises par X . L’espé-rance mathématique de la variable aléatoire X est le nombré, noté E(X), défini par :

    E(X) =n∑i=1

    pixi = p1x1 + p2x2 + · · ·+ pnxn

    où pi = P (X = xi).

    a. Si X(Ω) est infini dénombrable, l’espérance existe encore sous réserve de la convergence (absolue) de la sériede terme général xnpn.

    Remarque 2.9. L’espérance est la moyenne des valeurs xi pondérées par les probabilités pi.

    Exemple 2.10. On reprend l’exemple de la pièce de monnaie. On a :

    E(X) = 18 × 0 +38 × 1 +

    38 × 2 +

    18 × 3 =

    32 .

    Remarque 2.11. On pourrait aussi calculer l’espérance E(X) en revenant aux événements élé-mentaires de l’univers Ω au lieu d’utiliser les valeurs xi de la variable aléatoire X :

    E(X) =∑ω∈Ω

    P (ω)X(ω).

    Exemple 2.12 (Suite à la remarque 2.11).. Sur l’exemple précédent, comme P (ω) = 18 , celadonnerait :

    E(X) = 18∑ω∈Ω

    X(ω)

    = 18[X(PPP ) +X(PPF ) +X(PFP ) +X(FPP )

    +X(PFF ) +X(FPF ) +X(FFP ) +X(FFF )]

    = 18(0 + 1 + 1 + 2 + 1 + 2 + 2 + 3) =32 .

    THÉORÈME 2.13 (LINÉARITÉ DE L’ESPÉRANCE). Soient X et Y deux variables aléatoiresdéfinies sur le même univers Ω de cardinal fini. Soit P une probabilité sur Ω. On a :

    E(X + Y ) = E(X) + E(Y ).

    En particulier, si b est un réel :E(X + b) = E(X) + b

    et pour tout réel k,E(kX) = kE(X).

    ♦ Démonstration du théorème 2.13. On a :

    E(X + Y ) =∑ω∈Ω

    (X + Y )(ω)P (ω)

    =∑ω∈Ω

    X(ω)P (ω) +∑ω∈Ω

    Y (ω)P (ω) = E(X) + E(Y ).

  • 14 LEÇON NO2 • VARIABLES ALÉATOIRES DISCRÈTES

    En prenant Y constante égale à b, on obtient :

    E(X + b) = E(X) + E(b) = E(X) + b.

    De plus,

    E(kX) =n∑i=1

    kpixi = kn∑i=1

    pixi = kE(X).

    2.3 Variance et écart-type

    Définition 2.14 (Variance et écart-type). Soient Ω l’univers correspondant à une expériencealéatoire, P une probabilité sur Ω et X une variable aléatoire sur Ω telle que X(Ω) soit fini. Onnote {x1, . . . , xn} l’ensemble X(Ω) (c’est-à-dire l’ensemble des valeurs prises par X).

    — La variance de la variable aléatoire X est le nombre, notée Var(X), défini par :

    Var(X) = E((X −E(X))2) =n∑i=1

    pi(xi −E(X))2

    = p1(x1 −E(X))2 + · · ·+ pn(xn −E(X))2.

    — L’écart-type de la variable aléatoire X est le nombre, noté σ(X) défini par :

    σ(X) =√

    Var(X).

    Remarques 2.15. 1. La variance est la moyenne des carrés des écarts à la moyenne.

    2. La variance est une quantité positive, donc l’écart-type est bien défini.

    Exemple 2.16. Sur le problème du comptage du côté face, on calcule la variance de X :

    Var(X) = 18

    (0− 38

    )2+ 38

    (1− 32

    )2+ 38

    (2− 32

    )2+ 18

    (3− 32

    )2= 34 .

    D’où :

    σ(X) =√

    Var(X) =√

    34 =

    √3

    2 .

    Exemple 2.17. Montrer que l’espérance E(X) minimise la fonction f définie par R par :

    f(x) =n∑i=1

    pi(xi − x)2

    mais pas la fonction g définie par :

    g(x) =n∑i=1

    pi |xi − x| .

    ♦ Réponse à l’exercice 2.17. La fonction f est dérivable comme somme de fonctions dérivableset on a, pour tout x ∈ R :

    f ′(x) = −2n∑i=1

    pi(xi − x) = −2n∑i=1

    pixi − 2xn∑i=1

    pi = −2(E(X)− x).

  • 2.3 Variance et écart-type 15

    On en déduit :f ′(x) ≥ 0⇔ x ≥ E(X).

    Donc f admet un minimum en E(X) (et ce minimum est f(E(X)) = Var(X). L’espérance estdonc la quantité qui minimise la moyenne des carrés des écarts. Par contre, elle ne minimise ps lamoyenne des écarts. En effet, on considère la variable aléatoire X définie par la loi suivante :

    xi 0 1000pi 0,9 0,1

    On a :E(X) = p1x1 + p2x2 = 1000

    g(E(X)) = p1 |x1 − 1000|+ p2 |x2 − 1000| = 90 + 90 = 180.

    Or :g(0) = E(X) = 100.

    Donc : g(0) < g(E(X)). Conclusion : E(X) ne minimise pas la fonction g et on peut montrerque la médiane est ce minimum.

    THÉORÈME 2.18 (FORMULE DE KOENIG). La variance d’une variable aléatoire X peut secalculer avec la relation suivante :

    Var(X) = E(X2)− [E(X)]2.

    La variance est l’écart entre la moyenne des carrés et le carré de la moyenne.

    ♦ Démonstration de la formule de Koeing. On rappelle que l’espérance d’une variable aléatoireconstante X = b est égale à la constante b. D’après la linéarité de l’espérance :

    Var(X) = E((X −E(X))2) = E(X2 − 2XE(X) + E(X)2)= E(X2)− 2E(X)E(X) + E(X)2E(1)

    D’où Var(X) = E(X2)− [E(X)]2.

    Exemple 2.19. On reprend l’exemple de la pièce de monnaie lancée trois fois de suite. On rappelleque X est le nombre de « face » obtenu. On a déjà calculé E(X), on calcule E(X2) :

    E(X2) = 18 × 02 + 38 × 1

    2 + 38 × 22 + 18 × 3

    2 = 3.

    D’où :Var(X) = E(X2)− [E(X)]2 = 3− 94 =

    34 .

    Corollaire 2.20 (Effet d’un changement affine sur la variance et l’écart-type). Soit X unevariable aléatoire. Soient a et b deux réels. On :

    Var(aX + b) = a2 Var(X) et σ(aX + b) = |a|σ(X).

    En particulier :Var(aX) = a2 Var(X) et σ(aX) = |a|σ(X)

  • 16 LEÇON NO2 • VARIABLES ALÉATOIRES DISCRÈTES

    etVar(X + b) = Var(X) et σ(X + b) = σ(X).

    ♦ Démonstration du corollaire 2.20. D’après la formule de Koeing, on a :

    Var(aX + b) = E(a2X2 + 2abX + b2)− [E(aX + b)]2

    et d’après la linéarité de l’espérance,

    Var(aX + b) = a2E(X2) + 2abE(X) + b2 − [aE(X) + b]2

    = a2E(X2) + 2abE(X) + b2 − a2[E(X)]2 − 2abE(X)− b2

    = a2(E(X2))− a2(E(X))2 = a2(E(X2)−E(X)2) = a2 Var(X).

    D’où, par passage à la racine carrée :

    σ(aX + b) = |a|σ(X).

    Pour montrer la particularisation, il faut remplacer dans chaque formule b = 0 et a = 1 (selon lecas que l’on veut démonter).

    2.4 Exemples de variables aléatoires discrètes

    2.4.1 Loi de Bernoulli

    Définition 2.21. Une expérience de Bernoulli est une expérience qui n’a que deux issues pos-sibles, l’une appelée « succès »qui a pour probabilité p, l’autre appelée « échec »qui a pour pro-babilité q = 1− p.

    Définir une loi de Bernoulli de paramètre p, c’est associer une loi de probabilité discrète àcette expérience aléatoire en faisant correspondre la valeur 1 à l’apparition d’un succès et 0 àcelle d’un échec.

    xi 1 0P (X = xi) p 1− p

    Exemple 2.22. Si on lance un dé et qu’on nomme « succès » l’apparition de la face 6, on définitla loi de Bernoulli suivante :

    xi 1 0P (X = xi) 16

    56

    PROPRIÉTÉ 2.23. Soit X une variable aléatoire suivant une loi de Bernoulli B(p), alors :— L’espérance de X vaut E(X) = p.— La variance de X vaut Var(X) = pq.

    Exemple 2.24. Dans l’exemple précédent, on obtient E(X) = 16 et Var(X) =536 .

    2.4.2 Loi binomiale

    Définition 2.25 (Loi binomiale). La loi binomiale de paramètres n et p, notée Bin(n, p) estla loi de probabilité du nombre de succès dans la répartition de n expériences de Bernoulli de

  • 2.4 Exemples de variables aléatoires discrètes 17

    paramètres p identiques et indépendantes. Elle est définie par :

    P (X = k) =(n

    k

    )pkqn−k, ∀0 ≤ k ≤ n.

    Exemple 2.26. On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6.Chaque lancer est une expérience de Bernoulli de paramètres 16 . On obtient donc une loi binomialeBin(2, 1/6).

    nombre de succès 0 1 2probabilité 2536

    1036

    136

    PROPRIÉTÉ 2.27. Soit X une variable aléatoire suivant une loi binomiale Bin(n, p) alors :— L’espérance de X vaut E(X) = np.— La variance de X vaut Var(X) = npq.

    Exemple 2.28. Dans l’exemple précédent, on obtient E(X) = 13 et Var(X) =518 .

    2.4.3 Loi de Poisson

    La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occurrences d’unévénement dans un laps de temps déterminé ou dans une région donnée. Par exemple :

    — nombre d’appels téléphoniques qui arrivent à un standard en x minutes,— nombre de clients qui attendent à la caisse d’un magasin,— nombre de défauts de peinture par m2 sur la carrosserie d’un véhicule. . .

    Définition 2.29. La variable aléatoire X suit une loi de Poisson de paramètre λ, notée Pois(λ)avec λ > 0 lorsque sa loi de probabilité vérifie :

    P (X = k) = e−λλk

    k! , ∀k ∈ N.

    Exemple 2.30. On considère la variable aléatoire X mesurant le nombre de clients se présentantau guichet 1 d’un bureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et16h30. On suppose que X suit la loi de Poisson de paramètre λ = 5.

    ♦— Pour λ = 5, la table de la loi de Poisson nous donne :

    k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14P (X = k) 0, 007 0, 034 0, 084 0, 140 0, 176 0, 176 0, 146 0, 104 0, 065 0, 036 0, 018 0, 008 0, 003 0, 001 0, 000— On peut aussi représenter graphiquement la loi Pois(5) :

    1 2 3 4 5 6 7 8 9 10 11 12 13 140

    0.1

    0.2

    0

    — La probabilité qu’entre 14h30 et 14h40, 10 personnes exactement se présentent à ce guichetvaut :

    P (X = 10) = 0, 018.

  • 18 LEÇON NO2 • VARIABLES ALÉATOIRES DISCRÈTES

    — La probabilité qu’entre 15h20 et 15h30, au maximum 3 personnes se présentent à ce gui-chet vaut :

    P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) = 0, 265.

    — La probabilité qu’entre 16h00 et 16h10, 8 personnes au moins se présentent à ce guichetvaut :

    P (X ≥ 8) = 1− P (X < 8)= 1− [P (X = 0) + P (X = 1) + · · ·+ P (X = 7)]= 1− 0, 867 = 0, 133

    .

    PROPRIÉTÉ 2.31. SoitX une variable aléatoire suivant une loi de Poisson de paramètre λ, alorsl’espérance et la variance sont égales et valent E(X) = Var(X) = λ.

    Exemple 2.32. Dans l’exemple précédent, on obtient E(X) = Var(X) = 5.

    2.5 Applications

    2.5.1 Jeux équitables

    Deux joueurs A et B jouent à un jeu d’argent où la probabilité de gagner est égale à p pour Aet 1− p pour B (0 < p < 1). Les mises de A et B sont respectivement s et s′ euros et le vainqueurempoche le total des enjeux. Soient X et X ′ les gains de joueurs A et B. Le jeu est dit équitable siE(X) = E(Y ). On a :

    E(X) = s′p− s(1− p) et E(Y ) = (1− p)s− s′p.

    Le jeu est donc équitable sis

    p= s

    1− p,

    autrement dit si les enjeux des joueurs sont proportionnels à leur probabilité de succès.

    2.5.2 Le jeu de St Petersbourg

    Imaginons le jeu de casino suivant : on lance une pièce (non truquée) jusqu’à l’apparition dupremier pile. Si cela se produit au n-ième lancer, la banque verse au joueur la somme X = 2neuros. Quel doit être l’enjeu que la banque devrait exiger du joueur pour ne pas être perdante?

    Pour que le jeu soit équitable, la mise doit être égale à l’espérance du gain du joueur. Maisl’espérance de X n’est pas finie car X prend les valeurs 2n (n ≥ 1) et P (X = 2n) = 12n donc :

    +∞∑n=1

    2nP (X = 2n) = +∞.

  • RÉFÉRENCES POUR LA LEÇON no 2 19

    Références pour la leçon no 2

    [3] P. DUVAL. Probabilités, TS. http : / / lcs . werne . lyc14 . ac - caen . fr /~duvalp.

    [4] G. COSTANTINI. Probabilités : Généralités, conditionnement, indépendance. Cours dePremière S. URL : http://bacamaths.net.

    [5] L. GALLARDO. Chapitre 3 : Variables aléatoires discrètes, espérance, variance et loi desgrands nombres. URL : www.lmpt.univ-tours.fr/~gallardo/coursProb1-09-10-3.pdf.

    http://lcs.werne.lyc14.ac-caen.fr/~duvalphttp://lcs.werne.lyc14.ac-caen.fr/~duvalphttp://bacamaths.netwww.lmpt.univ-tours.fr/~gallardo/coursProb1-09-10-3.pdfwww.lmpt.univ-tours.fr/~gallardo/coursProb1-09-10-3.pdf

  • 20 LEÇON NO2 • VARIABLES ALÉATOIRES DISCRÈTES

  • Leçon 3

    Loi binomiale. Applications.

    NIVEAU Première S + SUP (Convergence)PRÉREQUIS Variable aléatoire, espérance, variance, théorème limite central, loi de

    PoissonRÉFÉRENCES [6], [7], [8], [9], [10]

    3.1 Loi de Bernoulli

    Définition 3.1 (Loi de Bernoulli). Soit E une épreuve comportant deux issues (succès et échec).On note p la probabilité de succès. Soit X la variable aléatoire qui est égale à 1 en cas desuccès et 0 sinon. Alors, on dit que X suit une loi de Bernoulli de paramètres p. On note alorsX ∼ Bern(p).

    Remarque 3.2. Si X ∼ Bern(p), on notera :

    P (X = 1) = p et P (X = 0) = 1− p = q.

    Exemple 3.3. On lance un dé non pipé. On note X la variable aléatoire qui prend comme valeur1 si la face 6 apparaît lors du lancer et 0 sinon.

    La variable aléatoire X est une variable aléatoire qui suit la loi de Bernoulli de paramètres1/6. Donc X ∼ Bern(1/6).

    Lemme 3.4. Si X ∼ Bern(p) alors X2 ∼ Bern(p).

    Démonstration. ♦ On a X2(Ω) = {0, 1} et :

    P (X2 = 1) = P (X = 1) = p

    donc X2 ∼ Bern(p).

    PROPOSITION 3.5. Si X ∼ Bern(p) alors :1. E(X) = p2. Var(X) = pq.

    Démonstration. ♦ On a :

    E(X) = P (X = 0)× 0 + P (X = 1)× 1 = q × 0 + p× 1 = p,

  • 22 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    et :Var(X) = E(X2)−E(X)2 = E(X2)− p2

    or X2 ∼ Bern(p), donc on a : E(X2) = E(X) = p.Ainsi, Var(X) = p− p2 = pq.

    3.2 Loi binomiale

    Définition 3.6 (Loi binomiale). Soit Ω l’univers associé à une expérience aléatoire. Soit X unevariable aléatoire définie sur Ω. On dit que X suit une loi binomiale de paramètres n ∈ N∗ etp ∈ [0 ; 1] lorsque :

    1. X(Ω) = {0, 1, . . . , n} ;2. pour tout k ∈ {0, 1, . . . , n}, P (X = k) =

    (nk

    )pk(1− p)n−k =

    (nk

    )pkqn−k.

    Si X suit une loi binomiale de paramètres n et p alors on note X ∼ Bin(n, p).

    Remarque 3.7. Soit X ∼ Bin(n, p). On a bien défini une variable aléatoire car :n∑k=0

    P (X = k) =n∑k=0

    (n

    k

    )pkqn−k = [p+ (1− p)]n = 1.

    THÉORÈME 3.8. Soit E une épreuve comportant deux issues (succès et échec). On note p laprobabilité de succès. On note n fois, de façons indépendantes, l’épreuve E . Soit X la variablealéatoire correspondant au nombre de succès. Alors : X suit une loi binomiale de paramètres net p.

    Démonstration. ♦ La probabilité d’avoir k succès suivis de n − k succès suivis de n − k échecsest : pk(1−p)n−k. Mais les succès et les échecs n’apparaissent pas nécessairement dans cet ordre.

    On considère l’ensemble des « mots »de n lettres qui ne contiennent que des S (Succès) et desE (Échecs). On sait qu’il y en a exactement

    (np

    )qui contiennent exactement k fois la lettre S (et

    donc n− k fois la lettre E).On en déduit m

    P (X = k) =(n

    p

    )pk(1− p)n−k

    et ceci pour tout k ∈ {0, 1, . . . , n}.

    Remarques 3.9. 1. La probabilité d’avoir n succès : P (X = n) = pn et d’avoir aucun succèsP (X = 0) = qn. Par conséquent, la probabilité d’avoir au moins un succès est :

    P (X ≥ 1) = 1− P (X = 0) = 1− qn.

    2. La loi de Bernoulli est un cas particulier de la loi binomiale où l’épreuve E n’est réaliséequ’une seule fois.

    3. Toute variable aléatoire X suivant une loi binomiale de paramètres n ∈ N∗ et p ∈ [0 ; 1]peut s’écrire comme somme X = X1 + · · · + Xn où, pour tout k ∈ {0, 1, . . . , n}, Xkest une variable aléatoire suivant une loi de Bernoulli de paramètre p (Xk vaut 1 en cas desuccès à la ke réalisation de E et 0 sinon).

    Exemples 3.10. La probabilité qu’un tireur atteigne sa cible est p = 34 . On suppose qu’il faitdeux tirs et on note X la variable aléatoire associant à cette épreuve le nombre de succès obtenus(X = 0, 1 ou 2).

  • 3.3 Propriétés sur les coefficients binomiaux 23

    1. Calculer la probabilité des événements {X = 0}, {X = 1} et {X = 2}.2. Calculer

    ∑2k=0 P (X = k).

    3. On suppose qu’il fait sept tirs et on note Y la variable aléaoire associant à cette épreuve lenombre de succès obtenus. Calculer P (X = 1) et P (X = 2).

    THÉORÈME 3.11 (ESPÉRANCE ET VARIANCE D’UNE LOI BINOMIALE). Si X ∼ Bin(n, p)avec n ∈ N∗ et p ∈ [0 ; 1] alors :

    E(X) = np et Var(X) = npq.

    Démonstration. ♦ PuisqueX ∼ Bin(n, p), il existe des variables aléatoires (réelles)X1, X2, . . . , Xndéfinies sur Ω indépendantes, de loi de Bernoulli de même paramètre p telles que X =

    ∑ni=1Xi.

    Par linéarité de l’espérance :

    E(X) = E(

    n∑i=1

    Xi

    )=

    n∑i=1

    E(Xi)

    et d’après ce qui précède :

    E(X) =n∑i=1

    p = np.

    De même pour la variance :

    Var(X) = Var(

    n∑i=1

    Xi

    )=

    n∑i=1

    Var(Xi) =n∑i=1

    pq = npq.

    Exemple 3.12. La probabilité qu’un tireur atteigne sa cible est p = 34 . On suppose qu’il tiren = 7 fois. On note X la variable aléatoire associant à cette expérience aléatoire le nombre desuccès obtenus. Calculer son espérance et sa variance.

    3.3 Propriétés sur les coefficients binomiaux

    3.3.1 Définitions et propriétés

    Définition 3.13 (Combinaisons). Soient n et p deux entiers naturels etE un ensemble contenantn éléments. Un sous-ensemble de E contenant p éléments est appelé une combinaison de péléments de E.

    Le nombre de p-combinaisons d’un ensemble contenant n éléments est noté(np

    )ou(np

    ).

    Exemple 3.14. Pour gagner au Loto, il faut trouver 3 numéros parmi 5. On veut savoir combienil y a de grilles possibles. Considérons une grille quelconque (c’est-à-dire une 3-combinaisonde l’ensemble des 5 numéros) : par exemple {1, 3, 4}. Il y a 3! façons possibles d’ordonner cesnombres. Or, il y a

    (53)× 3! suites de 3 nombres ordonnées. Mais, on compte 5 × 4 × 3 de ces

    dernières suites. Donc : (53

    )= 5× 4× 33! .

    On peut maintenant généraliser la formule :

  • 24 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    PROPOSITION 3.15. Le nombre de p-combinaisons d’un ensemble contenant n éléments estnoté (

    n

    p

    )= n(n− 1)(n− 2) · (n− (p− 1))

    p! (3.1)

    = n!p!(n− p)! (3.2)

    ♦ Démonstration de la proposition 3.15. On part de la formule (3.1) pour arriver à la formule(3.2) : (

    n

    p

    )= n(n− 1)(n− 2) · · · (n− p+ 1)

    p!

    = n(n− 1)(n− 2) · · · (n− p+ 1)p!

    (n− p)(n− p− 1) · · · 2× 1(n− p)(n− p− 1) · · · 2× 1

    = n!p!(n− p)!

    Une autre façon de voir la formule (3.2). Il y a Apn manières de tirer p objets parmi n en lesordonnant soit

    Apn =n!

    (n− p)! .

    Une fois les p objets tirés, il y a p! manières de les ordonner. Il y a donc Apnp! manières de tirer p

    objets parmi sans les ordonner. D’où(n

    p

    )= A

    pn

    p! =1p!

    n!(n− p)! .

    Définition 3.16 (Coefficients binomiaux). Soit p un entier naturel non nul. Les nombres(np

    )sont appelés les coefficients binomiaux.

    PROPOSITION 3.17 (FORMULE DE PASCAL). Soit n, p ∈ N tel que p < n. On a :(n

    p

    )=(n− 1p

    )+(n− 1p− 1

    ).

    ♦ Démonstration de la formule de Pascal. Soit un ensembleE à n éléments. On suppose que l’ona « extrait » une partie à p éléments. Si l’on retire un élément {a} à E, c’est soit un élément de lacombinaison, soit non. Dans le premier cas, les p − 1 restants forment une partie de l’ensembleE\{a} de cardinal n−1, et dans le second, ce sont les p éléments qui forment une partie deE\{a}.Cette union étant disjointe, les cardinaux s’ajoutent pour aboutir à l’égalité demandée.

    PROPOSITION 3.18 (FORMULE ITÉRÉE DE PASCAL). Soit p ≤ n deux entiers naturels.Alors

    n∑k=p

    (k

    p

    )=(n+ 1p+ 1

    ).

  • 3.3 Propriétés sur les coefficients binomiaux 25

    n\p 0 1 2 3 · · ·0 11 1 12 1 2 13 1 3 3 1...

    ......

    ......

    . . .

    FIGURE 3.1 – Triangle de Pascal

    ♦ Démonstration de la formule itérée de Pascal. On effectue une récurrence sur l’entier n.

    Initialisation Lorsque n = p, les deux membres valent 1.Hérédité On suppose que la formule est vraie au rang n et on montre qu’elle est encore vraie

    au rang n+ 1 :n+1∑k=p

    (k

    p

    )=

    n∑k=p

    (k

    p

    )+(n+ 1p

    )et d’après l’hypothèse de récurrence,

    n+1∑k=p

    (k

    p

    )=(p+ 1n+ 1

    )+(n+ 1p

    )=(n+ 2p+ 1

    ).

    La dernière égalité est justifiée par l’emploi de la formule de Pascal.

    On note A = C (ou R ou Q ou Z).

    THÉORÈME 3.19 (FORMULE DU BINÔME). Soient deux éléments a, b de A qui commutent.Alors :

    ∀n ∈ N, (a+ b)n =n∑k=0

    (n

    k

    )akbn−k.

    ♦ Démonstration de la formule du binôme de Newton. Pour n = 1, nous avons :1∑

    k=0

    (1k

    )akb1−k =

    (10

    )b+

    (a

    =

    )a+ b.

    La formule du binôme est vraie pour n = 1.Supposons que la formule du binôme soit vraie au rang n ≥ 1. Alors,

    (a+ b)n+1 = (a+ b) · (a+ b)n = (a+ b)n∑k=0

    (n

    k

    )akbn−k.

    En distribuant le produit, nous obtenons

    (a+ b)n+1 =n∑k=0

    (n

    k

    )ak+1bn−k +

    n∑k=0

    (n

    k

    )akbn+1−k.

    Nous effectuons alors la translation d’indices l = k + 1 dans la première somme :

    (a+ b)n+1 =n+1∑l=1

    (n

    l − 1

    )albn+1−l +

    n∑k=0

    (n

    k

    )akbn+1−k.

  • 26 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    L’indice de sommation étant muet, nous pouvons regrouper les deux sommes :

    (a+ b)n+1 =(n

    n

    )an+1 +

    n∑k=1

    [(n

    k − 1

    )+(n

    k

    )]akbn+1−k +

    (n

    0

    )bn+1.

    On utilise ensuite la formule du triangle de Pascal :

    (a+ b)n+1 =(n

    n

    )an+1 +

    n∑k=1

    (n+ 1k

    )akbn+1−k +

    (n

    0

    )bn+1.

    On remarque que :(n

    0)

    = 1 =(n+1

    0)

    et que(nn

    )= 1 =

    (n+1n+1

    )pour faire entrer les deux termes

    isolés dans la somme.

    (a+ b)n+1 =n+1∑k=0

    (n+ 1k

    )akbn+1−k.

    Corollaire 3.20. On a les égalités suivantes :1.∑nk=0

    (nk

    )= 2n,

    2.∑nk=0(−1)k

    (nk

    )= 0.

    ♦ Démonstration du corollaire 3.20. 1. On utilise le binôme de Newton avec a = 1 et b = 1.

    2. On utilise le binôme de Newton avec a = −1 et b = 1.

    Remarque 3.21. On remarque que l’égalité 1 du corollaire 3.20 traduit le fait que le nombre departies d’un ensemble à n éléments est 2n. En effet, ce nombre est la somme des nombres departies ayant respectivement 0, 1, . . . éléments (le cardinal d’une union disjointe est la somme descardinaux), ce qui correspond bien à la somme indiquée.

    PROPOSITION 3.22 (FORMULE DE VAN DER MONDE). Pour tous entiers m,n et p tels quep ≤ m+ n, on a l’égalité : (

    m+ np

    )=

    p∑k=0

    (m

    k

    )(n

    p− k

    ).

    Remarque 3.23. On remarque que l’égalité 1 du corollaire 3.20 traduit le fait que le nombre departies d’un ensemble à n éléments est 2n. En effet, ce nombre est la somme des nombres departies ayant respectivement 0, 1, . . . éléments (le cardinal d’une union disjointe est la somme descardinaux), ce qui correspond bien à la somme indiquée.

    ♦ Démonstration de la formule de Van der Monde. Soit x un réel. Alors :

    (1 + x)m(1 + x)n = (1 + x)m+n =m+n∑p=0

    (m+ np

    )xp.

  • 3.4 Stabilité additive de la loi binomiale 27

    Or

    (1 + x)m(1 + x)n =(

    m∑i=0

    (m

    i

    )xi) n∑

    j=0

    (n

    j

    )xj

    = m∑i=0

    n∑j=0

    (m

    i

    )(n

    j

    )xi+j

    =((

    m

    0

    )(n

    0

    ))+(

    ((m

    0

    )(n

    1

    )+(m

    1

    )(n

    0

    ))x)

    +(

    ((m

    0

    )(n

    2

    )+(m

    1

    )(n

    1

    )+(m

    2

    )(n

    0

    ))x2)

    + · · ·

    =m+n∑p=0

    (( ∑i,j>0i+j=p

    (m

    i

    )(n

    j

    ))xp).

    Par identification des coefficients de ce polynôme de degré p, on obtient finalement que, pour toutentier 0 ≤ p ≤ m+ n,(

    m+ np

    )=

    ∑i,j>0i+j=p

    (m

    i

    )(n

    j

    )=

    p∑i=0

    (m

    i

    )(n

    p− i

    ).

    3.4 Stabilité additive de la loi binomiale

    THÉORÈME 3.24 (STABILITÉ ADDITIVE DE LA LOI BINOMIALE). Si X ∼ Bin(m, p) etY ∼ Bin(n, p) avec X et Y indépendantes, alors X + Y = Bin(m+ n, p).

    Soit (Ai)1≤i≤n une suite d’événements. On note :∐ni=0Ai si les événements sont disjoints.

    Démonstration. ♦ On pose S = X + Y . On a clairement S(Ω) = {0, . . . ,m+ n}.Calculons P (S−1(k)) pour tout 1 ≤ k ≤ m+ n :

    S−1(k) =k∐i=0

    X−1(i) ∩ Y −1(k − i).

    D’où :

    P (S−1(k)) =k∑i=0

    P (X−1(i) ∩ Y −1(k − i)).

    Et comme X et Y sont indépendantes :

    P (S−1(k)) =k∑i=0

    P (X−1(i))P (Y −1(k − i)).

    Comme X ∼ Bin(m, p) et Y ∼ Bin(n, p) :

    P (S−1(k)) =k∑i=0

    (m

    i

    )pi(1− p)m−i

    (n

    k − i

    )pk−i(1− p)n−(k−i)

    =(

    k∑i=0

    (m

    i

    )(n

    k − i

    ))pk(1− p)m+n−k.

  • 28 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    Et comme∑ki=0

    (mi

    )( nk−i)

    =(m+n

    k

    ).

    P (S−1(k)) =(m+ nk

    )pk(1− p)m+n−k.

    Donc S ∼ Bin(m+ n, p).

    3.5 Applications et compléments

    3.5.1 Loi binomiale et suites

    1. On lance n fois un dé équilibré. Déterminer la probabilité pn d’obtenir au moins un 6.2. Déterminer le nombre minimal de lancers pour qu’on ait pn ≥ 0, 99.

    ♦ Solutions. 1. Soit Xn le nombre de fois que l’on obtienne un 6 lors de n lancers d’un dééquilibré (n ∈ N∗). Les expériences sont répétés identiquement et sont indépendants lesunes aux autres. Ainsi, Xn suit la loi binomiale de paramètres n et p = 16 (proba d’obtenirun 6). On veut calculer la probabilité de l’événement «Xn ≥ 1 ». Pour cela, on utilise laprobabilité de l’événement contraire «Xn < 1 ».

    pn = P (Xn ≥ 1) = 1− P (Xn < 1).

    Or, les valeurs possibles de Xn appartiennent à l’ensemble {0, 1, . . . , n}. Ainsi, Xn < 1équivaut à l’événement Xn = 0 d’où :

    pn = P (Xn ≥ 1) = 1− P (Xn < 1) = 1− P (Xn = 0)

    = 1−((

    n

    0

    )×(1

    6

    )0×(5

    6

    )n)= 1− 1× 1×

    (56

    )n= 1−

    (56

    )n.

    2. On veut déterminer le nombre minimal de lancers pour qu’on ait pn ≥ 0, 99. Pour cela, onrésout l’inéquation pn ≥ 0, 99.

    pn ≥ 0, 99⇔ 1−(5

    6

    )n≥ 0, 99⇔ −

    (56

    )n≥ −0, 01

    ⇔(5

    6

    )n≤ 0, 01⇔ ln

    ((56

    )n)≤ ln(0, 01)⇔ n ln

    (56

    )≤ ln(0, 01).

    Ici, on doit changer le sens du signe de l’inéquation car 56 < 1 et ln(56) < 0.

    pn ≥ 0, 99⇔ n ln(5

    6

    )≤ ln(0, 01)⇔ n ≥ ln(0, 01)

    ln(56⇔ n ≥ 25, 26.

    Conclusion : À partir du 26e lancer de dés, la probabilité d’obtenir au moins un 6 estsupérieure à 0, 99.

    3.5.2 La planche de Galton

    On dispose d’une planche longue en bois, d’un récipient de billes en plomb à son extrémité,des clous disposaient sur plusieurs niveaux et des receptacles.

    Les clous sont disposés sur plusieurs niveaux de la manière suivante :

  • 3.5 Applications et compléments 29

    — 1 clou centré au premier niveau ;— 2 clous centrés au deuxième niveau ;— 3 clous centrés et alignés horizontalement au troisième niveau ;— . . .— n clous centrés et alignés horizontalement au ne niveau ;

    Les clous sont espacés régulièrement pour que les billes puissent passser entre eux.On lève la planche pour que la gravité puisse faire tomber les billes du récipient vers les clous

    puis vers les réceptacles.

    FIGURE 3.2 – Planche de Galton

    Cette expérience mathématique est dûe à Sir Franck GALTON (1822-1911), mathématicien etscientifique britanique. La question que se posait Galton quand il construit cette planche était :« Dans quel receptacle il y aura le plus de billes ? ».

    Au fur et à mesure de ces expériences, il constate que quand il fait tomber un très grand nombrede billes de plomb, la répartition des billes dans les bacs se font en cloche de Gauss.

    On peut aussi calculer la probabilité que la bille touche un certain clou dans la planche. Pourcela, on aura besoin du triangle de Pascal que l’on a introduit plus haut dans la leçon.

    Ainsi, la probabilité que la bille arrive dans le ke receptacle (s’il y a n rangées de clous et nreceptacles) est de :

    Pn =

    (n

    k

    )2n .

    3.5.3 Convergence

    Vers la loi de Poisson

    THÉORÈME 3.25. Lorsque n tend vers l’infini et que simultanément pn → 0 de sorte quelimn npn = a > 0, la loi binomiale de paramètres n et pn converge vers la loi de Poisson deparamètre a. En pratique, on remplace la loi binomiale par une loi de Poisson dès que n > 30 etnp < 5 ou dès que n > 50 et p < 0.1.

  • 30 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    1/1

    1/2 1/2

    1/4 2/4 1/4

    1/8 3/8 3/8 1/8

    1/16 4/16 6/16 4/16 1/16

    1/32 5/32 10/32 10/32 5/32 1/32

    1/64 6/64 15/64 20/64 15/64 6/64 1/64

    1/128 7/128 21/128 35/128 35/128 21/128 7/128 1/128

    FIGURE 3.3 – Probabilité de toucher un clou dans la planche

    Démonstration. ♦ On décompose P (X = k) :(n

    k

    )pkn(1− pn)n−k =

    n(n− 1) · · · (n− k + 1)k! p

    kn(1− pn)n−k

    = (npn)k

    k!

    (1− 1

    n

    )(1− 2

    n

    )· · ·(

    1− k − 1n

    )(1− pn)n−k.

    On se place dans la situation où pn est équivalent à an en l’infini.

    — Lorsque n tend vers l’infini, les facteurs(1− 1n

    ),(1− 2n

    ), . . .,

    (1− k−1n

    )tendent vers

    1. Le produit de ces termes tend également vers 1 puisqu’ils sont en nombre fini fixé k.— On a :

    (1− pn)n−k = (1− pn)n(1− pn)−k,

    or, limp→0(1 − p)−k = 1 et de plus, (1 − pn)n ' (1 − an)n et ce dernier terme tend vers

    e−a quand n tend vers l’infini.On trouve donc :

    limn→+∞

    (n

    k

    )pkn(1− pn)n−k =

    ak

    k! e−a,

    qui est la probabilité de k pour la loi de Poisson de paramètre a.

    Vers la loi normale

    THÉORÈME 3.26. Soit (Xn)n une suite de variable aléatoires indépendnates de même loi deBernoulli Bern(p) et Sn = X1 + · · ·+Xn suit la loi binomiale Bin(n, p).

    D’après le théorème central limite, la loi de Sn peut re approximée par la loi normaleN(E(Sn),Var(Sn)), c’est-à-dire par la loi N(np, npq).

    Remarque 3.27. En pratique, lorsque n ≥ 30, np ≥ 15 et npq > 5, la loi binomiale Bin(n, p)peut être approximée par la loi normale N(np, npq).

  • 3.5 Applications et compléments 31

    3.5.4 Échantillonnage

    Premier problème : proportion de boules dans une urne

    Dans une urne contenant une dizaine de boules, il y a 2 boules noires et 8 boules blanches. Laproportion de boules noires est donc de 1/5.

    On pioche dans l’urne avec ordre et remise une vingtaine de boules et on s’intéresse à laproportion de boules noires obtenues.

    Cette expérience a été recommencée 100 fois à l’aide d’un tableur et voici les proportionsobtenues.

    Proportion 0 0, 05 0, 1 0, 15 0, 2 0, 25 0, 3 0, 35 0, 4 0, 45 0, 5 TotalNb d’échantillons 0 9 13 20 27 16 9 5 0 1 0 100

    1. Quel est le nombre d’échantillons qui ont une proportion de boules noires de 0, 3?2. Quel est le nomb re d’échantillons qui ont une proportion de boules noires de 0, 6?3. Quel est le nombre d’échantillons qui ont une proportion de boules noires entre 0, 1 et

    0, 4?4. Le but de cette partie est de retrouver par le calcul ce dernier nombre. On considère la

    variable aléatoire X qui lors de l’expérience compte le nombre boules noires obtenues.(a) Justifier que X suit une loi binomiale dont on précisera les paramètres.(b) Calculer P (2 ≤ X ≤ 8).(c) En déduire la probabilité que la proportion de boules noires soit comprise entre 0 et

    0, 4.

    ♦ Solution.

    Proportion 0 0, 05 0, 1 0, 15 0, 2 0, 25 0, 3 0, 35 0, 4 0, 45 0, 5 TotalNb d’échantillons 0 9 13 20 27 16 9 5 0 1 0 100

    1. Le nombre d’échantillons qui ont une proportion de boules noires de 0, 3 est 9.2. Le nombre d’échantillons qui ont une proportion de boules noires de 0, 6 est 0. En effet,

    tous les échantillons sont déjà dans le tableau.3. Le nombre d’échantillons qui ont une proportion de boules noires comprise entre 0, 1 et

    0, 4 est 13 + 20 + 27 + 16 + 9 + 5 = 90. Soit 90%.4. (a) On recommence 20 fois de manière indépendante une expérience ayant deux issues

    possibles, succès ou échec. La variable aléatoire qui compte le nombre de succès suitune loi binomiale de paramètres 20 et 1/5.

    (b) P (2 ≤ X ≤ 8) = 0, 92.(c) On cherche la probabilité que la proportion de boules noires dans un échantillon soit

    comprise entre 0, 1 et 0, 4 ; c’est-à-dire la probabilité qu’il y ait entre 10% et 40%de boules noires. Or chaque échantillonnage contient 20 boules. Ainsi 10% de boulesnoires pari ces 20 boules représente exactement 2 boules noires. De même 40% repré-sente 8 boules noires. Finalement, chercher la probabilité que la proportion de boulesnoires dans les échantillonnages soit comprise entre 0, 1 et 0, 4 revient à chercher laprobabilité de piocher entre 2 et 8 boules noires parmi les 20 boules. C’est exactementla probabilité que l’on a calculé à la question 4b, soit 0, 92. Ce qui correspond à peuprès au 90% trouvé grâce au tableau.

  • 32 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

    Second problème : proportion de camions sur une autoroute

    Sur une autoroute, la proportion des camions par rapport à l’ensemble des véhicules est 0, 07.1. Soit X le nombre de camions parmi 100 véhicules choisis au hasard. Calculer P (X ≥ 5).2. Soit Y le nombre de camions parmi 1000 véhicules choisis au hasard. Calculer P (65 ≤Y ≤ 75).

    3. On choisit n véhicules au hasard. Pour quelles valeurs de n peut-on affirmer que la pro-portion de camions est entre 0, 06 et 0, 08 avec un risque d’erreur inférieur à 5%?

    ♦ Solution. 1. Soit X une variable aléatoire de loi binomiale Bin(100, 0.07). 100 ≥ 30,100 × 0, 07 = 7 < 15, 0, 07 ≤ 0, 1 donc l’approximation à utiliser est celle par la loi dePoisson Pois(7) et :

    P (X ≥ 5) ≈ 1− e−74∑

    k=0

    7k

    k! ≈ 0, 827.

    2. Y suit la loi binomiale Bin(1000, 0.07). 1000 ≥ 30, 1000×0, 07 = 70 ≥ 15, 70×0, 93 =64, 1 > 4 donc l’approximation à utiliser est celle par la loi normale N(70, 65.1) et si Fdésigne la fonction de répartition de la loi N(70, 65.1),

    P (65 ≤ Y ≤ 75) ≈ F (75.5)− F (64.5) = Φ( 5.5√

    65.1

    )− Φ

    (− 5.5√

    65.1

    )= 2Φ

    ( 5.5√65.1

    )− 1 ≈ 2Φ(0.68) ≈ 0.5

    3. On choisit n véhicules au hasard. Le nombre Sn des camions parmi ces n véhicules suit laloi binomiale Bin(n, 0.07) et la proportion des camions est Snn .On cherche n tel que

    P(∣∣∣Snn − 0.07∣∣∣ ≥ 0.01) = 0.05.

    Si n ≥ 30, 0.07n ≥ 15 et 0.07× 0.93× n > 5, c’est-à-dire n ≥ 215, on peut approximerla loi de Snn par la loi normale N(0.07,

    0.0651n ) et la loi de

    Snn − 0.07 par la loi normale

    N(0, 0.065n ). On a alors :

    P

    (∣∣∣∣Snn − 0.07∣∣∣∣ ≥ 0.01) = P

    (∣∣∣∣∣√n√

    0.0651

    (Snn− 0.07

    )∣∣∣∣∣ ≥√n√

    0.06511

    100

    )

    ≈ 2(

    1− Φ( √

    n√651

    ))≈ 0.05

    On a donc Φ( √

    n√651

    )≈ 0.975 ≈ Φ(1.96) et n ≈ 1.962 × 651 ≈ 2501. 2501 ≥ 90, ce qui

    légitime l’approximation.

    3.5.5 Loi multinomiale

    Définition 3.28 (Loi multinomiale). Le vecteur aléatoire N suit la loi multinomiale de para-mètres n et (p1, . . . , pd) où n ∈ N∗ et les pi sont strictement positifs et de somme 1 si pour tout

  • 3.5 Applications et compléments 33

    d-uple (j1, j2, . . . , jd) d’entiers tels que j1 + j2 + · · ·+ jd = n,

    P [N = (j1, j2, . . . , jd)] =n!

    j1!j2! · · · jd!pj11 p

    j22 · · · p

    jdd .

    Exemple 3.29. On considère 20 tirages d’une boule avec remise dans une urne contenant 1 boulebleue, 3 jaunes, 4 rouges et 2 vertes. Notons N = (N1, N2, N3, N4) où Ni est le nombre deboules de la couleur i en numérotant les couleurs par ordre alphabétique (b,j,r,v). On a(p1, p2, p3, p4) = ( 110 ,

    310 ,

    410 ,

    210). La probabilité d’obtenir en 20 tirages 3 bleues, 5 jaunes, 10

    rouges et 2 vertes est :

    P (N = (3, 5, 10, 2)) = 20!3!5!10!2!

    ( 110

    )3 ( 310

    )5 ( 410

    )10 ( 210

    )2' 0, 004745.

  • 34 LEÇON NO3 • LOI BINOMIALE. APPLICATIONS.

  • Leçon 4

    Variables aléatoires réelles à densité

    NIVEAU Terminale S et BTS

    PRÉREQUIS probabilités, intégrales, primitives, croissance comparée, équations diffé-rentielles, désintégration radioactiveRÉFÉRENCES [11], [12]

    4.1 Introduction

    Nous avons vu dans la leçon « Variables aléatoires discrètes » que des variables aléatoirespeuvent prendre leur valeur dans un sous-ensemble des nombres entiers. On va essayer de géné-raliser en élargissant l’ensemble des valeurs de départ d’une variable aléatoire à un intervalle deR.Exemple 4.1. On tire au hasard un point a sur le segment [0 ; 1] et on note X = a. On a alorsX(Ω) = [0 ; 1].

    1. Calculer P ({X = 0,5}).2. Calculer la probabilité que X appartienne au segment [0 ; 12 ].

    4.2 Densité et loi de probabilité

    Définition 4.2 (Densité de probabilité). Soit I un intervalle de R. On appelle densité de proba-bilité sur I , toute fonction f continue et positive sur I telle que :∫

    If(t) dt = 1.

    Remarque 4.3. La notation∫I désigne l’intégrale sur l’intervalle I .

    1. Si I = [a ; b] alors ∫If(t) dt =

    ∫ baf(t) dt.

    2. Si I est non borné d’un coté (par exemple I = [a ; +∞[ alors∫If(t) dt = lim

    x→+∞

    ∫ xaf(t) dt.

    3. Si I = R alors : ∫If(t) dt = lim

    x→−∞

    ∫ 0xf(x) dt+ lim

    x→+∞

    ∫ x0f(t) dt.

  • 36 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Exemple 4.4. Soit f une fonction constante sur l’intervalle [0 ; 1]. On cherche la valeur de cetteconstante pour que f soit une densité. On note γ cette constante :∫ 1

    0γ dt = 1⇔ γ = 1.

    Plus généralement, si f est une fonction continue sur l’intervalle [a ; b], on montre que f(t) = γ =1b−a .

    Définition 4.5 (Loi de probabilité). Soit I un intervalle et f une densité de probabilité sur I .L’application P qui, à tout sous-intervalle [a ; b] de I associe la quantité :

    P ([a ; b]) =∫ baf(t) dt

    est appelé loi de probabilité sur I .

    ♦ Justification de la définition 4.5. Soit (In)n∈N une famille de sous-intervalles disjoints de I ,alors par linéarité de l’intégrale :

    P

    ⋃n∈N

    In

    = ∑n∈N

    ∫Inf(t) dt =

    ∑n∈N

    P (In)

    et de plus P (I) = 1.

    Remarques 4.6. 1. On a bien 0 ≤ P ([a ; b]) ≤ 1 car [a ; b] est inclus dans I .2. On a :

    P ({x0}) =∫ x0x0

    f(t) dt.

    On dit alors que {x0} est un événement « presque-sûrement impossible ».Exemples 4.7. 1. Si f est constante sur [a ; b], on dit que P est la loi uniforme.

    2. Si f est de la forme f(t) = λe−λt sur R avec λ > 0, on dit que P est la loi exponentielle deparamètre λ. On a tout de même besoin d’une justification. Soit λ > 0 un réel. On montreque f(t) = λe−λt définie sur R est une densité de probabilité sur R+. On calcule :∫ x

    0f(t) dt =

    ∫ x0λe−λt dt = λ

    [−e−λtt

    λ

    ]x0

    = 1− e−λx.

    Or, on a :lim

    x→+∞(1− e−λx) = 1.

    La limite en +∞ de∫ x

    0 f(t) dt existe bien et on a :∫R+f(t) dt = 1.

    4.3 Variables aléatoires continues. Loi uniforme, loi exponentielle

    Définition 4.8. Soit P une loi de probabilité sur un intervalle I de f . On dit qu’une variablealéatoireX , à valeurs dans I , suit une loi de probabilité P lorsque pour tout sous-intervalle [a ; b]

  • 4.3 Variables aléatoires continues. Loi uniforme, loi exponentielle 37

    de I , on a :

    P (a ≤ X ≤ b) =∫ baf(t) dt.

    Exemples 4.9. 1. On peut maintenant répondre aux questions de l’exemple introductif. Xsuit une loi uniforme sur l’intervalle [0 ; 1]. Donc :(a)

    P (X = 0,5) =∫ 0,5

    0,51 dt = 0.

    (b)

    P (X ∈ [0 ; 0,5]) = P (0 ≤ X ≤ 0,5) =∫ 0,5

    01 dt = 0,5.

    Dans le cas général, supposons que X suivent la loi uniforme sur [a ; b]. Alors :

    P (α ≤ X ≤ β) =∫ βα

    1b− a

    dt = β − αb− a

    .

    On note L([a ; b]) la longueur de l’intervalle de [a ; b]. Si X suit une loi uniforme sur unintervalle I , alors la probabilité d’un sous-intervalle J est donné par la formule :

    P (X ∈ J) = L(J)L(I) .

    2. Si X suit la loi exponentielle de paramètre λ > 0, alors

    P (0 ≤ X ≤ x) =∫ x

    0λe−λt dt = 1− e−λt

    et par complémentarité :

    P (X ≥ x) = 1− P (0 ≤ X ≤ x) = e−λx.

    Définition 4.10 (Fonction de répartition). Soit X une variable aléatoire, à valeurs dans unintervalle I de la forme [a ; b] (ou de la forme [a ; +∞[) qui suit une loi de probabilité P . Onappelle fonction de répartition de X , la fonction F définie pour tout réel x de I par :

    F (x) = P (X ≤ x).

    PROPRIÉTÉ 4.11. Si F est une fonction de répartition de X alors :1. F est croissante sur [a ;x],2. F (a) = 0,3. F (b) = 1 (si I = [a ; b]) ou

    limx→+∞

    F (x) = 1 si I = [a ; +∞[.

    4. P (X > x) = 1− F (x)5. P (α < X ≤ β) = F (β)− F (α).

    Exemple 4.12. Si X suit la loi exponentielle de paramètre λ, on a :

    F (x) = 1− e−λt.

  • 38 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    4.4 Espérance d’une variable aléatoire continue

    Définition 4.13 (Espérance d’une variable aléatoire continue). Soit X une variable aléatoirecontinue prenant ses valeurs dans un intervalle I . On appelle espérance de X la quantité :

    E(X) =∫Itf(t) dt

    Exemples 4.14. 1. Si X suit une loi uniforme sur I = [a ; b] alors :

    E(X) =∫ ba

    t

    b− adt = 1

    b− a

    [t2

    2

    ]ba

    = b+ a2 .

    2. Soit X suit une loi exponentielle de paramètre λ > 0 sur R+. On calcule l’intégralesuivante : ∫ x

    0tλe−λt dt = λ

    ∫ x0te−λt dt.

    On pose :u(t) = t et v′(t) = e−λt,

    ainsi

    u′(t) = 1 et v(t) = −e−λt

    λ.

    Une intégration par parties donne :

    λ

    ∫ x0te−λt dt =

    [−te−λt

    ]x0

    +∫ x

    0e−λt dt

    = −xe−λx − 1λ

    [e−λt

    ]x0

    = −λxe−λx − e−λx + 1

    λ.

    Puis, on étudie la limite lorsque x tend vers +∞. On sait que :

    limx→+∞

    −xe−λx = 0

    grâce à la règle des croissances comparées et

    limx→+∞

    e−λx = 0

    donc E(X) = 1λ .

    4.5 Exemples de variables aléatoires à densité

    4.5.1 Lois normales

    Définition

    Définition 4.15 (Loi normale). Soit m ∈ R et σ ∈ R∗+. On dit que la variable aléatoire réelleX suit la loi normale N(m,σ) si elle a pour densité de probabilité la fonction f définie par :

    ∀x ∈ R, f(x) = 1σ√

    2πe−1/2[(x−m)/σ]2 .

  • 4.5 Exemples de variables aléatoires à densité 39

    Conséquence 4.16.

    P (a ≤ X ≤ b) = 1σ√

    ∫ ba

    e−1/2[(x−m)/σ]2 dx.

    Cas particulier de N(0, 1)

    La densité de probabilité est alors f(x) = 1√2π e−x2/2 et on appelle, dans ce cas, Π la fonction

    de répartition.On a donc :

    P (a ≤ X ≤ b) =∫ ba

    1√2π

    e−x22 dx = Π(b)−Π(a).

    Les valeurs de la fonction de répartition pour la loi normale centrée réduite étant tabulées, il estdésormais possible de calculer P (a ≤ X ≤ b).

    PROPRIÉTÉ 4.17. La fonction f est paire sur R.

    1O

    Conséquence 4.18. Si x > 0 alors Π(−x) = 1−Π(x).

    Démonstration. ♦ En effet :

    Π(−x) = P (X ≤ −x) =∫ −x−∞

    f(t) dt =∫ −x− inf

    f(−t) dt

    car f une fonction paire

    =∫ +∞x

    f(t) dt

    après le changement de variable u = −t

    =∫ +∞−∞

    f(t) dt−∫ x−∞

    f(t) dt = 1−Π(x).

  • 40 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Exemples 4.19. 1. Π(1) = P (X ≤ 1) correspond donc à l’aire sous la courbe délimité àdroite par la droite d’équation x = 1.

    2. Π(−1) = P (X ≤ −1) = 1−Π(−1) correspond à l’aire sous la courbe délimité à gauchepar la droite d’équation x = 1.

    1O

    Se ramener à une N(0, 1)

    PROPRIÉTÉ 4.20. Soit X ∼ N(m,σ). Alors Y = X−mσ ∼ N(0, 1). On dit qu’on centre etqu’on réduit la variable aléatoire X .

    Démonstration. ♦

    P (a ≤ Y ≤ b) = P(a ≤ X −m

    σ≤ b

    )= P (Aσ +m ≤ X ≤ bσ +m) =

    ∫ bσ+maσ+m

    1σ√

    2πe−1/2[(x−m)/σ]2 dx

    On effectue alors le changement de variable y = x−mσ et on obtient :

    P (a ≤ Y ≤ b) =∫ ba

    1σ√

    2πe−y2/2σ dy =

    ∫ ba

    1√2π

    e−y2/2 dy

    donc Y a pour densité f(x) = 1√2π e−x22. La variable aléatoire Y suit bien une loi normale centrée

    réduite.

    Exemple 4.21. La variable aléatoireX suit une loi normale de paramètresm = 2, 09 et σ = 0, 13,autrement dit X ∼ N(2.09, 0.13).

    On va se ramener à une loi normale centrée réduit en posant : T = X−mσ et donc T ∼ N(0, 1).On demande de calculer P (X ≤ 2, 35) et P (1, 895 ≤ X ≤ 2, 285).

    —P (X ≤ 2, 35) = P

    (X − 2, 09

    0, 13 ≤ 2)

    = P (T ≤ 2) = 0, 9772.

    P (1, 895 ≤ X ≤ 2, 285) = P (−1, 5 ≤ T ≤ 1, 5) = P (T ≤ 1, 5)− P (T ≤ −1, 5)= P (T ≤ 1, 5)− (1− P (T ≤ 1, 5)) = 2× P (T ≤ 1, 5)− 1= 2× 0, 9332− 1 = 0, 8664.

  • 4.5 Exemples de variables aléatoires à densité 41

    Espérance et variance

    PROPRIÉTÉ 4.22. Si X ∼ N(m,σ) alors E(X) = m et Var(X) = σ2.

    Démonstration. ♦—

    E(X) =∫ +∞−∞

    x1

    σ√

    2πe−1/2[(x−m)/σ]2 dx.

    On considère la variable aléatoire Y = X−mσ alors Y ∼ N(0, 1). On a : X = σY + mdonc : {

    E(X) = σE(Y ) +mVar(X) = σ2 Var(Y )

    donc si

    {E(Y ) = 0Var(Y ) = 1

    alors

    {E(X) = mVar(X) = σ2

    .

    E(Y ) =∫ +∞−∞

    y√2π

    e−y2/2 dy = 0 car f est une fonction paire.

    —Var(Y ) = E(Y 2)− (E(Y ))2 = E(Y 2).

    Il faut donc calculer :

    E(Y 2) =∫ +∞−∞

    y2

    σ√

    2πe−y22 dy.

    Pour cela, on va faire une IPP en considérant l’intégrale suivante :

    soit a > 0, I(a) =∫ a−a

    1√2π

    e−y2/2 dy

    avec : u(y) = e−y22, u′(x) = −ye−y2/2

    v′(y) = 1√2π , v(y) =y√2π .

    I(a) =[y√2π

    e−y2/2]a−a

    + 1√2π

    ∫ a−ay2e−y22 dy

    = 2a√2π

    e−a2/2 +∫ a−a

    y2√2π

    e−y2/2 dy.

    Puis on fait tendre a vers +∞ et on obtient :∫ +∞−∞

    1√2π

    e−y2/2 dy = 1 =∫ +∞−∞

    y2√2π

    e−y2/2 dy.

    Au final, on a :Var(Y ) = E(Y 2) = 1.

    Compléments : table de la loi normale

    Soit X la variable aléatoire suivant la loi normale centrée réduite N(0, 1).La table 4.1 nous donne les valeurs P (X ≤ t) où t = a, bc. La première colonne correspond

    à a, b et la première ligne correspond à c.

  • 42 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    FIGURE 4.1 – Table des valeurs de Φ, fonction de répartition de la loi normale standard N(0, 1)

  • 4.5 Exemples de variables aléatoires à densité 43

    4.5.2 Loi uniforme

    La loi uniforme sur [a, b], notée Unif([a, b]) a pour densité de probabilité :{f(x) = 0 si x /∈ [a ; b]f(x) = 1b−a si x ∈ [a ; b].

    PROPRIÉTÉ 4.23. Si X ∼ Unif([a, b]) alors :

    E(X) = a+ b2 et Var(X) =(b− a)2

    12 .

    FIGURE 4.2 – Densité de la loi uniforme [a, b]

    FIGURE 4.3 – Fonction de répartition de la loi uniforme [a, b]

    4.5.3 Loi exponentielle

    La loi exponentielle Exp(λ) a pour densité de probabilité :{f(x) = 0 si x < 0f(x) = λe−λx si x ≥ 0

  • 44 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    PROPRIÉTÉ 4.24. La densité de probabilité h de la somme de deux variables aléatoires indé-pendantes dont les densités f et g sont nulles pour x ≤ 0, est définie par :

    h(x) =∫ x

    0f(x− t)g(t) dt.

    PROPRIÉTÉ 4.25. Si X ∼ Exp(λ) alors :

    E(X) = 1λ

    et Var(X) = 1λ2.

    FIGURE 4.4 – Densité de la loi exponentielle Exp(λ) pour λ = 0, 5, λ = 1, λ = 1, 5

    FIGURE 4.5 – Fonction de répartition de la loi exponentielle Exp(λ) pour λ = 0, 5, λ = 1,λ = 1, 5

    4.6 Applications

    4.6.1 Loi de durée de vie sans vieillissement

  • 4.6 Applications 45

    Définition 4.26. Soit T une variable aléatoire correspondant à la durée de vie d’un individu oud’un objet. On dit que T suit la loi de durée de vie sans vieillissement lorsque la probabilité quel’individu (ou l’objet) soit vivant (ou fonctionne) à l’instant t + h sachant qu’il est vivant (ouqu’il fonctionne) à l’instant t ne dépend pas de son âge :

    P(T≥t)(T ≥ t+ h) = P (T ≥ h).

    PROPOSITION 4.27. Une variable aléatoire T suit la loi de durée sans vieillissement si et seule-ment si elle suit une loi exponentielle.

    ♦ Démonstration de la proposition 4.27. (⇐) On suppose que T suive une loi exponentiellede paramètre λ ∈ R+. Par définition d’une probabilité conditionnelle, on a :

    P(T≥t)(T ≥ t+ h) =P ((T ≥ t+ h) ∩ (T ≥ t))

    P (T ≥ t) .

    Or l’événement « T ≥ t+ h » est inclus dans l’événement « T ≥ t » donc :

    P ((T ≥ t+ h) ∩ (T ≥ t)) = P (T ≥ t+ h) = e−λ(t+h).

    Par ailleurs :P (T ≥ t) = e−λt,

    d’où :

    P(T≥t)(T ≥ t+ h) =e−λ(t+h)

    e−λt = e−λh = P (T ≥ h).

    (⇒) Réciproquement, soit T une variable aléatoire suivant une loi de durée de vie sans vieillis-sement. Alors, pour tout réel t de R+ et tout réel h de R+ :

    P(T≥t)(T ≥ t+ h) = P (T ≥ h)⇔ P (T ≥ t+ h) = P (T ≥ h)P (T ≥ t).

    Soit F la fonction de répartition de la variable aléatoire T . On note ϕ la fonction définiesur R+ par :

    ϕ(t) = 1− F (t) = 1− P (T ≤ t) = P (T > t) = P (T ≥ t).

    Comme F est dérivable sur R+, ϕ l’est aussi et on a :

    ϕ(0) = 1− F (0) = 1 et ϕ(t+ h) = ϕ(t)ϕ(t),

    autrement dit, ϕ vaut 1 en 0 et transforme les sommes en produits. Il existe donc un réel a(voir la leçon « Équations différentielles ») tel que

    ϕ(t) = eat.

    Mais comme ϕ est en fait une probabilité, on a pour tout t ∈ R+ :

    ϕ(t) ≤ 1⇔ eat ≤ 1⇔ at ≤ 0⇔ a ≤ 0.

    On pose λ = −a ∈ R+. Si a était nul, on aurait, pour tout t ∈ R+ :

    ϕ(t) = 1⇔ P (T ≥ t) = 1

  • 46 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Ce qui signifierait que notre individu est éternel, hypothèse que l’on peut rejeter. Donc, ona bien λ ∈ R∗+. D’où, pour tout t ∈ R+ :

    ϕ(t) = e−λt ⇔ 1− F (t) = e−λt

    et en dérivant, on obtient :

    −f(t) = −λe−λt ⇔ f(t) = λe−λt.

    La variable aléatoire T suit donc une loi exponentielle de paramètre λ.

    ♦ Une autre preuve pour loi de durée de vie sans vieillissement implique loi exponentielle. SoitXune variable aléatoire dont la loi vérifie :

    ∀s ∈ R+, ∀t ∈ R+, P (X > t+ s | X > t) = P (X > s) (4.1)

    et G sa fonction de survie 1 Comme G = 1 − F , G est décroissante et continue à droite et tendvers 0 en +∞. De plus, l’écriture de (4.1) suppose implicitement que G(t) > 0 pour tout t ≥ 0car sinon P (· | X > t) ne serait pas définie. On a aussi :

    P (X > t+ s | X > t) = P (X > t+ s)P (X > t) =

    G(t+ s)G(t) . (4.2)

    Grâce à (4.2), on voit que la propriété d’absence de mémoire (4.1) équivaut à :

    ∀s ∈ R, ∀t ∈ R+,G(t+ s)G(t) = G(s).

    La fonction de survie G doit donc être une solution décroissante, continue à droite, tendant vers 0en +∞ et telle que 0 < G(t) ≤ 1 de l’équation fonctionnelle :

    ∀s ∈ R+, ∀t ∈ R+, G(t+ s) = G(t)G(s). (4.3)

    En faisant s = t = t0 dans (4.3), on obtient G(0) = G(0)2 et comme G(0) > 0, on a

    G(0) = 1. (4.4)

    En faisant s = t dans (4.3), on obtient G(2t) = G(t)2, puis de proche en proche

    ∀n ∈ N∗, ∀t ≥ 0, G(nt) = G(t)n. (4.5)

    En particulier pour t = 1/d, d ∈ N∗ :

    ∀n ∈ N∗, ∀d ∈ N∗, G(nd

    )= G

    (1d

    )n. (4.6)

    Lorsque n = d, (4.6) donne G(1) = G(1/d)d d’où :

    ∀d ∈ N∗, G(

    1d

    )= G(1)1/d. (4.7)

    1. la fonction de survie d’une loi exponentielle est défini de la manière suivante :

    G(x) = P (X > x) = 1− F (x) ={

    1 si x ≤ 0e−ax si x > 0

    .

  • RÉFÉRENCES POUR LA LEÇON no 4 47

    Nous connaissons maintenant G sur l’ensemble des rationnels positifs puisque (4.4), (4.5), (4.6)et (4.7) nous donnent

    ∀r ∈ Q+, G(r) = G(1)r (4.8)

    Soit x ∈ R+ \Q+, x est limite d’une suite décroissante (rn) de rationnels. Comme G est continueà droite, G(rn) converge vers G(x). D’autre part l’application y 7→ G(1)y est continue sur R.Ainsi, en appliquant (4.8) à rn et en faisant tendre n vers l’infini, on obtient :

    ∀x ∈ R+, G(x) = G(1)x. (4.9)

    A priori, la constante G(1) est dans ]0 ; 1]. On peut écarter la valeur G(1) = 1 car sinon d’après(4.9), la limite en +∞ de G serait 1 alors qu’elle vaut 0.

    Finalement, puisque 0 < G(1) < 1, on peut poser G(1) = e−a pour un réel a > 0 (celarevient à prendre a = − lnG(1)). On peut alors réécrire (4.9) sous la forme

    ∀x ∈ R+, G(x) = e−ax.

    La fonction de survie G est donc la même que celle de la loi exponentielle de paramètre a, doncX suit cette loi.

    4.6.2 Loi de désintégration radioactive

    Selon les physiciens, la durée de vie T d’un noyau radioactif suit une loi de durée de vie sansvieillissement, autrement dit, une loi exponentielle. Considérons l’expérience E : « on examine unnoyau à l’instant 2 t ». On note S l’événement « Ce noyau n’est pas désintégré ». D’après la loiexponentielle, il existe un réel λ strictement positif tel que :

    P (S) = P (T ≥ t) = e−λt.

    Supposons que l’on ait au départ (t = 0), dans notre corps radioactif, N0 noyaux. On note Xtla variable aléatoire égale au nombre de noyaux non désintégrés à l’instant t. Comme chaquenoyau se désintègre indépendamment aux autres, on peut affirmer que Xt suit une loi binomialede paramètres n = N0 et p = P (S) = e−λt. Le nombre moyen N(t) de noyaux présents àl’instant t est donc donné par l’espérance de Xt :

    N(t) = E(Xt) = np = N0e−λt.

    Références pour la leçon no 4

    [11] G. COSTANTINI. Lois de probabilités continues. URL : http://bacamaths.net.

    [12] C. SUQUET. Intégration et Probabilités Elémentaires. URL : http://math.univ-lille1.fr/~ipeis/. 2009-2010.

    2. La constante λ est appelée « constante radioactive » du noyau

    http://bacamaths.nethttp://math.univ-lille1.fr/~ipeis/http://math.univ-lille1.fr/~ipeis/

  • 48 LEÇON NO4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

  • Leçon 5

    Statistique à une ou deux variables,représentation et analyse des données

    Session 2018NIVEAU Collège, Seconde, Première S, Terminale STI2D

    PRÉREQUIS aucunRÉFÉRENCES [13],[14],[15], [16]

    5.1 Statistiques à une variable

    5.1.1 Premières définitions et exemples

    Définition 5.1 (Statistiques). La statistique étudie certaines caractéristiques : caractères ou va-riables d’un ensemble fini qu’on appelle population. Les éléments de cette population étudiéesont appelés individus.

    Définition 5.2 (Type de variables). On peut classer en trois catégories les variables rencontrées :Qualitative numérique et fait l’objet de calcul. Par exemple, des couleurs ou des sports

    favoris.

    Quantitative discrète si la variable prend qu’un nombre fini de valeurs (on appelle modali-tés de telle valeur et on les notera xi). Par exemple, le nombre de frères et sœurs (ne peutqu’être un nobre entier).

    Quantitative continue si la variable prend ses valeurs dans un intervalle (classe). Par exemple,âge, taille et poids.

    Exemple 5.3. Voici une liste de 30 notes d’un Devoir Surveillé de 2nde d’un lycée parisien :

    5 10 12 13 20 1415 8 3 4 5 120 14 12 3 5 1910 4 9 10 15 1211 12 14 20 4 0

    On peut regrouper ces notes par ordre croissant et on les compte :

  • 50 LEÇON NO5 • STATISTIQUES

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    et on peut regrouper ces notes par intervalle :

    Intervalle [0 ; 5[ [5 ; 10[ [10 ; 15[ [15 ; 20[ TotalEffectif 7 5 12 6 30

    Définition 5.4 (Représentation graphique de données statistiques). — Si le caractère estquantitatif discret, on peut utiliser le diagramme en bâtons pour représenter graphique-ment les données statistiques. Dans un repère orthogonal, pour chaque valeur de la sériestatistique, on trace un trait vertical dont la hauteur est proportionnelle.

    — Si le caractère est quantitatif continue, on peut utiliser le diagramme en rectangles pourreprésenter graphiquement les données statistiques. Dans un repère orthogonal, la basedes rectangles est proportionnelle à la longueur de l’intervalle et la hauteur est propor-tionnelle à l’effectif.

    — Si le caractère est qualitatif, on utilise les diagrammes circulaires.

    Exemple 5.5. On donne en figure 5.1, la représentation graphique de la série statistique des clas-sements de notes par ordre croissant et par intervalle de 5 notes.

    (a) Représentation graphique du classement des notespar ordre croissant

    (b) Représentation graphique du classement par inter-valles

    FIGURE 5.1

    5.1.2 Effectif et fréquence

    Définition 5.6 (Effectif). L’effectif d’une classe ou d’une modalité est le nombre d’individu decette classe ou de cette modalité. Généralement, on note ni l’effectif de la classe numéro i (oude la modalité xi).

    L’effectif total est la somme des effectifs de toutes les classes. On le note souvent N .

    Exemple 5.7. Dans l’exemple précédent,

    N =5∑i=1

    ni = n1 + n2 + n3 + n4 = 7 + 5 + 12 + 8 = 30.

  • 5.1 Statistiques à une variable 51

    Définition 5.8 (Effectif cumulé). L’effectif cumulé d’une modalité est la somme des effectifsdes modalités qui lui sont inférieurs ou égales.

    Définition 5.9 (Fréquence). La fréquence notée fi de la classe i (ou de la modalité xi) est lerapport fi = niN , la fréquence d’une classe est un nombre de l’intervalle [0 ; 1].

    Définition 5.10. La fréquence cumulée d’une modalité est la somme des fréquences des moda-lités qui lui sont inférieures ou égales.

    Exemple 5.11. Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    Effectif cumul. 1 2 2 4 7 10 10 10 11 12 15 16 20 21 24 26 26 26 26 27 30

    (par exemple, 20 personnes ont une note inférieure ou égale à 12) et

    Intervalle [0 ; 5[ [5 ; 10[ [10 ; 15[ [15 ; 20[ TotalEffectif 7 5 12 6 30

    Effectif cumul. 7 12 24 30 30

    (par exemple 12 personnes ont en dessous de la moyenne).

    5.1.3 Etendue et mode d’une série statistique

    Définition 5.12 (Etendue d’une série statistique). L’étendue d’une série statistique est la dif-férence entre la plus petite modalité du caractère et la plus grande modalité.

    Exemple 5.13. Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    L’étendue de cette série est 20− 0 = 20.

    Définition 5.14 (Mode d’une série statistique). Dans le cas continu, on dit qu’une classe estmodale si elle a le plus grand effectif parmi toutes les classes.

    Dans le cas discret, le mode est la valeur de plus grand effectif.

    Exemple 5.15. Dans cette série statistique, on a :

    Intervalle [0 ; 5[ [5 ; 10[ [10 ; 15[ [15 ; 20[ TotalEffectif 7 5 12 6 30

    La classe modale de cette série statistique est [10 ; 15[.

    5.1.4 Paramètre de position

    Moyenne

  • 52 LEÇON NO5 • STATISTIQUES

    Définition 5.16 (Moyenne). Dans le cas discret, on appelle moyenne d’une série statistique d’ef-fectif total N , le réel

    x = n1x1 + n2x2 + · · ·+ nkxkN

    .

    Exemple 5.17. Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    La moyenne de la série statistique est :x = 1×1+0×2+2×3+3×4+3×5+0×6+0×7+1×8+1×9+3×10+11×1+12×4+13×1+14×3+15×2+16×0+17×0+18×0+19×1+3×2030x = 30430 ' 10, 13.

    Remarque 5.18. Pour calculer la moyenne d’une série statistique continu, on prend comme valeurde caractère le milieu de chaque classe.

    PROPRIÉTÉS 5.19. 1. Si on ajoute à toutes les valeurs d’une série statistique le mêmenombre b, on augmente la moyenne de cette série par b.

    2. Si les valeurs d’une série statistique sont multipliées ou divisées par un même nombre a,la moyenne de cette série est