37
LICENCE DE SOCIOLOGIE Sciences sociales L2, MSCS 12B Les probabilités & TD Mohamed Ouardani ([email protected]) Année Universitaire 2008/2009

LICENCE DE SOCIOLOGIE - sspsd.u-strasbg.frsspsd.u-strasbg.fr/IMG/pdf/L2_MSCS12B_Cours_de_Probabilite_Ouarda… · LICENCE DE SOCIOLOGIE Sciences sociales L2, MSCS 12B Les probabilités

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

  • LICENCE DE SOCIOLOGIE Sciences sociales

    L2, MSCS 12B

    Les probabilités & TD

    Mohamed Ouardani

    ([email protected])

    Année Universitaire 2008/2009

  • TABLE DE MATIÈRES

    Introduction ...................................................................................................................................................5

    Les ensembles et Opération de complémentarité.........................................................................................9

    Le dénombrement.......................................................................................................................................11

    Arrangement ...............................................................................................................................................12

    Combinaison...............................................................................................................................................14

    La probabilité ..............................................................................................................................................16

    Probabilités conditionnelles ........................................................................................................................20

    Condition d’Événement indépendant ..........................................................................................................23

    Les variables aléatoires ..............................................................................................................................26

    Espérance mathématique ...........................................................................................................................27

    La variance .................................................................................................................................................31

    Loi Bernoulli ................................................................................................................................................34

    Loi binomiale...............................................................................................................................................35

  • Références bibliographiques

    BLOSS (Thierry) et GROSSETTI (Michel), Introduction aux méthodes statistiques en Sociologie, Paris, éditions PUF, Collection “Le sociologue”, 1999, 224 pages.

    CIBOIS (Philippe), L’analyse des données en sociologie, Paris, éditions PUF, 1990, 221 pages.

    DROESBEKE (Jean-Jacques), Éléments de statistique, Bruxelles, éditions Ellipses, 1997, 550 pages.

    LEBBART (Ludovic), MORINEAU (Alain), PIRON (Marie), Statistique exploratoire multidimensionnelle, Paris, éditions Dunod, 2000.

    LIPSCHTZ (Seymour), Probabilité. Cours et problèmes, Paris, éditions McGraw-Hill, série Schaum, 1993, 153 pages.

    PY (Bernard), Statistiques descriptives, éditions Economica, 1996, 353 pages.

    SAPORTA (Gilbert), Probabilité, analyse des données et statistique, Paris, éditions Technip, 2006, 622 pages.

    SPIEGEL (Murray R.), Probabilité et statistique. Cours et problèmes, Paris, éditions McGraw-Hill, série Schaum, 1981, 385 pages.

    VOLLE (Michel), Analyse des données, éditions Economica, 1997, 323 pages.

    WONNACOTT (Thomas H.), WONNACOTT (Ronald J.), Statistique, éditions Econimica, 1991, 919 pages.

  • INTRODUCTION

    Qu’est-ce qu’une probabilité ?

    Dans toute expérience aléatoire il y a souvent une incertitude quant à la réalisation ou non d’un événement particulier. Il est alors commode d’affecter un nombre compris entre 0 et 1 (ou 0 et 100%) à la chance ou à la probabilité selon laquelle nous estimons la réalisation de cet événement.

    Si nous sommes sûrs ou certains que cet événement sera réalisé, nous dirons que sa probabilité est de 1 ou 100% (en tirant au sort un individu parmi vous, quelle est la probabilité qu’il soit un étudiant ?). Mais si nous sommes sûrs qu’il ne pourra pas se réaliser, nous dirons alors que sa probabilité est zéro (en tirant au sort un individu parmi vous, quelle est la probabilité qu’il soit un étudiant en deuxième année de master de sociologie ?). Si, par exemple, la probabilité est de ¼, nous dirons qu’il y a 25% de chances que l’événement soit réalisé et 75% de chances pour qu’il ne le soit pas.

    Qu’est-ce qu’une expérience ?

    Une expérience est toute action ou processus qui engendre des résultats ou des observations (lancé de dé ; tirage d’une carte…). Une expérience est qualifiée d’aléatoire si l’on ne peut prévoir par avance son résultat et si, répétée dans des conditions identiques, elle peut donner lieu à des résultats différents.

    L’ensemble de tous les résultats possibles d’une expérience est appelé ensemble fondamental ou encore univers des possibles. Et noté Ω (oméga).

    Et on représente un résultat de cette expérience comme un élément ω de l’ensemble Ω de tous les résultats possibles.

    Ω = { ω1 , ω2 , ω3 , … , ωn } à n éléments.

    Ainsi à l’expérience aléatoire, qui consiste à lancer un dé, on peut associer l’ensemble :

    Ω = { 1 , 2 , 3 , 4 , 5 , 6 } à 6 éléments.

    Il convient de noter ici que l’ensemble Ω ne se déduit pas de manière unique de l’expérience mais dépend de l’usage qui doit être fait des résultats. On peut convenir de ne retenir de l’expérience du lancer du dé que les faces paires ou impaires du dé, et on peut très bien se contenter d’un ensemble :

    Ω’ = { paire , impaire } à 2 éléments

    Notons que certains auteurs qualifient aussi d’épreuve une expérience aléatoire ou sa réalisation.

    Exemple : prélever une carte d’un paquet de 52 cartes :

    • la couleur de la carte : Ω = { paire , impaire } • la série de la carte : Ω’ = { cœur , carreau , trèfle , pique } • la valeur de la carte : Ω’’ = { 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , valet , dame, roi , as} • l’ensemble des 52 cartes du paquet.

  • Introduction

    8

    Qu’est-ce qu’un ensemble fondamental ?

    Retenez donc qui si nous supposons pouvoir décrire l’ensemble de tous les résultats possibles d’une expérience aléatoire. Nous noterons cet ensemble Ω et nous l’appellerons ensemble fondamental ou espace échantillon.

    Qu’est-ce qu’un événement ?

    Un événement est une assertion (proposition – pouvant être positive ou négative – que l’on avance et que l’on soutient comme vraie) ou proposition logique relative au résultat de l’expérience (exemple : lancer un dé : l’événement à décrire peut être “le nombre de points est supérieure ou égale à 4”). On dira qu’un événement est réalisé ou non suivant que la proposition est vraie ou fausse une fois l’expérience accomplie.

    Donc, vous comprenez bien que c’est l’expérimentateur lui-même qui va décider de ce que sera le nom du résultat en fonction des préoccupations qui lui sont propres.

    À la réalisation d’un événement on peut donc associer tous les résultats de l’épreuve correspondante ; ainsi “le nombre de points est supérieure ou égale à 4” est l’ensemble de résultats suivants :

    { 4 , 5 , 6 }, c’est-à-dire une partie de Ω.

    Soit l’expérience lancée de deux dés. Et soit l’événement “la somme des points est supérieure ou égale à 10”. Ainsi la somme supérieure ou égale à 10 est l’ensemble des résultats suivants :

    { (4 , 6) ; (5 , 6) ; (6 , 6) ; (6 , 5) ; (6 , 4) }, c’est-à-dire une partie de Ω.

    Désormais nous identifierons un événement à la partie de Ω pour laquelle cet événement est réalisé.

    On appelle événement élémentaire une partie (ω) de Ω réduite à un seul élément.

    Estimation d’un événement

    D’une manière générale, il y a deux manières différentes d’estimer la probabilité d’un événement :

    • Méthode dite classique ou approche a priori : Si un événement se produit de h manières différentes sur un nombre total de n manières possibles, toutes équiprobables, la probabilité de l’événement est alors h/n.

    • Méthode des fréquences ou fréquentielle ou approche a posteriori : Si après avoir répété une expérience n fois (n grand) nous constatons qu’un événement se réalise h fois, la probabilité de cet événement est h/n. Ce résultat est aussi appelé probabilité empirique de l’événement en question.

  • LES ENSEMBLES ET OPÉRATION DE COMPLÉMENTARITÉ

    a ∈ A l’élément a appartient à l’ensemble A

    A ⊂ B l’ensemble A est inclus dans élément B

    A U B est l’ensemble des éléments appartenant à au moins un des deux ensembles

    A ∩ B est l’ensemble des éléments communs à A et à B

    Propriétés

    A∩A = A

    AUA = A

    A∩φ = φ

    AUφ = A

    (A∩B)∩C = A∩(B∩C) = A∩B∩C ⇒ distributivité de l’intersection

    (AUB)UC = AU(BUC) = AUBUC ⇒ distributivité de la réunion

    Théorème

    A∩(BUC) = (A∩B) U (A∩C) ⇒ distributivité de l’intersection sur la réunion

    AU(B∩C) = (AUB) ∩ (AUC) ⇒ distributivité de la réunion sur l’intersection

    Ω : est l’univers ; l’ensemble fondamental ; l’ensemble de référence

    Α : est le complémentaire de A ; l’ensemble des éléments d’ Ω qui ne figure pas dans A

    A

    Α

  • Les ensembles et Opération de complémentarité

    10

    Loi de Morgan

    La loi de Morgan sert à convertir un produit en somme et inversement.

    La fonction inverse de la somme peut devenir le produit des fonctions inverses de chacun des éléments de la somme : 1° ΒΑ=ΒΑ IU La fonction inverse du produit peut devenir la somme des fonctions inverses de chacun des éléments du produit : 2° ΒΑ=ΒΑ UI

    Pour justifier ces formules, on peut par exemple, utiliser la méthode sémantique des tables de vérité. On rappelle que deux formules sont équivalentes si et seulement si elles ont la même table de vérité.

    ΒΑ=ΒΑ IU

    A B AUB ΒΑ U Α B ΒΑ I 0 0 0 1 1 1 1 0 1 1 0 1 0 0 1 0 1 0 0 1 0 1 1 1 0 0 0 0

    ΒΑ=ΒΑ UI

    A B A∩B ΒΑI Α B ΒΑU 0 0 0 1 1 1 1 0 1 0 1 1 0 1 1 0 0 1 0 1 1 1 1 1 0 0 0 0

    Propriétés

    φ=ΑΑI Ω=ΑΑU

    Exercices

    Soit 3 ensembles A , B , C. Quels sont les éléments qui sont :

    1° que dans A : CIIΒΑ

    2° dans un seul ensemble : ( ) ( ) ( )CCC IIUIIUII ΒΑΒΑΒΑ 3° dans au moins deux des ensembles A , B , C :

    ( ) ( ) ( ) ( )CCCC IIUIIUIIUII ΒΑΒΑΒΑΒΑ = ( ) ( ) ( )CC IUIUI ΒΑΒΑ

  • LE DÉNOMBREMENT

    A ensemble fini. On note │A│ ou card A, le nombre d’éléments de A.

    │φ │= 0

    Fini tel que l’on peut dire exhaustivement les éléments qui composent l’ensemble.

    Infini tel que l’on peut décliner tous les éléments qui composent l’ensemble : Soit l’expérience lancée d’une pièce. Et l’événement “lancer une pièce autant de fois qu’il est nécessaire pour avoir pile. Ω serait alors :

    Ω = { p , (f , p) ; (f , f , p) ; (f , f , f , p) ; … }

    Théorème

    1° si A∩B =φ , on a │AUB│=│A│+│B│

    2° si A et B sont quelconque, on a │AUB│=│A│+│B│–│A∩B│

    Car si on admet que le fait que│AUB│=│A│+│B│, les éléments qui appartiennent à la fois à A et à B seront comptés deux fois.

    3° principe d’inclusion (+) et d’exclusion (–)

    │AUBUC│=│A│+│B│+│C│–│A∩B│–│A∩C│–│B∩C│+│A∩B∩C│

    a b z c e y d m

    B A

    a b z c e y

    d m

    n p

    B A

    C

    B

    A

  • ARRANGEMENT

    Dénombrer les différents modes de sélection des éléments.

    p éléments parmi n

    p tirages successifs sans remise

    ⇒ Le résultat s’appelle un arrangement sans répétition de p éléments parmi n (p éléments forcément distincts et ordonnés)

    Leur nombre est A pn (“A” pour arrangement)

    1er tirage : n éléments, j’en prends 1 (n possibilités, choix) ⇒ a1 tiré

    2e tirage : a2 , a3 ,…, an n (n–1) possibilités

    Arrangement sans répétition (éléments distincts et ordonnés, D.O.)

    1er tirage 2e tirage

    a2 a1 a3 an a1 a2 a3 an Compter les arrangements c’est compter les branches a1 a3 a2 an an n x (n–1)

    donc, A pn = n (n–1) (n–2) (n–3) … [n– (p–1)] = n (n–1) (n–2) (n–3) … (n– p+1)

    Produit de P entier, consécutif, décroissants à partir de n

    Exemple : A 410= 10 x 9 x 8 x 7

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    13

    Exemple : On veut ranger p boules numérotées dans n boites numérotées. Chaque boite ne peut contenir qu’une seule boule.

    ⇒ nombre de rangements possibles (p ≤ n)

    1er tirage : pour la boule n° 1 2e tirage : pour la boule n°2

    ⇒ réponse : A pn

    Cas particulier : p = n → A pn = n (n–1) (n–2) … 1

    Le produit des n premiers entiers non nuls. On écrit n ! Lorsque p = n, un tel arrangement est appelé Permutation.

    Exemple : 4 ! = 4 x 3 x 2 x 1 = 24

    Propriétés

    1° n x (n – 1) ! = n !

    2° 1! = 1 on convient que 0 ! = 1 (1 seul rangement)

    3° A pn = ( )!pn!n

    -

    Exemple : A 83 = 8 x 7 x 6

    = 1 x 2 x 3 x 4 x 5

    1 x 2 x 3 x 4 x 5 x 6 x 7 x 8

    = !5

    !8

    Plus généralement : ( )( ) ( )

    ( )pn . .... 3 . 2 . 1n . ... . 1pn . pn . .... 3 . 2 . 1

    !pn!n

    ---

    -+=

    Arrangement avec répétition possible (ND.O.)

    Obtenu en procédant à p tirages successifs avec remise.

    Exemple : En lançant 5 dés (considérés comme discernables), on obtient comme résultat un arrangement avec répétition possible de 5 nombres parmi 6.

    Le nombre d’un tel arrangement, avec répétition possible, est n p .

  • COMBINAISON

    Combinaison sans répétition (D.Ø.)

    Une partie à p éléments d’un ensemble à n (m) éléments s’appelle aussi une combinaison de n éléments de X.

    Est obtenu avec un tirage de p éléments simultanément. Leur nombre est C pn

    Chaque combinaison crée un p! arrangements.

    Exemple : n = 3 , {a , b , c}

    Soit la combinaison de {a , b , c} qui forme 6 arrangements :

    (a , b , c) ; (a , c , b) ; (b , c , a) ; (b , a , c) ; (c , a , b) ; (c , b , a)

    Chaque combinaison de p éléments fournit p! arrangements.

    ⇒ C pn x p! = Apn

    ⇒ C pn = p!

    A pn

    ⇒ C pn =( ) ( )

    p x ... x2 x 1

    1 P -n ... 1-nn +

    ⇒ C pn = ( )! p -n ! p!n (sachant que A pn = ( )!pn

    !n- )

    Exemple : C 25 = 2 x 14 x 5= 10 ; C 48 =

    4 x 3 x 2 x 1

    5 x 6 x 7 x 8 = 70

    Propriétés

    1° C 1n = n

    2° C nn = 1

    3° C 0n = 1

    4° C pn = Cpn

    n− exemple : C 2628= C

    228=

    2 x 1

    27 x 28

    Combinaison avec répétition possible (ND.NO.)

    Assimilé à un n arrangement de p boules non numérotées dans n boites numérotées. Exemple : 3 boules et 5 boites, soit {1 , 2 , 3 , 4 , 5}

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    15

    Exemple d’arrangement :

    • {1 , 2 , 1} │• •│ • │ │ │ │ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾

    • {3 , 3 , 3} │ │ │• • •│ │ │ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾

    Cas général : n + p – 1 ⇒ C pn x p! = Apn

    exemple : Soit 5 types de pralinés. On demande d’en faire des paquets de 40.

    n = 5 , p = 40 ⇒ Cn

    pn 1−+ ⇒ C40

    1540 −+ = C4044

    Théorèmes du produit

    On a A1 ; A2 ; A3 ; … ; Ap Et on demande de choisir un élément de chaque ensemble.

    ⇒ il y a |A1| ; |A2| ; |A3| ; … ; |Ap| manière de choisir.

    exemple : n nombre entier à 5 chiffres

    A1 A2 A3 A4 A5

    9 10 10 10 10 ⇒ Il y a 9 x 104 = 90 000 choix possibles

    Récapitulation de l’arrangement et de la combinaiso n

    Tirage Sans répétition Avec répétition

    Sans ordre Cpn = ( )! p -n ! p

    !n = p!

    A pn Cn

    pn 1−+

    Avec ordre A pn = ( )!pn!n

    - np

  • LA PROBABILITÉ

    Nous lançons 3 dés :

    Ω ensemble fondamental (ensemble des résultats possibles) |Ω| = 63 A0 événement de n’obtenir aucun 6. Identification de l’événement à l’ensemble qui le réalise. |A0| = 5

    3

    Soient A et B deux événements, donc A⊂Ω et B⊂Ω :

    1. A∩B est l’ensemble qui réalise simultanément les événements A et B 2. AUB est l’événement formé par les résultats qui réalisent au moins A ou B 3. Α est l’événement formé par les résultats qui ne réalise pas A 4. Si A∩B = Ø , alors A et à B sont des événements incompatibles. 5. {Ø} événement impossible 6. Ω lui-même est un événement certain (toujours réalisé) 7. Un événement est élémentaire lorsqu’il ne peut être réalisé que par un seul résultat.

    Probabilité d’un événement, la limite des fréquences relatives de réalisation de cet événement, lorsque le nombre d’expériences augmente indéfiniment. Notation : p (A) : probabilité de l’événement A

    Propriétés

    1. tout événement impossible a une probabilité nul : p (Ø) = 0 (les fréquences = 0)

    2. la probabilité d’un événement certain p (Ω) = 1 (les fréquences = 0)

    3. si A∩B = Ø , alors p (AUB) = p (A) + p (B) A : “obtenir une somme ≥ 10” → 2 B : “obtenir une somme ≤ 8” → 5 donc 7 ont réalisé au moins un des deux événements.

    4. plus généralement : si A1 ; A2 ; A3 ; … ; An n événements 2 à 2 incompatibles, alors p(A1U A2U A3U … U An) = p(A1) + p(A2) + p(A3) + … + p(An)

    5. A∩Α= Ø AU Α= Ω ⇒ p(Ω) = 1 = p(AU Α ) = p(A) + p(Α ) ⇒ p(A) + p(Α )= 1 ou p(A) = 1 – p(Α )

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    17

    Avec A et B événements quelconques : p(AUB) = p(A) + p(B) – p(A∩B) Démonstration : AUB = (A∩B ) U B réunion de deux événements incompatibles

    ⇒ p(AUB) = p(A∩B ) + p(B) or, (A∩B ) U (A∩B) = A disjointe donc, p(A∩B ) + p(A∩B) = p(A) autrement dit, p(A∩B ) = p(A) – p(A∩B) on généralise La formule de Poincarré : p(AUBUC) = p(A) + p(B) + p(C) – p(A∩B) – p(A∩C) – p(B∩C) + p(A∩B∩C)

    6. Ω = {ω1 ; ω2 ; ω3 ; … ; ωn} = {ω1}U{ω2}U{ ω3}U…U{ωn} 2 à 2 incompatibles ⇒ p(Ω) = 1 = p({ω1}) + p({ω2}) + p({ω3}) + … + p({ωn}) la somme des probabilités de tout les événements élémentaires vaut 1. exemple : Soit un dé truqué (pipé) • les faces paires ont la même chances d’apparaître • les faces impaires ont la même chance d’apparaître et qui est la moitié des paires Ω = {1 ; 2 ; 3 ; 4 ; 5 ; 6} ou écrivons Pi = p({i}) P2 = P4 = P6 ; P1 = P3 = P5 ; P1 = ½ P2 Appliquons le théorème 6 : P1 + P2 + P3 + P4 + P6 + P6 = 1 ⇒ ½ P2 + P2 + ½ P2 + P2 + ½ P2 + P2 = 1 ⇒

    29 P2 = 1

    ⇒ P2 = P4 = P6 = 9

    2 et P1 = P3 = P5 = 9

    1

    7. étude de cas particulier : Nous faisons l’hypothèse d’équiprobabilité des événements élémentaires. Ω = {ω1 ; ω2 ; … ; ωn} L’hypothèse d’équiprobabilité : p({ω1}) = p({ω2}) = … = p({ωn}) = p

  • La probabilité

    18

    p({ω1}) + p({ω2}) + … + p({ωn}) = 1 = np p p p

    donc, p =

    n

    1 = ||

    1

    Ω=

    possible cas de nombre

    1

    Soit, alors, l’événement A⊂ Ω après rémunération éventuelle :

    A = {ω1 ; ω2 ; ω3 ; … ; ωk} = {ω1}U{ω2}U{ ω3}U…U{ωk} 2 à 2 incompatibles donc, p(A) = p({ω1}) + p({ω2}) + … + p({ωn}) =k .

    n

    1 =n

    k

    donc, p(A) = ||

    |A|

    Ω=

    possibles cas de nombre

    favorables cas de nombre j

    L’hypothèse de l’équiprobabilité ramène le calcul de probabilité au dénombrement d’ensemble fini.

    Exemple

    Jeu de “Passe dix”. On lance 3 dés : S>10, “somme des trois dés > 10” alors p(S>10) = p(S≤10) = p(S>10) =

    21

    Il est légitime de faire l’hypothèse de l’équiprobabilité (à moins d’un tirage) S=11 : 6+3+2 → 6 (3!) S=12 : 6+4+2 → 6 6+4+1 → 6 6+5+1 → 6 5+5+1 → 3 6+3+3 → 3 5+3+3 → 3 5+5+2 → 3 5+4+2 → 6 4+4+4 → 1 4+4+3 → 3 5+4+3 → 6 ––– ––– 27 25 S=13 : 6+6+1 → 3 S=14 : 6+6+2 → 3 6+5+2 → 6 6+5+3 → 6 6+4+3 → 6 6+4+4 → 3 5+5+3 → 3 5+5+4 → 3 5+4+4 → 3 ––– ––– 15 21

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    19

    S=15 : 6+6+3 → 3 S=16 : 6+6+4 → 3 6+5+4 → 6 6+5+5 → 3 5+5+5 → 1 ––– ––– 6 10 S=17 : 6+6+5 → 3 S=18 : 6+6+6 → 1

    ⇒ p(S>10) = 36

    1361015212527 +++++++ = 216

    108=

    2

    1

  • PROBABILITÉS CONDITIONNELLES

    Exemple : Lancée d’un dé, on note A : “événement d’obtenir un 6” B : “événement d’obtenir une face paire”

    ( )BAp = |B| |BA| ∩ =||

    |B|||

    |BA|

    Ω∩

    =(B) p

    B)(A p ∩

    “La probabilité de A sachant B (B a été réalisé)”

    Définition générale

    Soit B événement non impossible (tel que p(B)≠0). est : )BA( p =

    (B) p

    B)(A p ∩

    Exemple : Soit une famille à deux enfants :

    A : “famille composée d’au moins un garçon” B : “famille composée de deux garçons” C : “famille dont l’aîné est un garçon”

    Il y a quatre manières de dénombrer les enfants : (G , G) ; (G , F) ; (F , G) ; (F , F)

    ( )ACp = (A) pC)(A p ∩ =

    43

    42

    =32

    ( )ABp = (A) pB)(A p ∩ =

    43

    41

    =3

    1

    Autre manière de dire…

    )BA( p =

    (B) p

    B)(A p ∩ ⇒ B)(A p ∩ = )B

    A( p . (B) p

    Exemple :

    │ ○ ○ ○ ○ │ │ ● ● ● │ Soit une boite contenant 4 boules blanches et 7 boules noires │ ● ● ● ● │

    ‾‾‾‾‾‾‾‾‾‾ Deux tirages successifs sans remise. Quelle est la probabilité de tirer deux boules noires ? Autrement dit, calculer la probabilité de tirer une boule noire au premier tirage et une autre boule noire au deuxième tirage. Soit calculer )N(N p 12 ∩

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    21

    )N(N p 12 ∩ = )NN( p

    1

    2 . )(N p 1 =10

    6.11

    7=

    55

    21

    “la probabilité de tirer une boule noire au deuxième tirage sachant que l’on a déjà tiré une autre boule noire au premier tirage”

    Formule de Bayes

    Ω = A1 U A2 U A3 U … U An 2 à 2 disjoints Soit B événement quelconque B = (B∩A1) U (B∩A2) U (B∩A3) U … U (B∩An) 2 à 2 disjoints

    ⇒ (B) p = )A(B p 1∩ + )A(B p 2∩ +…+ )A(B p n∩

    (B) p = )AB( p

    1

    . )(A p 1 + )AB( p

    2

    . )(A p 2 +…+ )AB( p

    n

    . )(A p n

    (B) p =∑ )A

    B( pi

    . )(A p i

    Exemple :

    │○ ○ ○ ○ ○│ │ ○ ○ ○ ○ ○ ○ ○ │ │ ● ● ● ● │ et │ ● ● ● │

    ‾‾‾‾‾‾‾‾‾‾ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾ b1 b2 Soit b1, une première boite contenant 5 boules blanches (5B) et 4 boules noires (4B) ; et b2, deuxième boite contenant 7 boules blanches (7B) et 3 boules noires (3B)

    (B) p = )1b(B p ∩ + )2b(B p ∩ = )1b

    B( p . )1(b p + )2bB( p . )2(b p

    = 9

    5 .

    2

    1 +

    10

    7 .

    2

    1

    Ω = A1 U A2 U A3 U … U An les Ai sont 2 à 2 incompatibles ⇒ (B) p = )A(B p 1∩ + )A(B p 2∩ +…+ )A(B p n∩

    (B) p = )AB( p

    1

    . )(A p 1 + )AB( p

    2

    . )(A p 2 +…+ )AB( p

    n

    . )(A p n

    ⇒ D’où la formule de Bayes

    )BA( p i =

    (B) p

    B)(A p i ∩ =)(A p . )A

    B( p...)(A p . )AB( p)(A p . )A

    B( p

    )(A p . )AB( p

    nn

    22

    11

    ii

    +++

  • Probabilités conditionnelles

    22

    )BA( p i =

    (B) p

    B)(A p i ∩ =

    ∑ )(A p . )AB( p

    )(A p . )AB( p

    ii

    ii

    Exemple : Problème du tricheur

    Soit un jeu de “pile ou face”. Un joueur parie sur Pile et obtient Pile. Est-ce un tricheur ?

    P : “pile” ; T : “tricheur” ; H : “honnête”

    ( )PTp = ( )( )PpPTp I = ( ) ( )

    ( ) ( )HPpTPpTp.T

    Pp

    II + = ( ) ( )( ) ( ) ( ) ( )Hp.HPpTp.TPp

    Tp.TPp

    +

    Si le joueur est un tricheur

    ( ) 1

    2

    21

    2112

    1 +=+=

    −+⇒

    xx

    xx

    xxx

    ● si x =

    21 ⇒ ( )PTp = 3

    2

    ● si x =101 ⇒ ( )PTp = 11

    2

    Exemple : Test HIV

    Une population dont 000101 est atteint du sida. On fait subir un test.

    Et on suppose que : P : “positif” ; S : “sida”

    ( )SPp = 0,999 ; SPp = 0,001 ; le problème est ( )PSp ?

    ( )PSp = ( )( )PpPSp I = ( ) ( )

    ( ) ( ) ( )Sp.S

    PpSp.SPp

    Sp.SPp

    +

    = 999,0x001,0

    000101

    x999,0

    000101

    x999,0

    +

    = 0,09

  • CONDITION D’ÉVÉNEMENT INDÉPENDANT

    Soit ( )Ap et ( )BAp . On dira que l’événement A est indépendant de l’événement B lorsque :

    ( )BAp = ( )Ap avec ( )Bp ≠0

    Si A est indépendant de B, alors nous pouvons montrer que B est indépendant de A, avec ( )Ap ≠0. La preuve :

    ( )BAp = ( )Ap ⇔ ( )( )BpBAp I = ( )Ap

    et lorsque l’on sait que ( )BAp I = ( )Ap . ( )Bp

    alors ( )( )ApBAp I = ( )Bp et ( )ABp = ( )Bp

    et on dira que A et B sont indépendants

    Événements incompatibles

    A et B sont incompatibles ⇒ ( )BAp U = ( )Ap + ( )Bp A et B sont indépendants ⇒ ( )BAp I = ( )Ap x ( )Bp

    Exemple : Soit un dé avec 2 faces n°6 et 4 faces n°1 On lance le dé deux fois de suite S : “obtenir deux fois le numéro 6”

    ( )21 SSp I = ( )1Sp × ( )2Sp = 31

    3

    1 × = 91

    Avec 3 événements ou plus, l’indépendance est une notion “forte” (difficile à réaliser) : Exemple : On lance deux dés :

    A : “1er dé affiche un numéro pair” B : “2e dé affiche un numéro impair” C : “les deux dés affichent deux numéros de même parité”

    ( )Ap = 63 =

    21 ; ( )Bp =

    63 =

    21 ; ( )Cp = (

    63 ×

    63)+(

    63 ×

    63)=3618=

    21

  • Condition d’Événement indépendant

    24

    ⇒ ( )BAp I = 369= 41 =

    21

    x21

    ⇒ A et B sont indépendants

    ( )CAp I = 369 =

    41 = ( )Ap x ( )Cp ⇒ A et C sont indépendants

    ( )CBp I = 369= 41 = ( )Bp x ( )Cp ⇒ B et C sont indépendants

    ⇒ Les trois événements sont indépendants 2 à 2

    Par contre { ( )CBAp II = 0} ≠ { ( )Ap x ( )CBp I } pourtant l’événement A dépend de l’événement BI C.

    Définition de l’indépendance pour un nombre quelconque d’événements

    Des événements A1 , A2 , … , An sont indépendants lorsque : quelque soit le nombre d’événements extrait parmi ces n événements, il faut que leur intersection ait – comme probabilité – le produit des probabilités. Supposons trois événements. On dira que A , B , C sont indépendants lorsque :

    ( ) ( ) ( )Bp.ApBAp =I ( ) ( ) ( )Cp.BpCBp =I ( ) ( ) ( )Cp.ApCAp =I ( ) ( ) ( ) ( )Cp.Bp.ApCBAp =II

    Exemple : Soit une suite de lancers successifs d’un dé : Le premier numéro 6 qui s’affiche survient au 5e lancer. Quelle est la probabilité d’obtenir un 6, pour la 1ère fois, lors qu 5e lancer ? Si : “obtenir le 6 lors du i

    émé lancer”

    ( )54321 SSSSSp IIII = ( )1Sp × ( )2Sp × ( )3Sp × ( )4Sp × ( )5Sp =

    65 ×

    65 ×

    65 ×

    65 ×

    61 = 5

    4

    65

    Formule du double conditionnement

    ( )BAp I = ( )BAp . ( )Bp ( )CBAp II = ( )[ ]CBAp II = ( )BACp I . ( )BAp I

    ⇒dgs ( )CBAp II = ( )BACp I . ( )BAp . ( )Bp

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    25

    Plus généralement :

    ( ) ( )11

    2

    2n21

    1-n

    1n21

    nn21 Ap.A

    Ap.A...AAAp.A...AA

    ApA...AAp

    =

    −− IIIIIIIII

    Exemple : Soit le temps à Strasbourg :

    S : “il fait beau le lendemain d’un jour ensoleillé”” = 0,6 G : “il fait gris le lendemain d’un jour grisonnant” = 0,8

    1. Nous sommes vendredi et il fait beau. Quelle est la probabilité d’avoir un beau temps samedi, dimanche

    et lundi ? Nous cherchons ( )LundiDimancheSamedi SSSp II . On notera ( )LDS SSSp II

    ( )LDS SSSp II =

    DS

    LSS

    SpI

    .

    S

    DS

    Sp . ( )SSp

    = 0,6 × 0,6 × 0,6

    = 0,63

    = 0,216

    2. Quelle est la probabilité qu’il fasse beau lundi ?

    vendredi S 0,6 0,4

    samedi S G 0,6 0,4 0,2 0,8

    dimanche S G S G 0,6 0,4 0,2 0,8 0,6 0,4 0,2 0,8

    lundi S G S G S G S G

    p(SL) = (0,6×0,6×0,6) + (0,6×0,4×0,2) + (0,4×0,2×0,6) + (0,4×0,8×0,2)

    = 0,216 + 0,048 + 0,048 + 0,064 = 0,376

  • LES VARIABLES ALÉATOIRES

    Soit le lancer de trois fois un dé. On mise 1€ sur le numéro 6 :

    si le 6 n’apparaît pas → perte de la mise ⇒ gain = -1€

    si le 6 apparaît 1 fois → le joueur reçoit 2€ ⇒ gain = 1€

    si le 6 apparaît 2 fois → le joueur reçoit 3€ ⇒ gain = 2€

    si le 6 apparaît 3 fois → le joueur reçoit 4€ ⇒ gain = 3€

    Nous avons une fonction X, X : Ω → IR

    résultat gain

    ⇒ X est une variable aléatoire

    “Variable”, parce qu’elle peut prendre différentes valeurs et “aléatoire” parce qu’on ne peut prévoir par avance son résultat et si, l’expérience est répétée dans des conditions identiques, elle peut donner lieu à des résultats différents. Elle est généralement notée : X

    Soit une “fonction” et une “image” : (X = -1) : l’événement “perte de la mise”

    La loi de probabilité qui décrit entièrement X

    Cette loi est donnée sous la forme d’un tableau :

    X -1 1 2 3

    p(X =…) 65

    x65

    x65 3x

    65

    x65

    x61

    3x65

    x61

    x61

    61

    x61

    x61

    p(X =…) 33

    65

    3675

    3615

    361

    p(X =…) 216125

    21675

    21615

    2161

    ⇒ Ω = p(X = -1) + p(X = 1) + p(X = 2) + p(X = 3)

    Plus généralement…

    Dans le tableau donnant la loi des probabilités d’une variable aléatoire fixe, la somme des probabilités est égale à 1.

  • ESPÉRANCE MATHÉMATIQUE

    L’espérance mathématique d’une variable aléatoire X, (appelée également par abus de langage moyenne de X), est la valeur que l’on peut espérer obtenir, en moyenne, en réalisant X. Elle est notée E ( X )

    Imaginons que l’on joue 1000 de suite au jeu précédant (soit le lancer d’un dé trois fois).

    On obtiendrait : 400 lancers où le X = -1

    300 lancers où le X = 1

    250 lancers où le X = 2

    50 lancers où le X = 3

    X = 1000

    )320()2180()1300()]1-(500[ ×+×+×+×

    =000 1

    203

    000 1

    1802

    000 1

    3001

    000 1

    5001- ×+×+×+× = 0,22

    µ : E ( X ) : L’espérance mathématique est la limite des gains moyens expérimentaux, lorsque le nombre d’épreuves (d’expériences) augmente indéfiniment, tend vers l’infini (→ ∞)

    (Cf. Le tableau de la loi de probabilité, page précédente)

    E ( X ) = -1 × p(X = -1) + 1 × p(X = 1) + 2 × p(X = 2) + 3 × p(X = 3)

    = -1×216125 + 1×

    21675 + 2×

    21615 + 3×

    2161

    = 21617-

    = - 0,078

    X : variable aléatoire finie (discrète) de loi :

    X x1 x2 x3 … xn

    p(X =…) p1 p1 p3 … pn

    ⇒ E (X ) = x1 p1 + x2 p2 + x3 p3 + … + xn pn

    ⇒ µµµµ = E (X ) = ∑xi pi

  • Espérance mathématique

    28

    Exemple :

    Soit une trousse de n clés, dont une seule ouvre une certaine porte. On essai les clés l’une après l’autre en écartant la clé essayée.

    X : “nombre d’essais nécessaires pour trouver la bonne clé”

    Le problème est de trouver E(X) ?

    X 1 2 3 … n

    p(X =…) n1

    n1

    n1 …

    n1

    p(X = 2) = ( )21 BMp I p(X = 3) = ( )321 BMMp II

    = ( )11

    2 MpMBp

    = ( )1

    1

    2

    21

    3 MpMMpMM

    Bp

    I

    = n

    n

    n

    1-

    1-

    1 × = n

    n

    n

    n

    n

    1-

    1-

    2-

    2-

    1 ××

    = n1 =

    n1

    ⇒ p(X = n) = n1

    E(X) = nn

    ...n3

    n2

    n1 ++++

    = n

    n...321 ++++

    = n1n + , puisque S = 1+2+3+…+n = ( )

    21nn + , démonstration :

    S = 1 + 2 + 3 + … + (n–2) + (n–1) + n

    + S = n + (n–1) + (n–2) + … + 3 + 2 + 1

    2S = (n+1) + (n+1) + (n+1) + … + (n+1) + (n+1) + (n+1)

    = n (n+1)

    Propriétés

    1. X1 , X2 , X3 , … , Xn n variables aléatoires

    alors OE(X1 + X2 + X3 + … + Xn) = E(X1) + E(X2) + … + E(Xn) )

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    29

    Exemple : Le problème des rencontres :

    Soit R le nombre de rencontre entre des personnes et leurs chapeaux à sortie d’une soirée. On note Xi la variable aléatoire.

    Xi 1 0 Si i a eu son chapeau Si non

    p(X =…)

    n1

    n1n −

    alors, R = X1 , X2 , X3 , … , Xn

    E (R) = E(X1) + E(X2) + … + E(Xn)

    = E (X1 + X2 + X3 + … + Xn)

    P(X =1) → ( )n1

    !n!1-n

    =

    E(X1) = n1

    2. E(aX+b) :

    X x1 x2 … xn p(X =…) p1 p1 … pn

    p(X =…) ax1+b ax2+b … axn+b

    ⇒ E(aX+b) = a E(X )+b)

    Démonstration :

    En effet E(aX+b) = (ax1+b)p1 + (ax2+b)p2 + … + (axn+b)pn

    = a (x1p1 + x2p2 + … + xnpn) + b (p1 + p2 + … + pn)

    E(X) 1

  • Espérance mathématique

    30

    Exemple :

    X : variable aléatoire : dépense journalière, tel que E( X) : 20€

    Y : variable aléatoire : dépense mensuelle (30 jours), Y = 30X + 150

    Frais fixe : 150€

    E(Y) = E(30X + 150)

    = 30 E(X) + 150

    = 30 × 20 + 150 = 750€

  • LA VARIANCE

    La variance d’une variable aléatoire numérique X, notée V ( X ) ou Var ( X ), est un nombre positif ou nul (nul si X est une constante) et d’autant plus grand que les valeurs de X sont fluctuantes et “imprévisibles”.

    V ( X ) = E [ ( X – E ( X ) )² ] (ici E signifie l’espérance)

    On a aussi : V ( X ) = E ( X² ) – [ E ( X ) ]², formule qui peut se lire : la variance est égale à l’espérance du carré moins le carré de l’espérance.

    La racine carrée de la variance est l’écart-type [(1/n ∑ ni.x²i) – x ²)]

    Exemple :

    Un placement financier dont le profit est X1

    X1 15€ - 15€ X2 15 000€ - 15 000€

    ½ ½ ½ ½

    E(X1) = 0 E(X2) = 0

    Fluctuation possible entre X et l’espérance E(X) ?

    X – E(X) donc E[X – E(X)] = 0

    valeur fixe

    E[X – E(X)] = a . E(X) + b

    = E(X) – E(X)

    aX + b = 0 avec a=1 et b= – E(X)

    ⇒ E(|X–E(X)|) → pas très commode

    ⇒ Nous retiendrons E((X–E(X))²) → or, pour notre exemple, €² ne veut pas dire grand-chose, d’où la nécessité de passer par la racine carré (√ ).

    E ((X–E(X))²) = variance de X : Var ( X ) et ( )XVar = écart-type de X : σ( X )

  • La variance

    32

    Exemple : Soit un lancer de dé

    X 1 2 3 4 5 6

    p(X=…) 61 61 61 61 61 61

    E(X)= ?

    E(X) = 6

    654321 +++++ = 621 = 3,5

    (1 –621 )² (2 –

    621 )² (3 –

    621 )² (4 –

    621 )² (5 –

    621 )² (6 –

    621 )²

    (X–E(X))²

    36225

    3681

    369

    369

    3681

    36225

    calcul des écarts

    p(X =…) 61

    61

    61

    61

    61

    61

    Var(X) = E((X–E(X))²) = 61 × ( )

    36225819991225 +++++ =

    36x6630 =

    36105 = 2,916

    σ(X) = 916,2 = 1,707

    ⇒ Cœfficient de variation : ( )( )XX

    Eσ =

    5,3707,1 = 0,488 → Le jeu est risqué !

    Théorème

    En pratique le calcul de la variance se fait en utilisant la formule suivante :

    Var X = E(X ²) – E(X )²

    (Variance de X est égale à l’espérance du carré de X moins le carré de l’espérance de X)

    Démonstration

    Var X = E{[X – E(X)]²}

    = E[X² – 2E(X)X + E(X )²]

    Cf. E(X1 + X2 + X3 + … + Xn) = E(X1) + E(X2) + … + E(Xn)

    = E(X²) – E[–2E(X)X + E(X )²] Cf. E( aX + b )

    = E(X²) – 2 E(X) E(X) + E(X )²

    = E(X²) – 2 E(X)² + E(X )²

    = E(X ²) – E(X )²

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    33

    Remarque

    X x1 x2 … xn p(X=…) p1 p1 … pn E(X ²)=∑xi²pi

    X² x1² x2² … xn²

    Exemple : X : numéro obtenu en lançant un dé

    X 1 2 3 4 5 6

    p(X =…) 61 61 61 61 61 61

    E(X) = 621 = 3,5

    Var (X) = E(X²) – E(X )² = ( )6

    ²6²5²4²3²2²1 +++++ – 3,5² = 691 – 12,25 = 2,91

    Propriétés

    1. Var (aX+b) = a² Var X

    2. Lorsque les variables aléatoires X1 , X2 , X3 , … , Xn sont indépendantes :

    Var (X1 , X2 , X3 , … , Xn) = Var (X1) , Var (X2) , Var (X3) , … , Var (Xn)

    Mais si les variables aléatoires ne sont indépendantes, la formule pourrait s’avérer fausse.

    Définition

    Les variables aléatoires X1 , X2 , X3 , … , Xn sont indépendantes lorsque les événements

    (Xi = xk) ; i∀ et k∀ , sont indépendants.

    Exemple :

    Un placement financier dont le profit est X1

    X a b Y a’ b’ c’ pa pb p’a’ p’b’ p’r’

    X et Y sont indépendants, si est seulement si les événement (X=a) ; (X=b) ; (Y=a’) ; (Y=b’) ; (Y=c’) sont indépendants. n

  • LOI BERNOULLI

    La loi de Bernoulli est la loi d’une variable aléatoire X prenant les valeurs 1 et 0 avec les probabilités :

    P(X=1) = p et P(X=0) = 1– p = q

    Exemple :

    Tirer à “pile ou face” ;

    Tester une pièce mécanique produite par une machine (pièce défectueuse ou non)

    En mathématiques, la loi de Bernoulli (du nom du mathématicien suisse Jacques Bernoulli) est une distribution discrète de probabilité qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q.

    L’espérance mathématique d’une variable aléatoire de Bernoulli vaut p et sa variance vaut pq

  • LOI BINOMIALE

    Soit une expérience (épreuve) aléatoire à deux résultats possibles (succès et échec). Le succès et l’échec sont réalisés avec des probabilités connues, respectivement p et q. On imagine qu’on répète l’expérience n fois successives et indépendantes les unes des autres. Et à la fin on totalise les succès.

    Un compteur de succès X est la variable aléatoire donnant le nombre de succès obtenus à l’issue des n expérience

    ⇒ X suit la Loi binomiale caractérisée par les paramètres n et p, et notée B (n ; p)

    Fluctuation possible entre X et l’espérance E(X) ?

    Exemple :

    On lance un dé 50 fois de suite. On comptera le nombre de 6 obtenu à l’issue des 50 essais.

    X : nombre de 6 obtenu, suit la loi B (50 ; 61 )

    Remarque Ceci n’est valable que pour les événements indépendants. Exemple : tirage de n boule avec remise → indépendance → binomiale. La loi de X est entièrement caractérisée par :

    X 0 1 2 … n p(X=…) p(X=0) p(X=1) p(X=1) … p(X=n)

    Le problème est de trouver p(X=k) où k entier, compris entre 0 et n. p(X=k) est une des manières d’obtenir k succès : p p p … p q q q … q | | | | | | | | S S S … S E E E … E k n – k ⇒ pk . q n–k , C kn

    ⇒ p(X=k) = C kn pk . q n–k , C kn avec q = 1– p (possibilité d’échec)

    Exemple :

    Deux joueurs D et E lancent chacun n fois une pièce de monnaie. Quelle est la probabilité que D et E obtiennent le même nombre de “face” ?

    Dk : “D obtient k faces après n lancers” Ek : “E obtient k faces après n lancers” Dk et Ek deux événements indépendants.

  • Loi binomiale

    36

    p(Dk ∩Ek) = p(Dk) . p(Ek) ⇒ nombre X de face de D = B (n ; ½) et nombre Y de face de E = B (n ; ½)

    ⇒ p(Dk ∩Ek) = p(Dk) . p(Ek) = C kn (½)

    k . (½)n–k . C kn (½)k . (½)n–k

    = (C kn )2 . (½)2n

    donc, p(X=Y) = p(D0 ∩ E0) + p(D1 ∩ E1) + … + p(Dn ∩ En) = (C 0n )

    2 . (½)2n + (C 1n )2 . (½)2n + … + (C nn )

    2 . (½)2n

    = (½)2n [(C 0n )2 + (C 1n )

    2 + … + (C nn )2]

    ® ?

    Calcul de ® : Une boite contenant n boules blanches et n boules noires

    2 n boules

    On en extrait n boules en même temps C nn = Cnn

    n− = C 0n

    C 2n = C0n . C

    nn + C

    1n . C

    1nn

    − + C 2n . C2n

    n− + … + C nn . C

    0n

    0B nN 1B (n-1)N 2B (n-2)N nB 0N

    donc, p(X=Y) = (½)2n. C n2n

    Par exemple, n = 5 ⇒ p(X=Y) = (½)10. C 510

    Théorème

    Soit X une variable aléatoire de loi B ( n ; p ), alors :

    E(X) = n.p ; Var(X) = n.p.q ; σ(X) = qpn ..

    Démonstration

    1 (lors du kième essai, on obtient un succès)

    On introduit Xk

    (avec k = 0 , 1 , 2 , … , n)

    0 (lors du kième essai, on obtient un échec)

    Alors, X = X1 , X2 , X3 , … , Xn (X est égale à la somme des nombres de succès)

    ● E(X) = E(X1) + E(X2) + E(X3) +… + E(Xn) ⇒ E(X) = np p p p p

  • MSCS12B, Les probabilités, M. Ouardani, 2008/2009

    37

    X 1 0

    p(X=…) p q ⇒ E(Xi) = (p×1) + (q×0) = p

    ● Var(X) = Var(X1) + Var(X2) + Var(X3) +… + Var(Xn) ⇒Var(X)= npq pq pq pq pq

    Par exemple : La probabilité que le r ième succès survienne lors de la m ième expérience, est l’événement :

    ((r – 1) succès lors des (m –1) première expérience) ∩ (succès à la m ième expérience)

    rm1r1rm

    −−−− q.p.C 1 × p

    rmr1r

    mrm1r1r

    m−−

    −−−−

    − =⇒ q.p.Cp.q.p.C 11

    J’obtiens la 4e face au 15e lancer d’un dé, avec la probabilité ( ) ( ) 1431411314 115 21 .C21.21 .C =−−