53
Licence 2-S3 SI-MASS Année 2013 Cours de Probabilités Pierre DUSART

Cours Proba 2013

Embed Size (px)

DESCRIPTION

probabilité

Citation preview

  • Licence 2-S3 SI-MASSAnne 2013

    Cours de Probabilits

    Pierre DUSART

  • 2

  • Chapitre 1lments danalyse combinatoire

    1.1 Quelques dfinitions

    Disposition sans rptition : cest une disposition o un lment peut apparatre 0 ou 1 fois.Disposition avec rptition : un lment peut figurer plus dune fois.Disposition ordonne : lordre dobtention dun lment est important.Ex. les lments constituant la plaque minralogique dun vhicule.

    Disposition non-ordonne : lordre dobtention dun lment nest pas important, on nen tient pas comptedans la caractrisation de la disposition.Ex. Les numros issus dun tirage du loto.

    Exemple 1 : On considre un ensemble deux lments {a, b}. Avec deux tirages sans rptition, on peutobtenir {a, b} ou {b, a} ; Avec deux tirages avec rptition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}.Cela correspond un tirage avec remise.

    Exemple 2 : Prenons un jeu de d 6 faces (lments discernables) numrotes par = {1; 2; 3; 4; 5; 6}.Aprs 3 jets, nous obtenons la ralisation A = (2; 5; 1) ; nous ritrons les jets et nous obtenons B =(5; 1; 2). A et B sont quivalents si nous considrons que les dispositions sont non-ordonnes. En revanche,ils ne sont pas quivalents si nous sommes dans le cadre dune disposition ordonne.

    La valeur Factorielle(n), note n! est dfinie par n! = 1 2 n =ni=1 i. Par convention 0! = 1. Nous

    pouvons galement utiliser une dfinition rcursive

    n! = n (n 1)!

    1.2 Arrangement avec rptition

    Soit un ensemble compos de n lments : card() = n. Nous constituons un chantillon E de taille p(card(E) = p) partir des lments de . Si nous avons choisir p lments parmi n dans une dispositionordonne (les places sont distinctes) et avec rptition (on peut choisir le mme lment plusieurs fois),on dit quon a un arrangement de p lments parmi n. Le nombre darrangement avec rptition est np.

    N.B. Dans ce cas, il est possible que p > n.

    Raliser un arrangement avec rptition des lments de , cest aussi dfinir une application dunensemble E p lments dans . Lensemble des applications de E dans sera not E et on a#(E) = (#)#E .

  • 4 CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

    1.3 Arrangement sans rptition

    Soit un ensemble avec card() = n. On constitue un chantillon de taille p (p n), la disposition estordonne et sans rptition. On dit quon a un arrangement sans rptition de p lments parmi n. Lenombre de parrangements dun ensemble n lments est :

    Apn =n!

    (n p)!.

    Raliser un arrangement sans rptition des lments de , cest dterminer un puplet (x1, . . . , xp)dlments de deux deux distincts. Cest aussi dfinir une application injective dun ensemble E plments dans n lments.

    1.4 Permutation sans rptition

    Cest un arrangement sans rptition de n lments parmi n.

    Pn = Ann =

    n!

    (n n)!= n!

    Raliser une permutation des lments de , cest raliser un tirage exhaustif sans remise des lmentsde en tenant compte de lordre du tirage. Cest aussi dfinir une bijection de ensemble sur lui-mme.Lensemble des permutations dun ensemble n lments sappelle le groupe symtrique dordre n et senote Sn. On a #Sn = n!.

    1.5 Permutation avec rptition

    On appelle permutation avec rptition de p lments o n sont distincts (n p), une dispositionordonne de lensemble de ces p lments o le premier figure p1 fois, le second p2 fois, etc., tel quep1 + p2 + + pn = p. Le nombre de permutation avec rptitions est p!p1!p2!pn!Dmonstration : (Voir pralablement la dfinition dune Combinaison sans rptition)Pour construire un p-uplet correspondant une combinaison contenant p1 fois x1, p2 fois x2, ..., pn foisxn, il suffit : de choisir les p1 emplacements des x1, parmi p1 + p2 + ...+ pn places disponibles, de choisir les p2 emplacements des x2, parmi les p2 + ...+ pn places restantes, etc. de choisir les pn emplacements des xn, parmi les pn places restantes.Au total, il y a

    Cp1p1+p2++pn Cp2p2++pn C

    pnpn =

    p!

    p1!p2! pn!

    Exemple [Nombre danagrammes du mot MATHMATIQUE] : nous voyons quen changeant les deuxlettres A, le mot reste identique, et par contre en transposant les lettres et E nous obtenons un motdiffrent. (M :2 ;A :2 ;T :2 ;H :1 ; :1 ;I :1 ;Q :1 ;U :1 ;E :1) : #Anagrammes = 12!/(2!2!2!)

    Exemple 2 : Nombre de quartets binaires de poids de Hamming gal 2 ;Il y en a 6 =4 !/(2 !2 !) : (0011),(0101),(0110),(1001),(1010),(1100).

  • Cours Probabilits / Pierre DUSART 5

    1.6 Combinaison sans rptition

    On considre un ensemble constitu de n lments tous discernables. On forme un chantillon de taillep. Si la disposition est non-ordonne et sans rptition, on dit que lon a une combinaison sans rptitionde p lments parmi n. Le nombre de ces combinaisons se note Cpn ou

    (np

    ).

    Cpn =n!

    p!(n p)!

    Proprits :1. C0n = Cnn = 12. Cpn = Cnpn (complmentaire)3. Cpn = C

    pn1 + C

    p1n1 (triangle de Pascal)

    4. Cpn =Apnp!

    Preuve que Cpn = Cpn1 + C

    p1n1 :

    Cpn1 + Cp1n1 =

    (n 1)!p!(n p 1)!

    +(n 1)!

    (p 1)!(n p)!

    =(n 1)! (n p)

    p!(n p)!+p (n 1)!p!(n p)!

    =n (n 1)!p!(n p)!

    = Cpn

    Proposition 1.6.1 (Formule du binme)

    (a+ b)n =

    np=0

    Cpn ap bnp.

    Exercice : preuve de la formule du binme par rcurrence sur n

    Preuve :

    (a+ b)n+1 = (a+ b)(a+ b)n

    = (a+ b)

    np=0

    Cpn ap bnp

    =

    np=0

    Cpn ap+1 bnp +np=0

    Cpn ap bn+1p

    =

    n+1p=1

    Cp1n ap

    bn+1p

    +

    np=0

    Cpn ap bn+1p

    =

    (np=1

    Cp1n ap bn+1p + Cnnan+1b0)

    +

    (C0na

    0bn+1 +

    np=1

    Cpn ap bn+1p)

    = an+1 +

    np=1

    (Cp1n + Cpn

    Cpn+1

    ) ap bn+1p + bn+1

    (a+ b)n+1 =

    n+1p=0

    Cpn+1 ap bn+1p.

  • 6 CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

    1.7 Combinaison avec rptition

    Cest une disposition non-ordonne de p lments, choisir parmi n lments discernables, avec rptition.Le nombre de combinaisons avec rptitions de n objets pris p p est :

    Kpn = Cpn+p1

    Exemple : [jeu de domino] Les pices sont constitues en disposant cte cte deux lments de lensemble{blanc, 1, 2, 3, 4, 5, 6}. Si nous retournons un domino, nous changeons lordre des deux lments, mais ledomino reste identique (Cest donc une disposition non-ordonne). Nous avons une combinaison avecrptition de 2 lments pris parmi les 7, et au total il y a K27 = 28 dominos dans un jeu.

    Toute pcombinaison avec rptition peut scrire :

    x1 : k1 fois, . . . , xn : kn fois

    avec 0 ki p etni=1 ki = p.

    On peut ainsi mettre en bijection lensemble des pcombinaisons avec rptition des n lments de Eavec les applications f : E N telles que

    x1 7 f(x1) = k1

    xn 7 f(xn) = knvrifiant

    ni=1

    f(xi) = p

    Exemple : Dans un jeu de dominos, un domino est une 2-combinaison avec rptition de lensembleE = {blanc, 1, 2, 3, 4, 5, 6}. Chaque domino peut tre reprsent par une application de E dans {0, 1, 2}qui associe chaque lment de E le nombre de fois o llment apparat sur le domino. Ainsi le domino[blanc,blanc], est reprsent par lapplication f dfinie par

    f(blanc) = 2, f(1) = 0, f(2) = 0, f(3) = 0, f(4) = 0, f(5) = 0, f(6) = 0

    et le domino [blanc, 1] par lapplication f dfinie par

    f(blanc) = 1, f(1) = 1, f(2) = 0, f(3) = 0, f(4) = 0, f(5) = 0, f(6) = 0.

    On peut aussi mettre cet ensemble en bijection avec lensemble des manires de placer p objets dans nbotes :

    bote 1 i nx1 xi xnk1 ki kn

    Mais placer p objets dans n botes cest aussi se donner n+ p 1 objets et dcider que n 1 dentre euxseront des cloisons :

    0 0 k1

    | 0 0 k2

    | | 0 0 kn

    .

    Inversement, toute faon de choisir n 1 objets qui seront des cloisons, on peut associer une et uneseule faon de placer p objets dans n botes.

    Il y a une bijection entre lensemble des p-combinaisons avec rptition de E et lensemble des p-upletscroissants dlments de E, ou encore des applications croissantes (au sens large) de {1, 2, ..., p} dans E.Proprit : Kpn = Kp1n +K

    pn1.

    Preuve : Cpn+p1 = Cp1n+p2 + C

    pn+p2

  • Chapitre 2Probabilits

    2.1 Espace probabilis

    2.1.1 vnement et ensemble fondamental

    Une preuve est une exprience dont lissue nest pas prvisible car rpte dans des conditions identiques,elle peut donner lieu des rsultats diffrents ou alatoires (exprience alatoire). Lensemble des rsultatspossibles sappelle lensemble fondamental (ou rfrentiel, univers des possibles) et sera not .

    Un vnement est un ensemble de rsultats (un sous-ensemble de lunivers) dune exprience alatoire.Comme lvnement est une affirmation concernant le rsultat dune exprience, nous devons pouvoirdire, pour tout rsultat de lunivers, si lvnement se ralise ou non. Un vnement donn, souvent dfinipar une proposition, est identifi la partie de lunivers pour laquelle il est ralis.

    On exige que la collection C des vnements dispose de la structure dune algbre de Boole :1. C; C.2. si A C; A C;3. si A,B C A B C et A B C.

    On peut prciser le calcul de probabilits dun vnement E. De manire simplifie, la probabilit thoriquevaut

    P (E) =nombre de cas favorables

    nombre total de cas.

    Exemple 1 : Si on lance un d 6 faces, le rfrentiel est compos des six faces = {1, 2, 3, 4, 5, 6}.Exemple 2 : Si on lance trois fois une pice, le rfrentiel est compos des 23 arrangements avec rptitiondes 2 faces distinctes notes P et F : = {PPP, PPF, PFP, PFF, FPP, FPF, FFP, FFF}.Exemple 3 : Si on lance trois pices identiques simultanment, le rfrentiel est compos des 3-combinaisonsavec rptition des 2 faces distinctes notes P et F : = {PPP, PPF, FFP, FFF}. de cardinal K32 .Question : On lance trois pices de monnaie. Quelle est la probabilit que toutes trois retombent dumme ct, que ce soit pile ou face ?

    Dfinition 1 Deux vnements A et B sont dits incompatibles sils ne peuvent se raliser simultanmentcest--dire lorsque lintersection des sous-ensembles A et B est vide : A B = .

  • 8 CHAPITRE 2. PROBABILITS

    2.1.2 Axiomatique de Kolmogorov

    A chaque vnement, on associe un nombre positif compris entre 0 et 1, sa probabilit.

    La thorie moderne des probabilits repose sur laxiomatique suivante :

    Dfinition 2 On appelle probabilit sur (, C) (o est lensemble des vnements et C une classe departies de ), ou loi de probabilit, une application P de C dans [0, 1] telle que :

    1. Pour tout vnement E, 0 P (E) 1.2. P () = 13. pour tout ensemble dnombrable dvnements incompatibles A1, A2, ..., An, on a

    P (Ai) =

    P (Ai). (-additivit de P )

    Dfinition 3 On appelle espace probabilis le tripl (, C, P ) o est lensemble fondamental, C est unecollection de sous-ensembles de (la collection des vnements), qui possde la structure prcdente de-algbre de Boole et P : C [0, 1] est une mesure de probabilit sur C.

    Proprits lmentaires : de laxiomatique de Kolmogorov, on peut dduire les proprits suivantes :1. P () = 02. P (A) = 1 P (A)3. P (A B) = P (A) + P (B) P (A B)4. P (A) P (B) si A B (ingalit de Boole)5. P (iAi)

    i P (Ai) (Il ny a stricte galit que si les vnements Ai sont deux deux

    incompatibles.)6. Si la suite (An) crot vers A (cest--dire n,An An+1 et An = A) alors limP (An) = P (A).7. Continuit monotone squentielle. Soient A1 A2 An . Si limnAn = alors

    limn P (An) = 0

    Dmonstration :1. Soit E un vnement quelconque. Comme E = E, P (E ) = P (E). Dautre part, on sait

    que E = (tout vnement est incompatible avec lvnement impossible) et daprs le 3meaxiome, P (E ) = P (E) + P (). Des deux galits, on obtient P () = 0.

    2. A A = et A A = P () = P (A A) = P (A) + P (A) = 1 do P (A) = 1 P (A)3. On dcoupe selon une partition de AB : on a P (AB) = P

    ((A B) (B A) (A B)

    ). Ces

    ensembles sont deux deux incompatibles do P (AB) = P (AB)+P (BA)+P (AB). De plus,P (A) = P (AB) +P (AB) et P (B) = P (B A) +P (AB), do P (AB) = P (A)P (AB)et P (B A) = P (B) P (A B), valeurs que lon remplace dans la premire galit obtenue.

    4. Daprs la proprit prcdente et la positivit de la probabilit, on a P (A B) = P (A) + P (B)P (A B) P (A) + P (B),

    5. Formule prcdente que lon peut gnraliser un nombre quelconque dvnements : P (iAi) i P (Ai) avec galit si des vnements sont deux deux incompatibles.

    6. On pose B1 = A1 et n 2, Bn = An\An1. Les Bi sont disjoints et vrifient n1Bn = n1Anet n 1,nk=1Bk = An. Par la proprit de -additivit,

    n1 P (Bn) = P (n1An) et n

    1,nk=1 P (Bk) = P (An). Ainsi limn P (An) = P (nAn) = P (A).

    7. On note A = An. Comme An An+1, An \An+1. On pose B1 = A1 et Bn+1 = An+1\An. AinsinBn = nAn = A et nk=1Bk = An. Ainsi limn P (An) = limn P (Bk) = P (A). En passage aucomplmentaire, limn P (An) = P (A). On peut prendre A = .

  • Cours Probabilits / Pierre DUSART 9

    Thorme 2.1.1 (Thorme des probabilits totales) Soit = Bi un systme complet dvne-ments (i.e. tel que les {Bi} constituent une partition de ). Alors

    A : P (A) =i

    P (A Bi).

    Exemples de construction :1. Si = {x1, . . . , xn} est fini, on dfinit une probabilit sur P() en se donnant n nombres pi tels

    quei pi = 1 en posant P ({xi}) = pi. On parle dquiprobabilit si pour tout i, P ({xi}) =

    1n .

    Dans ce cas, P (A) = card(A)n .2. Si = {xn, n N} est dnombrable, on dfinit une probabilit sur P() en se donnant une srie

    de terme gnral pn convergente termes positifs et de somme gale 1 en posant P ({xi}) = pi.(par exemple : pn = 12n+1 )

    3. Si est un intervalle ]a, c[, o a, c appartiennent R {,}, on peut dfinir une probabilitsur tous les intervalles inclus dans en dfinissant une probabilit sur des intervalles de la forme]a, b[. Par exemple, P (]a, b[=

    ba(t)dt o est une fonction positive qui vrifie

    ca(t)dt = 1.

    4. Si =]0, 1[2, on obtient une probabilit en posant P (A) =surface de A.

    2.2 Probabilit conditionnelle

    On considre la ralisation de deux vnements A et B.

    Que peut-on dduire sur la probabilit de lvnement B sachant que lvnement A est ralis ? Cetteprobabilit est appele probabilit conditionnelle de A sachant B et se note P (A/B) ou PB(A).

    Par dfinition, on a

    P (A/B) =P (A B)P (B)

    .

    Cette probabilit a posteriori est dite Probabilit de Bayes.

    Exercice : montrer que PB est une probabilit sur .

    2.2.1 Formule de Bayes

    Comme P (B/A) = P (AB)P (A) , on a P (A/B) =P (AB)P (B) =

    P (B/A)P (A)P (B) . La formule de Bayes est

    P (A/B) =P (B/A)P (A)

    P (B).

    On remarque que P (B) = P (A B) + P (A B) = P (B/A)P (A) + P (B/A)P (A), ainsi

    P (A/B) =P (B/A)P (A)

    P (B/A)P (A) + P (B/A)P (A).

    Plus gnralement si {Aj} est une partition de lensemble des possibles, pout tout i,

    P (Ai/B) =P (B/Ai)P (Ai)j P (B/Aj)P (Aj)

    .

    Exemple : Soit un vnement A qui peut dpendre de N causes Ci diffrentes et incompatibles deux deux (on ne peut avoir deux causes ralises simultanment). Etant donne la ralisation de lvnementA, quelle est la probabilit que ce soit Ci qui en soit la cause ?

  • 10 CHAPITRE 2. PROBABILITS

    2.2.2 Formule des probabilits composes

    Proposition 2.2.1 (Formule des probabilits composes) Soient n vnements A1, ..., An tels queP (A1 An) 6= 0. Alors :

    P (A1 An) = P (A1)P (A2|A1)P (A3|A1 A2) P (An|A1 An1)

    Exemple : Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3boules : si on tire une noire, on lenlve, si on tire une blanche, on la retire, et on ajoute une noire laplace. Quelle est la probabilit de tirer 3 blanches la suite ?

    On note Bi lvnement "La i-me boule tire est blanche". La probabilit recherche est :

    P (B1 B2 B3) = P (B3|B1 B2) P (B2|B1) P (B1).

    Clairement, P (B1) = 3/10. Maintenant, si B1 est ralis, avant le 2me tirage, lurne est constitue de 8boules noires et 2 blanches. On a donc : P (B2|B1) = 2/10. Si B1 et B2 sont raliss, avant le 3me tirage,lurne est constitue de 9 boules noires et 1 blanche. On en dduit P (B3|B1 B2) = 1/10. FinalementP (B1 B2 B3) = 6/1000 = 3/500.

    Proposition 2.2.2 (Formule des probabilits totales) Soit {An;n N} un systme complet dv-nements, tous de probabilit non nulle. Soit B un vnement. Alors :

    P (B) =nN

    P (An)P (B/An).

    Cette formule permet de calculer la probabilit dun vnement B en le dcomposant suivant un systmecomplet dvnements (En effet, B est gal la runion disjointes des B An).

    2.2.3 Evnements indpendants

    Soient 2 vnements A et B. Ils sont indpendants si la ralisation de A naffecte pas la ralisation de B,et inversement. On peut alors crire

    P (A/B) = P (A)

    P (B/A) = P (B)

    On dit encore que A et B sont indpendants si et seulement la probabilit de ralisation simultane deces vnements est gal au produit de leurs probabilits individuelles :

    P (A B) = P (A) P (B).

    Si deux vnements A et B sont indpendants, alors il en est de mme pour A et Bc, Ac et B, Ac et Bc.

    Dfinition 4 Un ensemble dvnements A1, A2, . . . , An est dit totalement indpendant si pour tout sous-ensemble I {1, 2, . . . , n}

    P (iIAi) =iI

    P (Ai).

    Les vnements sont deux deux indpendants si pour tous indices i, j (i 6= j),

    P (Ai Aj) = P (Ai) P (Aj).

  • Cours Probabilits / Pierre DUSART 11

    Que pensez-vous des deux dfinitions ? Sont-elles quivalentes ?

    Exemple : On jette deux ds quilibrs. Soient les vnements

    A = {la somme des ds vaut 7},B = {le premier d affiche 4}C = {le second d affiche 3}.

    Calculer P (A B), P (A C), P (B C) et P (A|B C).

  • 12 CHAPITRE 2. PROBABILITS

  • Chapitre 3Variables alatoires

    3.1 Dfinition dune variable alatoire

    Une variable alatoire est une fonction dfinie sur lensemble des ventualits, cest--dire lensemble desrsultats possibles dune exprience alatoire.

    On sintressera aux valeurs prises xi par une variable alatoire X, vnement not (X = xi), et plusparticulirement la probabilit dobtenir ces valeurs P (X = xi).

    Cest peu prs la mme chose quune variable statistique sauf que dans le cas dune variable statistique onvalue un comportement ralis (moyenne, etc) alors que dans le cas de variables alatoires on suppose uncomportement futur (Dans ce cas, on parle desprance plutt que de moyenne par exemple) ou thorique.Les variables alatoires sont utilises pour modliser le rsultat dun mcanisme non-dterministe.

    3.1.1 Diffrents types de variables alatoires

    Dfinition 5 Une variable alatoire (ou v.a.) est une application X : R. Si X() est au plusdnombrable, on dit que X est un v.a. discrte sinon on dit quelle est continue.

    Variable alatoire discrte

    Si une variable alatoire X prend un nombre de valeurs fini ou dnombrable (son ensemble de dfinitionest inclus dans N), on parle de variable discrte.

    On sintresse dfinir lensemble des valeurs possibles et leurs probabilits associes.

    Quelques exemples : nombre de face dans un lancer de 3 pices : X() de 0 3. nombre de lancers avant dobtenir "6" avec un d : X() de 0 linfini ; nombre de clients attendant au service aprs-vente : X() de 0 10. nombre de cycles lecture/criture sur une cl USB : X() de 10000 100000. nombre dappels arrivant un standard tlphonique en une minute de 0 10.

  • 14 CHAPITRE 3. VARIABLES ALATOIRES

    Variable alatoire continue

    Une variable alatoire est dite continue si elle peut prendre toutes les valeurs dun intervalle. En particulier,dans le cas o la variable alatoire peut prendre toute valeur relle (son ensemble de dfinition contientun intervalle de R), on parle de variable alatoire relle.

    Dans ce cas, il ne sagira plus de calculer une probabilit dapparition dune valeur donne mais dunintervalle.

    Quelques exemples : temps dattente pour avoir le bus : X() [0, 10] longueur de cheveux : X() [0, 4m] intervalle entre deux averses : X() [1, 20 ans] moyenne des tailles de 20 tudiants pris au hasard : X() [, ]

    3.1.2 Loi de probabilit

    Une variable alatoire est totalement dfinie par sa loi de probabilit. Cette dernire est caractrise par : lensemble des valeurs quelle peut prendre (son domaine de dfinition) ; les probabilits attribues chacune des valeurs potentiellement prises P (X = x).Dans ce cas, la loi de la variable alatoire est la loi de probabilit sur lensemble des valeurs possibles deX qui affecte la probabilit P (X = xk) au singleton {xk}.

    Soit X : R. Dans le cas o X prend ses valeurs dans un intervalle rel, on cherche exprimer parexemple la probabilit que X prenne ses valeurs dans ], [. On remarque que X() ], [) X1(], [) et donc on pose P (X ], [) = P (X1(], [)).

    3.1.3 Fonction de rpartition

    Dfinition 6 La fonction de rpartition dune v.a. X est lapplication F de R dans [0, 1] dfinie par

    F (x) = P (X < x) = P(X1(], x[)

    ).

    On sintresse souvent la probabilit cumule. Par exemple dans le cas de probabilits sur N :

    P (X < n) = P (X = 0 ou X = 1 ou ou X = n 1).

    Les vnements tant incompatibles entre eux, on obtient

    P (X < n) =

    n1j=0

    P (X = j),

    et de faon plus gnrale, avec x R,

    P (X < x) =

    dx1ej=0

    P (X = j).

    Ainsi pour X une v.a. discrte prenant les valeurs classes xi avec les probabilits pi, on a

    F (x) =xi

  • Cours Probabilits / Pierre DUSART 15

    Proprits1. F est non dcroissante.2. F est continue gauche.3. x0 R, P (X = x0) = limxx+0 F (x) F (x0).4. F () = 0 et F (+) = 15. P (a X < b) = F (b) F (a)

    Preuves :1. Montrons que F est croissante (x < y = F (x) F (y)). On a la runion disjointe ] , y[=

    ] , x[[x, y[ et F (y) = P (X1(] , y[) = P (X1(] , x[) X1([x, y[)) et en utilisant lesproprits de P , F (y) = F (x) + P (X [x, y[) F (x).

    2. Soit x0 R. X1 ([x0 1/n, x0[) dcrot vers quand n tend vers linfini, donc F (x0)F (x01/n)tend vers 0. Comme F est croissante, cela implique que F est continue gauche.

    3. De mme, X1 ([x0, x0 + 1/n[) dcrot vers X1({x0}) donc la diffrence F (x0 +1/n)F (x0) tendvers P (X1{x0}) quand n tend vers linfini.

    4. F tant croissante, F () = limn F (n). Or ] ,n[ dcrot vers quand n tend verslinfini ; ainsi F (n) = P (X1(],n[)) dcrot vers 0. De mme, ], n[ crot vers R quandn tend vers linfini et F (n) = P (X1(], n[)) crot vers P (X R) = 1.

    5. X1(] , b[) est la runion disjointe de X1(] , a[) et de X1([a, b[) donc F (b) = P (X [a, b[) + F (a).

    Remarque : F est continue droite dans le cas des v.a. continues.

    Preuve : Daprs la proprit 4 des fonction de rpartition, F est continue si et seulement si : x R, P (X = x) = 0.

    Remarque : Probabilit ponctuelle pour une variable continue.La vraie distinction entre variables continues et discrtes tient dans le calcul de la probabilit ponctuelle.La probabilit dun point c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit dunpoint est par dfinition nulle pour les variables continues. Ainsi P (a < X < b) = P (a X b).En ralit, il sagit bien souvent dun problme dchelle ou de prcision de mesure. On travaille toujourssur des intervalles (par exemple la prcision de la mesure si on a une mesure au centimtre prs la valeurx = 160 correspond x = 160 0.5 soit un intervalle de travail 160 0.5 < x < 160 + 0.5.

    3.1.4 Densit de probabilit

    Pour une variable continue, on travaille la plupart du temps avec un ensemble de dfinition sur lesrels. La probabilit ponctuelle P (X = x) = f(x) est la fonction de densit. La fonction de rpartitionF (x) = P (X < x) est dfinie par :

    F (x) =

    x

    f(t)dt

    La densit de probabilit dune variable alatoire continue est la drive premire par rapport x de lafonction de rpartition. Cette drive prend le nom de fonction de densit, note f(x) = dF (x)dx . Elle estquivalente P (X = x) dans le cas des variables discrtes.

    Pour calculer la probabilit P (a X < b) dans le cas dune variable continue, le calcul est le suivant baf(x)dx. Dveloppons cette expression :

    P (a X < b) = P (X < b) P (X < a)

    =

    b

    f(t)dt a

    f(t)dt

    = F (b) F (a)

  • 16 CHAPITRE 3. VARIABLES ALATOIRES

    Graphiquement, cela se traduit par la surface comprise entre a et b en dessous de la courbe de densit.

    Proprit : De la mme faon que pi 0 eti pi = 1, on a f(x) 0 et

    + f(x)dx = 1.

    3.2 Caractristiques dune variable alatoire

    3.2.1 Tendance centrale

    Les fractiles

    On appelle quantile ou fractile dordre (0 < < 1) dune variable alatoire X dont la fonction derpartition est F (x), la valeur x telle que F (x) = . La valeur x sappelle quantile dordre .

    Remarque Dans le cas o X est une variable discrte, F (x) = sentend P (X < x) = .

    Nous numrons ici quelques quantiles particuliers.La mdiane : La mdiane est le quantile dordre = 1/2, en dautres termes la mdianeMed est dfiniepar F (Med) = 0, 5. La mdiane partage la population en deux parties gales, cest une caractristiquede tendance centrale.

    Les quartiles : les quartiles, nots Qi (respectivement i = 1; 2; 3) correspondent aux quantiles dordre( = 0, 25 ; 0,5 ; 0,75). Notons que Q2 = Med.

    Les dciles Le k-ime dcile (k = 1 9) est le quantile dordre k/10. En particulier, le 5-ime dcilecorrespond la mdiane.

    Le mode

    On appelle mode (valeur dominante, valeur la plus probable) dune variable alatoire, la valeur Modepour laquelle lhistogramme de frquence prsente son maximum.

    Dans le cas des variables discrtes, le Mode est la valeur de X associe la plus grande probabilit, dolappellation valeur la plus probable.

    Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue dune drive premireet dune drive seconde, le mode M est un maximum de la fonction densit et satisfait ce titre f (M) = 0 et f (M) < 0 (concavit vers le bas).

    Esprance mathmatique

    Soit X une v.a. discrte prenant ses valeurs dans {x1, . . . , xn} et dont les probabilits associes sontP (X = xi) = pi. On dfinit lesprance mathmatique de X, note E(X) par

    E(X) =

    ni=1

    pixi.

    Cette quantit nest dfinie que si la srie de terme gnral [pixi] converge.

    Cest la moyenne thorique de X. Cette moyenne est rapprocher de la moyenne exprimentale o chaquevnment X = xi se ralise ni fois dans un chantillon de taille N =

    i ni. La moyenne exprimentale

    vaut X = 1Ni nixi =

    i fixi, o fi =

    niN est la frquence observe dans chaque classe dvnement

    X = xi.

    Dans le cas continu, E(X) = + xf(x)dx o f(x) est la densit de probabilit de X. Cette quantit

    nexiste que si + xf(x)dx est absolument convergente.

  • Cours Probabilits / Pierre DUSART 17

    De faon gnrale, pour Y une fonction de X, on a

    E(Y ) =

    ni=1

    piyi ou E(Y ) = +

    y(x)f(x)dx

    Par exemple, pour Y = X2, on a E(X2) =ni=1 pix

    2i ou E(X2) =

    + x

    2f(x)dx.

    Proprits : (Esprance dune constante). E(a) = a. Preuve.

    E(a) =

    D

    af(x)dx = a

    D

    f(x)dx = a 1 = a.

    On peut en dduire que E[E(X)] = E(X), puisque E(X) nest pas une variable alatoire.

    Caractristique (oprateur linaire). E(aX + bY ) = aE(X) + bE(Y ). De manire gnrale,

    E

    (i

    aiXi + b

    )=

    (i

    aiE(Xi)

    )+ b

    3.2.2 Paramtres de dispersion

    Moments

    Un moment non-centr dordre r est dfini de la manire suivante :

    mr(X) = E(Xr)

    Application : pour une v.a. (variable alatoire) discrte, mr(X) =i pix

    ri , o pi = P (X = xi) et pour

    une v.a. continue, mr(X) =Dxrf(x)dx.

    Remarque (Moments non-centrs empiriques, statistique descriptive). Rappelons quen statistique descrip-tive, ce moment non-centr, pour une v.a. discrte par exemple, est obtenue avec la formulemr =

    i fix

    ri ,

    o fi est la frquence observe de la valeur xi.

    Remarque (Cas particuliers).(r = 0) m0(X) = 1 ;(r = 1) m1(X) = E(X), esprance mathmatique ; Un moment centr dordre r est dfini de la manire suivante :

    r(X) = E[(X E(X))r]

    Soit pour une v.a. discrte : r(X) =i(xi E(X))rpi

    et pour une v.a. continue : r(X) =D

    (x E(X))rf(x)dxRemarque (Statistique descriptive). En statistique descriptive, pour une variable discrte, le momentcentr dordre r est obtenu avec r =

    ni=0 fi(xi x)r

    Remarque (Cas particuliers).(r = 0 ) 0(X) = E[(X E(X))0] = E(1) = 1(r = 1) 1(X) = E[(X E(X))] = E(X) E[E(X)] = E(X) E(X) = 0(r = 2 ) 2(X) = E[(X E(X))2] = V (X) (cest la variance de X).

    Variance

    Dfinition 7 On appelle variance de X, not V (X), le moment centr dordre 2 de X (sil existe).

    V (X) = E([X E(X)]2).

  • 18 CHAPITRE 3. VARIABLES ALATOIRES

    La variance mesure la dispersion autour de la moyenne. Lcart-type est la racine carre de la variance :

    (X) =V (X).

    Remarque (Formule de Koenig). Il est possible dexprimer la variance partir des moments non centrs.

    V (X) = E[(X E(X))2] = E[X2 2XE(X) + E(X)2]= E(X2) + E(X)2 2E[XE(X)]= E(X2) + E(X)2 2E(X)E(X)= E(X2) E(X)2

    V (X) = m2(X)m1(X)2

    3.2.3 Caractristiques de forme

    Le coefficient dasymtrie (skewness)

    Graphiquement, il sagit de ltalement gauche ou droite de lhistogramme des frquences de la variablestatistique.

    Le coefficient dasymtrie de Fisher : Outil banal de la statistique descriptive, il sagit du momentcentr dordre 3 normalis par le cube de lcart-type, cest--dire ( gamma un ) :

    1 =33

    =1

    3

    i

    fi(xi x)3.

    Remarque : 1 = 33/22

    .

    Comme cest un nombre sans dimension, il permet de comparer des distributions mme si leurs chellesdiffrent. Lorsque ltalement est gauche (moyenne infrieure la mdiane), le coefficient dasymtrieest ngatif et vice versa.

    Le coefficient dasymtrie de Pearson 1 ( beta un ) est le carr du coefficient de Fisher, soit :

    1 =(33

    )2.

    Le coefficient dasymtrie de Yule et Kendall On a juste besoin des quartiles pour le calculer.

    u =(Q3 Q2) (Q3 Q1)(Q3 Q2) + (Q3 Q1)

    .

    Comme il nexiste pas de table, donc pas de critre prcis de sparation entre symtrie et asymtrie, onutilisera plutt ce coefficient comme lment de comparaison entre deux distributions.

  • Cours Probabilits / Pierre DUSART 19

    Le coefficient daplatissement (kurtosis)

    Gnralement, on observe le coefficient daplatissement (kurtosis) en mme temps que celui dasymtrie.

    Le coefficient daplatissement de Pearson 2 est la valeur obtenue par le calcul suivant :

    2 =44.

    Un coefficient daplatissement lev indique que la distribution est plutt pointue en sa moyenne, et desqueues de distribution paisses.

    Pour une variable alatoire suivant une loi normale centre rduite(loi vue par la suite), ce coefficientdaplatissement vaut 3. Cest pour cela que lon normalise la valeur pour mesurer lexcs daplatissementpour obtenir le coefficient daplatissement de Fisher.

    Le coefficient daplatissement de Fisher 2 est la valeur obtenue par le calcul suivant :

    2 =44 3.

    Remarque : 2 = 422 3.

    3.2.4 Ingalit de Bienaym-Chebyshev

    Proposition 3.2.1 (Ingalit de Bienaym-Chebychev) Soit X une v.a. desprance mathmatique et de variance 2. Lingalit de Bienaym-Chebychev indique que pour tout nombre rel positif t, laprobabilit que X scarte de son esprance mathmatique dune grandeur suprieure t, a pour limitesuprieure 2/t2 :

    P (|X | t) 2

    t2

    Preuve :1. Dans le cas o X est discrte : On a 2 =

    i pi(xi )2. En enlevant les termes, positifs, corres-

    pondant aux xi pour lesquels |xi| < t, on obtient 2 |xi|t pi(xi)

    2. Dans cette somme,les xi vrifient tous |xi |2 t2 donc en remplaant 2 t2

    |xi|t pi = t

    2p (|X | t).2. Dans le cas o X est continue :

    2 =

    +

    (x )2f(x)dx t

    (x )2f(x)dx+ ++t

    (x )2f(x)dx

    car pour tout x, (x )2f(x) est positive ou nulle. Dans les intervalles considrs x 6 [ t, + t],on a (x )2 t2 donc

    2 t2( t

    f(x)dx+

    ++t

    f(x)dx

    )= t2(1 F (+ t) + F ( t)) = t2P (|X | t)

  • 20 CHAPITRE 3. VARIABLES ALATOIRES

    Remarque (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la loidite des "grands nombres". Elle stipule quil suffit dextraire un chantillon dun effectif suffisant dansune population pour estimer lesprance mathmatique laide de la moyenne arithmtique, ou encorepour estimer une probabilit laide dune frquence. On parle alors de convergence en probabilit.

    Remarque 2 (Une expression plus gnrale de lingalit de Bienaym-Chebychev). La porte de lingalitde Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peuttre dfinie pour une fonction g(X) telle que

    P (g(X) t) E(g(X)k)

    tk

    La prsentation usuelle correspond k = 2 et g(X) = |X |.

    3.2.5 Fonctions gnratrices

    Fonction caractristique

    La fonction caractristique dune variable alatoire X est dfinie sur R par

    X(t) = E(eitX),

    o i est lunit imaginaire (i2 = 1). Ainsi, pour une variable discrte, X(t) =k e

    itxkpk et pour unevariable continue, X(t) =

    eitxf(x)dx.

    Proprits de la fonction caractristique :1. X(t) est bien dfiniew pour tout t rel.2. La relation suivante sert, par exemple, calculer la fonction caractristique dune variable centre

    rduite, partir de la fonction caractristique de la variable de dpart : pour tous a, b rels,

    aX+b(t) = X(at)eitb.

    3. Il y a aussi une relation entre les moments et la fonction caractristique dune variable alatoire.Lorsque les moments existent et que la srie converge : X(t) =

    k=0

    ikkk! t

    k o k est le momentdordre k. Cette relation sert parfois pour calculer la moyenne (premier moment) et la variancedune variable alatoire. Plus explicitement, 1 = X(0), E(X) = iX(0), E(X2) = X(0) etVar(X) = X(0) + 2X(0) ou encore

    (k)X (0) = i

    kE(Xk).

    4. Elle dtermine de faon unique la loi dune variable alatoire au sens o X = Y (galit defonctions) quivaut X et Y ont la mme loi.

    Preuve 1. Dans le cas discret, X(t) =k e

    itxkpk. Cest la somme dune srie absolument conver-gente car |eitxkpk| = pk. Dans le cas continu, X(t) =

    + e

    itxf(x)dx. Cest une intgrale dfinieabsolument convergente car |eitxf(x)| = f(x) dont lintgrale sur R est gale 1.

    2. Utiliser les proprits de la fonction exponentielle et de lesprance.3. On a X(0) = E(1) = 1. En supposant les bonnes conditions de convergence, on a

    X(t) =n

    eitxnpn =n

    k=0

    (itxn)k

    k!pn =

    k=0

    ik

    k!

    (n

    pnxkn

    )tk =

    k=0

    ik

    k!(mk)t

    k

    De mme dans le cas continu :

    E(eitX) =

    +

    [ k=0

    (itx)k

    k!

    ]f(x)dx =

    k=0

    (it)k

    k!

    +

    xkf(x)dx =

    k=0

    mk(it)k

    k!.

  • Cours Probabilits / Pierre DUSART 21

    Par identification avec le dveloppement de X(t) en srie de Taylor-Mac-Laurin, on a bien laproprit propose.

    4. (admis)

    Dfinition 8 On appelle fonction gnratrice des moment de la v.a. X, si elle existe, la fonction :

    MX(t) = E(etX).

  • 22 CHAPITRE 3. VARIABLES ALATOIRES

  • Chapitre 4Lois discrtes usuelles

    4.1 Loi uniforme discrte

    Lensemble des valeurs possibles est {1, 2, 3, , n}, n tant un paramtre de la loi. Chaque valeur reoitla mme probabilit 1/n (Uniformit). On obtient la loi de probabilit suivante :

    xi 1 2 3 npi 1/n 1/n 1/n 1/n

    Pour une v.a. X qui suit cette loi, on a :

    E(X) =n+ 1

    2

    V (X) = (n2 1)/12

    En effet,

    E(X) =

    ni=1

    pixi =1

    n

    nk=1

    k =1

    n n(n+ 1)

    2=n+ 1

    2

    et

    V (X) =i

    pix2i (E(X))2 =

    1

    n

    nk=1

    k2 (n+ 1

    2

    )2=

    1

    n n

    6(n+ 1)(2n+ 1) (n+ 1)

    2

    4

    =4(n+ 1)(2n+ 1) 6(n+ 1)(n+ 1)

    24

    =(n+ 1)(8n+ 4 6n 6)

    24=

    (n+ 1)(n 1)12

    V (X) =n2 1

    12

  • 24 CHAPITRE 4. LOIS DISCRTES USUELLES

    On peut galement dterminer sa fonction caractristique :

    X(u) =k

    eiuk 1n

    =1

    n

    k

    (eiu)k

    =1

    n eiu 1 e

    iun

    1 eiu(somme des premiers termes dune suite gomtrique)

    Or

    eiu 1 = eiu/2+iu/2 eiu/2iu/2 = eiu/2

    eiu/2 eiu/2 2i sin(u/2)

    eiun 1 = einu/2+inu/2 einu/2inu/2 = einu/22i sin(nu/2)

    Do

    X(u) =1

    n

    eiun/2 sin(nu/2)

    eiu/2 sin(u/2)eiu =

    eiun+12

    n sin(nu/2)

    sin(u/2)

    4.2 Loi de Bernoulli

    Cest une des lois les plus simples. Elle prend que deux valeurs possibles Vrai/Faux, codes 1 et 0. Onnote p la probabilit associe la valeur 1 (ce sera le paramtre de la loi). Evidemment la probabilitassocie la valeur 0 sera 1 p (parfois note q pour plus de lisibilit dans les formules). On notera cetteloi B(p).

    Caractristiques : E(X) = p, V (X) = pq, X(u) =1k=0 P (X = k)e

    iuk = P (X = 0) + P (X = 1)eiu =q + peiu.

    4.3 Loi binomiale

    Considrons une preuve alatoire qui ne conduit qu deux ventualits exclusives : lune succs (V ) etlautre chec F . Lunivers associ cette preuve est donc = {V ;F}.Soient p la probabilit de lvnement {V } et q la probabilit de lvnement {F} (on a q = 1 p).Lexprience consistant rpter n fois cette preuve de faon indpendante, est appele suitedpreuves de Bernoulli, ou schma de Bernoulli.

    On sintresse au nombre X de succs obtenus au cours de cette suite dpreuves, la probabilit delvnement : " on obtient dans un ordre quelconque k succs et n k checs " est gal

    P (X = k) = Cknpkqnk avec k [0, .., n].

    En effet, notons Ak lvnement "A se ralise exactement k fois durant les n expriences". Ak peut seraliser de plusieurs manires chacune deux deux incompatibles, par exemple A peut se raliser durantles k premires expriences alatoires et ne pas se raliser durant les nk dernires expriences alatoires.Il y a Ckn faons de "placer " les k ralisations de A parmi les n expriences alatoires. La probabilitdune de ces faons est gale pk(1 p)nk. Ce qui donne : P (Ak) = Cknpkqnk.

  • Cours Probabilits / Pierre DUSART 25

    Dfinition 9 (Loi binomiale) On dit quune variable alatoire X, valeurs dans {0; 1; ...n}, suit uneloi binomiale si sa loi de probabilit est P (X = k) = Cknpkqnk avec k {0, 1, 2, ..., n}, o n est un entiernaturel fix et o p est un rel de ]0; 1[. Les valeurs n et p sont les deux paramtres de cette loi, que lonnotera B(n, p)

    Caractristiques : Lesprance mathmatique dune variable alatoire suivant une loi B(n, p) est : E(X) = np La variance mathmatique dune variable alatoire suivant une loi B(n, p) est : V (X) = npq = np(1p) Sa fonction caractristique est X(u) = (q + peiu)n.Exercices : Retrouver que

    k P (X = k) = 1, E(X) et V (X) par calcul direct et en utilisant la fonction

    caractristique.

    Thorme 4.3.1 (Stabilit de la loi binomiale) Si Xn et Xm sont deux variables indpendantes sui-vant des lois binomiales respectivement Xn B(n, p) et Xm B(m, p) alors Xn +Xm B(n+m, p).

    Exemple : On dispose dune urne avec 1 boule blanche et 9 noires. On effectue 20 tirages avec remise. SoitX le nombre de sortie de la boule blanche lissue des 20 tirages.La variable alatoire X suit B(n, p).

    4.4 Loi hypergomtrique

    Considrons une population deffectif N dont on sait quun pourcentage p dlments possdent un ca-ractre tudi C. On extrait au hasard un chantillon de n lments, tirage exhaustif de n lments(cest--dire n tirages sans remise). Quelle est alors la probabilit quexactement k dentre eux possdentle caractre C ?

    Si m dsigne le nombre dlments possdant le caractre C, alors p = m/N et on peut reformuler leproblme en remplaant la connaissance de p par celle de m et considrer le problme en termes de tiragesalatoires de boules dans une urne : il sagit dun tirage simultan de n objets parmi N (quivalent ntirages sans remise) et on sintresse la variable alatoire X gale au nombre k (k m) dapparitionsdlments ayant le caractre tudi sachant que leur effectif dans la population est m.

    Loi de probabilit : Parmi les n objet tirs, k sont souhaits et n k ne le sont pas. Il y a Ckm faons deconstituer des lots de k objets parmi les m prsentant le caractre tudi et CnkNm faons de choisir lesautres. Le nombre de cas possibles est CnN . Finalement, la loi de probabilit est fournie par la formule :

    P (X = k) =Ckm CnkNm

    CnN=CkNp C

    nkN(1p)

    CnN,

    avec 0 k [Np].On note H(N,n, p) la loi hypergomtrique de paramtre N, n et p.Caractristiques : On peut montrer que lesprance mathmatique de X H(N,n, p) est E(X) = np(comme dans le cas de la loi binomiale). Sa variance est V (X) = NnN1npq. Sa fonction caractristiquesest complique.

    Convergence : On remarque que si n (la taille de lchantillon) est petit devant N , alors la variance estsensiblement npq, cest--dire celle de la loi binomiale. Ce rsultat nest pas un hasard... :

    La limite pour N infini de sorte que m/N tende vers une limite finie p de la loi H(N,n, p) est la loibinomiale B(n, p).

  • 26 CHAPITRE 4. LOIS DISCRTES USUELLES

    4.5 Loi gomtrique

    La loi gomtrique est la loi du nombre dessais ncessaires pour faire apparatre un vnement de pro-babilit p.

    On dit quune variable alatoire X suit la loi gomtrique de paramtre p, ce que lon note X G(p) si :1. X() = N

    2. P (X = k) = qk1p o q = 1 p.Caractristiques :

    E(X) =1

    pV (X) =

    q

    p2X(u) =

    peiu

    1 qeiu

    Loi de Pascal dordre r : Cest la loi du nombre dessais ncessaires pour observer exactement r fois unvnement de probabilit p. Cette loi est la somme de r lois gomtriques indpendantes.

    On dit quune variable alatoire X suit la loi de Pascal de paramtres r et p, ce que lon note X P(r, p)si :

    1. X() = {r, r + 1, }2. P (X = k) = Cr1k1p

    rqkr o q = 1 p.Caractristiques : X admet alors une esprance et une variance :

    E(X) =r

    pV (X) =

    r(1 p)p2

    .

    4.6 Loi de Poisson

    Soit > 0. On dit quune variable alatoire X suit la loi de Poisson de paramtre , ce que lon noteX P() si :

    1. X() = N

    2. P (X = k) = e k

    k! .La loi de Poisson est la loi des vnements rares (de petite probabilit).

    Caractristiques :E(X) = V (X) = .

    X(u) = e(cosu+i sinu1).

    Remarque : la loi de Poisson a t introduite en 1838 par Simon-Denis Poisson (1781-1840), qui lui adonn son nom. Aucun rapport avec la loi de Fisher.

    Exemple : [Le clbre exemple de Von Bortkiewicz]Von Bortkiewicz a tudi le nombre de morts par ruade de cheval dans larme prussienne de 1875 1894dans 200 corps de cavalerie : pendant 20 ans, il a tudi 10 corps de cavalerie par an

    Nombre de morts par an 0 1 2 3 4Nombre de corps de cavalerie 109 65 22 3 1

    Calculer la moyenne du nombre de morts par an. Comparer la distribution relle la distributionrsultant de lapplication de la loi de Poisson de paramtre .

    Exercices : retrouver E(X), V (X), X(u).(Solutions sur http://fr.wikipedia.org/wiki/Loi_de_Poisson)

  • Cours Probabilits / Pierre DUSART 27

    4.7 Approximation de B par P

    Lorsque n devient grand, le calcul des probabilits dune loi binomiale devient trs fastidieux. On vadonc, sous certaines conditions, trouver une approximation de P (X = k) plus manipulable. On constatele comportement asymptotique : si n et p 0, alors X : B(n, p) P() avec np = .Remarque : cette approximation est correcte ds que n > 30 et np < 5 ou ds que n > 50 et p < 0, 1.

    Preuve : Montrons que P (X = k) = Cknpkqnk tend vers ek

    k! avec = np. Comme = np, on a p =n

    et q = 1 n que lon remplace dans la dfinition de la probabilit binomiale :

    P (X = k) =n!

    k!(n k)!

    (

    n

    )k (1

    n

    )nk.

    Or(1 n

    )nk=(1 n

    )n (1 n

    )k=(1 n

    )n 1qk, do

    P (X = k) =n(n 1) (n k + 1)

    k!

    k

    nk1

    qk

    (1

    n

    )n=n(n 1) (n k + 1)

    nkk

    qk1

    k!

    (1

    n

    )nSi n est assez grand (n 50 et p proche de 0 donc q proche de 1, on peut faire les approximationssuivantes :

    1. n(n1)(nk+1)nk

    = 1(1 1n

    ) (1 k1n

    ) 1

    2. k

    qk k

    3.(1 n

    )n eAinsi P (X = k) e

    k

    k! .

  • 28 CHAPITRE 4. LOIS DISCRTES USUELLES

  • Chapitre 5Couple de variables alatoires

    5.1 Couple de v.a. discrtes

    5.1.1 Loi dun couple de variables alatoires discrtes

    Soient X et Y deux variables alatoires discrtes dfinies sur le mme espace probabilis (, A, P ). Onnotera X() = {xi, i I} et Y () = {yj , j J}, lensemble des valeurs, ordonnes, prises respectivementpar X et Y (o I et J sont des ensembles dentiers).

    On appelle couple (X,Y ) lapplication

    (X,Y ) : R2 7 (X(), Y ()).

    Alors, lensemble (X,Y )() des valeurs prises par le couple (X,Y ) est inclus dans lensemble des couplesde rels suivants {(xi, yj), (i, j) I J}.

    Dfinition 10 On appelle loi conjointe ou loi du couple (X,Y ), lensemble des couples

    {((xi, yj), pij), (i, j) I J}

    o pij = P ((X = xi) (Y = yj)) = P ((X,Y )1({(xi, yj)})). On pourra reprsenter cette loi par untableau double entre.

    Proposition 5.1.1 {(xi, yj), pij), (i, j) I J} est la loi dun couple de variables discrtes si et seule-ment si pij 0 pour tout (i, j) I J et

    (i,j)IJ

    pij = 1.

    Remarque : Dans ce contexte,

    (i,j)IJ

    pij =iIjJ

    pij =iI

    jJ

    pij

    = jJ

    (iI

    pij

    ). On peut commen-

    cer par sommer sur les indices i puis les indices j ou inversement.

    5.1.2 Lois marginales

    Les variables X et Y sont appeles variables marginales du couple (X,Y ) et leur loi, appele loi marginalede X (resp. de Y ) peut tre obtenue de la faon suivante :

  • 30 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

    Supposons connue la loi du couple (X,Y ) : {((xi, yj), pij), (i, j) I J}. On cherche maintenant connatre la loi de X i.e. lensemble des couples {(xi, P (X = xi)), i I}. Or la famille des vnements{(Y = yj), j J} forme un systme complet dvnements, donc daprs la formule des probabilitstotales applique ce systme complet dvnements, on obtient :

    pi := P (X = xi) =jJ

    P ((X = xi) (Y = yj)) =jJ

    pij .

    De mme, la loi de Y sobtient laide de la formule des probabilits totales applique au systme completdvnements {(X = xi), i I} :

    pj := P (Y = yj) =iI

    P ((X = xi) (Y = yj)) =iI

    pij .

    5.1.3 Lois conditionnelles

    On dfinit les lois conditionnelles par

    P (X = xi/Y = yj) = PX|Y=yj (xi) =pijpj

    etP (Y = yj/X = xi) = PY |X=xi(yj) =

    pijpi

    5.1.4 Esprance, Variance

    Sous rserve dexistence (dans le cas infini dnombrable), on a alors dans le cas discret

    E(X) =i

    P (X = xi) xi =i

    pi xi

    V (X) = 2(X) =i

    P (X = xi)(xi E(X))2 =i

    pi x2i (E(X))2, ...

    et de faon plus gnrale, nous pouvons dfinir la notion desprance mathmatique dune fonction g(X,Y )du couple :

    E(g(X,Y )) =i

    j

    pij g(xi, yj) dans le cas discret,

    Ainsi par exempleE(XY ) =E(X2) =

    5.1.5 Fonction de rpartition

    Dfinition 11 Soit (X,Y ) un couple de variables alatoires. On appelle fonction de rpartitionconjointe de (X,Y ) la fonction F : R2 R dfinie par

    F (x, y) = P (X < x et Y < y).

    Dans le cas de deux variables discrtes,

    F (x, y) =

    {i / xi

  • Cours Probabilits / Pierre DUSART 31

    1. P (X = xi et Y < yj) = F (xi+1, yj) F (xi, yj).2. Les fonctions de rpartition FX et FY des lois marginales vrifient FX(x) = limy F (x, y) etFY (y) = limx F (x, y).

    Preuve :1. On dcoupe en une runion disjointe (X,Y )1(], xi+1[], yj [) = (X,Y )1(], xi[], yj [) (X,Y )1({xi}], yj [).

    2. X1(], x[) = nN(X,Y )1(], x]], n[).

    5.1.6 Indpendance

    Dfinition 12 Les v.a. X et Y sont indpendantes si pour tous i, j, les vnements {X = xi} et {Y = yj}sont indpendants, cest--dire pij = pi pj ou encore P ((X,Y )1({xi} {yj})) = P (X1({xi})) P (Y 1({yj})).

    Thorme 5.1.2 X et Y sont indpendantes si et seulement si pour tous x et y rels,

    F (x, y) = FX(x) FY (y),

    cest--dire si les vnement {X < x} et {Y < y} sont indpendants.

    Preuve : Supposons X et Y indpendantes. Alors

    F (x, y) =

    {i / xi

  • 32 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

    Rciproquement, on particularise le couple (a, a) et (b, b) en (xi, xi+1) et (yj , yj+1) respectivement.

    pij = P (xi X < xi+1 et yj Y < yj+1) = P (xi X < xi+1)P (yj Y < yj+1)= P (X = xi)P (Y = yj) = pi pj .

    Proposition 5.1.4 Les v.a. X et Y sont indpendantes si et seulement si toutes les lois conditionnellessont identiques aux lois marginales.

    Preuve : X,Y indpendantes alors pij = pi pj do

    P (Y = yj/X = xi) =pijpi

    =pi pjpi

    = pj = P (Y = yj).

    (mme chose pour X)

    Rciproquement, on suppose que pour tous i, j, P (Y = yj/X = xi) = P (Y = yj).

    P (X = xi et Y = yj) = P (X = xi/Y = yj)P (X = xi) = P (Y = yj)P (X = xi).

    5.1.7 Covariance et Corrlation

    Dfinition 13 Soient X et Y deux variables alatoires. On appelle covariance de X et de Y , lexpres-sion

    Cov(X,Y ) = E [(X E(X)) (Y E(Y ))] .En particulier, pour une variable discrte,

    Cov(X,Y ) =i

    j

    pij(xi E(X))(yj E(Y )).

    Proprits :1. Cov(X,Y ) = E(XY ) E(X)E(Y ) =

    i

    j pijxiyj E(X) E(Y ).

    2. Pour tout rel, V (X + Y ) = V (X) + 2Cov(X,Y ) + 2V (Y ).3. Si X et Y sont indpendantes alors E(XY ) = E(X)E(Y ), Cov(X,Y ) = 0 et V (X + Y ) = V (X) +V (Y ).

    Preuve :1. Voir thorme de Knig2. Par dfinition de la variance

    V (X + Y ) = E([X + Y E(X + Y )]2) = E([X E(X) + (Y E(Y ))]2)= E([X E(X)]2 + 2[X E(X)][Y E(Y )] + 2[Y E(Y )]2)= E([X E(X)]2) + 2E([X E(X)][Y E(Y )]) + 2E([Y E(Y )]2)= V (X) + 2Cov(X,Y ) + 2V (Y )

    3. E(XY ) =i

    j

    pij xi yj(ind)=i

    j

    pi pj xi yj =i

    pi xij

    pj yj = E(X)E(Y ).

    La rciproque est ....

    Dfinition 14 Soient X et Y deux variables alatoires. On appelle coefficient de corrlation linaireentre X et de Y , la quantit

    r(X,Y ) =Cov(X,Y )(X)(Y )

    .

  • Cours Probabilits / Pierre DUSART 33

    Proprits :1. r(X,Y ) [1, 1].2. Pour tous rels a, b, c, d (a, c 6= 0), r(aX + b, cY + d) = r(X,Y ).3. Si X et Y sont indpendantes alors r(X,Y ) = 0.

    Preuve de (1) : V (X + Y ) 0 quel que soit . Cela implique que le polynme en , 2V (Y ) +2Cov(X,Y )+V (X) a un dterminant = Cov(X,Y )2V (X)V (Y ) ngatif ou nul. Ainsi Cov(X,Y )2 V (X)V (Y ) et r(X,Y ) = Cov(X,Y )

    2

    V (X)V (Y ) 1.

    5.2 Couple de v.a. continues

    Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ). La loi de couplesera dfinie partir de sa fonction de rpartition :

    F (x, y) = P((X,Y )1(], x[], y[)

    )= P (X < x et Y < y).

    Proprits :1. F est totalement croissante au sens large, cest--dire que les fonctions partielles F (x, ) et F (, y)

    sont croissantes pour tous x et y rels.2. F (x, ) et F (, y) sont continues gauche3. lim

    xF (x, y) = lim

    yF (x, y) = 0, lim

    n+F (n, n) = 1

    Preuve :1. Soit y1 > y0, Alors lensemble ] , x[] , y1[ se dcompose en (], x[], y0[)

    (], x[[y0, y1[). Ainsi F (x, y1) F (x, y0) = P ( (X,Y )1(], x[[y0, y1[)) 0.2. On considre lensemble ], x[], y0[ qui correspond la runion croissante des ensembles

    ], x[], y0 1/n[. On en dduit que F (x, y0) = limn F (x, y0 1/n) = limyy0 F (x, y)puisque F (x, ) est croissante.

    3. Lintersection dcroissante des ensembles ],n[], y[ est vide et la runion croissante des], n[], n[ est R2 tout entier.

    La probabilit pourra tre calcule sur tout type dintervalle partir de la fonction de rpartition :

    P (X [a, a[ et Y < y) = F (a, y) F (a, y)P (X [a, a[ et Y [b, b[) = F (a, b) F (a, b) + F (a, b) F (a, b)

    Preuve : Il suffit de dcomposer en ensembles disjoints :

    ], a[], y[= (], a[], y[) ([a, a[], y[)[a, a[], b[= [a, a[], b[[a, a[[b, b[

    5.2.1 Fonction densit de probabilit

    Dfinition 15 Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ).La loi du couple (X,Y ) est dite absolument continue sil existe une fonction positive f de R2 dans R, telleque pour tous x et y rels, F (x, y) =

    x

    y f(u, v) du dv. La fonction f est dite densit de probabilit

    du couple (X,Y ).

  • 34 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

    Proprits :1. Pour tout A lment de P(2), alors P ( (X,Y ) A) =

    Af(u, v) du dv.

    En particulier,

    R2 f(u, v) du dv = 1.

    2. En tout point o f est continue, f(x0, y0) = 2F

    xy (x0, y0).

    3. X et Y sont aussi absolument continues, et leurs densits de probabilits respectives sont

    fX(x) =

    Rf(x, y)dy fY (y) =

    Rf(x, y)dx.

    Calcul de lesprance et de la variance :

    E(X) =

    R2x f(x, y) dx dy E(Y ) =

    R2y f(x, y) dx dy

    E(g(X,Y )) =

    R2g(x, y) f(x, y) dx dy E(XY ) =

    V (X) =

    R2

    (x E(X))2 f(x, y) dx dy V (Y ) =

    R2(y E(Y ))2 f(x, y) dx dy

    Lorsque les quantits sont dfinies, on pose, comme dans le cas discret,

    Cov(X,Y ) = E(XY ) E(X)E(Y ) et r(X,Y ) = Cov(X,Y )(X)(Y )

    .

    5.2.2 Lois marginales et lois conditionnelles

    3 Si lon sintresse un vnement sur X quelle que soit la valeur prise par Y , on obtient la loi de lav.a. X qui, dans le contexte dun couple de v.a., est appele (comme auparavant) loi marginale. Commepour le couple (X,Y ), les lois marginales de X et Y sont connues par leur fonction de rpartition :

    FX(x) = P (X < x) = P (X < x, Y R) = limy+

    F (x, y).

    De mme,FY (y) = P (Y < y) = P (X R, Y < y) = lim

    x+F (x, y).

    3 Soit (X,Y ) un couple alatoire absolument continu, de densit de probabilit f . Soit fX la densit deprobabilit de X et un rel x tel que fX(x) 6= 0. La loi conditionnnelle de Y lie par la condition X = xest dfinie par sa densit de probabilit fx(y) =

    f(x,y)fX(x)

    .

    5.2.3 Indpendance

    Dfinition 16 Les variables X et Y sont indpendantes si et seulement si la fonction de rpartition ducouple est gale au produit des fonctions de rpartitions des lois marginales : F (x, y) = FX(x)FY (y) pourtous x et y rels.

    Proposition 5.2.1 Les variables X et Y sont indpendantes si et seulement si pour tous x et y rels,f(x, y) = fX(x)fY (y). Dans ce cas, Cov(X,Y ) = 0.

    Preuve Si X et Y sont indpendantes, alors en drivant F (x, y) = FX(x)FY (y) par rapport x puis parrapport y, on obtient Fx (x, y) = fX(x)FY (y) puis

    2Fxy (x, y) = fX(x)fY (y) et on utilise la proprit 2 :

    2Fxy (x, y) = f(x, y).

  • Cours Probabilits / Pierre DUSART 35

    Rciproquement, si f(u, v) = fX(u) fY (v), alors

    F (x, y) =

    x

    y

    f(u, v) du dv =

    x

    fX(u)

    ( y

    fY (v) dv

    )du = FX(x)FY (y).

    De plus, si f(x, y) = fX(x) fY (y), E(XY ) =

    R2 xy fX(x)fY (y) dx dy = E(X)E(Y ) et ainsi

    Cov(X,Y ) = 0.

    Proposition 5.2.2 Les variables X et Y sont indpendantes si et seulement si pour tous couples din-tervalles rels ([a, a[, [b, b[), on a

    P(

    (X,Y )1([a, a[[b, b[))

    = P(X1([a, a[)

    ) P(Y 1([b, b[)

    ).

    Preuve Si X et Y sont indpendantes, alors

    P(

    (X,Y )1([a, a[[b, b[))

    = F (a, b) + F (a, b) F (a, b) F (a, b)= FX(a)FY (b) + FX(a

    )FY (b) FX(a)FY (b) FX(a)FY (b)

    = (FX(a) FX(a))(FY (b) FY (b))

    = P(X1([a, a[)

    ) P(Y 1([b, b[)

    )Rciproquement, comme ] , a[] , b[ est la runion croissante des [n, a[[n, b[, en posanta = b = n, a = x et b = y dans

    P(

    (X,Y )1([a, a[[b, b[))

    = P(X1([a, a[)

    ) P(Y 1([b, b[)

    ),

    On a F (x, y) = limn

    P(

    (X,Y )1([n, x[[n, y[))

    = limn

    P(X1([n, x[)

    ) P(Y 1([n, y[)

    )=

    limn

    (FX(x) FX(n))(FY (y) FY (n)) = FX(x) FY (y).

    Proposition 5.2.3 Les variables X et Y sont indpendantes si et seulement si les lois conditionnellessont identiques aux lois marginales (En particulier, Fx(y) ne dpendra pas de x).

    5.3 Somme et Produit

    5.3.1 Somme

    On considre la variable alatoire Z = X + Y . On peut calculer E(Z) et V (Z) :

    E(X + Y ) = E(X) + E(Y ) (vraie si X et Y sont indpendantes ou non)V (X + Y ) = V (X) + V (Y ) si X et Y indpendantes

    et V (X + Y ) = V (X) + V (Y ) + 2 Cov(X,Y ) sinon

    Si X et Y sont deux variables alatoires indpendantes, X+Y = XY . Plus gnralement, si X1, . . . , Xnsont des variables alatoires indpendantes dans leur ensemble, alors .

    X1++Xn = X1 Xn .

    Remarque (admis) : En appliquant alors la transforme de Fourier X+Y cela permet de retrouver laloi de X + Y .

  • 36 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

    Calcul de la fonction densit de Z = X + Y .On suppose que X et Y sont indpendantes et absolument continues, de densits respectives fX et fY .Alors la fonction de rpartition F de Z = X + Y est dfinie par :

    F (z) = P (X + Y < z) = + fX(x)

    ( zx fY (y)dy

    )dx

    = + fX(x)FY (z x) dx =

    + fY (y)FX(z y) dy (par symtrie)

    Par drivation (thorme admis) par rapport z, la densit de probabilit de Z est dfinie par

    f(z) =

    +

    fX(x)fY (z x) dx = +

    FY (y)FX(z y) dy.

    f est le produit de convolution de fX et fY , not fX fY .

    5.3.2 Produit

    Lesprance du produit de deux variables alatoires est donn par la formule E(XY ) = E(X) E(Y ) +Cov(X,Y ), Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont indpendantes,E(XY ) = E(X) E(Y ).

    5.3.3 Fonction de variable alatoire

    Soit une fonction drivable de R dans R. En posant Y = X, on obtient une nouvelle variablealatoire, note (X), que lon tudiera laide de sa fonction de rpartition.

    Exemple : Soit X exprimant la consommation en litres aux 100 kilomtres dune voiture. Aux Etats-Unis,on sintresse plus la notion de distance parcourue avec un plein, que lon retranscrit sous la forme Zest le nombre de miles parcourus avec un gallon dessence (Plus prcisment Z = 235/X).

    1. Cas o est monotone croissanteSoit F la fonction de rpartition de X. La fonction de rpartition G de Y est dfinie, pour y rel,par : G(y) = P (Y < y) = P (X < 1(y)) = F (1(y)), soit encore F (x) = G((x)). Si X estabsolument continue, Y aussi et leurs densits de probabilit respectives, f et g sont lies par :f(x) = g((x))(x) ou g(y) = f(x)/(x) = f(1(y))/(1(y)).Exemple : Y = eX a pour densit de probabilit g(y) = f(x)ex = f(ln y)/y.

    2. Cas o est dcroissanteAlors X > x quivaut Y < (x), donc G(y) = 1 F (1(y)), que lon peut crire F (x) =1G((x)). Dans le cas absolument continu, g(y) = f(x)/(x) = f(1(y))/(1(y)).Exemple : Y = c/X o c > 0 et X est valeurs dans ]0,+[. G(y) = P (Y < y) = P ( cX < y) =P (X > cy ) = 1 F (

    cy ) pour y > 0 et G(y) = 0 pour y 0.

    3. Cas quelconqueOn rsout alors au cas par cas linquation Y < y afin de trouver la fonction de rpartition de Y .Exemple pour Y = X2 : pour y < 0, Y < y est impossible ainsi G(Y ) = 0. pour y 0, Y < y correspond y < X < y alors G(Y ) = F (y) F (y). Dans le cas

    o X est absolument continu, g(y) = 12y (f(y) + f(y)) sur R+.

    Calcul de lesprance : E(Y ) =i pi(xi) dans le cas discret et E(Y ) =

    R (x)f(x) dx dans le cas

    continu.

    Calcul de la variance : V (Y ) = dans le cas discret et V (Y ) = dansle cas continu.

  • Chapitre 6Lois continues usuelles

    6.1 Loi continue uniforme

    La variable alatoire U est distribue uniformment sur lintervalle [a, b] si sa densit de probabilit estconstante sur cet intervalle :

    f(x) =

    {1/(b a) si x [a, b]0 sinon

    On dit que U suit la loi uniforme et on note U U(a, b). Par consquent, sa fonction de rpartition estdonne par :

    F (x) =

    0 si x a(x a)/(b a) si x [a, b]1 si x > b

    E(X) =a+ b

    2, V (X) =

    (b a)2

    12, X(t) =

    eibt eiat

    it(b a)= eit(a+b)/2

    sin( ba2 t)ba

    2 t

    Exercice : calcul de 1 et 2.

    6.2 Loi exponentielle

    On souhaite modliser lintervalle de temps sparant deux occurrences successives dun processus dePoisson. Ainsi la probabilit quil ny ait aucune occurrence dans un intervalle de temps de longueur t estgale p0(t) = et (absence de mmoire de la loi exponentielle) o > 0 constituera le paramtre dela loi. Cette loi permet entre autres de modliser la dure de vie de la radioactivit ou dun composantlectronique.

    La fonction de rpartition de la loi exponentielle E() est

    F (x) =

    {1 ex si x 00 si x < 0

    et sa fonction de densitf(x) =

    {ex si x 00 si x < 0

    Caractristiques : E(X) = 1/, V (X) = 1/2, X(t) = 1/(1 it/).

  • 38 CHAPITRE 6. LOIS CONTINUES USUELLES

    6.3 Loi normale

    6.3.1 Rappel : calcul de lintgrale de Gauss

    Soient

    G =

    +0

    ex2

    dx et H =

    R+R+e(x

    2+y2) dx dy.

    Compte tenu de ce que les variables x et y se sparent, le thorme de Fubini donne :

    H =

    R+R+

    ex2

    ey2

    dx dy =

    ( +0

    ex2

    dx

    )( +0

    ey2

    dy

    )= G2.

    On passe en coordonnes polaires en posant x = r cos et y = r sin ; les variables r et se sparent ellesaussi :

    H =

    R+[0,2 [

    er2

    r dr d =

    ( +0

    er2

    r dr

    )( 2

    0

    d

    )=

    1

    2

    2

    car +

    0er

    2

    r dr = 12 +

    0eu du = 12 (par le changement de variable r =

    u). On en dduit : G2 = 4 ,

    do G = 12 puisque G 0, et enfin :

    + e

    x2dx = 2G = par parit.

    6.3.2 Gaussienne

    On appelle loi normale (ou gaussienne) centre rduite la loi dfinie par la densit de probabilit :R R+ dfinie par :

    (t) =12e

    t2

    2 .

    On peut vrifier quelle est continue et que son intgrale sur R est gale 1 : On sait que + e

    x2dx =

    (intgrale de Gauss) et en posant x = t/

    2, on trouve queR (t) dt = 1.

    Remarques :

    1. la densit est une fonction paire ;

    2. elle est indfiniment drivable et vrifie, pour tout t R, lidentit (t) = t(t).La reprsentation graphique de cette densit est une courbe en cloche (ou courbe de Gauss).

    On dmontre par la suite que la loi dfinie par cette densit de probabilit admet une esprance nulleet une variance gale 1. Sa fonction caractristique vaut X(u) = eu

    2/2 ( ne pas confondre avec lafonction densit). Le calcul se fait de la faon suivante :

    X(u) =

    +

    eituet

    2

    2dt.

    Or t2

    2 + iut = 12 (t

    2 2iut) = 12 (t2 2iut + (iut)2 (iut)2) = 12

    ((t iu)2 + u2

    ). On pose

    x = t iu, ainsi

    X(u) =12

    +

    ex2/2u2/2dx =

    eu2/2

    2

    +

    ex2/2dx = eu

    2/2.

  • Cours Probabilits / Pierre DUSART 39

    6.3.3 Moments

    Les moments de cette loi existent tous. Pour tout r N, le moment dordre r par rapport lorigine est :

    mr =

    +

    tn(t) dt.

    En raison de la parit de lintgrande, tous les moments dordre impair sont nuls :

    m2k+1 = 0.

    Supposons prsent r pair : r = 2k , o k N. Si k 1, une intgration par parties donne :

    m2k =

    +

    t2k1t(t)dt = +

    t2k1(t)dt = (2k 1) +

    t2k2(t)dt

    ce qui fournit la relation de rcurrence :

    m2k = (2k 1)m2k2.

    De cette relation, on dduit, comme m0 = 1, que :

    m2k = 1 3 (2k 1) =(2k)!

    2k k!.

    En particulier, m1 = 0 et m2 = 1, ainsi lesprance est nulle (la loi est donc dite centre) et la variancevaut m2 m21 = 1 (la loi est donc dite rduite). Ceci justifie lappellation de loi normale centre rduite.Pour la suite on supposera = 0 et 2 = 1.

    Des formules prcdentes, on dduit encore : m3 = 0 et m4 = 3.

    La loi tant rduite, les moments centrs sont tous gaux aux moments par rapport lorigine de mmerang ; en particulier : 2 = 2 = 1, 3 = 0 et 4 = 34. On en dduit lasymtrie (skewness) : 1 = 33 = 0et laplatissement (kurtosis) : 2 = 44 = 3.

    6.3.4 Fonction de rpartition

    On note la fonction de rpartition de la loi normale centre rduite. Elle est dfinie, pour tout rel x,par :

    (x) =

    x

    (t)dt =

    x

    12e

    t2

    2 dt.

    est la primitive de qui tend vers 0 en ; cette primitive ne sexprime pas laide desfonctions usuelles (exponentielle, etc.) mais devient elle-mme une fonction usuelle, importante, pourquiconque pratique le calcul des probabilits ou les statistiques. Les valeurs de cette fonction peuventdonc se trouver sous la forme dune table ou directement dans des logiciels de calcul statistique.

    Proprits de :

    1. Elle est indfiniment drivable, et =

    2. Elle est strictement croissante, tend vers 0 en et vers 1 en +. (cest donc une bijectionR]0, 1[ : pour tout p ]0, 1[, il existe un unique x R, not 1(p), tel que (x) = p)

    3. Pour tout x R,(x) = 1(x) (ceci rsulte de la parit de la fonction densit) ; en particulier,(0) = 0, 5. La table de valeurs sera donc tablie pour les valeurs x positives.

  • 40 CHAPITRE 6. LOIS CONTINUES USUELLES

    6.3.5 Loi Normale ou de Laplace-Gauss

    Plus gnralement, on dit quune variable alatoire relle X suit une loi normale (ou loi normale gaus-sienne, loi de Laplace-Gauss) desprance et dcart type strictement positif si cette variable alatoirerelle X admet pour densit de probabilit la fonction suivante dfinie, pour tout nombre rel x, par :

    d(x) =1

    2e

    12 (

    x )

    2

    .

    Une telle variable alatoire est appele variable gaussienne. On notera X N (, ). On aura alorsE(X) = , V (X) = 2 et X(u) = eiu

    2u2

    2 .

    On pourrait tudier cette loi prcisment mais on se ramne au cas prcdent (loi normale centre rduite)en considrant le thorme suivant :

    Thorme 6.3.1 Si X suit N (, ), alors Z = X suit N (0, 1).

    Ainsi une seule loi sera tabule (celle de la loi normale centre rduite), les autres pourront tre dduites.Cette loi est une des plus importantes dans la thorie des probabilits.

    6.3.6 Somme de deux variables gaussiennes

    Thorme 6.3.2 Si X et Y sont deux variables indpendantes suivant des lois normales de moyennesrespectives 1 et 2 et de variances 21 et 22 alors X + Y suit un loi normale de moyenne = 1 + 2et de variance 2 = 21 + 22.

    Ce thorme se gnralise bien sr toute somme finie de variables alatoires normales indpendantes.

    Preuve : Il sagit de dterminer la loi de Z = X + Y . Calculons sa fonction caractristique :

    Z(t) = X(t) Y (t)

    = ei1t(1t)

    2

    2 ei2t(2t)

    2

    2

    = ei(1+2)t(21+

    22)t

    2

    2

    On en dduit que Z suit N (1 + 2,21 +

    22).

  • Cours Probabilits / Pierre DUSART 41

    6.3.7 Somme de carrs de variables gaussiennes

    Soient k variables alatoires indpendantes X1, , Xk de mme loi normale centre et rduite, alors pardfinition la variable X, telle que

    X =

    ki=1

    X2i

    suit une loi du 2 k degrs de libert. La loi du 2 (prononcer khi-deux ) est une loi caractrisepar un paramtre dit degrs de libert valeur dans lensemble des entiers naturels (non nuls). Pour unevariable alatoire suivant une loi du 2 k degrs de libert, on notera la loi de 2(k) la loi de X. Alorsla densit de note sera :

    f(x) =1

    2k/2(k/2)xk/21ex/2

    pour tout x positif o (gamma) est la fonction

    : z 7 +

    0

    tz1etdt.

    Lesprance mathmatique de X vaut k et sa variance vaut 2k.

    6.3.8 Approximation de B par N

    (Voir Chap convergences pour justification)

    Pour n assez grand, la loi binomiale se comporte comme une loi normale gaussienne desprance np etde variance npq. Plus prcisment, le thorme de Moivre-Laplace prcise que si est la fonction derpartition de la loi normale centre rduite et si Xn suit une loi binomiale de paramtres n et p, on aalors, pour tout rel t :

    limn

    P

    (Xn np

    npq t)

    = (t).

    Le thorme de Berry-Esseen fournit une majoration de lerreur commise quand on remplace P (Xn x)par P (Yn x) o Yn suit une loi normale desprance np et de variance npq : lerreur commise estinfrieure Cnpq o C < 0, 4784 (Korolev & Shevtsova (2010)).

    En pratique, on remplace une loi binomiale par une loi normale pour n grand et p pas trop proche de 0ni de 1 (par exemple pour n > 30, np > 5 et nq > 5 ou pour npq > 9)

    6.3.9 Simulation

    Pour simuler la loi normale, on peut utiliser la mthode de Box-Muller : Si U1 et U2 sont des variablesalatoires indpendantes qui suivent la loi uniforme sur ]0,1[, alors on dmontre assez aisment que lesvariables alatoires :

    T1 =2 lnU1 cos(2U2)

    T2 =2 lnU1 sin(2U2)

    suivent toutes deux la loi normale centre rduite (et sont indpendantes). On peut simuler toute loinormale N (, ), en construisant la variable Y = + T1.

  • 42 CHAPITRE 6. LOIS CONTINUES USUELLES

    6.4 Loi de Weibull

    Cest une loi de probabilit continue applique aux dures de vie. Cest donc dans le contrle de fiabilitque les entreprises ont tendance lutiliser, et plus prcisment lorsque le taux de dfaillance voluecomme une puissance du temps (ce qui est le cas le plus courant). Rappelons que lorsque ce taux estconstant, on utilise la loi exponentielle, forme particulire de celle de Weibull, et lorsque le taux augmenteproportionnellement au temps, cest la distribution de Rayleigh qui est employe.

    La loi de Weibull repose sur deux paramtres positifs, lun de forme et lautre dchelle de temps. Laloi de Weibull trois paramtres prend en compte la "localisation", cest--dire un ventuel dcalage dudpart de la courbe par rapport lorigine (soit gauche soit droite).

    On prendra comme paramtre de forme, et tant celui de temps.

    Le paramtre est habituellement suprieur 1 : le taux de dfaillance crot avec le temps. Sil estinfrieur, cest pendant le rodage que les risques de dfaillance sont levs et sil est gal 1, on retombesur la loi exponentielle.

    Sa fonction de rpartition

    F (x) =

    {1 ex si x 00 si x < 0

    et sa fonction de densit

    f(x) =

    {x1ex

    si x > 00 si x 0

    Caractristiques : E(X) = (1 + 1/)/1/, V (X) = (1+2/)(1+1/)2/

    o est la fonction GammadEuler.

    Proposition 6.4.1 Si X suit une loi exponentielle de paramtre alors X1/ suit une loi de WeibullW (, ).

    6.5 Loi de Pareto

    Lconomiste italien Vilfredo Pareto (1848-1923) observa au dbut du XXesicle que 20% de la populationitalienne possdait 80% de la richesse nationale do le nom de la loi 80-20 ou 20-80.

    La loi de Pareto admet deux paramtres (c, ). Le premier paramtre (c > 0) tronque la distribution : ledomaine de dfinition de X suivant cette loi est alors restreint ]c,+[ (introduction de la contraintex > c). Le deuxime paramtre est le paramtre de forme > 0. Alors la distribution est caractrisepar :

    P (X > x) =(xc

    )kavec x > c. La fonction de densit est alors

    f(x) =

    c

    ( cx

    )+1et la fonction de rpartition est

    F (x) = 1( cx

    )Caractristiques : E(X) = c1 pour > 1, V (X) =

    (1)2(2)c

    2 pour > 2, E(Xk) = cck pour

    > k. Fonction caractristique : (ict)(,ict)

  • Cours Probabilits / Pierre DUSART 43

    6.6 Loi de Gumbel

    Cest une loi de modlisation de valeurs extrmes dont la fonction de rpartition est la suivante :

    F (x) = ee(x)/

    .

    Sa fonction de densit estf(x) = exe

    x

    Caractristiques de la loi : E(X) = + (o = 0.5772156 est la constante dEuler ), V (X) =22/6, mode= . Fonction caractristique : X(t) = (1 it)eit

  • 44 CHAPITRE 6. LOIS CONTINUES USUELLES

  • Chapitre 7Convergences

    7.1 Convergence en probabilit

    Rappel : Ingalit de Bienaym-ChebyshevSoit X une variable alatoire admettant une esprance E(X) et de variance finie 2 (lhypothse devariance finie garantit lexistence de lesprance).

    Lingalit de Bienaym-Tchebychev snonce de la faon suivante : pour tout rel strictement positif,

    P (|X E(X)| ) 2

    2.

    Dfinition 17 (Convergence en probabilit) On considre une suite (Xn) dune v.a. dfinie sur ,X une autre v.a. dfinie sur .On dit que la suite (Xn) converge en probabilit vers une constante relle ` si

    > 0, limn

    P (|Xn `| > ) = 0.

    On dit que la suite (Xn) converge en probabilit vers X si

    > 0, limn

    P (|Xn X| > ) = 0.

    Consquence : Pour que (Xn) converge en probabilit vers X, il faut et il suffit que E(Xn X) 0 etV (Xn X) 0 lorsque n (la dmonstration passe par lingalit de Bienaym-Chebychev).

    7.1.1 Exemple de la loi binomiale

    On ralise n expriences indpendantes et on suppose que lors de chacune de ces expriences, la probabilitdun vnement appel succs est p. Soit Sn le nombre de succs obtenus lors de ces n expriences. Lavariance alatoire Sn, somme de n variables de Bernoulli indpendantes, de mme paramtre p, suit uneloi binomiale : Sn B(n, p).On sintresse alors la variable alatoire Snn , proportion de succs sur n expriences, a donc pur espranceE(Snn ) = p et pour variance V (

    Snn ) =

    1n2V (Sn) =

    p(1p)n . Comme p(1 p) atteint son maximum lorsque

    p = 1/2, on a ainsi p(1 p) 1/4. En appliquant lingalit de Bienaym-Chebyshev, il vient

    P (|Sn/n p| ) p(1 p)n2

    14n2

    .

  • 46 CHAPITRE 7. CONVERGENCES

    Ainsi pour tout > 0, il existe > 0 (plus prcisment > 14n2 ) tel que P (|Sn/n p| ) < ouencore limn P (|Sn/n p| ) = 0. La variable alatoire Snn converge en probabilit vers p.

    7.1.2 Convergence en probabilit

    Thorme 7.1.1 Soit (Xn) une suite de varaiables alatoires sur le mme espace probabilis (, P )admettant des esprances et des variances vrifiant

    limn

    E(Xn) = ` et limn

    V (Xn) = 0,

    alors les (Xn) convergent en probabilit vers `.

    Preuve Soit > 0. Posons E(Xn) = `+ un avec limun = 0. Alors il existe N N tel que :

    n N |un| < /2

    et donc partir du rang N ,

    |Xn E(Xn)| < /2 |Xn `| < , (7.1)

    car |Xn `| = |Xn E(Xn) + E(Xn) `| |Xn E(Xn)|+ |E(Xn) `|.Limplication (7.1) peut tre encore crite sous la forme

    |Xn `| |Xn E(Xn)| /2.

    Par consquent, en utilisant lingalit de Bienaym-Chebyshev,

    P (|Xn `| ) P (|Xn E(Xn)| /2) V (Xn)

    (/2)2,

    qui tend vers 0 quand n tend vers linfini.

    7.1.3 Loi faible des grands nombres

    Thorme 7.1.2 Soit (Xn) une suite de variables alatoires indpendantes sur le mme espace probabi-lis (, P ) ayant une mme esprance mathmatique ` et des variances vrifiant limn 1n2

    ni=1

    2i = 0.

    On pose Sn = X1 + +Xn alors Snn converge en probabilit vers `.

    Si on considre une suite de variables alatoires (Xn) indpendantes dfinies sur un mme espace probabi-lis, ayant mme esprance et mme variance finie notes respectivement E(X) et V (X). La loi faible desgrands nombres stipule que, pour tout rel strictement positif, la probabilit que la moyenne empiriqueSnn sloigne de lesprance dau moins , tend vers 0 quand n tend vers linfini. La moyenne

    Snn converge

    en probabilit vers lesprance commune E(X).

    7.2 Convergence en loi

    Dfinition 18 Soient (Xn) et X des variables alatoires sur un mm espace probabilit (, P ), de fonc-tions de rpartition respectives Fn et F ; on dit que les (Xn) convergent vers X en loi (et on note Xn

    L X)si en tout point x o F est continue, les Fn(x) convergent vers F (x).

  • Cours Probabilits / Pierre DUSART 47

    Proprits : (admises)1. La convergence en probabilit entrane la convergence en loi.2. Si les (Xn) et X sont des variables alatoires discrtes, alors Xn converge en loi vers X si et

    seulement six R, lim

    nP (Xn = x) = P (X = x).

    Proposition 7.2.1 (Convergence de la loi hypergomtrique vers la loi binomiale) Soit (XN )une suite de variables alatoires sur un mme espace probabilis, de loi hypergomtrique : XN H(N,n, p) o n et p sont supposs constants. Alors (XN ) convergent en loi, quand N tend vers lin-fini, vers X de loi binomiale B(n, p) (mmes valeurs de paramtres).

    Preuve La probabilit ponctuelle de XN est

    P (XN = k) =CkNpC

    nkNq

    CnN.

    Lorsque N tend vers linfini avec n constant,

    CnN =N(N 1) (N n+ 1)

    n!= Nn(1 1

    N) (1 n 1

    N)

    1

    n! N

    n

    n!

    car (1 mN ) 1 lorsque N tend vers linfini. De mme, lorsque N tend vers linfini avec p et k fixes, alors

    CkNp (Np)k

    k!et CnkN(1p)

    (N(1 p))nk

    (n k)!.

    Finalement,

    P (XN = k) pk(1 p)nkn!k!(n k)!

    = Cknpk(1 p)nk,

    ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit la loi binomiale B(n, p).

    Cest pour cela que lorsque la population (de taille N) est trs grande, on peut assimiler la loi dunevariable alatoire comptant le nombre de russite sur un tirage sans remise (loi hypergomtrique) uneloi binomiale (tirage avec remise).

    Proposition 7.2.2 (Convergence de la loi binomiale vers une loi de Poisson) Soit (Xn) une suitede variables alatoires binomiales sur un mme espace probabilis : pour tout n, Xn suit B(n, pn). Onsuppose que limn+ pn = 0 et limn+ npn = . Alors (Xn) convergent en loi, quand n tend verslinfini, vers une loi de Poisson de paramtre .

    Preuve Pour k fix,

    P (Xn = k) =n(n 1) (n k + 1)

    k!pkn(1 pn)nk

    =(npn)

    k

    k!(1 pn)n(1

    1

    n) (1 k 1

    n)(1 pn)k

    On cherche la limite de (1pn)n = exp(n ln(1pn)) = exp(n ln(1npn/n)). Comme limn+ npn = , onpose npn = +n avec limn+ n = 0 et ainsi ln(1npn/n) /n donc limn+(1pn)n = e.Comme k est fix, limn+(1 1n ) (1

    k1n )(1 pn)

    k = 1

    Ainsi

    limn+

    P (Xn = k) = e

    k

    k!,

    ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit une loi de Poisson P(). Ilsagit donc dune convergence en loi en appliquant le point 2 des proprits.

  • 48 CHAPITRE 7. CONVERGENCES

    Corollaire 7.2.3 (Application pratique) On peut remplacer B(n, p) par P() avec = np pour ntrs grand (n > 50) et p trs petit (p < 0, 1).

    7.3 Convergence des fonctions caractristiques

    7.3.1 Continuit

    Thorme 7.3.1 (thorme de continuit de Levy) Soit (Xn) une suite de variables alatoires defonctions caractristiques Xn et X une variable alatoire de fonction caractristique X , toutes sur unmme espace probabilis. Si les (Xn) convergent en loi vers X alors la suite de fonctions (Xn) convergeuniformment vers X qur tout intervalle [a, a].Inversement si les (Xn) convergent vers une fonction dont la partie relle est continue en 0, alors est la fonction caractristique dune variable alatoire X vers laquelle les Xn convergent en loi.

    On peut le rsumer ainsi :{t R;Xn(t) X(t)} {Xn

    L X}

    7.3.2 Thorme central limite

    Corollaire 7.3.2 (Thorme central limite) Soit une suite (Xn) de variables alatoires dfinies surle mme espace de probabilit, suivant la mme loi D et dont lesprance et lcart-type communesexistent et soient finis ( 6= 0). On suppose que les (Xn) sont indpendantes. Considrons la sommeSn = X1 + +Xn. Alors lesprance de Sn est n et son cart-type vaut

    n et Snn

    n

    converge en loivers une variable alatoire normale centre rduite.

    Preuve Posons Yi = Xin . Alors

    Yi(t) = Xin

    (t) = Xi(t

    n

    )

    Pour t fix, lorsque n tend vers linfini, tnest infiniment petit. Ecrivons le dveloppement limit, au

    voisinage de 0, de la fonction caractristique dune variable alatoire W :

    W (u) = W (0) + u W (0) +

    t2

    2W (0) + u

    2(u)

    = 1 + i u E(W ) u2

    2E(W 2) + u2(u)

    En posant W = Xi, u = t/(n), on a E(W ) = E(Xi) = 0 et E(W 2) = E((Xi)2) = V (Xi) =

    2 do

    Xi(t

    n

    ) = 1 t2

    22n2 +

    1

    n(t3/3

    n) = 1 t

    2

    2n+

    1

    ni(n)

    avec limn+ i(n) = 0.

    Maintenant, posons Zn = Snnn =ni=1 Yi.

    Lindpendance des Xn entrane celle des Yi et ainsi

    Zn(t) =

    ni=1

    Yi(t)

    = exp

    (ni=1

    lnn(1 t2

    2n+

    1

    ni(n))

    )

  • Cours Probabilits / Pierre DUSART 49

    et limn+ Zn(t) = et2/2 qui est la fonction caractristique de N (0, 1).

    Ce thorme tablit une proprit gnrale, qui va justifier limportance considrable de la loi normale, la fois comme modle pour dcrire des situations pratiques, mais aussi comme outil thorique. Il snonceainsi :

    Soit X1, ..., Xi, ..., Xn, une suite de n variables alatoires indpendantes, de moyennes 1, ..., i, ..., n,et de variances s12, ..., si2, ..., sn2, et de lois de probabilit quelconques, leur somme suit une loi qui,lorsque n augmente, tend vers une loi normale de moyenne =

    ni=1 i et de variance s

    2 =ni=1 si

    2. Ily a une seule condition restrictive, cest que les variances soient finies et quaucune ne soit prpondrantedevant les autres.

    La loi normale comme modle : prenons lexemple du fonctionnement dun tour dusinage du bois. Lerglage du tour a pour but dobtenir des pices prsentant une cote bien dfinie ; mais on sait que demultiples causes perturbatrices agissent au cours de lusinage dune pice : vibrations, usures, variations decourant ... Or si les causes perturbatrices sont nombreuses, si leurs effets interviennent de faon additive,enfin si la dispersion provoque par chacune delles reste faible par rapport la dispersion totale, alors lethorme central limite signifie quon doit observer une fluctuation globale trs voisine de la loi normale.Et, comme ce mcanisme dintervention de causes perturbatrices est trs rpandu dans la nature, il enrsulte que la loi normale occupe en statistique une place privilgie.

    7.3.3 convergence de P vers N

    Corollaire 7.3.3 Soit (Xn) une suite de variables alatoires suivants des lois de Poisson de paramtresn. Si limn+ n =, alors Xnnn converge en loi vers N (0, 1).

    Preuve On utilise la fonction caractristique de la loi de Poisson de paramtre :

    X(t) = e(cos t+i sin t1).

    En utilisant les proprits de la fonction caractristique (aX(t) = (at) et X+b(t) = eitbX(t)), il vientX(t) = e

    ite(cos t+i sin t1) puis X

    (t) = e(cos t

    +i sin t

    1)

    ei t

    ()

    . Or, lorsque tend verslinfini, 1/ est au voisinage de 0 et

    cos(t/) 1 (t/

    )2

    2 +1()

    sin(t/) (t/

    ) + 1()

    avec lim () = 0. Ou encore le dveloppement de lexposant avec 1/ au voisinage de 0 est

    eit/ 1 = it

    +

    (it)2

    2+

    1

    ().

    Ainsi(cos(t/

    ) + i sin(t/

    ) 1) i

    t t2/2

    et X

    (t) et2/2, fonction caractristique de N (0, 1).

    Application pratique : Pour suffisamment grand (disons > 1000), la distribution normale de moyenne et de variance est une excellente approcimation de la distribution de Poisson de paramtre . Si est plus grand que 10, alors la distribution normale est une bonne approximation si une correction decontinuit est applique, cest--dire P (X x) lorsque x est un entier positif ou nul est remplac parP (X x+ 0, 5).

  • 50 CHAPITRE 7. CONVERGENCES

    7.3.4 convergence de B vers N

    Corollaire 7.3.4 (Thorme de Moivre-Laplace) Soit (Xn) une suite de variables alatoires tellesque (Xn) B(n, p). Alors Xnnpnpq converge en loi vers la variable centre rduite Z N (0, 1) ou encoreXn converge en loi vers N (np,

    npq).

    Preuve On rappelle que lon a dfini une variable de Bernoulli comme une variable qui prend la valeur1 avec la probabilit p, et la valeur 0 avec la probabilit (1 p), et montr que sa moyenne est gale pet sa variance p(1 p). Or on peut considrer une variable binomiale comme la somme de n variablesde Bernoulli. Il rsulte du thorme central limite que, si n est suffisamment grand (en pratique partirde n = 50), la loi binomiale peut tre approxime par une loi normale de moyenne np et de variancenp(1 p). Cest pourquoi les tables de la loi binomiale sarrtent gnralement n = 50.

    Application pratique : on peut assimiler une loi binomiale une loi normale ds que np > 15 et nq > 15ou n > 30, np > 5, nq > 5.

  • Table des matires

    1 lments danalyse combinatoire 3

    1.1 Quelques dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.2 Arrangement avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.3 Arrangement sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.4 Permutation sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.5 Permutation avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.6 Combinaison sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

    1.7 Combinaison avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    2 Probabilits 7

    2.1 Espace probabilis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    2.1.1 vnement et ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    2.1.2 Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    2.2 Probabilit conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.2.1 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.2.2 Formule des probabilits composes . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.2.3 Evnements indpendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    3 Variables alatoires 13

    3.1 Dfinition dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

    3.1.1 Diffrents types de variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . . 13

    3.1.2 Loi de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    3.1.3 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    3.1.4 Densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    3.2 Caractristiques dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    3.2.1 Tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

  • 52 TABLE DES MATIRES

    3.2.2 Paramtres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    3.2.3 Caractristiques de forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    3.2.4 Ingalit de Bienaym-Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    3.2.5 Fonctions gnratrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    4 Lois discrtes usuelles 23

    4.1 Loi uniforme discrte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    4.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    4.4 Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    4.5 Loi gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    4.7 Approximation de B par P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    5 Couple de variables alatoires 29

    5.1 Couple de v.a. discrtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    5.1.1 Loi dun couple de variables alatoires discrtes . . . . . . . . . . . . . . . . . . . . 29

    5.1.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    5.1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    5.1.4 Esprance, Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    5.1.5 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    5.1.6 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    5.1.7 Covariance et Corrlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    5.2 Couple de v.a. continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    5.2.1 Fonction densit de probabilit . . . . . . . . . .