22
ProbabilitØs & Statistiques L1: Cours December 20, 2008

ProbabilitØs & Statistiques L1: Cours · ProbabilitØs & Statistiques L1: Cours December 20, 2008. Chapter 1 DØnombrements I 1.1 Principes gØnØraux RŁgle du produit On fait deux

  • Upload
    haliem

  • View
    221

  • Download
    0

Embed Size (px)

Citation preview

Probabilités & Statistiques L1: Cours

December 20, 2008

Chapter 1 Dénombrements I1.1 Principes généraux

Règle du produit On fait deux expériences, successives ou simultanées. Si la premièredonne n1 résultats possibles et si, pour chacun de ces résultats, la deuxième donne n2 résultatspossibles alors il y a en tout n1n2 résultats possibles.

Règle de la somme On fait une expérience et on peut répartir ses résultats en deux caté-gories incompatibles. S�il y a n1 résultats possibles de type 1 et n2 résultats possibles de type 2alors il y a en tout n1 + n2 résultats possibles.

1.2 Cas standardsLes problèmes courants sont des types suivants: permutations, lancers, répartitions, tirages. Lesprincipaux critères pertinents sont: discernable ou non (en abrégé D ou D), ordonné ou non (enabrégé O ou O), avec répétition ou non (en abrégé R ou R).

1.2.1 PermutationsUn mot de longueur n est représenté par une suite (x1; :::; xn) de n lettres, qui peuvent êtrediscernables ou pas: si le mot est composé de p lettres discernables répétées n1; :::; np fois on diraque c�est un mot de n � (n1; :::; np) lettres partiellement discernables.Une permutation des lettres d�un mot donne un mot composé des mêmes lettres que lui: elle

conserve ce mot si le mot obtenu après permutation est identique au mot initial.

Permutation sur lettres discernables Si le mot est composé de n lettres discernablesalors chaque permutation donnera un mot nouveau: le nombre de ces mots est égal au nombre depermutations.

Exemple. Les permutations du mot abc sont codées abc ; acb ; bca ; :::Calcul. On calcule le nombre n! de ces permutations grâce à la règle du produit, sachant que le choix

de la k-ème lettre restreint de 1 l�éventail des choix pour la (k + 1)-ème.

Permutation sur lettres partiellement discernables Si le mot est composé den = (n1; :::; np) lettres partiellement discernables alors certaines permutations conserveront lemot: ce sont elles que l�on veut compter.

Exemple. Le mot initial aab est codé a1a2b : les permutations qui le conservent sont codées a1a2b ; a2a1b:Calcul. On calcule le nombre de ces permutations grâce à la règle du produit: (n1! permutations de

n1 lettres distinctes) � ::: � (np! permutations de np lettres distinctes):

1.2.2 TiragesLorsqu�on choisit successivement p éléments parmi n éléments on obtient un tirage successif (p; n) :par principe les éléments sont discernables, numérotés 1; :::; n:

Tirage ordonné avec remise Un tirage successif (p; n) de type O=R est représenté par unesuite (x1; :::; xp) de p éléments éventuellement égaux pris parmi n:

Exemple. Les tirages (3; 4) de type O=R dans fa; b; c; dg sont codés abb; cbd ; ccc ; :::Calcul. On calcule le nombre de ces tirages grâce à la règle du produit, sachant que le résultat du

k-ème tirage n�in�ue pas sur le résultat du (k + 1)-ème.

1

Tirage ordonné sans remise Un tirage successif (p; n) de type O=R est représenté par unesuite (x1; :::; xp) de p éléments distincts pris parmi n:

Exemple. Les tirages (3; 4) de type O=R dans fa; b; c; dg sont codés abc ; dac ; bcd ; :::Calcul. On calcule le nombre Apn de ces tirages grâce à la règle du produit, sachant que le résultat

du k-ème tirage restreint de 1 l�éventail des résultats pour le (k + 1)-ème.

Tirage non ordonné sans remise Un tirage successif (p; n) de type O=R est représenté parune partie fx1; :::; xpg de p éléments (distincts) pris parmi n: Choisir simultanément p élémentsparmi n éléments équivaut à un tirage successif (p; n) de type O=R:

Exemple. Les tirages (3; 4) de typeO=R dans fa; b; c; dg sont codés fa; b; cg ; fb; c; dg ; fa; c; dg ; :::Calcul. On calcule le nombre

�np

�de ces tirages par la règle du produit: à chaque tirage O=R

correspondent p! tirages O=R; pour un total de Apn tirages O=R.

Tirage non ordonné avec remise Dans un tirage successif (p; n) de type O=R seul comptele nombre de fois où chaque élément est apparu: un tirage peut donc être représenté par une suite(p1; :::; pn) de n entiers positifs ou nuls éventuellement égaux et véri�ant

Pnk=1 pk = p:

Exemple. Un tirage (3; 4) de type O=R dans fa; b; c; dg sera codé (2; 1; 0; 0) pour signi�er qu�il y aeu deux a; un b; zéro c; zéro d : on peut également le coder (aajbj j) ou (�� j � j j) .

Calcul. Le nombre de ces tirages est égal au nombre de tirages (p; p+ n� 1) de type O=R : p estle nombre de � , n� 1 celui de j , et n+ p� 1 le nombre total de symboles dans le codage ci-dessus.

1.2.3 LancersLorsqu�on lance p fois un dé à n faces on obtient un lancer successif (p; n) : par principe il y arépétition et on suppose que les faces sont discernables, numérotées 1; :::; n: Lancer simultanémentp dés à n faces équivaut à un lancer successif (p; n) ; ordonné si les dés sont discernables, nonordonné sinon.

Lancer successif ordonné Un lancer successif (p; n) de type O est représenté par une suite(x1; :::; xp) de p faces éventuellement égales prises parmi n : problème analogue à un tirage (p; n)de type O=R:

Lancer successif non ordonné Dans un lancer successif (p; n) de type O seul compte lenombre d�apparitions de chaque face : problème analogue à un tirage (p; n) de type O=R:

1.2.4 RépartitionsLorsqu�on répartit p boules dans n urnes on obtient une répartition (p; n) : par principe les urnessont discernables, numérotées 1; :::; n: Les urnes peuvent être éventuellement vides, les boules sontdiscernables ou pas. NB. Si on n�accepte pas que les urnes puissent être vides on les préremplit par uneboule chacune (cas p > n):

Répartition à boules discernables Une répartition (p; n) de type D est représentée parune suite (x1; :::; xp) formé de p urnes éventuellement égales prises parmi n : problème analogue àun tirage (p; n) de type O=R:

Répartition à boules indiscernables Dans une répartition (p; n) de type D seul comptele nombre de boules dans chaque urne : problème analogue à un tirage (p; n) de type O=R:

2

1.2.5 Problèmes diversMots discernables à lettres partiellement indiscernables On permute les lettres d�un

mot de n � (n1; :::; np) lettres partiellement discernables: on s�intéresse aux mots discernablesobtenus.

Exemple. Les mots discernables obtenus par permutation de aab sont codés aab ; aba ; baa:Calcul. On calcule le nombre de ces mots par la règle du produit: à chaque mot nouveau correspondent

n1!n2!::: permutations qui le conservent, pour un total de n! permutations.

Répartitions en groupes d�e¤ectifs imposés On répartit n éléments discernables en pgroupes discernables d�e¤ectifs n1; :::; np:

Exemple. Les répartitions de 3 éléments a; b; c en 2 groupes d�e¤ectifs 2; 1 sont codées fa; bg fcg ;fa; cg fbg ; fb; cg fag :

Calcul. On calcule le nombre de ces répartitions par la règle du produit: à chaque répartition nouvellecorrespondent n1!n2!:::np! permutations qui la conservent, pour un total de n! permutations.

3

Chapter 2 Dénombrements IIOn note En tout ensemble à n éléments.

2.1 Principes générauxRègle du produit jA�Bj = jAj � jBj :

Règle de la somme Si A et B sont deux parties disjointes alors jA [Bj = jAj+ jBj :Plus généralement on a jA [Bj = jAj+ jBj � jA \Bj :

2.2 Cas standardsPermutations Le nombre de permutations de En est

n! = n� (n� 1)� :::� 3� 2� 1:

On a n! = n� (n� 1)! et on convient que 0! = 1:Permutations sous contrainte. On considère une partition de En en p parties A1; :::; Ap de

cardinal n1; :::; np: On dit qu�une permutation s conserve la partition si s (Ak) = Ak pour tout k :le nombre de ces permutations est

n1!n2!:::np!:

Applications Une application Ep ! En est appelée application de p dans n : il y en a

np:

Variante: np est le nombre de suites avec répétition de p parmi n:

Arrangements Une application injective Ep ! En est appelée arrangement de p parmi n :il y en a

Apn =n!

(n� p)! = n� (n� 1)� :::� (n� p+ 1) :

Variante: Apn est le nombre de suites sans répétition de p parmi n:

Combinaisons Une partie à p éléments de En est appelée combinaison de p parmi n : il yen a �

n

p

�=Apnp!=

n!

p! (n� p)! :

Variante:�np

�est le coe¢ cient binômial de apbn�p dans le développement de (a+ b)n :

On a�np

�=�nn�p�et�np

�=�n�1p

�+�n�1p�1�: on "visualise" cette dernière relation avec le triangle

de Pascal. Noter quePn

p=0

�np

�= 2n:

4

Partitions d�un ensemble Une partition deEn en suite (A1; :::; Ap) de p parties de (n1; :::; np)éléments est appelée partition de n en (n1; :::; np) : il y en a�

n

n1; :::; np

�=

n!

n1!n2!:::np!:

Noter quePp

k=1 nk = n:Variante:

�n

n1;:::;np

�est le coe¢ cient multinômial de xn11 :::x

npp dans le développement de

(x1 + :::+ xp)n :

Une combinaison n1 parmi n est une partition de n en (n1; n2) ; avec n2 = n � n1 : donc�n

n1;n2

�=�nn1

�=�nn2

�:

Décompositions d�un entier Une suite (p1; :::; pn) d�entiers positifs ou nuls satisfaisant larelation

Pnk=1 pk = p est appelée décomposition de p en

Pnk=1 pk : il y en a�

p+ n� 1p

�=

�p+ n� 1n� 1

�:

Variante:�n+p�1p

�est le nombre de monômes distincts xp11 :::x

pnn dans le développement de

(x1 + :::+ xn)p :

2.3 ExemplesPermutationsUn mot de n lettres discernables équivaut à une pemutation de n éléments: il y en a n!:Un mot de n = (n1; :::; np) lettres partiellement discernables équivaut à une partition de n en

(n1; :::; np) : il y a n1!n2!:::np! permutations qui conservent la partition.

Tirages, Lancers, RépartitionsUn tirage successif (p; n) de type O=R est une application de p dans n : il y en a np:Un tirage successif (p; n) de type O=R est un arrangement de p parmi n : il y en a Apn:Un tirage successif (p; n) de type O=R est une combinaison de p parmi n : il y en a

�np

�:

Un tirage successif (p; n) de type O=R est une décomposition de p enPn

k=1 pk : il y en a�p+n�1p

�:

Un lancer successif (p; n) de type O est une application de p dans n : il y en a np:Un lancer successif (p; n) de type O est une décomposition de p en

Pnk=1 pk : il y en a

�p+n�1p

�:

Une répartition (p; n) de type D est une application de p dans n : il y en a np:Une répartition (p; n) de type D est une décomposition de p en

Pnk=1 pk : il y en a

�p+n�1p

�:

Problèmes diversMots à lettres partiellement indiscernables. Un mot de n = (n1; :::; np) lettres partiellement

discernables équivaut à une partition de n en (n1; :::; np) : il y en a�

nn1;:::;np

�:

Répartitions en groupes d�e¤ectifs imposés. Une répartition de n éléments discernables en pgroupes discernables d�e¤ectifs n1; :::; np équivaut à une partition de n en (n1; :::; np) : il y en a�

nn1;:::;np

�:

Chemins sur un réseau. Un chemin sur le réseau N � N est une suite de segments unitési = (1; 0) ou j = (0; 1) : Un chemin qui mène du point (0; 0) au point (p; q) comporte p segments iet q segments j : il peut être vu comme combinaison de p parmi p+ q et il y en a

�p+qp

�: Un chemin

partant de (0; 0) et de longueur n se termine en un point (p; q) de la droite p+ q = n : il y en a 2n:

5

Chapter 3 Espace probabiliséUne somme in�nie est à prendre comme limite d�une somme �nie:

P1k=0 pk = limn!1 (

Pnk=0 pk) :

En particulier: (i)P1

k=0 xk = 1

1�x si jxj < 1 (ii)P1

k=0xk

k!= ex pour tout x 2 R

3.1 Point de vue expérimentalUnivers Une épreuve (ou expérience) E donne lieu à un nombre �ni ou dénombrable d�issues

(ou résultats) possibles, notées !1; !2; ::: : leur ensemble est l�univers :

Evènements Un évènement lié à E est un ensemble d�issues, donc une partie de : on ditqu�un évènement A est réalisé lorsque le résultat de l�expérience appartient à A:

Probabilités A chaque issue !k est associé un nombre pk 2 [0; 1] ; avec p1 + p2 + ::: = 1 :on calcule la probabilité pr (A) d�un évènement A par

pr (A) =X!k2A

pk:

Equiprobabilité Dans le cas �ni il y a équiprobabilité quand pk = 1jj pour tout k : alors

pr (A) =jAjjj :

3.2 Point de vue formel3.2.1 Espace probabilisé �niOn considère un ensemble �ni ; appelé univers: les éléments de P () sont appelés évènements.Les évènement A et B sont dits incompatibles si A \B = ?:

Loi de probabilité A chaque évènement A on associe un nombre pr (A) et on suppose véri�ésles axiomes suivants:

PR1: 0 � pr (A) � 1 pour tout A

PR2: pr () = 1; pr (?) = 0

PR3: Si A et B sont deux évènements incompatibles on a pr (A [B) = pr (A) + pr (B)

L�application pr : P () ! [0; 1] est appelée loi de probabilité sur : le triplet (;P () ; pr)est appelé espace probabilisé.

Propriétés1. Pour tous évènements A;B on a:

(i) pr�A�= 1� pr (A)

(ii) pr (A [B) = pr (A) + pr (B)� pr (A \B)(iii) Si A � B alors pr (A) � pr (B)

6

2. Pour toute suite A1; :::; An d�évènements deux à deux disjoints on a

pr

n[k=1

Ak

!=

nXk=1

pr (Ak) :

3. Si les évènements A1; :::; An sont quelconques on apr (Snk=1Ak) =

P1�i�n

pr (Ai)�P

1�i<j�npr (Ai \ Aj) +

P1�i<j<k�n

pr (Ai \ Aj \ Ak)� :::

Evènements élémentaires Les évènements f!g sont dits élémentaires: on a toujours

pr (A) =X!2A

pr (!) ;

et en particulierP

!2 pr (!) = 1:

Disjonction des cas Pour tous évènements A;B on a

pr (A) = pr (A \B) + pr�A \B

�:

Plus généralement, si les évènements 1; :::;n forment une partition de on apr (A) =

Pnk=1 pr (A \ k) :

3.2.2 Espace probabilisé dénombrableSi est dénombrable on remplace PR3 par le résultat ci-dessous:

PR3 bis: Pour toute suite A1; A2; ::: d�évènements deux à deux disjoints on a

pr

1[k=1

Ak

!=

1Xk=1

pr (Ak) :

3.3 ExemplesEspace probabilisé �ni1. est l�ensemble des permutations de En: Sous l�hypothèse d�équiprobabilité chaque permu-

tation a la probabilité 1n!: Une permutation s admet i comme point �xe si s (i) = i : la probabilité

que s n�ait aucun point �xe est pn =Pn

k=0(�1)kk!:

2. est l�ensemble des applications p dans n: Sous l�hypothèse d�équiprobabilité chaque appli-cation a la probabilité 1

np: Idem pour les arrangements et combinaisons de p parmi n:

3. = fa; b; c; dg et pr (a) = pr (c) = �=2; pr (b) = �; pr (d) = 2� : � = 1=4; pr (fa; bg) = 3=8:4. Dans une épreuve à 2 issues on code les issues 0 et 1 de manière standard, d�où l�univers

= f0; 1g : Si pr (1) = p alors pr (0) = 1� p; noté q:5. Lorsqu�on répète une épreuve à 2 issues n fois l�univers est l�ensemble = f0; 1gn des suites

avec répétition de n parmi 2 : sous l�hypothèse d�équiprobabilité chaque suite a la probabilité 12n:

La probabilité qu�une suite comporte k fois 1 exactement est�nk

�: 12n:

Espace probabilisé dénombrableOn lance une pièce équiprobable jusqu�à ce qu�on obtienne PILE et on code PILE par 1 et FACE

par 0 : l�univers est l�ensemble des suites 1; 01; 001; ::: et on note !n la suite dont le 1 est aurang n: La suite !n a pour probabilité pn = 1

2n: on véri�e que

P1n=1 pn = 1: Probabilité d�attendre

PILE au moins 3 lancers, d�un PILE à un rang pair.

7

Chapter 4 Probabilité conditionnelle, Indépen-dance

4.1 Probabilité conditionnelleProbabilité conditionnelle d�un évènement Si A;B sont deux évènements et pr (B) > 0

on dé�nit la probabilité de A sachant B par

pr (A j B) = pr (A \B)pr (B)

:

Si A \B = ? alors pr (A j B) = 0; si B � A alors pr (A j B) = 1:On a donc

pr (A \B) = pr (A j B) pr (B) = pr (B j A) pr (A) :Formule généralisable: pr (A1 \ ::: \ An) = pr (A1) pr (A2 j A1) pr (A3 j A1 \ A2) :::

Loi conditionnelle L�application pr (� j B) : A! pr (A j B) est encore une loi de probabilitésur : en particulier, si A1 \ A2 = ? alors

pr (A1 [ A2 j B) = pr (A1 j B) + pr (A2 j B) :

Cette loi conditionnelle équivaut à une restriction de l�univers à B : dans certains cas cetterestriction peut être décrite et permettre ainsi un calcul direct des probabilités conditionnelles.

4.2 IndépendanceLa notion de probabilité conditionnelle n�est pertinente que si l�évènement B in�ue sur A:

Evènements indépendants A et B sont des évènements indépendants si

pr (A \B) = pr (A) pr (B) :

Autrement dit pr (A j B) = pr (A) : alors A et B; A et B; A et B sont aussi indépendants.

Indépendance totale Une suite A1; :::; An d�évènements est en indépendance totale si laprobabilité de toute intersection d�évènements de cette suite est le produit des probabilités.L�indépendance totale entraîne l�indépendance deux à deux mais la réciproque est fausse.

4.3 Probabilités totales, Formule de BayesFormule des probabilités totales Pour tous évènements A;B on a

pr (A) = pr (A j B) pr (B) + pr�A j B

�pr�B�:

Formule généralisable à une partition 1; :::;n de : pr (A) =Pn

k=1 pr (A j k) pr (k) :

Formule de Bayes Pour tous évènements A;B on a

pr (B j A) = pr (A j B) pr (B)pr (A j B) pr (B) + pr

�A j B

�pr�B�

8

4.4 ExemplesProbabilité conditionnelle1. Dans une population 20% des gens sont blonds, 30% ont les yeux bleus.(i) 10% sont blonds aux yeux bleus: probabilité d�avoir les yeux bleus sachant qu�on est blond

et vice-versa.(ii) 60% des blonds ont les yeux bleus: probabilité d�être blond aux yeux bleus..2. On tire sans remise 3 boules dans une urne contenant 3 boules blanches et 4 noires.(i) Probabilité d�obtenir une boule blanche au 3ème tirage sachant qu�on en a déjà obtenu 2:(ii) Probabilité d�obtenir une boule blanche au 3ème tirage sachant qu�on a déjà obtenu une

blanche et une noire.

Epreuves successivesLorsqu�on e¤ectue n épreuves successives l�univers n est un ensemble de suites (x1; :::; xn) et

peut être décrit par un arbre de choix: chaque noeud de l�arbre représente un état possible, chaquebranche représente la transition d�un état à un autre. On a¤ecte à chaque branche une probabilitéde transition, qui est la probabilité conditionnelle de l�un des noeuds sachant l�autre: la probabilitéde l�issue (x1; :::; xn) est le produit des probabilités des branches qui mènent à cette issue.Un cas important est celui d�une épreuve répétée n fois: si le résultat à l�étape k in�uence le

résultat à l�étape k + 1 les probabilités de transition doivent être recalculées à chaque nouvelleétape; si l�épreuve est répétée indépendamment les probabilités de transition sont les mêmes d�uneétape à l�autre. Exemple: tirage avec ou sans remise.

Indépendance1. On tire avec remise n boules dans une urne contenant 3 boules blanches et 4 noires. Probabilité

d�obtenir une boule blanche au troisième tirage sachant qu�on a déjà obtenu une boule blanche etune boule noire.2. On lance un dé équiprobable à 6 faces deux fois de suite indépendamment. Indépendance

des évènements "le premier chi¤re vaut 4", "la somme des chi¤res vaut 7", "le second chi¤re vaut3". Indépendance non totale.

Système parallèle et système série On considère n composants binaires en indépendancetotale: on note pk le taux de panne du composant k; donc 1� pk sa probabilité de bon fonction-nement.(i) Le système série fonctionne ssi tous les composants fonctionnent: sa probabilité de bon

fonctionnement est �nk=1 (1� pk) :(ii) Le système parallèle est en panne ssi tous les composants le sont: sa probabilité de panne

est �nk=1pk:

Formule de Bayes On veut diagnostiquer une maladie à l�aide d�un test; comme celui-cin�est pas parfait il peut donner un résultat positif chez un patient non malade (résultat faux positif)ou un résultat négatif chez un patient malade (réultat faux négatif): on note par la suite T et Mles évènements "test positif" et "patient malade", et p = pr (M) la probabilité d�être malade dansune population donnée (prévalence), q = 1� p: On distingue deux points de vue:(i) le laboratoire, qui veut évaluer la qualité de son test, utilise les indices sensibilité se =

pr (T j M) et spéci�cité sp = pr�T j M

�; supposés indépendants de p:

(ii) le médecin, qui veut évaluer la pertinence de son diagnostic, utilise les indices valeurprédictive positive vpp = pr (M j T ) et valeur prédictive positive vpn = pr

�M j T

�; qui ne sont

pas indépendants de p:

9

Chapter 5 Statistique IUne série statistique est une suite de données.

5.1 Cas discret5.1.1 Série discrète non regroupéeDans le cas non regroupé les N données x1; :::; xN sont éventuellement égales.

Moyenne La moyenne de la série est la moyenne arithmétique x = 1N

PNk=1 xk:

Variance La variance de la série mesure la dispersion de la série autour de sa moyenne: elleest donnée par vx = 1

N

PNk=1 (xk � x)

2 = 1N

PNk=1 x

2k � x2:

5.1.2 Série discrète regroupéeDans le cas regroupé les N données éventuellement égales sont regroupées par valeurs distinctesx1 < x2 < ::: < xp : on représente la série par un tableau des e¤ectifs

x1 x2 � � � xpn1 n2 � � � np

;

où nk désigne le nombre de fois où la valeur xk a été observée: doncPp

k=1 nk = N:

Fréquences La fréquence de xk est fk =nkN: Noter que

Ppk=1 fk = 1:

Moyenne La moyenne de la série est la moyenne pondéré x =Pp

k=1 fkxk:

Variance, Ecart-type La variance de la série est vx =Pp

k=1 fk (xk � x)2 =

Ppk=1 fkx

2k�x2:

L�écart-type est �x =pvx:

5.2 Cas continu5.2.1 Série continueOn représente la série par un tableau des fréquences

]x0; x1] ]x1; x2] � � � ]xp�1; xp]f1 f2 � � � fp

;

où fk est la fréquence de l�intervalle ]xk�1; xk] : on appelle amplitude de ]xk�1; xk] la quantitéxk�xk�1: La fréquence d�une valeur xk (ou de toute autre valeur) est considérée comme nulle: lesintervalles ]xk�1; xk[ ; [xk�1; xk] ; ]xk�1; xk] ; [xk�1; xk[ ont donc même fréquence.

Fréquences, DensitéL�histogramme des fréquences est un graphique où l�on place en abscisse les intervalles ]xk�1; xk]

et en ordonnée des rectangles d�aires égales aux fréquences fk : si pk désigne la hauteur du k-èmerectangle on a donc pk (xk � xk�1) = fk:La densité est la fonction p constante par morceaux dont le graphe est l�histogramme des

fréquences 1.La fréquence de l�intervalle [a; b] est l�aire fr ([a; b]) =

R bap (x) dx:

1On peut toujours compléter le tableau des fréquences avec deux intervalles �ctifs ]�1; x0] et ]xp;+1[ et desfréquence associées nulles: on complète alors p sur R par p (x) = 0 sur ]�1; x0] et ]xp;+1[ :

10

Fréquences cumulées croissantes, Fonction de répartitionLa somme Fk =

Pki=1 fi est appelée fréquence cumulée croissante (FCC en abrégé): F0 = 0:

L�histogramme des FCC est un graphique où l�on place en abscisse les intervalles ]xk�1; xk] eten ordonnée des rectangles de hauteur égale aux FCC Fk : on relie les points Mk = (xk; Fk) par lepolygône des FCC.La fonction de répartition est la fonction F a¢ ne par morceaux dont le graphe est le polygône

des FCC 2: on a F0 (x) = p (x) sauf en des points isolés.La fréquence de l�intervalle [a; b] est donnée par fr ([a; b]) = F (b)� F (a) :

Médiane, Quartiles La médiane m divise la série en deux intervalles de même fréquence,donc est donnée par le point

�m; 1

2

�du polygône des FCC: F (m) = 0:5:

Les quartiles q1; q2; q3 divisent la série en trois intervalles consécutifs de même fréquence:F (q1) = 0:25; q2 = m; F (q3) = 0:75:

5.3 ExemplesSérie statistique1. Série discrète.2. Série continue dé�nie par une densité ou par une fonction de répartition.Fonction a¢ ne F (x) = mx+ p dé�nie par l�image de deux points:(i) Si F (x0) = y0 alors p = y0 �mx0 donc F (x) = m (x� x0) + y0:(ii) Si F (x1) = y1; F (x2) = y2 alors m = y2�y1

x2�x1 donc F (x) =y2�y1x2�x1 : (x� x1) + y1:

Courbe de concentration de Lorenz On s�intéresse aux inégalités de possession de richessedans une population.

On considère la série discrète regroupée (rk; nk)k=1::p où rk est la richesse possédée par indi-vidu et nk l�e¤ectif associé dans la population. La population totale est N; la richesse totale estR =

Ppi=1 niri = N:r et on note Rk =

1R

Pki=1 niri; Fk =

1N

Pki=1 ni : donc la k-ème fraction Fk la

plus pauvre de la population possède la fraction Rk de la richesse totale.La courbe de Lorenz joint les points (Fk; Rk) : elle part de (F0; R0) = (0; 0); se termine en

(Fp; Rp) = (1; 1); et est située sous le segment joignant ces deux points.

Il y a égalité parfaite lorsque chaque individu possède la même richesse, inégalité extrêmelorsqu�un seul individu possède toute la richesse: de façon générale plus la courbe "colle" à la lignede parfaite égalité plus la société est égalitaire. L�indice de Gini permet de quanti�er cela.L�indice de Gini peut se dé�nir à partir de la courbe de Lorenz comme le double de l�aire de

la surface délimitée par cette courbe et la première diagonale: donc 0 � � 1:Si est proche de 0 cela signi�e que les di¤érences relatives sont en moyenne faible par rapport

à la moyenne des revenus : les inégalités dans la population sont faibles. Si au contraire estproche de 1 alors il y a de fortes di¤érences relatives en moyenne : les inégalités sont fortes.

2On peut toujours complèter F par F (x) = 0 sur ]�1; x0] et F (x) = 1 sur ]xp;+1[ :

11

Chapter 6 Variables aléatoires I6.1 Variable, Loi

A une épreuve donnée d�univers on peut associer une ou plusieurs applications X : ! R;appelées variables aléatoires (VA en abrégé).Une variable discrète �nie ne prend qu�un nombre �ni N de valeurs x1 < ::: < xN tandis

qu�une variable discrète dénombrable prend un nombre dénombrable x1 < x2 < :::: de valeurs: onadoptera la convention N =1 dans le deuxième cas.

Evènements liés à X L�évènement f! 2 ; X (!) 2 Ig est noté fX 2 Ig : les évènementsf! 2 ; X (!) = xg ; f! 2 ; X (!) < xg sont encore notés fX = xg ; fX < xg :

Loi de X L�application prX : I ! pr (X 2 I) est appelée loi de X : elle est connue dès lorsque l�on connaît les prX (xk) = pr (X = xk) :La distribution de X est la fonction pX : R! [0; 1] dé�nie par

pX (x) = pr (X = x) :

En pratique on ne mentionne que les valeurs x1; :::; xN de x pour lesquelles pX (x) > 0 et on résumela distribution par un tableau des probabilités (xk;pX (xk))k=1::N :Par la suite le symbole

Px signi�era que la somme est faite sur les valeurs pX (x) > 0 : avec

cette convention on aP

x pX (x) = 1:

Fonction de répartition La fonction de répartition de X est la fonction FX : R! [0; 1]dé�nie par

FX (x) = pr (X � x) :On a pr (X > x) = 1� F (x) ; pr (X 2 ]a; b]) = F (b)� F (a) :

6.2 EspéranceSouvent notée �; l�espérance de X est la moyenne pondérée

E (X) =Xx

pX (x) :x:

6.3 Fonction d�une variableg est une fonction R! R:

Variable g (X) C�est l�application Z = g � X : ! R : elle prend la valeur z avec laprobabilité

pZ (z) =Xg(x)=z

pX (x) :

Espérance de g (X) Elle est donnée par

E (g (X)) =Xx

pX (x) :g (x) :

En particulier E (aX + b) = a:E (X) + b:

12

6.4 VarianceMoments Lemoment d�ordre n deX estE (Xn) ; lemoment centré d�ordre n estE [(X � �)n] :

Variance La variance de X est le moment centré d�ordre deux

V (X) = E�(X � �)2

�=Xx

pX (x) : (x� �)2

= E�X2�� �2 =

"Xx

pX (x) :x2

#� �2:

On a toujours V (aX + b) = a2:V (X) :

Ecart-type Souvent noté �; l�écart-type de X est

� (X) =pV (X):

Si X est une VA d�espérance � et écart-type � alors la VA X���a une espérance nulle et un

écart-type égal à 1 : elle est dite centrée réduite.

6.5 ExemplesVariable indicatrice La variable indicatrice d�un évènement A est la variable �A dé�nie par

�A (x) = 1 si x 2 A; 0 sinon: on a donc pr (�A = 1) = pr (A) ; pr (�A = 0) = pr�A�:

Si p = pr (A) on a E (�A) = p; V (�A) = p (1� p) :

VA �nies1. On considère l�univers = fa; b; c; dgmuni de la loi pr (a) = pr (b) = 1

4; pr (c) = 1

3; pr (d) = 1

6:

On dé�nit la VA X sur par X (a) = X (c) = �1; X (b) = 1; X (d) = 2 : loi, fonction derépartition, espérance et variance de X; 2X � 1; X2:2. On lance un dé équiprobable à 6 faces deux fois de suite indépendamment et on note les

numéros apparus. On dé�nit sur l�univers les VA X = "nombre de 4", Y = "nombre de chi¤respairs", Z = "rang du premier 4" (avec la convention Z = 0 si aucun 4) : loi et espérance deX; Y; Z; importance d�un bon choix de :3. On considère l�univers = f0; 1g4 et on dé�nit la VA X = "nombre de 1" sur : Loi de X:

VA dénombrables Un enseignant désordonné recherche un livre dans sa bibliothèque et laparcourt de long en large. Au premier aller-retour il a une probabilité 1

2de trouver son livre,

mais, la fatigue aidant, il n�a plus qu�une probabilité 1n+1

au n-ème aller-retour s�il n�a pas encoretrouvé son livre avant. Le nombre X d�aller-retours nécessaires pour trouver le livre est une VAdénombrable qui peut prendre toutes les valeurs entières strictement positives 1; 2; ::: L�énoncédonne pr (X = n j X > n� 1) = 1

n+1donc pr (X = n) = 1

223:::n�1

n1n+1

= 1n(n+1)

et la probabilité deréussite est 1 : par contre le temps d�attente moyen avant de trouver le livre est E (X) = +1:

Jeux Dans un jeu d�argent on désigne par X le gain du joueur: le jeu est dit équitable siE (X) = 0; avantageux ou désavantageux suivant que E (X) > 0 ou E (X) < 0:On lance un dé équiprobable à 6 faces numérotées 1; 2; 2; 3; 3; 3 : on gagne 2 $ si le 1 apparaît,

on perd 1 $ si le 3 apparaît, et on ne perd ni ne gagne rien si le 2 apparaît. On note G le gain lorsd�une partie: loi et espérance de G:

13

Chapter 7 Variables aléatoires IIOn considère deux VA X;Y : ! R et on note fX 2 I; Y 2 Jg l�évènement fX 2 Ig\fY 2 Jg :X et Y prennent les valeurs x1 < ::: < xN et y1 < ::: < yP :

7.1 Couple de variables aléatoiresLe couple (X;Y ) est la VA ! R2 dé�nie par (X; Y ) (!) = (X (!) ; Y (!)) :

Loi conjointeLa loi conjointe de (X; Y ) est la loi prX;Y : I � J ! pr (X 2 I; Y 2 J) du couple (X;Y ) : elle

est entièrement déterminée par les probabilités prX;Y (xi; yj) = pr (X = xi; Y = yj) :La distribution conjointe de (X; Y ) est la fonction pX;Y : R2! [0; 1] dé�nie par

pX;Y (x; y) = pr (X = x; Y = y) :

Noter queP

x

Py pX;Y (x; y) = 1:

Lois marginalesLes lois marginales de (X;Y ) sont les lois de X et Y calculées à partir de la loi conjointe de

(X; Y ) :

pX (x) =Xy

pX;Y (x; y) ; pY (y) =Xx

pX;Y (x; y) :

7.2 Fonction de deux variablesg est une fonction R2 ! R:

Variable g (X; Y ) C�est l�application Z = g � (X; Y ) : ! R : elle prend la valeur z avec laprobabilité

pZ (z) =X

g(x;y)=z

pX;Y (x; y) :

Espérance de g (X; Y ) Elle est donnée par

E (g (X; Y )) =Xx

Xy

pX;Y (x; y) :g (x; y) :

En particulier E (X + Y ) = E (X) + E (Y ) :

7.3 Variables indépendantesLes VA X;Y sont dites indépendantes si, au choix:

(i) pr (X 2 I; Y 2 J) = pr (X 2 I) pr (Y 2 J) pour tous I; J:(ii) pr (X � x; Y � y) = pr (X � x) pr (Y � y) pour tous x; y:(iii) pr (X = x; Y = y) = pr (X = x) pr (Y = y) pour tous x; y:

La dé�nition et ses équivalents sont généralisables à un nombre �ni de VA.

14

Propriétés X et Y sont indépendantes ssi la loi conjointe de (X; Y ) est donnée par

pX;Y (x; y) = pX (x) pY (y) :

Alors:(i) La loi de Z = g (X;Y ) est donnée par

pZ (z) =X

g(x;y)=z

pX (x) pY (y) :

(ii) On aE (XY ) = E (X) E (Y ) ; V (X + Y ) = V (X) +V (Y ) :

Ces propriétés sont généralisables à n VA indépendantes.

Epreuve indépendamment répétée On répète n fois indépendamment une épreuve: sil�épreuve est représentée par la VA X alors les répétitions sont représentées par des copies in-dépendantes X1; :::; Xn de X : ces copies suivent la même loi que X; donc prennent les mêmesvaleurs que X avec les mêmes probabilités, mais pas forcément aux mêmes points!(i) La loi conjointe de (X1; :::; Xn) est dé�nie par

pX1;X2;:::;Xn (x1; x2; :::; xn) = pX (x1) pX (x2) ::: pX (xn) :

(ii) L�espérance et la variance de Sn =Pn

k=1Xk et Fn = Snnsont données par

E (Sn) = n:E (X) ; V (Sn) = n:V (X) ; E (Fn) = E (X) ; V (Fn) =1

n:V (X) :

7.4 ExemplesLoi conjointe, Lois marginales1. On lance indépendamment 2 dés équiprobables à 3 faces: on désigne par X le nombre de fois

où la face 2 est apparue, par Y la somme des faces apparues. Loi conjointe et lois marginales de(X; Y ) :2. On considère un point (X; Y ) sur le réseau [0; 4]N � [0; 3]N et on donne les probabilités

suivantes: pX;Y (x; y) = 0 si (x; y) est un des points (0; 0) ; (4; 0) ; (4; 3) ; (0; 3) ; (2; 1) ; (2; 2) ;pX;Y (x; y) =

114sinon. Loi conjointe et lois et marginales de (X; Y ) :

VA indépendantes1. On lance indépendamment 2 dés équiprobables à 3 faces: on désigne par X1 et X2 les chi¤res

apparus sur les dés 1 et 2: Loi conjointe de (X1; X2) ; lois de X1+X2 et min (X1; X2) : Probabilitéspr (X1 = X2) ; pr (X1 > X2) ; pr (X1 < X2) :2. On lance indépendamment 3 dés équiprobables à 5 faces: on désigne par Xk le chi¤re apparu

sur le dé k: Probabilités pr (X1 = X2 = X3) et pr (X1 < X2 < X3) :3. On lance indépendamment n fois une pièce: on suppose que pr (PILE) = 2

3et on désigne

par Xk le résultat du lancer k: Lois de Sn =Pn

k=1Xk et Fn = Snnlorsque n = 2; 3:

15

Chapter 8 Lois discrètes �nies8.1 Loi de Bernouilli

Succès, Echec On considère une épreuve à deux issues, nommées de manière standard "suc-cès" ou "échec". Le résultat de cette expérience est représenté par une VA X qui peut prendre lesdeux valeurs 1 ou 0:

Loi de Bernouilli Si la probabilité de succès est p alors pr (X = 1) = p; pr (X = 0) = 1�p:On appelle loi de Bernouilli de paramètre p la loi dé�nie par cette distribution: on notera q = 1�p:

Espérance et Variance On a E (X) = p; �2 (X) = pq:

Processus de Bernouilli Un processus de Bernouilli consiste à répéter indépendammentune épreuve de Bernouilli.

8.2 Loi binomialeNombre de succès Dans un processus de Bernouilli de longueur n on s�intéresse au "nombre

de succès". Le résultat de cette expérience est représenté par une VA X dont les valeurs possiblessont k = 0; 1; :::n:

Loi binomiale Si la probabilité de succès est p alors

pr (X = k) =

�n

k

�:pkqn�k:

On appelle loi binomiale de paramètres (n; p) la loi dé�nie par cette distribution, notée B (n; p) :Cette loi présente un maximum lorsque k vaut la partie entière de (n+ 1) p:

Espérance et Variance On a E (X) = np; �2 (X) = npq:

8.3 Loi hypergéométriqueTirage sans remise On considère un tirage sans remise de n boules dans une urne qui

en contient N; dont N1 sont blanches et les autres noires: on s�intéresse au "nombre de boulesblanches tirées". Le résultat de cette expérience est représenté par une une VA X dont les valeurspossibles dépendent de n et N1:

Loi hypergéométrique On a

pr (X = k) =

�N1k

��N�N1n�k

��Nn

�avec la convention

�sr

�= 0 si r < 0 ou r > s: On appelle loi hypergéométrique de paramètres

(N;N1; n) la loi dé�nie par cette distribution, notée H (N;N1; n) :Noter que la proportion de boules blanches est p = N1

N: inversement N1 = Np:

Espérance et Variance On a E (X) = np; �2 (X) = N�nN�1 :npq:

16

Approximation de la loi hypergéométrique par la loi binomiale Lorsque n est petitdevant N la distinction entre "avec remise" et "sans remise" perd de sa pertinence et on peutapprocher la loi hypergéométrique H (N;N1; n) par la loi binomiale B

�n; N1

N

�:

8.4 Loi multinomialeEpreuve indépendamment répétée à issues multiples On répète n fois indépendam-

ment une épreuve à s issues numérotées 1; 2; :::; s: On note Xk le nombre d�apparitions de l�issuek et on s�intéresse à la variable conjointe (X1; :::; Xs) ; dont les valeurs possibles sont les partitionsde n en (n1; n2; :::; ns) :

Loi multinomiale Si l�issue k a la probabilité pk de réalisation alors

pr (X1 = n1; X2 = n2; :::; Xs = ns) =

�n

n1; n2; :::; ns

�:pn11 p

n22 :::p

nss :

On appelle loi multinomiale de paramètres (n; p1; :::; ps) la loi dé�nie par cette distribution, notéeM (n; p1; p2; :::; ps) :

Les Xk sont des VA (non indépendantes) de loi B (n; pk) ; avecPs

k=1Xk = n etPs

k=1 pk = 1:

8.5 ExemplesLoi de Bernouilli On lance une pièce non équiprobable: la probabilité d�obtenir PILE est

notée p: On pose X = 1 si on obtient PILE, 0 sinon: X est une VA de Bernouilli de paramètre p:

Loi binomialeOn lance indépendamment n fois une pièce non équiprobable: la probabilité d�obtenir PILE est

notée p: On note X le nombre de PILE obtenus: X est une VA binomiale de paramètres (n; p) :

Nombre et fréquence de succès Dans un processus de Bernouilli de paramètre p on noteXk la VA qui vaut 1 si succès au rang k et 0 sinon (k = 1; :::; n) : les Xk sont des VA de Bernouilliindépendantes de même paramètre p:La VA Sn =

Pnk=1Xk donne le nombre de succès et suit la loi B (n; p) ; tandis que la VA

Fn =Snndonne la fréquence de succès:

(i) pr (Sn = k) =�nk

�:pkqn�k et on a E (Sn) = np; �2 (Sn) = npq:

(ii) pr�Fn =

kn

�=�nk

�:pkqn�k et on a E (Fn) = p; �2 (Fn) =

pqn:

Loi multinomiale On lance indépendamment 9 fois un dé équiprobable à 6 faces. Probabilitéd�obtenir 3 fois le 1; 2 fois le 4 et 4 fois le 5:

Loi hypergéométrique On veut estimer le nombre N d�animaux d�une certaine espèce surun territoire donné et on adopte la technique suivante: on capture N1 animaux que l�on marquepuis relâche pendant un temps su¢ sant pour qu�ils se dispersent aléatoirement; on capture ànouveau n < N1 animaux et on note le nombre X d�animaux marqués. On suppose que l�e¤ectiftotal n�a pas varié depuis le premier prélèvement.X suit la loi hypergéométrique de paramètres (N;N1; n) et on note pk (N) la probabilité que

X = k sachant que l�e¤ectif total est N: On montre que pk (N) atteint son maximum lorsque Nsatisfait la relation N1

N= k

n; qui dit que la proportion des animaux marqués est la même lors de la

première et de la deuxième capture: on peut donc estimer N à partir de la valeur observée de X:

17

Chapter 9 Lois discrètes dénombrables9.1 Loi géométrique

Temps d�attente du premier succès dans un processus de Bernouilli Dans un proces-sus de Bernouilli on s�intéresse au rang du premier succès, appelé "temps d�attente du premiersuccès". Le résultat de cette expérience est représenté par une VA X; qui peut prendre toutes lesvaleurs entières strictement positives 1; 2; :::

Loi géométrique Si la probabilité de succès est p alors

pr (X = k) = pqk�1:

On appelle loi géométrique de paramètre p la loi dé�nie par cette distribution, notée G (p) :On a pr (X > k) = qk donc pr (X > j + k j X > j) = pr (X > k) : autrement dit le temps

d�attente avant le premier succès ne dépend pas du temps déjà écoulé.

Espérance et Variance On a E (X) = 1p; �2 (X) = q

p2:

Si la probabilité de succès est 1ril faudra donc attendre en moyenne un temps r:

9.2 Loi binomiale négativeTemps d�attente du r-ème succès dans un processus de Bernouilli Dans un processus

de Bernouilli on s�intéresse au rang du r-ème succès, appelé "temps d�attente du r-ème succès".Le résultat de cette expérience est représenté par une VA X; qui peut prendre toutes les valeursr; r + 1; :::

Loi binomiale négative Si la probabilité de succès est p alors

pr (X = k) =

�k � 1r � 1

�:prqk�r:

On appelle loi binomiale négative de paramètre (r; p) la loi dé�nie par cette distribution, notéeBN (r; p) :

La dénomination vient de la dé�nition��k

�= �(��1):::(��k+1)

k!généralisée à tout réel �; et de

l�égalité�k�1r�1�= (�1)r

� �rk�r�:

Espérance et Variance On a E (X) = rp; �2 (X) = rq

p2:

9.3 Loi de PoissonSuite d�évènements rares et indépendants Un phénomène discret est rare si la proba-

bilité qu�il apparaisse plus d�une fois est petite: on appelle signal une apparition du phénomène.Le "nombre de signaux" est une VA X qui peut prendre toutes les valeurs entières 0; 1; 2; ::: et saloi peut être approximativement décrite à l�aide du seul nombre moyen � de signaux.

Loi de Poisson Une VA X suit la loi de Poisson de paramètre � si

pr (X = k) = e��:�k

k!

pour tout entier k : on note P (�) cette loi.18

Espérance et Variance On a E (X) = �; �2 (X) = �:

Le nombre 1�représente l�écart moyen entre deux signaux.

Approximation de la loi binomiale par la loi de Poisson Si n est grand et p petit alorson peut approcher B (n; p) par la loi de Poisson de paramètre � = np; donc

�nk

�:pkqn�k par e��:�

k

k!:

Processus de Poisson On considère un phénomène temporel ou spatial rare: on note X (t)le nombre de signaux dans un intervalle de longueur t; et � le nombre moyen de signaux par unité(de temps ou d�espace). On dit que le phénomène est un processus de Poisson si X (t) suit la loide Poisson de paramètre �t:

9.4 ExemplesLoi géométrique et loi binomiale négative1. On e¤ectue un tirage avec remise dans une urne contenant N boules, dont N1 blanches et les

autres noires. On note Xr le rang de la r-ème boule blanche tirée: X1 suit la loi géométrique deparamètre p = N1

N; Xr suit la loi binomiale négative de paramètres (r; p) :

2. On lance une pièce non équiprobable un nombre indéterminé de fois: on note p la probabilitéd�obtenir PILE. On note Xr le temps d�attente avant d�obtenir le r-ème PILE: X1 suit la loigéométrique de paramètre p; Xr suit la loi binomiale négative de paramètres (r; p) :3. Une marque de chocolat insère dans chaque tablette un bon marqué d�un numéro parmi

1; 2; :::; n : chaque numéro a la même probabilité 1nd�apparaître. On s�intéresse au temps d�attente

Tn avant d�obtenir tous les numéros et on note Xk le temps d�attente d�un k-ème nouveau numérosachant qu�on en a déja k � 1 distincts: alors Tn =

Pnk=1Xk: La loi de Xk est géométrique de

paramètre pk = n�k+1n

donc l�espérance de Tn estPn

k=11pk= n:

Pnk=1

1k; qui est de l�ordre de

n ln (n) pour n grand.

Temps d�attente entre deux succès Dans un processus de Bernouilli de paramètre p onnote Tk le temps d�attente entre le succès k � 1 et le succès k : les Tk sont des VA indépendanteset suivent le même loi G (p) : La VA X =

Prk=1 Tk donne le temps d�attente du r-ème succès et

suit la loi BN (r; p) :

Loi de Poisson1. Nombre X de coquilles par page dans un livre. On admet que chaque page comporte

n caractères et que chaque caractère a la probabilité p d�être mal rendu, indépendamment desautres: alors � = np est le nombre moyen d�erreurs par page et X suit approximativement la loiP (�) :2. NombreX (t) de particules � émises par un gramme de matériau radioactif pendant un temps

de t secondes. On admet que l�on connaît le nombre moyen � de désintégrations par seconde et quel�on a a¤aire à un processus de Poisson: alors X (t) suit a priori la loi P (�t) : On peut égalementconcevoir le gramme de matière comme formé de n atomes ayant chacun la probabilité p = �=nde désintégration, auquel cas on justi�e l�usage d�une loi de Poisson comme approximation de laloi binomiale.3. Nombre X (t) d�étoiles dans une partie de l�espace de volume t: On admet que l�on connaît

le nombre moyen � d�étoiles par unité de volume et que l�on a a¤aire à un processus de Poisson:alors X (t) suit a priori la loi P (�t) :4. On note Xn la VA "nombre de points �xes d�une permutation de En": si n est grand, Xn

suit approximativement une loi de Poisson de paramètre � = 1:

19

Chapter 10 Statistique II10.1 Test d�hypothèse

Dans une expérience aléatoire on note X le résultat: on fait une hypothèse H0 qui permet deprédire la loi de X: Le résultat réel est rarement en accord parfait avec l�hypothèse, et on veutl�utiliser pour décider si on peut accepter celle-ci, ou si on doit la rejeter: cette démarche nécessited�opposer l�hypothèse H0 à une autre hypothèse H1; qui dépend du problème posé.

Test d�hypothèse d�une probabilité L�expérience est un processus de Bernouilli de longueurn:On noteX le nombre de succès et on fait l�hypothèseH0 selon laquelle la probabilité de succès estp0 : alors X suit la loi binomiale B (n; p0) d�espérance �0 = np0 et écart-type �0 =

pnp0 (1� p0):

L�expérience montre qu�en fait le nombre de succès est nbp; en notant bp la fréquence de succès: onrejettera H0 si bp est "trop éloigné" de p0; ou de manière équivalente si la valeur nbp est trop peuvraisemblable.

Pour préciser le sens de "trop éloigné" on dé�nit la zone de rejet et le seuil de rejet, qui est laprobabilité de cette zone sous l�hypothèse H0 :- le seuil � de rejet est �xé de manière standard à 5%:- la zone de rejet est de la forme X � �0 � �t:�0; X � �0 � t:�0 ou la réunion des deux.En pratique et au seuil de 5% :(i) Si pr (X � np0 � nbp� np0) < 5% on rejette H0 contre H1 : p < p0:(ii) Si pr (X � np0 � nbp� np0) < 5% on rejette H0 contre H1 : p > p0:(iii) Si pr (jX � np0j � jnbp� np0j) < 5% on rejette H0 contre H1 : p 6= p0:

10.2 Loi du �2 discrèteUne expérience consiste à répèter n fois indépendamment une épreuve à s issues numérotées1; 2; :::; s : on note Xk le nombre d�apparitions de l�issue k: On fait l�hypothèse H0 selon laquelle lesissues 1; 2; :::; s ont les probabilités p1; p2; :::; ps : alorsXk suit la loi binomiale B (n; pk) ; d�espérancenpk: On confronte les résultats observés aux résultats espérés et on veut déterminer si l�hypothèseH0 est bonne.

Variable �2 Pour répondre au problème on utilise la VA �2 =Ps

k=1(Xk�npk)2

npk; qui mesure

l�écart relatif entre les moyennnes espérées np1; :::; nps et les valeurs observées de X1; :::; Xs : sonespérance est � = s�1; encore appelé le nombre de degrés de liberté, et son écart-type est � '

p2�

pour de grandes valeurs de n:

Test d�hypothèse On calcule la valeur b�2 de �2 pour l�expérience faite: on rejette l�hypothèseH0 au seuil de 5%:si b�2 > � + 2�: Noter qu�une valeur trop petite de �2 est également suspectecar elle indique des résultats trop beaux pour être vrais, donc un trucage des données.

Test d�indépendance On considère deux évènements A et B: Une expérience consiste àrépéter n fois indépendamment une épreuve à 4 issues A\B;A\B;A\B;A\B : on note Xk lenombre d�apparitions de l�issue k; dans l�ordre donné.

L�expérience a permis de déterminer le nombre de réalisations des 4 évènements intersections,

20

donc leur fréquence; on résume les données par le tableau ci-dessous:

B BA a c a+ cA b d b+ d

a+ b c+ d 1

:

On fait l�hypothèse H0 selon laquelle les évènements A et B sont indépendants et on utilise lesfréquences marginales bpA = a+ c; bpB = a+ b; bqA = 1� bpA; bqB = 1� bpB comme estimations desprobabilités marginales: sous cette hypothèse les probabilités des évènements intersections sontdonnées par les produits de bpA; bpB; bqA; bqB:La VA �2 = (X1�nbpAbpB)2

nbpAbpB + (X2�nbqAbpB)2nbqAbpB + (X3�nbpAbqB)2

nbpAbqB + (X4�nbqAbqB)2nbqAbqB mesure l�écart entre fréquences

observées et probabilités espérées: elle est à 1 degré de liberté car la donnée de bpA; bpB et d�uneseule des quatre fréquences a; b; c; d permet de déterminer les trois autres.On teste l�hypothèse H0 en calculant la valeur b�2 de �2 pour l�expérience faite: on trouveb�2 = nbpAbpBbqAbqB (ad� bc)2 et on rejette l�hypothèse H0 au seuil de 5%:si b�2 > �+ 2� ' 3:83:

10.3 ExemplesTest d�hypothèse On veut déterminer si les rats distinguent les couleurs et on procède

à une expérience où 10 rats doivent choisir entre deux couleurs ROUGE ou V ERT : on notep = pr ("choisir le V ERT") : L�hypothèse H0 est qu�ils sont indi¤érents aux deux couleurs, doncque la probabilité de choisir chaque couleur est p0 = 0:5: L�hypothèse H1 opposée à H0 peut être:(i) les rats préfèrent le V ERT; donc p > 0:5 (ii) les rats préfèrent le ROUGE; donc p < 0:5

On note X le nombre de rats qui choisissent le V ERT : sous l�hypothèse H0 la VA X suit laloi binomiale B (10; 0:5) :En fonction du résultat de l�expérience on accepte ou non H0 au seuil de 5% :- si 2 rats ont choisi le V ERT : pr (X � 2) ' 0:055 > 5% donc on accepte H0 contre H1 : p <

0:5:- si 9 rats ont choisi le V ERT : pr (X � 9) ' 0:011 < 5% donc on rejetteH0 contreH1 : p > 0:5:

Loi du �2 discrète On lance un dé à 6 faces n fois indépendamment: on note Xk le nombred�apparitions du numéro k: On fait une hypothèse H0 d�équiprobabilité: autrement dit la prob-abilité d�apparition du numéro k est pk = 1=6: Après n = 120 lancers on a obtenu les résultatssuivants:

k 1 2 3 4 5 6Xk 15 21 25 19 14 26

On a �2 =P6

k=1(Xk�20)2

20et � = 5; � =

p2� : b�2 ' 6:2 � �+ 2� donc on accepte H0:

Test d�indépendance Dans une population on s�intéresse aux évènements A = "avoir lesyeux bleus" et B = "avoir les cheveux blonds". On fait une hypothèse H0 d�indépendance. Uneétude a donné les résultats suivants, sur n = 50 personnes:

B BA 12 6 18A 12 20 32

24 26 50

:

On trouve � = 1; � =p2� et b�2 = 3:93 > �+ 2� donc on rejette H0:

21