19
1 PREMIERE PARTIE NOTIONS ELEMENTAIRES DE STATISTIQUE PROBABILISTE 1. Définitions de la probabilité Afin d'éviter des démonstrations très théoriques, nous donnons les définitions tirées de la norme NF X06-002. a) Définition déterministe de la probabilité (ou à priori) Lors de la réalisation d’un événement dont le nombre d’issues favorables peut être calculé au moyen de l’analyse combinatoire (compte tenu de l’hypothèse d’équiprobabilité des issues), on définit la probabilité de cet événement par le rapport du nombre d'issues favorables (h) au nombre d'issues possibles (n) : P h n = C’est la définition classique que l’on utilise pour évaluer les issues d’un jeu de hasard. Exemple : La probabilité pour obtenir "pile" après un lancé d’une pièce parfaitement symétrique est de 0,5. b) Définition empirique de la probabilité Si après un grand nombre de réalisations d’une expérience (n réalisations) on observe h fois l’issue souhaitée, la probabilité de cet événement est la limite de la fréquence des observations de l'issue souhaitée : P = →∞ lim n h n En réalité, la fréquence observée en fonction de n oscille autour de sa valeur théorique et s'en rapproche indéfiniment lorsque n→∞ conformément à la "loi des grands nombres". Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Proba

  • Upload
    yac-ine

  • View
    16

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Proba

1

PREMIERE PARTIE

NOTIONS ELEMENTAIRES DE STATISTIQUE

PROBABILISTE

1. Définitions de la probabilité

Afin d'éviter des démonstrations très théoriques, nous donnons les définitions tirées de la norme NF

X06-002.

a) Définition déterministe de la probabilité (ou à priori)

Lors de la réalisation d’un événement dont le nombre d’issues favorables peut être calculé au moyen

de l’analyse combinatoire (compte tenu de l’hypothèse d’équiprobabilité des issues), on définit la

probabilité de cet événement par le rapport du nombre d'issues favorables (h) au nombre d'issues

possibles (n) :

P hn

=

C’est la définition classique que l’on utilise pour évaluer les issues d’un jeu de hasard.

Exemple : La probabilité pour obtenir "pile" après un lancé d’une pièce parfaitement symétrique est de

0,5.

b) Définition empirique de la probabilité

Si après un grand nombre de réalisations d’une expérience (n réalisations) on observe h fois l’issue

souhaitée, la probabilité de cet événement est la limite de la fréquence des observations de l'issue

souhaitée :

P = → ∞

limn

hn

En réalité, la fréquence observée en fonction de n oscille autour de sa valeur théorique et s'en

rapproche indéfiniment lorsque n→∞ conformément à la "loi des grands nombres".

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 2: Proba

2

2. Variables aléatoires

a) Définition

Considérons un événement comportant un certain nombre d’issues.

Si on associe un nombre à chaque issue, ou à chaque ensemble d’issues, ce nombre est appelé

variable aléatoire ou aléa numérique. On la note par une lettre majuscule X, par contre les valeurs

particulières de la variable aléatoire sont notées x ou xi.

Exemple :

jeu de pile ou face :

Les issues du jeu sont "pile" ou "face".

On peut associer à "pile" X = 1 et à "face" X = -1 ou encore 0 et 1 ou tout autre nombre.

X est alors une variable aléatoire.

b) Continuité et discontinuité d’une variable aléatoire, notion de densité de probabilité

♦ Variable discontinue ou discrète

C’est une variable qui ne peut prendre que des valeurs isolées séparées par un intervalle fini,

c’est-à-dire non infinitésimal. Elle est généralement représentée par un entier.

On peut associer une probabilité à une variable aléatoire discrète.

♦ Variable continue

C’est une variable qui peut prendre toutes les valeurs d’un intervalle fini ou infini. Cela signifie que

la différence entre deux valeurs voisines peut être aussi petite que l’on peut l’imaginer. C’est un

nombre réel.

On ne peut pas associer une probabilité à une variable aléatoire continue. La probabilité pour

que X prenne une valeur particulière x dans R (l'ensemble des nombres réels) est toujours nulle. Par

contre on peut associer à x une densité de probabilité f(x) et on peut associer à un intervalle [x,

x+∆x] une probabilité non nulle.

La densité de probabilité est définie de la même manière que la densité d’un milieu continu.

Fig.1

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 3: Proba

3

f(x) = lim P(x ≤ X ≤ x + ∆x)

∆x→0 ∆x

Si l’intervalle est assez petit pour qu’on puisse considérer f(x) comme constant :

P(x ≤ X ≤ x + ∆x) = f(x) ∆x

On constate bien que cette probabilité tend vers 0 lorsque ∆x tend vers 0.

Exemple :

On s’intéresse à la taille des personnes d’un certain âge. Si la taille est considérée comme une

variable aléatoire continue, donc un nombre réel (un nombre réel est un nombre infiniment précis),

rien n’empêche d’examiner la probabilité pour rencontrer un individu de taille 1,7500 m ou même

1,7543 m.

La probabilité de rencontrer dans la population une valeur numérique aussi précise est nulle. Il est

d’ailleurs impossible de mesurer la taille d’une personne avec une telle précision. Par contre il existe

un certain nombre d’individus ayant une taille comprise entre 1,75 et 1,76 m si l’échantillon est

suffisamment grand. Il faut donc "discrétiser" une variable aléatoire continue pour pouvoir en définir

une probabilité non nulle.

3. Généralités sur les lois de probabilités

a) Définition

Une loi de probabilité est une relation permettant d’associer une probabilité ou une densité de

probabilité à chaque valeur d’une variable aléatoire.

b) Représentation d’une loi de probabilité Si la variable est discrète : représentation comme un diagramme en bâtons.

p(x)

XFig. 2

Diagramme en bâtons

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 4: Proba

4

- Pour une variable continue on représente la fonction densité de probabilité (voir figure 1)

c) Fonction de répartition d’une loi de probabilité

La fonction cumulative de distribution, ou plus simplement fonction de distribution F ou fonction de

répartition F est définie par :

F(x) = P(X < x)

d) Représentation graphique de la fonction de répartition

La courbe est encore appelée "courbe des probabilités cumulées". Dans le cas d’une loi continue F(x)

représente la surface délimitée par la courbe représentation de la loi entre - ∞ et l’abscisse x.

Fig. 3 Lois de probabilité et fonctions de répartition (variables discrètes et continues)

e) Fractile d'ordre α : t(α) Dans le cas d’une loi continue le fractile t(α) est l’abscisse x telle que la surface délimitée par la loi de

probabilité entre - ∞ et t(α) soit égale à α. Les fonctions F(t) et t(α) sont des fonctions réciproques

l’une de l’autre.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 5: Proba

5

Si tα est le fractile d’ordre α on a les relations :

P( X ≤ t α) = α P( X ≥ t α ) = 1 - α ou F(t α) = α

Fig. 4 Fractile tα d’une loi statistique encore appelé

“ fractile inférieur ”

Fig. 5

Fractile t(1-α) d’une loi statistique encore appelé “ fractile supérieur ”

On s’intéresse également au fractile t(1-α) qui joue le même rôle que tα sur la partie des x élevés (Fig5).

On démontre que :

P( X ≥ t 1-α) = α P( X ≤ t 1-α) = 1 - α ou 1 - F(t 1-α) = α

Si la loi statistique est symétrique et centrée on a la relation tα = -t(1-α)

Les fractiles symétriques délimitent chacun une surface extérieure de α/2. La surface totale

intérieure à l’intervalle interfractile est 1-α.

Fig. 6

Fractiles symétriques

Remarques : les fractiles des lois de probabilités ont une importance considérable dans les

tests statistiques.

Les lois de probabilités discrètes n’ont pas de fractiles

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 6: Proba

6

4. Paramètres statistiques des variables aléatoires

a) Espérance mathématique

♦ Définition L'espérance mathématique est un paramètre de position (ou paramètre de tendance centrale)

défini par les relations

♦ Variable discrète

E(X) =

N

i ii 1

X .P(X )=∑

Les indices 1 à N doivent englober tout le domaine de variation de X. Variable continue

♦ Variable continue

E(X) = X f(X) dX

+∞

−∞∫

Physiquement, l'espérance mathématique est le centre de gravité de la loi de probabilité.

Fig. 7 Signification physique de l’espérance mathématique

• Quelques propriétés de l’espérance mathématique

E (α) = α (α est une constante)

E (αX + βY) = αE(X) + βE(Y)

Par contre E(XY) = E(X) . E(Y) uniquement si les variables x et y sont indépendantes.

La variable Z = X - E(X) est appelée variable aléatoire centrée. Son espérance mathématique est nulle.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 7: Proba

7

b) Variance et écart-type

♦ Définitions

La variance est l’espérance du carré de la variable centrée.

V(X) = E((X - E(X))2)

Pour une variable discrète

V(X) =

n2

i ii 1

P(X )(X E(X))=

−∑

Pour une variable continue

V(X) = (x E(x)) f(x)dx2−

−∞

Enfin, l’écart-type est la racine carrée de la variance.

= V(X)σ

La variance et l’écart-type sont des paramètres de dispersion. Physiquement, la variance est

assimilable à un moment d'inertie (les masses étant égales aux probabilités) et l’écart-type est

assimilable à un rayon de giration.

• Quelques propriétés de l’espérance mathématique

V(αX) = α2 V(X) Pour deux variables aléatoires indépendantes V(X + Y) = V(X) + V(Y) V(X - Y) = V(X) + V(Y) Les propriétés d’additivité ne s’appliquent qu’aux variances ; Elles ne s’appliquent pas aux écart-

types. (une somme σ(X) + σ(Y) n’a aucun sens statistique)

La variable aléatoire Z = X E X− ( )

σ admet une espérance nulle et une variance de 1, Z est appelée

variable centrée et réduite (ou variable normalisée).

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 8: Proba

8

c) Moments d’ordre supérieur, dissymétrie et aplatissement

♦ Définitions

On appelle moment d’ordre n la grandeur :

Mn = E (Xn)

Le moment centré d’ordre n est le moment d’ordre n de la variable centrée :

µn = E[(X - E(X))n] On a donc

M1 = E(X) , µ1 = 0 et µ2 = V(X)

Tous les moments centrés d’ordre impair (>1) donnent une indication sur la dissymétrie de la loi de

probabilité. On n’utilise que le moment d’ordre 3 et on appelle coefficient d’asymétrie le coefficient :

βµ

µ

µ

σ= =3

23 2

33

Le coefficient d’asymétrie est une grandeur sans dimension, sa valeur donne une idée de l’importance

de la dissymétrie et son signe montre si la dissymétrie provient de valeurs élevées de X (dissymétrie à

droite ) ou des valeurs petites de X (dissymétrie à gauche).

Tous les moments centrés d’ordre pair sont des variables de dispersion. On n’utilise que le moment

µ4 et son coefficient associé, le coefficient coefficient de Kurtosis ou aplatissement comparé à la loi

Normale qui est également sans dimension:

δ

µ

µ

µ

σ= − = −4

22

443 3

Ce facteur permet donc de montrer qu’une distribution est plus aplatie ou moins aplatie qu’une

distribution gaussienne, toutes choses égales par ailleurs (même espérance et même variance).

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 9: Proba

9

d) Autres paramètres de position

♦ Mode

Le mode est la valeur de X dont la probabilité est maximale. Cette valeur peut ne pas être unique.

Une distribution unimodale est une distribution n’ayant qu’un seul mode, sinon elle est bimodale,

trimodale ou multimodale.

♦ Médiane

La médiane Med est la valeur de x pour laquelle P (X ≤ x) = P (X ≥ x) = 12

Pour une distribution continue c’est la valeur qui sépare la courbe de densité de probabilité en deux

portions de surface égale. La médiane est le fractile d'ordre12

5. Etude de quelques lois de probabilités discrètes

a) Loi de Binomiale

♦ Réalisation On considère un jeu comportant 2 issues : - une issue favorable S avec la probabilité p

- une issue défavorable S avec la probabilité q = 1 - p On fait n réalisations du jeu de façon que les épreuves soient indépendantes. On veut calculer la

probabilité pour avoir k issues favorables appelées S, sans tenir compte de l’ordre de leur réalisation. Probabilité pour la réalisation de S : pk

Probabilité pour n - k réalisations de S : (1 - p)n-k

Probabilité pour que S se réalise k fois et S n - k fois : pk (1 - p) n-k

(Si on n’associe pas n-k réalisations de S à k réalisations de S, le nombre total de réalisations est

variable et ne dépend pas de n, parce que l’ordre des réalisations est indifférent)

Nombre de combinaisons de k objets parmi n : Cnk

k k n knP(X k) C p (1 p) −= = −

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 10: Proba

10

♦ Paramètres statistiques

E(X) = npV(X) np(1- p)

np(1- p)

=

σ =

♦ Coefficients d’asymétrie et d’aplatissement

β

γ

=−

= +−

q pnpq

3 1 6pqnpq

♦ Représentation graphique On représente la loi binomiale à l’aide d’un diagramme en bâtons. Le diagramme est symétrique

lorsque p = q = 0,5 .

Dans ce cas, la médiane et le mode sont égaux à E(X). Lorsque p et q la dissymétrie augmente

et la médiane et le mode deviennent < E(X)

Nous verrons ultérieurement l’importance de cette propriété. La figure ci-dessous représente le

diagramme en bâtons de la loi binomiale pour n = 40 et p = 0,1 (m = 4, σ = 1,9)

Enfin, lorsque n est grand et p petit, les valeurs de P(X=k) diminuent très vite à partir d’une certaine

valeur de k, ce qui signifie que le diagramme en bâtons ne dépasse jamais une vingtaine de valeurs .

Fig. 8 Diagramme en bâtons de la loi binomiale

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 11: Proba

11

b) Loi de Poisson

♦ Expression de la loi de probabilité On obtient la loi de Poisson à partir de la loi binomiale lorsque n est très grand et p très petit, le produit np n’étant pas très grand, (1 < np < 20) Exemple : p = 0,05 et n = 100 fournit une très bonne approximation d’une loi de Poisson. Moyennant quelques approximations, on meut démontrer :

♦ Paramètres statistiques On tire ces valeurs de la loi binomiale dont la loi de Poisson est une approximation. En posant np = m

dans les équations correspondantes de la loi binomiale on obtient :

P(k) = mk!

ek

m−

m13

m1m

mV(X)mE(X)

+=

=

=

==

γ

β

σ

♦ Représentation graphique Le diagramme est toujours dissymétrique vers les valeurs élevées de X, la médiane et le mode sont

inférieurs à la moyenne.

Pour les grandes valeurs de n, β → 0 et γ → 3, la loi se rapproche d’une loi de Gauss.

La figure ci-dessous représente la loi de Poisson pour m = 3 (σ = 1,73).

Fig. 9 Diagramme en bâtons de la loi de Poisson

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 12: Proba

12

♦ Intérêt de la loi de Poisson

la loi de Poisson est la loi suivie par les désintégrations radioactives ainsi que par d’autres

événements rares comme les pannes sur les chaînes de fabrication ou les objets défectueux dans

une production. Les files d’attente suivent également une loi de Poisson.

6. Etude de quelques lois de probabilités continues utiles pour l’interprétation de

données expérimentales

a) Loi de Gauss (Loi Normale et Loi Normale Réduite)

♦ Expression de la densité de probabilité

La loi Normale est une fonction continue dépendant des deux paramètres m et σ

g(x) 12

e

(x m)2

2 2=

− −

σ πσ

♦ Loi Normale Réduite N(0,1)

Si on remplace x par la variable aléatoire réduite x m−σ

la fonction g devient :

g(x) 12

ex2

2=−

π

C’est l’équation de la loi Normale Réduite. On a évidemment E(x) = 0, V(x) = 1, β = 0 et γ = 3

♦ Paramètres statistiques

Loi Normale N(m,σ) Loi Normale réduite N(0,1)

E(X) = m

V(X) = σ2

E(X) = 0

V(X) = 1

La loi est donc symétrique et le mode et la médiane sont égaux à la moyenne.

L’aplatissement prend une valeur caractéristique, γ = 3 qui est prise comme référence lorsqu’on veut

comparer les autres lois statistiques à la loi Normale.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 13: Proba

13

Fig.10

Représentation graphique de la loi Normale réduite et valeur des surfaces S(u)

♦ Valeurs remarquables de g(x) et de la surface comprises entre –u et u

+u

-u

S(u) = f(x)dx = F(u) - F(-u)∫

F est la fonction de répartition de g(x). Ces valeurs ont une importance majeure pour la

compréhension des tests statistiques.

u g(u) S(u)

Remarque

0 0.40 0 Maximum de la courbe

0.6740 0.318 0.5 Erreur équiprobable

1 0.242 0.68 Point d'inflexion

2 2ln 0.20 0.75 Largeur à mi-hauteur

2 0.054 0.95 Intervalle de confiance à 95 %

2.6 0.014 0.99 Intervalle de confiance à 99 %

3 4.4 10-3

0.995 Intervalle de confiance à 99.5 %

♦ Intérêt de la Loi Normale

Beaucoup de mesures physiques se distribuent suivant une loi Normale. Il existe des tests

statistiques permettant de prouver le caractère normal d’un ensemble de mesures et la normalité

d'une distribution expérimentale est souvent une condition nécessaire pour l'application des

tests statistiques sur les moyennes ou sur les variances.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 14: Proba

14

b) Loi de Student

Sa densité de probabilité dépend d’un paramètre ν, appelé "nombre de degrés de liberté".

Elle est symétrique et a pour représentation graphique la famille de courbes dont quelques unes

sont représentées ci-dessous :

Fig. 11

représentation graphique de la loi de Student

Les courbes présentent la même allure qu’une courbe de Gauss mais elles sont plus aplaties.

Lorsque ν → ∞ (en pratique lorsque ν > 40) la loi de Student est quasiment équivalente à la loi de

Gauss.

♦ Fractiles de la loi de Student

Les valeurs des fractiles t(ν,α) et t(ν,1-α) de la loi de Student sont données dans les tables de

Student-Fisher. Puisque la loi est symétrique t(ν,α) = -t(ν,1-α).

Comme pour toute loi statistique, la valeur t(ν,1-α) à ν constant augmente lorsque α diminue, mais à α

constant les valeurs de t(ν,1-α) augmentent sensiblement lorsque ν diminue (voir fig 11 et 12).

Ceci s’explique facilement par l ‘augmentation de l’aplatissement de la courbe. En effet, plus une

courbe est aplatie, plus il faut prendre une abscisse t(1-α) élevée pour que l’intégrale :

t(1 )

f(x)dxα−

−∞∫

ait une valeur donnée.

Lorsque ν = 0, la valeur de t est infinie pour toutes les valeurs de α, sauf pour α = 100 %.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 15: Proba

15

Fig. 12 Fractiles de la loi de Student (dispersion bilatérale) en fonction de ν pour α = 10%, 5% et 1% et 0,5%

Remarque : Les tables de Student-Fisher sont présentées de différentes manières : les tables

de fractiles appelées encore "tables unilatérales" donnent t(1-α, ν) en fonction de

1-α et de ν pour des valeurs α < 0,5. Généralement on pose P = 1 - α (P > 0,5) et on

donne la table en fonction de P.

On trouve également des tables donnant la valeur de t(P) de façon que :

1t(P)

t(P)

f(x)dx P α−

= = −∫

Ces tables sont appelées "tables bilatérales de Student-Fisher"

♦ Intérêt de la loi de Student

On peut montrer que pour un échantillon de n observations indépendantes d’une grandeur X

distribuée aléatoirement suivant une loi Normale N(m,σ)

la grandeur x ms

n

− où

( )2ii

x m

n 1

−=

∑s suit une loi de Student à ν = n - 1 degrés de liberté.

Cette loi présente donc un intérêt considérable dans tous les tests statistiques relatifs aux

moyennes de petits échantillons.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 16: Proba

16

c) Loi de Fisher-Snédecor

♦ Expression de la densité de probabilité C’est la loi d’une variable aléatoire continue appelée F dont la densité de probabilité dépend de

deux paramètres ν1 et ν2 (nombre de degrés de liberté) :

Les représentations graphiques sont données à la figure 13 en fonction de ses deux paramètres ν1 et

ν2. La loi est dissymétrique et d’autant plus aplatie que ν1 et ν2 sont petits.

Fig.13

Représentation graphique de la loi de Fisher-Snedecor

♦ Fractiles de la loi de Fisher Les tables donnent les valeurs des fractiles supérieurs F(ν1, ν2, 1-α) pour une valeur donnée de α,

c’est à dire que les deux entrées de la table sont ν1 et ν2. On prend généralement α = 0,05 ou α =

0,01 et on a toujours P = 1 - α

Les fractiles inférieurs peuvent être calculés sachant que 2 11 2

1( , , )( , ,1 )

FF

ν ν α =ν ν − α

(attention

à l’échange des degrés de liberté ν1, et ν2)

Comme pour toutes les lois statistiques, les fractiles deviennent infinis lorsque ν1 et ν2 sont nuls.

Numériquement, les valeurs sont très élevées lorsque ν2 < 3.

♦ Intérêt de la loi de Fisher-Snedecor

Par conséquent, la loi de Fisher-Snedecor intervient dans tous les problèmes qui font intervenir

des comparaisons de variances, c’est à dire les problèmes de précision et de qualité des

mesures physico-chimiques.

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 17: Proba

17

d) Loi du Khi-deux

♦ Densité de probabilité La densité de probabilité dépend d’un paramètre ν appelé "nombre de degrés de liberté".

La loi de Khi-deux, appelée aussi loi de Pearson, a pour représentation graphique en fonction de ν,

une famille de courbes représentées à la figure 14 :

fig.14

Représentation graphique de la loi du khi-deux

E(χ2) = ν V(χ2) = 2ν

Elle est dissymétrique et d’autant plus aplatie que ν est plus élevé (évolution contraire par

rapport aux autres lois.)

♦ Fractiles de la loi du χ2 Comme pour la loi de Fisher, α représente la surface de la courbe entre χ2 et l’infini. On représente

les fractiles soit en fonction de P, soit en fonction de α = 1 - P (α < 0,5 et P > 0,5).

♦ Intérêt de la loi de Khi-deux Dans le cas d’un échantillon de ν observations indépendantes d’une grandeur X qui suit une loi

Normale N(m, σ), la somme :

xi

1

n −

∑ m

σ

2

suit une loi de χ2 à ν degrés de liberté.

La somme ci-dessus est d’autant plus petite que les valeurs de xi sont proches de la moyenne.

La loi du χ2 est donc utilisée dans les problèmes d’adéquation, c’est à dire lorsqu’il faut prouver que

des valeurs expérimentales xi sont proches de valeurs modèles (xi (théoriques).

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 18: Proba

18

7. Calcul des lois de probabilités, Fonctions de répartition et fractiles à l’aide du logiciel

EXCEL.

Le logiciel EXCEL permet de calculer toutes les lois de probabilités classiques, leurs fonctions de

répartition et leurs fractiles. Toutefois les explications concernant ces lois sont souvent incomplètes ou

erronées.

On accède à ces fonctions par : Insertion d’une fonction/fonctions statistiques

Fonctions Paramètres Significations

Loi.Binomiale k, n, p

VRAI/FAUX n : nombre de tirages, p : probabilité d’un tirage Si VRAI on renvoie la probabilité cumulée de 0 à k, valeur P(X=k) comprise. Si FAUX, on renvoie la probabilité, P(X=k)

Loi.Poisson X, E(X),

VRAI/FAUX Si VRAI on renvoie la probabilité cumulée de 0 à X (entier) , valeur P(X) comprise. Si FAUX, on renvoie la probabilité, P(X)

Loi.Normale X, E(X), σ,

VRAI/FAUX Si VRAI on renvoie la fonction de répartition pour l’abscisse X. Si FAUX, on renvoie l’ordonnée de la loi Normale pour l’abscisse x

Loi.Normale Standard z Renvoie la fonction de répartition de la loi Normale

réduite pour l’abscisse z.

Loi.Normale.Inverse P, E(x), σ Fractile de la loi Normale d’espérance E et d’écart-

type σ pour la probabilité P

Loi.Normale Standard.Inverse P Fractile de la loi Normale réduite pour la probabilité

P

Loi.Student X, ν, 1 ou 2 Renvoie la probabilité cumulée de X à l’infini pour une loi de Student à ν degrés de liberté. Si 1 : distribution unilatérale, si 2 : distribution bilatérale, la fonction renvoie la probabilité totale extérieure

Loi.Student.Inverse P, ν ATTENTION, cette fonction renvoie le fractile bilatéral d’une loi de Student à ν degrés de liberté, P étant la probabilité extérieure à l’intervalle –X, +X . Pour le fractile unilatéral introduire 2P

Loi.F X, ν1, ν2 Renvoie la probabilité cumulée de X à l’infini pour une loi de Fisher à ν1, et ν2 degrés de liberté.

Inverse.loi.F P, ν1, ν2 Renvoie le fractile unilatéral d’une loi de Fisher à ν1, et ν2 degrés de liberté pour la probabilité 1-P.

Loi.Khideux ν, X Renvoie la probabilité cumulée de X à l’infini pour une loi de Pearson à ν degrés de liberté.

Khideux.inverse P, ν Renvoie le fractile unilatéral d’une loi de Pearson à ν degrés de liberté pour la probabilité 1-P

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

Page 19: Proba

Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens

19

STATISTIQUES PROBABILISTES

CE QU’IL FAUT ABSOLUMENT RETENIR

Calcul de l’Espérance mathématique Calcul de la variance Variable centrée réduite Propriétés d’additivité de l’espérance et de la variance

E (αX + βY) = αE(X) + βE(Y)

V(αX) = α2 V(X) V(X ± Y) = V(X) + V(Y) (X et Y : variables indépendantes)

Loi de probabilité Fonction de répartition

Fractiles unilatéraux, Fractiles bilatéraux

Allure générale des lois Binomiale, Poisson, Normale, Student, Fisher-Snedecor, Khi-deux

Signification de: u(α), u(1-α), u(α/2), u(1-α/2)

t(α), t(1-α), t(α/2), t(1-α/2)

F(α), F(1-α), χ2 (α), χ2(1-α), χ2 (α/2), χ2(1-α/2)

Savoir lire les tables statistiques