116
Cours BiomathØmatiques-Biostatistiques 1 ere annØe Pharmacie M. Hamamda 20 mai 2017 i

Cours BiomathØmatiques-Biostatistiques

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Cours BiomathØmatiques-Biostatistiques

Cours Biomathématiques-Biostatistiques

1�ere année Pharmacie

M. Hamamda

20 mai 2017

i

Page 2: Cours BiomathØmatiques-Biostatistiques

� La biomathématique sous-entend l�association de deux sciences : la bio-

logie et les mathématiques. De façon précise les biomathématiques sont

constituées par l�ensemble des méthodes et techniques mathématiques,

numériques et informatiques qui permettent d�étudier et de modéliser

les phénomènes et processus biologiques.

� Les biomathématiques ont des débouchés tant pratiques que théoriques

dans de nombreux domaines comme la biologie des populations, la phy-

siologie, la génomique, la pharmacologie etc.

� Un modèle est un système d�équations mathématiques rendant compte

de toutes les données expérimentales connues du phénomène biologique

étudié.

ii

Page 3: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES

I Biomathématiques 2

1 Chapitre 1 : Fonction réelle d�une variable réelle 31.1 Notion de fonction . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.1 Parité et périodicité . . . . . . . . . . . . . . . . . . . . 4

1.1.2 Fonction monotone . . . . . . . . . . . . . . . . . . . . . 6

1.1.3 Bijection et fonction réciproque . . . . . . . . . . . . . . 6

1.2 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Limite en un point . . . . . . . . . . . . . . . . . . . . . 7

1.2.2 Limite en l�in�ni . . . . . . . . . . . . . . . . . . . . . . 8

1.2.3 Opérations sur les limites . . . . . . . . . . . . . . . . . 8

1.3 Fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3.1 Continuité en un point . . . . . . . . . . . . . . . . . . . 9

1.3.2 Opérations sur les fonctions continues . . . . . . . . . . 10

1.4 Fonctions dérivables . . . . . . . . . . . . . . . . . . . . . . . . 10

1.4.1 Dérivée d�une fonction . . . . . . . . . . . . . . . . . . . 10

1.4.2 Dérivée à droite et à gauche . . . . . . . . . . . . . . . . 11

1.4.3 Opérations sur les fonctions dérivables . . . . . . . . . . 12

1.4.4 Dérivée de fonctions usuelles . . . . . . . . . . . . . . . 12

1.4.5 Composition . . . . . . . . . . . . . . . . . . . . . . . . 12

iii

Page 4: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES TABLE DES MATIÈRES

1.4.6 Dérivées successives . . . . . . . . . . . . . . . . . . . . 13

1.4.7 Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . 14

1.4.8 Règle de l�hospital . . . . . . . . . . . . . . . . . . . . . 14

1.5 Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.5.1 Fonction logarithme . . . . . . . . . . . . . . . . . . . . 15

1.5.2 Fonction exponentielle . . . . . . . . . . . . . . . . . . . 16

1.5.3 La fonction puissance . . . . . . . . . . . . . . . . . . . 17

1.5.4 Fonctions trigonométriques . . . . . . . . . . . . . . . . 17

1.5.5 Fonctions trigonométriques réciproques . . . . . . . . . 18

1.6 Etude de la fonction y=f(x) . . . . . . . . . . . . . . . . . . . . 19

1.6.1 Domaine de dé�nition . . . . . . . . . . . . . . . . . . . 19

1.6.2 Réduction du domaine d�étude de la fonction . . . . . . 19

1.6.3 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.6.4 Etude aux bornes . . . . . . . . . . . . . . . . . . . . . . 19

1.6.5 Calcul de f 0 . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.6.6 Calcul de f 00 . . . . . . . . . . . . . . . . . . . . . . . . 20

1.6.7 Tableau de variations . . . . . . . . . . . . . . . . . . . 20

1.6.8 Tracé et informations complémentaires . . . . . . . . . . 20

2 Chapitre 2 : Calcul intégral et équations di¤érentielles 212.1 Calcul intégral et primitives . . . . . . . . . . . . . . . . . . . . 21

2.1.1 Propriétés de l�intégrale . . . . . . . . . . . . . . . . . . 21

2.1.2 Primitive d�une fonction . . . . . . . . . . . . . . . . . . 23

2.1.3 Primitives des fonctions usuelles . . . . . . . . . . . . . 23

2.1.4 Intégrale dé�nies . . . . . . . . . . . . . . . . . . . . . . 24

2.1.5 Méthodes d�intégration . . . . . . . . . . . . . . . . . . 25

2.1.6 Intégrale généralisées . . . . . . . . . . . . . . . . . . . . 31

2.2 Equations di¤érentielles . . . . . . . . . . . . . . . . . . . . . . 32

2.2.1 Introduction (Equation de Malthus) . . . . . . . . . . . 32

2.2.2 Equation di¤érentielle linéaire du premier ordre sans

second membre . . . . . . . . . . . . . . . . . . . . . . . 34

iv

Page 5: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES TABLE DES MATIÈRES

2.2.3 Equation di¤érentielle linéaire du premier ordre avec

second membre . . . . . . . . . . . . . . . . . . . . . . . 35

2.2.4 Exemples d�autres équations di¤érentielles (non linéaires) 37

2.2.5 Equations di¤érentielles du second ordre . . . . . . . . . 42

3 Chapitre 3 : Fonctions à plusieurs variables 493.1 Dé�nition d�une fonction à plusieurs variables . . . . . . . . . . 49

3.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3.3 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . 51

3.3.1 Dérivées partielles du premier ordre . . . . . . . . . . . 51

3.3.2 Dérivées partielles d�ordre supérieur . . . . . . . . . . . 52

3.3.3 Extrema d�une fonction à deux variables . . . . . . . . . 53

3.4 Di¤érentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.5 Calcul d�erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.5.1 Erreur absolu . . . . . . . . . . . . . . . . . . . . . . . . 55

3.5.2 Erreur relative et di¤érentielle logarithmique . . . . . . 56

3.6 Méthode des moindres carrés . . . . . . . . . . . . . . . . . . . 57

4 Chapitre 4 : Méthodes numériques 604.1 La courbe expérimentale et l�interpolation graphique . . . . . . 60

4.2 Calcul approché de dérivées . . . . . . . . . . . . . . . . . . . . 61

4.3 Interpolations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.3.1 Interpolation linéaire . . . . . . . . . . . . . . . . . . . . 63

4.3.2 Interpolation parabolique . . . . . . . . . . . . . . . . . 63

4.4 Calcul approché de l�intégrale . . . . . . . . . . . . . . . . . . . 64

4.4.1 Méthode des rectangles pour deux points . . . . . . . . 64

4.4.2 Méthode des rectangles pour (n+1) points régulière-

ment répartis . . . . . . . . . . . . . . . . . . . . . . . . 64

4.4.3 Méthode des trapèzes pour deux points . . . . . . . . . 65

4.4.4 Méthode des trapèzes pour (n+1) points régulièrement

répartis . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4.4.5 Méthode de Simpson pour trois points régulièrement

répartis . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

v

Page 6: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES TABLE DES MATIÈRES

4.4.6 Méthode de Simpson pour (n+1) points régulièrement

répartis, n pair . . . . . . . . . . . . . . . . . . . . . . . 67

4.5 Résolution d�équations : Méthode de Newton-Raphson . . . . . 68

II Probabilités 70

5 Théorie des probabilités 725.1 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . 72

5.1.1 Notion de factorielle . . . . . . . . . . . . . . . . . . . . 72

5.1.2 Permutation . . . . . . . . . . . . . . . . . . . . . . . . 72

5.1.3 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . 73

5.1.4 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . 73

5.1.5 Propriétés des Cpn . . . . . . . . . . . . . . . . . . . . . . 73

5.1.6 Triangle de Pascal . . . . . . . . . . . . . . . . . . . . . 73

5.1.7 Formule du Binôme . . . . . . . . . . . . . . . . . . . . 74

5.2 Notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . 74

5.2.1 Expériences aléatoires . . . . . . . . . . . . . . . . . . . 74

5.2.2 Événements . . . . . . . . . . . . . . . . . . . . . . . . . 75

5.2.3 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.3 Probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . 79

5.4.1 Théorème des probabilités composées . . . . . . . . . . 81

5.4.2 Événements indépendants . . . . . . . . . . . . . . . . . 81

5.4.3 Tirage avec ou sans remise . . . . . . . . . . . . . . . . 81

5.4.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . 83

5.4.5 Arbre probabiliste . . . . . . . . . . . . . . . . . . . . . 85

5.5 Théorème de Bayes ou théorème de la probabilité des causes . 87

5.5.1 Cas de deux causes . . . . . . . . . . . . . . . . . . . . . 88

5.5.2 Généralisation à plusieurs causes . . . . . . . . . . . . . 88

6 Variables aléatoires discrètes 906.1 Dé�nition d�une variable discrète . . . . . . . . . . . . . . . . . 90

vi

Page 7: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES TABLE DES MATIÈRES

6.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 91

6.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . 92

6.4 Paramètres caractéristiques . . . . . . . . . . . . . . . . . . . . 93

6.4.1 Espérance mathématique . . . . . . . . . . . . . . . . . 93

6.4.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6.4.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

6.4.4 Écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . 95

6.4.5 Mode ou valeur modale . . . . . . . . . . . . . . . . . . 95

6.5 Variable centrée réduite . . . . . . . . . . . . . . . . . . . . . . 95

6.6 Principales lois de variables discrètes . . . . . . . . . . . . . . . 96

6.6.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . 96

6.6.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . 97

6.6.3 Loi de poisson . . . . . . . . . . . . . . . . . . . . . . . 98

6.6.4 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . 98

7 Variables aléatoires continues 1007.1 Dé�nition d�une variable aléatoire continue . . . . . . . . . . . 100

7.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . 101

7.3 Fonction densité de probabilité . . . . . . . . . . . . . . . . . . 101

7.4 Paramètres caractéristiques d�une variable aléatoire continue . 103

7.4.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . 103

7.4.2 Variable aléatoire continue centrée . . . . . . . . . . . . 103

7.4.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . 103

7.4.4 Variance et écart-type . . . . . . . . . . . . . . . . . . . 103

7.4.5 Variable aléatoire continue centrée réduite . . . . . . . . 104

7.4.6 Médiane et mode . . . . . . . . . . . . . . . . . . . . . . 104

7.5 Principales loi de variables aléatoires continues . . . . . . . . . 105

7.5.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . 105

7.5.2 Loi normale (loi de Laplace-Gauss) . . . . . . . . . . . . 106

7.5.3 Loi normale centrée réduite . . . . . . . . . . . . . . . . 107

7.5.4 loi log normale . . . . . . . . . . . . . . . . . . . . . . . 107

7.6 Approximations des lois . . . . . . . . . . . . . . . . . . . . . . 108

vii

Page 8: Cours BiomathØmatiques-Biostatistiques

TABLE DES MATIÈRES TABLE DES MATIÈRES

7.6.1 Approximation de la loi binomiale par une loi normale . 108

7.6.2 Approximation de la loi de Poisson par une loi normale 108

1

Page 9: Cours BiomathØmatiques-Biostatistiques

Première partie

Biomathématiques

2

Page 10: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 1

Chapitre 1 : Fonction réelle d�une variable réelle

1.1 Notion de fonction

Dé�nition 1.1.1 Soit E une partie non vide de R (? 6= E � R), où R estl�ensemble des nombres réelles. On appelle fonction d�une variable réelle àvaleurs réelles toute application

f : E ! Rx! f(x):

On appelle E le domaine de dé�nition de la fonction f:

Exemple 1.1.1 La fonction inverse f : ]�1; 0[ [ ]0;+1[! Rx! 1

x

:

Dé�nition 1.1.2 Le graphe d�une fonction f : E ! R est la partie �f deR2 dé�nie par �f = f(x; f(x))=x 2 Eg : FIG 1.1.

3

Page 11: Cours BiomathØmatiques-Biostatistiques

1.1. Notion de fonction

Fig. 1.1 �Le graphe d�une fonction

1.1.1 Parité et périodicité

Soit f une fonction dé�nie sur I � R; f : I � R ! R (I est symétriquepar rapport à l�origine 0)

Dé�nition 1.1.3 � La fonction f est dite paire si f(�x) = f(x);8x 2 I:Graphiquement, f est paire si et seulement si son graphe est symétrique

par rapport à l�axe des ordonnées.

� La fonction f est dite impaire si f(�x) = �f(x);8x 2 I: Graphique-ment, f est impaire si et seulement si son graphe est symétrique par

rapport à l�origine.

� La fonction f est dite périodique s�il existe T > 0 tel que f(x+ T ) =f(x). Graphiquement, f est périodique de période T si et seulement si

son graphe est invariant par la translation de vecteur T�!i , où

�!i est le

premier vecteur de coordonnées.

Exemple 1.1.2 � Les fonctions : x ! x2; x ! cos(x) sont paires. FIG

1.2.

� Les fonctions : x! x3; x! tan(x) sont impaires. FIG 1.2.

� Les fonctions sinus cosinus sont 2�-périodiques. FIG 1.3.

4

Page 12: Cours BiomathØmatiques-Biostatistiques

1.1. Notion de fonction

Fig. 1.2 �Le graphe de x2 et x3

Fig. 1.3 �Le graphe de cosinus et sinus

5

Page 13: Cours BiomathØmatiques-Biostatistiques

1.1. Notion de fonction

1.1.2 Fonction monotone

Soit f : E � R! R:

Dé�nition 1.1.4 � f est dite croissante (resp. strictement crois-sante) sur E si :

8(x; y) 2 E2 : x � y =) f(x) � f(y)

(resp. 8(x; y) 2 E2 : x < y =) f(x) < f(y)):

� f est dite décroissante (resp. strictement décroissante) sur E si :

8(x; y) 2 E2 : x � y =) f(x) � f(y)

(resp. 8(x; y) 2 E2 : x < y =) f(x) > f(y)):

� f est monotone (resp. strictement monotone) sur E si elle est

croissante ou décroissante (resp. strictement croissante ou stric-tement décroissante).

1.1.3 Bijection et fonction réciproque

Soit f : E ! F une fonction, où E et F sont deux parties de R:

Dé�nition 1.1.5 � f est injective si 8x; x0 2 E; f(x) = f(x0) =) x =

x0:

� f est surjective si 8y 2 F;9x 2 E : y = f(x):� f est bijective si elle est à la fois injective et surjective, c-à-d : 8y 2F;9!x 2 E : y = f(x):

Propriétés 1.1.1 Si f : E ! F est une fonction bijective alors il existeune unique application g : F ! E telle que g � f = IdE et f � g = IdF : La

fonction g est la bijection réciproque de f notée f�1:

6

Page 14: Cours BiomathØmatiques-Biostatistiques

1.2. Limites

1.2 Limites

1.2.1 Limite en un point

Soit f : E ! R (E � R). Soit x0 2 R un point de E:

Dé�nition 1.2.1 Soit l 2 R. On dit que f a pour limite l en x0 si

8" > 0;9� > 0;8x 2 E : jx� x0j < � =) jf(x)� lj < ":

On dit aussi que f tend vers l lorsque x tend vers x0: On note alors

limx!x0

f(x) = l ou bien f(x) !x!x0

l:

Dé�nition 1.2.2 � On dit que f a pour limite +1 en x0 si

8A > 0;9� > 0;8x 2 I : jx� x0j < � =) f(x) > A

On note alors limx!x0

f(x) = +1� On dit que f a pour limite �1 en x0 si

8A > 0;9� > 0;8x 2 I : jx� x0j < � =) f(x) < �A

On note alors limx!x0

f(x) = �1

7

Page 15: Cours BiomathØmatiques-Biostatistiques

1.2. Limites

1.2.2 Limite en l�in�ni

Soit f : I ! R une fonction dé�nie sur un intervalle de la forme I =

]a;+1[

Dé�nition 1.2.3 Soit l 2 R:� On dit que f a pour limite l en +1 si

8" > 0;9B > 0;8x 2 I : x > B =) jf(x)� lj < "

on note alors limx!+1

f(x) = l:

� On dit que f a pour limite +1 en +1 si

8A > 0;9B > 0;8x 2 I : x > B =) f(x) > A

on note alors limx!+1

f(x) = +1:

1.2.3 Opérations sur les limites

Propriétés 1.2.1 Soit f; g : E � R! R; limx!x0

f(x) = l1; limx!x0

g(x) = l2

1. limx!x0

[f(x) + g(x)] = l1 + l2:

2. limx!x0

�f(x) = �l:

3. limx!x0

[f(x):g(x)] = l1:l2:

4. limx!x0

f(x)g(x) =

l1l2:

Remarque 1.2.1 Il y a des situations où l�on ne peut rien dire sur les li-mites. Par exemple si lim

x!x0f = +1 et lim

x!x0g = �1 alors on ne peut a priori

rien dire sur la limite de f et g (cela dépend vraiment de f et de g). On

raccourci cela en +1 � 1 est une forme indéterminée. Voici une liste de

formes indéterminées : +1�1; 0:1; 11 ;00 ; 1

1 et 10:

Exemple 1.2.1

limx!a

x2 � a2x3 � a3 =

0

0(F:I)

8

Page 16: Cours BiomathØmatiques-Biostatistiques

1.3. Fonctions continues

limx!a

x2 � a2x3 � a3 = lim

x!a(x� a)(x+ a)

(x� a)(x2 + ax+ a2) =2

3a:

1.3 Fonctions continues

1.3.1 Continuité en un point

Soit I un intervalle de R et soit f : I ! R une fonction.

Dé�nition 1.3.1 1. On dit que f est continue en un point x0 2 I si

8" > 0;9� > 0;8x 2 I : jx� x0j < � =) jf(x)� f(x0)j < "

c�est-à-dire si f admet une limite en x0 alors

limx!x0

f(x) = f(x0):

2. On dit que f est continue sur I si f est continue en tout point de I.

3. Intuitivement, une fonction est continue sur un intervalle, si on peut

tracer son graphe « sans lever le crayon » , c�est-à-dire si elle n�a pas

de saut

Exemple 1.3.1 1. Les fonctions suivantes sont continues :

2. Une fonction constante sur un intervalle.

9

Page 17: Cours BiomathØmatiques-Biostatistiques

1.4. Fonctions dérivables

3. La fonction racine carrée x!px sur [0;+1[ :

4. Les fonction sinx et cosx sur R:

5. La fonction valeur absolue x! jxj sur R:

6. La fonction expx sur R:

7. La fonction lnx sur ]0;+1[ :

1.3.2 Opérations sur les fonctions continues

Propriétés 1.3.1 Soient f; g : I ! R deux fonctions continues en un pointx0 2 I: Alors :

1. �:f est continue en x0 (pour tout � 2 R).

2. f + g est continue en x0:

3. f � g est continue en x0:

4. Si f 6= 0; alors 1f est continue en x0:

1.4 Fonctions dérivables

1.4.1 Dérivée d�une fonction

Soit I un intervalle ouvert de R et f : I ! R une fonction. Soit x0 2 I

Dé�nition 1.4.1 1. f est dérivable en x0 si le taux d�accroissementf(x)�f(x0)x�x0 a une limite �nie lorsque x tend vers x0: La limite s�appelle

alors le nombre dérivée de f en x0 et est noté f 0(x0): Ainsi

f 0(x0) = limx!x0

f(x)� f(x0)x� x0

:

2. f est dérivable sur I si f est dérivable en tout point x0 de I. Lafonction x! f 0(x) est la fonction dérivée de f , elle se note f 0 ou df

dx :

10

Page 18: Cours BiomathØmatiques-Biostatistiques

1.4. Fonctions dérivables

Exemple 1.4.1 La fonction dé�nie par f(x) = x2 est dérivable en tout pointx0 de R: En e¤et :

f(x)� f(x0)x� x0

=x2 � x20x� x0

=(x� x0)(x+ x0)

x� x0= x+ x0

limx!x0

f(x)� f(x0)x� x0

= 2x0:

On a même montré que le nombre dérivé de f en x0 est 2x0; autrement dit :

f 0(x) = 2x:

Propriétés 1.4.1 Soit I un intervalle ouvert, x0 2 I et soit f : I ! R unefonction.

Remarque 1.4.1 1. Si f est dérivable en x0, alors elle est continueen x0:

2. Si f est dérivable sur I, alors elle est continue sur I:

Remarque 1.4.2 La réciproque est fausse : par exemple, la fonction va-leur absolue x! jxj est continue en 0 mais n�est pas dérivable en 0.

1.4.2 Dérivée à droite et à gauche

Dé�nition 1.4.2 1. Si limx!>x0

f(x)�f(x0)x�x0 existe et �nie, on dit que f est dé-

rivable à droite de x0. On note alors la dérivée à droite par f 0d(x0):

2. Si limx!<x0

f(x)�f(x0)x�x0 existe et �nie, on dit que f est dérivable à gauche de

x0. On note alors la dérivée à gauche par f 0g(x0):

3. f est dérivable =) f 0d(x0) = f0g(x0):

11

Page 19: Cours BiomathØmatiques-Biostatistiques

1.4. Fonctions dérivables

1.4.3 Opérations sur les fonctions dérivables

Propriétés 1.4.2 Soient f; g : I ! R deux fonctions dérivables sur I. Alorspour tout x 2 I :

1. (f + g)0(x) = f 0(x) + g0(x);

2. (�f)0(x) = �f 0(x) où � est un réel �xé,

3. (f � g)0(x) = f 0(x)g(x) + f(x)g0(x);

4. ( 1f )0(x) = � f 0(x)

f(x)2si f(x) 6= 0;

5. (fg )0(x) = f 0(x)g(x)�f(x)g0(x)

g(x)2si g(x) 6= 0:

Ou d�une manière plus facile à mémoriser

(f+g)0 = f 0+g0; (�f)0 = �f 0; (f�g)0 = f 0g+fg0; ( 1f)0 = � f

0

f2; (f

g)0 =

f 0g � fg0g2

:

1.4.4 Dérivée de fonctions usuelles

Le tableau de gauche est un résumé des principales formules à connaître,

x est une variable. Le tableau de droite est celui des compositions, u est une

fonction x! u(x):

1.4.5 Composition

Propriétés 1.4.3 Si f est dérivable en x et g est dérivable en f(x) alorsg � f est dérivable en x de dérivée :

(g � f)0(x) = g0(f(x)):f 0(x):

Corollaire 1.4.1 Soit I un intervalle ouvert, Soit f : I ! J une fonction

dérivable et bijective dont on note f�1 : J ! I la bijection réciproque. Si f 0

ne s�annule pas sur I alors f�1 est dérivable et on a pour tout x 2 J :

(f�1)0(x) =1

f 0(f�1(x)):

12

Page 20: Cours BiomathØmatiques-Biostatistiques

1.4. Fonctions dérivables

Fig. 1.4 �Dérivée des fonctions usuelles

1.4.6 Dérivées successives

Soit f : I ! R une fonction dérivable et soit f 0 sa dérivée. Si la fonc-

tion f 0 est aussi dérivable on note f 00 = (f 0)0 la dérivée seconde de f . Plus

généralement on note :

f (0) = f; f (1) = f 0; f (2) = f 00; f (3) = f 000; f (n+1) = (f (n))0:

Si la dérivée ni�eme notée f (n) existe on dit que f est n fois dérivable.

Exemple 1.4.2 Soit f(x) = x4 � 3x3 + 2x � 1: La fonction f est dé�nie,

13

Page 21: Cours BiomathØmatiques-Biostatistiques

1.4. Fonctions dérivables

continue et dérivable sur R: Alors

f (1)(x) = 4x3 � 9x2 + 2;

f (2)(x) = 12x2 � 18x;

f (3)(x) = 24x� 18;

f (4)(x) = 24;

f (n)(x) = 0;8n � 5:

1.4.7 Formule de Leibniz

(f:g)(n) = f (n):g +

n

1

!f (n�1):g(1) + :::+

n

k

!f (n�k):g(k) + :::+ f:g(n)

autrement dit :

(f:g)(n) =nXk=0

n

k

!f (n�k):g(k):

Exemple 1.4.3 1. Pour n = 1; (f:g)(1) = f 0:g + f:g0:

2. Pour n = 2; (f:g)(2) = f 00g + 2f 0g0 + fg00:

1.4.8 Règle de l�hospital

Théorème 1.4.1 Soient f; g : I ! R deux fonctions dérivables et siot x0 2 I:On suppose que :

1. f(x0) = g(x0) = 0:

2. 8x 2 Infx0g; g0(x) 6= 0:

Si

limx!x0

f 0(x)

g0(x)= l

alors

limx!x0

f(x)

g(x)= l:

14

Page 22: Cours BiomathØmatiques-Biostatistiques

1.5. Fonctions usuelles

Exemple 1.4.4 Calculer la limite limx!1

ln(x2+x�1)ln(x)

1. limx!1

ln(x2+x�1)ln(x) = 0

0

2. f(x) = ln(x2 + x� 1); f(1) = 0; f 0(x) = 2x+1x2+x�1

3. g(x) = ln(x); g(1) = 0; g0(x) = 1x

Prenons I = ]0; 1] ; x0 = 1; alors g0 ne s�annule pas sur Inf1gf 0(x)g0(x) =

2x+1x2+x�1 � x =

2x2+xx2+x�1 !

x!13 alors f(x)

g(x) !x!1 3:

1.5 Fonctions usuelles

1.5.1 Fonction logarithme

Propriétés 1.5.1 Il existe une unique fonction, notée ln : ]0;+1[! R telleque :

ln0 x =1

x;8x 2 ]0;+1[ et ln(1) = 0:

De plus cette fonction véri�e (pour tout a; b > 0) :

1. ln(a� b) = ln a+ ln b;

2. ln( 1a) = � ln a;

3. ln(an) = n ln a; pour tout n 2 N;

4. ln est une fonction continue, strictement croissante et dé�nit une bijec-

tion de [0;+1[ sur R;

5. limx!+1

lnx = +1; limx!0

lnx = �1; limx!0

x lnx = 0; limx!0

ln(1+x)x = 1;

6. La fonction ln est concave et lnx � x+ 1 (pour tout x > 0):

Remarque 1.5.1 lnx s�appelle le logarithme naturel ou aussi logarithme né-périen. Il est caractérisé par ln e = 1. On dé�nit le logarithme en base a par

loga(x) =lnx

ln a

15

Page 23: Cours BiomathØmatiques-Biostatistiques

1.5. Fonctions usuelles

de sorte que

loga(a) = 1:

Pour a = 10 on obtient le logarithme décimal log10 qui véri�e log10(10) = 1

(et donc log10(10n) = n): Dans la pratique on utilise l�équivalence : x =

10y () y = log10(x):

1.5.2 Fonction exponentielle

Dé�nition 1.5.1 La bijection réciproque de ln : ]0;+1[ ! R s�appelle la

fonction exponentielle, notée exp : R! ]0;+1[ :

Propriétés 1.5.2 La fonction exponentielle véri�e les propriétés suivantes :

1. exp(lnx) = x pour tout x > 0 et ln(expx) = x pour tout x 2 R;

2. exp(a+ b) = exp a� exp b;

3. exp(nx) = (expx)n;

4. exp : R! ]0;+1[ est une fonction continue, strictement croissante,

5. limx!�1

expx = 0; limx!+1

expx = +1; limx!+1

expxx = +1;

6. La fonction exponentielle est dérivable et exp0 x = expx pour tout x 2 R:Elle est convexe et expx � 1 + x:

16

Page 24: Cours BiomathØmatiques-Biostatistiques

1.5. Fonctions usuelles

1.5.3 La fonction puissance

Dé�nition 1.5.2 On dé�nit pour a > 0 et b 2 R

ab = exp(b ln a):

Remarque 1.5.2 1.pa = a

12 = exp(12 ln a) (la racine carrée de a),

2. npa = a

1n = exp( 1n ln a) (la racine n

i�eme de a),

3. On note aussi expx par ex ce qui se justi�e par le calcul ex = exp(x ln e) =

expx;

4. Les fonctions x ! ax s�appellent aussi des fonctions exponentielles et

se ramènent systématiquement à la fonction exponentielle classique par

l�égalité ax = exp(x ln a): Il ne faut surtout pas les confondre avec les

fonctions puissances x! xa:

1.5.4 Fonctions trigonométriques

Dé�nition 1.5.3 Dans un cercle de rayon r = 1, les fonctions sinus, cosinuset tangente sont dé�nies comme le rappelle le schéma

Propriétés 1.5.3 1. sin et cos sont de période 2�, tan est de période �:

2. sin et tan sont impaires, cos est paire.

17

Page 25: Cours BiomathØmatiques-Biostatistiques

1.5. Fonctions usuelles

3. (sin)0 = cos, (cos)0 = � sin

4. (tan)0 = 1 + tan2 = 1cos2

:

1.5.5 Fonctions trigonométriques réciproques

Dé�nition 1.5.4 Sur des intervalles judicieusement choisis pour qu�elles soientstrictement monotones, les fonctions trigonométriques ont alors des fonctions

réciproques :Fonction f Intervalle de f fonction f�1 Intervalle de f�1 Dérivée de f�1

sin(x)���2 ;

�2

�arcsin(x) [�1; 1] 1p

1�x2

cos(x) [0; �] arccos(x) [�1; 1] � 1p1�x2

tan(x)���2 ;

�2

�arctan(x) ]�1;+1[ 1

1+x2:

Propriétés 1.5.4 On a les propriétés :

1. sin(arcsin(x)) = x sur [�1; 1]

2. cos(arccos(x)) = x sur [�1; 1]

3. tan(arctan(x)) = x sur ]�1;+1[

4. arcsin(sin(x)) = x sur���2 ;

�2

�5. arccos(cos(x)) = x sur [0; �]

6. arctan(tan(x)) = x sur���2 ;

�2

�:

Remarque 1.5.3 arcsin(x) signi�e : "Quel est l�arc dont le sinus est x?"

Exemple 1.5.1 arcsin(p22 ) =

�4 ; arctan(

p3) = �

3 :

18

Page 26: Cours BiomathØmatiques-Biostatistiques

1.6. Etude de la fonction y=f(x)

1.6 Etude de la fonction y=f(x)

1.6.1 Domaine de dé�nition

Donner l�(es) intervalle(s) dans lequel (lesquels) la fonction a un sens.

1.6.2 Réduction du domaine d�étude de la fonction

� f paire =) travailler sur 0 � x, puis la symétrie par rapport à yy0:� f impaire =) travailler sur 0 � x, puis la symétrie par rapport à O:� f de période T =) travailler sur une période ([�T=2;+T=2] ou [0; T ]),puis translation.

1.6.3 Continuité

S�étudie souvent par combinaison (+;�; :; =; �) des fonctions continues.

1.6.4 Etude aux bornes

Bornes �nies x0 : limx!x0

f(x) = A

� Si A est �ni : on peut éventuellement prolonger la fonction en x0 (seule-

ment à droite ou à gauche si la limite n�existe qu�à droite ou à gauche).

� Si A est in�ni : asymptote verticale x = x0: L�étude de la limite,

suivant que x ! x+0 ou x ! x�0 ; renseigne sur l�existence d�une ou de

deux branches in�nies.

Bornes in�nies limx!1

f(x) = A

� Si A est �ni : asymptote horizontale y = A. La position de la courbepar rapport à cette asymptote peut être trouvée en étudiant le signe de

f(x)�A:� Si A est in�ni : branche in�nie, séparer éventuellement les cas x! +1ou x! �1; puis étudier lim

x!1f(x)x = a:

� Si a in�ni =) branche parabolique par rapport à yy0

19

Page 27: Cours BiomathØmatiques-Biostatistiques

1.6. Etude de la fonction y=f(x)

� Si a �ni =) direction asymptotique y = ax. Etudier alors limx!1

f(x)�ax = b

� Si b in�ni =) branche parabolique de direction par rapportà y = ax

� Si b �ni =) asymptote y = ax+ b:

1.6.5 Calcul de f 0

� f 0 > 0 =) f %; f 0 < 0 =) f &� f 0 s�annule et change de signe =) extremum

� f 0(x) est la pente de la tangente à la courbe en x0:

1.6.6 Calcul de f 00

� f 00 > 0 =) concavité vers les y > 0

� f 00 < 0 =) concavité vers les y < 0

� f 00 s�annule et change de signe =) point d�in�exion (la courbe tra-verse sa tangente)

1.6.7 Tableau de variations

Résumer dans un tableau toutes les informations obtenues sur la courbe.

1.6.8 Tracé et informations complémentaires

Souvent les informations recueillies su¢ sent pour avoir une idée de la

forme de la courbe. On peut, pour compléter ou con�rmer le tracé, aller

chercher les informations supplémentaires suivantes :

� Intersection de la courbe avec les axes

� Intersection de la courbe avec l�(es) éventuelle(s) asymptote(s)

� Calculer quelques points et (ou) quelques pentes de tangente.

20

Page 28: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 2

Chapitre 2 : Calcul intégral et équations di¤érentielles

2.1 Calcul intégral et primitives

L�intégrale d�une fonction f continue sur [a; b] mesure l�air de la portion

du plan comprise entre la courbe y = f(x); l�axe des x et les droites x = a,

x = b et notéebRaf(x)dx:

Théorème 2.1.1 Si f : [a; b]! R est continue alors f est intégrable.

2.1.1 Propriétés de l�intégrale

Les trois principales propriétés de l�intégrale sont la relation de Chasles,

la positivité et la linéarité.

Relation de Chasles

Propriétés 2.1.1 Soient a < c < b: Si f est intégrable sur [a; c] et [c; b] ;

alors f est intégrable sur [a; b] : Et on a

bZa

f(x)dx =

cZa

f(x)dx+

bZc

f(x)dx:

21

Page 29: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

Remarque 2.1.1 On a :

1.aRaf(x)dx = 0;

2. Pour a < b,aRb

f(x)dx = �bRaf(x)dx:

Positivité de l�intégrale

Propriétés 2.1.2 Soit a � b deux réels et f et g deux fonctions intégrablessur [a; b] : Si f � g alors

bZa

f(x)dx �bZa

g(x)dx:

En particulier, si f � 0 alorsbRaf(x)dx � 0:

Linéarité de l�intégrale

Propriétés 2.1.3 Soient f et g deux fonctions intégrables sur [a; b] :

1. f+g est une fonction intégrable etbRa(f+g)(x)dx =

bRaf(x)dx+

bRag(x)dx:

2. Pour tout réel �; �f est intégrable et on abRa�f(x)dx = �

bRaf(x)dx:

Par ces deux premiers points nous avons la linéarité de l�intégrale :pour tous réels � et �

bZa

(�f(x) + �g(x))dx = �

bZa

f(x)dx+ �

bZa

g(x)dx:

3. f�g est une fonction intégrable sur [a; b] mais en généralbRa(fg)(x)dx 6=

(bRaf(x)dx)(

bRag(x)dx):

22

Page 30: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

4. jf j est une fonction intégrable sur [a; b] et����� bRaf(x)dx

����� � bRajf(x)j dx:

5. Si f est paire et [��; �] � [a; b] alors

�Z��

f(x)dx = 2

�Z0

f(x)dx:

6. Si f est impaire alors�R��f(x)dx = 0:

2.1.2 Primitive d�une fonction

Dé�nition 2.1.1 Soit f : I ! R une fonction dé�nie sur un intervalle quel-conque I de R: On dit que F : I ! R est une primitive de f sur I si F est

une fonction dérivable sur I véri�ant F 0(x) = f(x) pour tout x 2 I:

Propriétés 2.1.4 Soit f : I ! R une fonction et soit F : I ! R une

primitive de f . Toute primitive de f s�écrit G = F + c où c 2 R:

2.1.3 Primitives des fonctions usuelles

Zx�dx =

x�+1

�+ 1+ c; � 2 Rnf�1gZ

exdx = ex + cZ1

xdx = ln jxj+ cZ

cosxdx = sinx+ cZsinxdx = � cosx+ cZdx

x+ a= ln jx+ aj+ cZ

dx

1� x2 =1

2ln

����1 + x1� x

����+ c23

Page 31: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

Zdx

1 + x2= arctanx+ cZ

dxp1� x2

=

(arcsinx+ c

�2 � arccosx+ c

sur ]�1; 1[Zdxpx2 + 1

= ln(x+px2 + 1) + c:Z

tanxdx = � ln jcosxj+ c

Zu(x)u0(x)dx =

1

2u2(x) + cZ

u�(x)u0(x)dx =1

�+ 1u�+1(x) + cZ

u0(x)

u(x)dx = ln ju(x)j+ cZ

u0(x)

2pu(x)

dx =pu(x) + c

2.1.4 Intégrale dé�nies

Dé�nition 2.1.2 Si f est une fonction continue sur I([a; b] � I) et F est uneprimitive de f sur I; l�intégrale dé�nie de f entre les bornes d�intégrationa et b est donnée par :

bZa

f(t)dt =

bZa

F 0(t)dt = [F (t)]ba = F (b)� F (a):

Exemple 2.1.1 1. Pour f(x) = ex; une primitive de f est ex: Donc

1Z0

exdx = [ex]10 = e1 � e0 = e� 1:

24

Page 32: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

2. Pour f(x) = x2; une primitive de f est x3

3 : Donc

1Z0

x2dx =

�x3

3

�10

=1

3:

3.xRacos tdt = [sin t]t=xt=a = sinx� sin a est une primitive de cos t:

2.1.5 Méthodes d�intégration

AnChangement de variable

Soient f : [a; b] ! R une fonction continue et u : [�; �] ! [a; b] une

fonction de dérivée continue et strictement monotone avec(u(�) = a

u(�) = b:

En e¤ectuant dans l�intégralebRaf(x)dx le changement de variable x = u(t):

AlorsbZa

f(x)dx =

�Z�

f [u(t)]u0(t)dt:

Exemple 2.1.2 1. Calcul deR

dxx2+a2

:

On aR

dxx2+a2

= 1a2

Rdx

x2

a2+1= 1

a2

Rdx

(xa)2+1;

on pose t = xa alors x = at et dx = d(at) = adt; donc

1

a2

Zdx�

xa

�2+ 1

=1

a

Zdt

(t)2 + 1=1

aarctan(t) + c =

1

aarctan(

x

a) + c:

2. Calcul de1=2R0

x(1�x2)3=2dx:

Soit le changement de variable u = 1 � x2; donc du = �2xdx: Pour

25

Page 33: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

x = 0; u = 1 et pour x = 1=2; u = 3=4; alors

1=2Z0

x

(1� x2)3=2dx =

3=4Z1

�du2

(u)3=2= �1

2

3=4Z1

u�32du =

hu�

12

i3=41=

2p3� 1:

Bn Intégration par partie

Théorème 2.1.2 Soit u et v deux fonctions de classe C1 sur un intervalle[a; b] :

bZa

u(x)v0(x)dx = [uv]ba �bZa

u0(x)v(x)dx:

Exemple 2.1.3 Pour calculer1R0

xexdx; on pose u(x) = x et v0(x) = ex: Nous

aurons besoin de savoir que u0(x) = 1 et qu�une primitive de v0(x) est ex:

Alors la formule d�intégration par partie donne :

1Z0

xexdx =

1Z0

u(x)v0(x)dx

= [u(x)v(x)]10 �1Z0

u0(x)v(x)dx

= [xex]10 �1Z0

1:exdx

= (1:e1 � 0:e0)� [ex]10= e� (e1 � e0)

= 1:

Exemple 2.1.4 Calcul deeR1

x lnxdx:

26

Page 34: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

On pose u(x) = lnx et v0(x) = x; donc u0(x) = 1x et v(x) =

12x2: Alors

eZ1

x lnxdx =

eZ1

u(x)v0(x)dx

= [u(x)v(x)]e1 �eZ1

u0(x)v(x)dx

=

�x2

2lnx

�e1

�eZ1

x2

2:1

xdx

= (e2

2: ln e� e

1

2ln 1)�

e1

2

Z1

xdx

=e2

2� 12

�x2

2

�e1

=e2

2� 12(e2

2� 1

2

2)

=e2 + 1

4:

Cn Intégration des fractions rationnelles

On souhaite d�abord intégrer les fractions rationnelles f(x) = �x+�ax2+bx+c

avec �; �; a; b; c 2 R; a 6= 0 et (�; �) 6= (0; 0):

Premier cas : Le dénominateur ax2 + bx+ c possède deux racines réelles

distinctes x1; x2 2 R: Alors f(x) s�écrit aussi f(x) = �x+�a(x�x1)(x�x2) et il existe

deux nombres A;B 2 R tel que f(x) = Ax�x1 +

Bx�x2 . On a doncZ

f(x)dx = A ln jx� x1j+B ln jx� x2j+ cte:

Deuxième cas : Le dénominateur ax2 + bx+ c possède une racine double

x0 2 R: Alors f(x) = �x+�a(x�x0)2 et il existe deux nombres A;B 2 R tel que

27

Page 35: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

f(x) = A(x�x0)2 +

B(x�x0) et on a alorsZ

f(x)dx = � A

(x� x0)+B ln jx� x0j :

Troisième cas : Le dénominateur ax2 + bx + c ne possède pas de racine

réelle. Voyons comment faire sur un exemple.

Exemple 2.1.5 Soit f(x) = x+12x2+x+1

: Dans un premier temps on fait appa-

raître une fraction du type u0

u (que l�on sait intégrer par ln juj :)

f(x) =(4x+ 1)14 �

14 + 1

2x2 + x+ 1=1

4

4x+ 1

2x2 + x+ 1+3

4

1

2x2 + x+ 1

on peut intégrer la fraction 4x+12x2+x+1

:Z4x+ 1

2x2 + x+ 1dx =

Zu0

udx = ln

��2x2 + x+ 1��+ c:Occupons-nous de l�autre partie 1

2x2+x+1; nous allons l�écrire sous la forme

1u2+1

(dont une primitive est arctanu):

1

2x2 + x+ 1=

1

2(x+ 14)2 � 1

8 + 1

=1

2(x+ 14)2 + 7

8

=8

7

1872(x+

14)2 + 1

=8

7

1

( 4p7(x+ 1

4))2 + 1

:

On pose le changement de variable u = 4p7(x + 1

4) et donc du =4p7dx pour

28

Page 36: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

trouver Z1

2x2 + x+ 1dx =

Z8

7

1

( 4p7(x+ 1

4))2 + 1

=8

7

Zdu

u2 + 1:

p7

4

=2p7arctanu+ c

=2p7arctan(

4p7(x+

1

4)) + c:

Finalement,Zf(x)dx =

1

4ln��2x2 + x+ 1��+ 3

2p7arctan(

4p7(x+

1

4)) + c:

Dn Intégration des fractions trigonométriques

On peut aussi calculer les primitives de la formeRP (cosx; sinx)dx ouR P (cosx;sinx)

Q(cosx;sinx)dx quand P et Q sont des polynômes, en se ramenant à intégrer

une fraction rationnelle. Il existe deux méthodes :

1. les règles de Bioche.

2. le changement de variable t = tanx:

1. Les règles de Bioche On note !(x) = f(x)dx: On a alors !(�x) =f(�x)d(�x) = �f(�x)dx et !(� � x) = f(� � x)d(� � x) = �f(� � x)dx:

� Si !(�x) = !(x) alors on e¤ectue le changement de variable u = cosx� Si !(��x) = !(x) alors on e¤ectue le changement de variable u = sinx� Si !(�+x) = !(x) alors on e¤ectue le changement de variable u = tanx:

Exemple 2.1.6 Calcul de la primitiveR

cosxdx2�cos2 x :

29

Page 37: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

On note !(x) = cosxdx2�cos2 x : Comme

!(� � x) =cos(� � x)d(� � x)2� cos2(� � x)

=(� cosx)(�dx)2� cos2 x

= !(x):

Alors le changement de variable qui convient est u = sinx pour lequel du =

cosxdx: Ainsi : Zcosxdx

2� cos2 x =

Zcosxdx

2� (1� sin2 x)

=

Zdu

1 + u2

= arctanu

= arctan(sinx) + c:

2. Le changement de variable t = tanx2 Si on pose t = tanx2 ; ona

cosx =1� t21 + t2

; sinx =2t

1 + t2; tanx =

2t

1� t2 ; dx =2dt

1 + t2:

Exemple 2.1.7 Calcul de l�intégrale0R

��=2

dx1�sinx :

En posant t = tanx2 ; pour x = ��=2, t = �1 et pour x = 0; t = 0: De plus

30

Page 38: Cours BiomathØmatiques-Biostatistiques

2.1. Calcul intégral et primitives

on a sinx = 2t1+t2

et dx = 2dt1+t2

: Alors

0Z��=2

dx

1� sinx =

0Z�1

2dt1+t2

1� 2t1+t2

= 2

0Z�1

dt

1 + t2 � 2t

= 2

0Z�1

dt

(t� 1)2

= 2

�1

1� t

�0�1

= 1:

2.1.6 Intégrale généralisées

Le résultat suivant est une extension de la dé�nition de l�intégrale dé�niebRaf(t)dt au cas où b tend vers +1 (et/ou a tend vers �1):

Dé�nition 2.1.3 Soit f une fonction continue 8x > a;

1. Si limX!+1

R Xa f(x)dx admet une limite �nie l; cette intégrale généralisée

a donc un sens : on dit qu�elle converge. On pose

+1Za

f(x)dx = l:

2. Si limX!+1

R Xa f(x)dx n�a pas de limite �nie, alors

R +1a f(x)dx diverge.

Exemple 2.1.8+1Z0

e�xdx =?

31

Page 39: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Nous étudions d�abord l�intégrale

XZ0

e�xdx =��e�x

�X0= �e�X + 1:

Passons à la limite

limX!+1

XZ0

e�xdx = limX!+1

(�e�X + 1) = 1:

Cette limite existe, donc l�intégrale converge

+1Z0

e�xdx = 1:

Exemple 2.1.91Z0

exdx =?

EtudionsXZ0

exdx = [ex]X0 = eX + 1:

La limite

limX!+1

XZ0

exdx = limX!+1

(eX + 1) = +1:

Donc l�intégrale diverge.

2.2 Equations di¤érentielles

2.2.1 Introduction (Equation de Malthus)

Dans l�exemple suivant x désigne le nombre d�individus de la popula-

tion étudiée (population humaine, population bactérienne,...). On considère

32

Page 40: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

x comme un réel. L�hypothèse de base est que si x(t) est la population à

l�instant t, la population à l�instant t+�t où �t est très petit, vaut(x(t+�t) = x(t) + kx(t)�t

k = cte > 0:

Divisant par �t et passant à la limite quand �t ! 0 on obtient l�équation

di¤érentielle du premier ordre

x0(t) = kx(t)

où x0(t) est la dérivée par rapport à t.

Dé�nition 2.2.1 1. On appelle équation di¤érentielle du premier ordre

l�équation du type

F (x; y; y0) = 0 (2.1)

où y est une fonction inconnue. Résoudre l�équation di¤érentielle (2.1)

consiste à chercher toutes les fonctions y dérivables en x véri�ant cette

équation.

2. On appelle solution sur I � R de l�équation (2.1) toute fonction y : I !R; x! y(x) telle que

� y est dérivable sur I

� 8x 2 I; F (x; y(x); y0(x)) = 0:

Exemple 2.2.1 Soit l�équation

(y0 = ky

k 6= 0; y est une fonction de x.

y0 = y0(x) =dy

dx= ky(x)

=) dy

y= kdx; y 6= 0

=)Zdy

y=

Zkdx

33

Page 41: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

=) ln jyj+ c1 = kx+ c2

=) ln jyj = kx+ c; c = c1 + c2

=) y = ekx+c = �ekx; � = ec = cte

Théorème 2.2.1 Existence et unicité d�une solution satisfaisant unecondition initiale.

Soit l�équation di¤érentielle(F (x; y; y0) = 0

y(x0) = y0:(2.2)

Il existe une solution unique y de l�équation di¤érentielle (2.2) telle que la

condition initiale y(x0) = y0 est véri�ée.

Exemple 2.2.2 Soit l�équation di¤érentielle(y0 = ky

y(0) = 2:

La solution de cette équation est y = �:ekx et on a y(0) = 2 alors

y(0) = �ek:0 = � = 2

donc la solution qui véri�ée la condition initiale y(0) = 2 est donnée par

y = 2:ekx:

2.2.2 Equation di¤érentielle linéaire du premier ordre sanssecond membre

Dé�nition 2.2.2 Toute équation di¤érentielle de la forme

y0 = f(x)y

est appelée équation di¤érentielle linéaire du premier ordre sans second membre.

34

Page 42: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Résolution d�une équation linéaire du premier ordre sans secondmembre

y0 = f(x)y =) dy

dx= f(x)y

=) dy

y= f(x)dx

=)Zdy

y=

Zf(x)dx

=) ln jyj =Zf(x)dx+ c

=) y = eRf(x)dx+c

=) y = �eRf(x)dx où � = ec:

Exemple 2.2.3 Résoudre l�équation y0 � xy = 0:

y0 � xy = 0 =) y0 = xy

=) dy

dx= xy

=) dy

y= xdx

=)Zdy

y=

Zxdx

donc

ln jyj =1

2x2 + c =) y = e

12x2+c

=) y = e12x2 :ec

=) y = �e12x2 ; � = �ec:

2.2.3 Equation di¤érentielle linéaire du premier ordre avecsecond membre

Dé�nition 2.2.3 Toute équation di¤érentielle de la forme

y0 = f(x)y + g(x) (2.3)

35

Page 43: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

est appelée équation di¤érentielle linéaire du premier ordre avec second membre.

Théorème 2.2.2 La solution générale (SGEASM) de l�équation (2.3) estdonnée par

y = y0 + Y

où y0 est la solution générale de l�équation sans le second membre (y0 = f(x)y)

(SGESSM) et Y est la solution particulière de l�équation y0 = f(x)y + g(x):

(SPEASM)

Résolution de l�équation par la méthode de variation de la constanteLa solution générale de l�équation (2.3) sans second membre y0 = f(x)y est

y0 = �eF (x) avec F (x) =

Zf(x)dx:

Posons

y = SGEASM = �(x)eF (x);

alors

y0 = �0(x)eF (x) + �(x)f(x)eF (x)

= f(x)�(x)eF (x) + g(x):

Alors

�0(x)eF (x) = g(x) =) �0(x) =g(x)

eF (x)= g(x)e�F (x)

=) �(x) =

Zg(x)e�F (x)dx+ �:

Donc

y = [

Zg(x)e�F (x)dx+ �]eF (x)

�eF (x)| {z }y0

+ eF (x)Zg(x)e�F (x)dx| {z }Y

:

36

Page 44: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Exemple 2.2.4 Soit l�équation linéaire du premier ordre avec second membrey0 = �y+x2 avec f(x) = �1 et g(x) = x2: On résoud d�abord l�équation sanssecond membre y0 = �y: Alors

y0 = SGESSM = �eRf(x)dx = �e�x:

D�où

y = SGEASM = �(x)e�x () y0 = �0(x)e�x � �(x)e�x

y0 + y = �0(x)e�x��(x)e�x + �(x)e�x| {z }0

= g(x) = x2

() �0(x) =x2

e�x=) �(x) =

Zx2exdx:

A l�aide de deux intégrations par parties on obtient

�(x) = ex(x2 � 2x+ 2) +K où K 2 R

y = SGEASM

= [ex(x2 � 2x+ 2) +K]e�x

= x2 � 2x+ 2| {z }Y

+Ke�x| {z }y0

:

2.2.4 Exemples d�autres équations di¤érentielles (non linéaires)

An Equations à variables séparables

Dé�nition 2.2.4 On appelle équation di¤érentielle du premier ordre touterelation de la forme

b(y)y0 � a(x) = 0

La séparation des variables passe par

b(y)dy

dx= a(x):

37

Page 45: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

D�où

a(x)dx = b(y)dy:

La résolution La solution s�obtient par intégration de chaque membre :Za(x)dx =

Zb(y)dy:

Exemple 2.2.5 Résoudrey0 = ky (2.4)

avec k 6= 0: On ady

dx= ky () dy

y= kdx:(y 6= 0)

C�est une équation à variables séparables avec a(x) = k et b(y) = 1y : AlorsZ

dy

y= k

Zdx() ln jyj+ c1 = kx+ c2

() ln jyj = kx+ c3() jyj = ekx+c3

() y = �ekxec3 :

Donc la solution générale de l�équation (2.4) est

y = cekx; c 2 R:

Exemple 2.2.6 Soit l�équation (1 + x)y0 = (1 + y2):

(1 + x)y0 = (1 + y2)() (1 + x)dy

dx= (1 + y2)

() dy

(1 + y2)=

dx

(1 + x); x 6= �1

()Z

dy

(1 + y2)=

Zdx

(1 + x)

() arctan(y) = ln j1 + xj+ c

() y = tan(ln j1 + xj+ c); c 2 R:

38

Page 46: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Bn Equations di¤érentielles homogènes

Dé�nition 2.2.5 Une équation di¤érentielle est dite homogène si, en rem-plaçant x par kx et y par ky, l�équation reste inchangée. Alors on peut écrire

cette équation sous la forme

y0 = h(y

x):

La résolution Pour la résolution, nous allons utiliser le changement de

variable

t =y

x

donc

y = tx; dy = tdx+ xdt

à substituer dans l�équation homogène permettant ainsi d�obtenir une équa-

tion à variables séparables de la forme

m(x)dx+ n(t)dt = 0:

Après résolution en intégrant chaque membre, t est remplacé par yx :

Exemple 2.2.7 Véri�er que l�équation y0 = xyx2+y2

est homogène et la mettre

sous l forme y0 = h( yx):

(kx)(ky)

(kx)2(ky)2=k2

k2xy

x2 + y2=

xy

x2 + y2= y0:

Transformons l�expression a�n d�obtenir

y0 = h(y

x) = h(t) : y0 =

x2(y=x)

x2(1 + y2=x2)=

y=x

1 + (y=x)2= h(

y

x)

avec h(t) = t1+t2

:

y0 =xy

x2 + y2() dy

dx=

xy

x2 + y2

() (x2 + y2)dy = xydx:

39

Page 47: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

En substituant y par tx et dy par tdx+ xdt; on obtient

(x2 + t2x2)(tdx+ xdt) = tx2dx:

En développant, puis en regroupant les dt dans un membre et les dx dans

l�autre, on obtient :

(x3(1 + t2))dt = (�t3x2)dx(t 6= 0)() 1 + t2

t3dt = �1

xdx| {z }

équation à variables

séparables

()Z(1

t+1

t3)dt =

Z�1xdx

d�où

() ln jtj � 1

2t2= � ln jxj+ k: (2.5)

Sachant que t = yx alors

ln���yx

���� 1

2( yx)2= � ln jxj+ k () ln jyj � x2

2y2= k:

On aboutit à une fonction implicite f(x; y) = 0 qui ne permet pas d�exprimer

y en fonction de x seul, mais x en fonction de y: On peut aussi présenter la

solution sous forme d�équation paramétrique à partir de (2.5) :8<: x = c e12t2

t

y = tx = ce12t2

où c = �ek:

Cn Equation de Bernoulli

Une équation di¤érentielle est dite de Bernoulli si elle est de la forme :(y0 = f(x)y + g(x)y�

� 6= 0; � 6= 1 et � 2 R(2.6)

40

Page 48: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

La résolution On a

y0 = f(x)y + g(x)y� () y0

y�= f(x)

y

y�+ g(x) = f(x)z + g(x):

On e¤ectue le changement de variable z = yy� = y

1��; donc

z0 = (1� �)y1���1y0 () z0 = (1� �) y0

y�

() z0

(1� �) =y0

y�

() z0

(1� �) = f(x)z + g(x)

() z0 = (1� �)f(x)z + (1� �)g(x)

() z0 = F (x)z +G(x)

c�est une équation di¤érentielle du premier ordre avec second membre que

l�on sait résoudre.

Exemple 2.2.8 Résoudre l�équation

xy0 + y � xy3 = 0; x 6= 0:

xy0 = �y + xy3 () y0 = �yx+ y3

c�est une équation de Bernoulli avec

f(x) = �yx; g(x) = 1 et � = 3

y0

y3= �1

x

y

y3+ 1() y0

y3= �1

x

1

y2+ 1

() y0

y3= �1

xy�2|{z}z

+ 1:

41

Page 49: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

On a z = y�2 alors

z0 = �2y�3y0 () y0

y3= �1

2z0

() �12z0 = �1

xz + 1

() z0 =2

xz � 2

c�est une équation linéaire du premier ordre avec second ordre dont la solution

est

z = cx2 � 2x =) y(x) =�1p

cx2 � 2x:

2.2.5 Equations di¤érentielles du second ordre

Dé�nition 2.2.6 On appelle équation di¤érentielle du second ordre toute re-lation de la forme :

8x; F (x; y; y0; y00) = 0

entre la variable x, la fonction y, sa dérivée première y0 et sa dérivée seconde

y00:

An Equations di¤érentielles du second ordre pouvant se ramener aupremier ordre

Propriétés 2.2.1 Toute relation de la forme

8x; F (x; y0; y00) = 0

c�est-à-dire sans y, peut se ramener à deux équations di¤érentielles de premier

ordre.

En e¤et, en posant z = y0 et z0 = y00; la relation devient :

F (x; z; z0) = 0:

42

Page 50: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Exemple 2.2.9 Résoudrey00 + y0 = 0:

En posant z = y0; l�équation devient :

z0 + z = 0:

D�où

dz

dx= �z () dz

z= �dx

()Zdz

z= �

Zdx

() ln jzj = �x+ c1() z = c2e

�x; c2 = ec1 :

Or

y =

Zz(x)dx = c3e

�x + c4:

Bn Equations di¤érentielles linéaires du second ordre à coe¢ cientsconstants sans second membre

Dé�nition 2.2.7 Une équation di¤érentielle linéaire du second ordre à coef-�cients constants sans second membre est dé�nie par l�équation

ay00 + by0 + cy = 0 (2.7)

où a(6= 0); b et c sont des constantes réelles et y une fonction de x:

Dé�nition 2.2.8 Soient y1 et y2 deux fonctions dérivables. On appelleWrons-kien la fonction W (y1; y2) associée à y1 et y2 par :

W (y1; y2) =

����� y1 y2

y01 y02

����� = y1y02 � y01y2:Propriétés 2.2.2 Si y1 et y2 sont deux solutions de l�équation (2.7), et que

43

Page 51: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

le Wronskien est non nul, alors y1 et y2 sont deux solutions linéairement

indépendantes (c�est-à-dire non proportionnelles) (y1 6= ky2):

Propriétés 2.2.3 Si y1 et y2 sont deux solutions linéairement indépendantesde l�équation (2.7), l�ensemble des solutions du système est donné par

y(x) = c1y1(x) + c2y2(x)

où c1 et c2 sont deux constantes réelles.

La résolution Véri�ons que les solutions y1 et y2 sont de la forme y = erx:

On en déduit

y0 = rerx; y00 = r2erx:

En les substituant dans l�équation (2.7), on obtient

ar2erx + brerx + cerx = (ar2 + br + c)erx = 0:

Or, erx 6= 0: D�où l�équation caractéristique

ar2 + br + c = 0:

Les solutions y1 et y2 dépendent des racines de cette équation caractéristique.

D�où le calcul du discriminant � = b2 � 4ac:

Premier cas � > 0 : Alors l�équation caractéristique a deux racines

r1 =�b+

p�

2a et r2 = �b�p�

2a et la solution générale de (2.7) est

y = c1er1x + c2e

r2x:

Deuxième cas � = 0 : Alors l�équation caractéristique a une racine

double r = �b2a et

y = (c1 + c2x)erx:

44

Page 52: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Troisième cas � < 0 : Alors r1 = � + i� et r2 = � � i� et la solutionde l�équation (2.7) est

y = [c1 sin(�x) + c2 cos(�x)]e�x:

Exemple 2.2.10 Résoudre l�équation di¤érentielle

y00 + 4y0 = 0: (2.8)

L�équation caractéristique

r2 + 4r = 0() r(r + 4) = 0

() r1 = �4 et r2 = 0

deux racines distinctes donc

y = c1e�4x + c2:

L�équation (2.8) peut aussi être résolue par le changement de variables : z =

y0:

Exemple 2.2.11 Résoudre l�équation di¤érentielle

y00 + 2y0 + y = 0:

L�équation caractéristique

r2 + 2r + 1 = 0() (r + 1)2 = 0

() r = �1

une racine double donc

y = (c1 + c2x)e�x:

45

Page 53: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

Exemple 2.2.12 Résoudre l�équation

2y00 + 2y0 + y = 0:

L�équation caractéristique : 2r2 + 2r + 1 = 0

� = �4 = 4i2 () r =�2� 2i4

=�1� i2

donc (avec � = �12 et � =

12)

y = [c1 sin(x

2) + c2 cos(

x

2)]e�

x2 :

Cn Equations di¤érentielles linéaires du second ordre à coe¢ cientsconstants avec second membre

Dé�nition 2.2.9 Une équation di¤érentielle linéaire du second ordre à coef-�cients constants avec second membre est une équation de la forme :

ay00 + by0 + cy = g(x)

où a; b et c sont des constantes et g(x) est le second ordre.

La résolution par la méthode de variation de la constante La forme

de la solution sans second membre

y0(x) = c1y1(x) + c2y2(x)

on déduit la forme de la solution générale avec second membre en considérant

les constantes comme des fonctions de x. Posons

y(x) = SGEASM = c1(x)y1(x) + c2(x)y2(x)

46

Page 54: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

où c1 et c2 sont désormais deux fonctions de x. Les fonctions c1 et c2 sont

alors des solutions du système(c01y1 + c

02y2 = 0

c01y01 + c

02y02 =

g(x)a

:

Le déterminant de ce système est le Wronskien qui est non nul (y1 et y2 sont

deux solutions linéairement indépendantes). D�après Cramer, la solution est

unique : 8>>>>>>><>>>>>>>:c01 =

�������0 y2

g(x)=a y02

�������W (y1;y2)

= �1a

y2g(x)W (y1;y2)

c02 =

�������y1 0

y01 g(x)=a

�������W (y1;y2)

= 1a

y1g(x)W (y1;y2)

=)(c1 =

�1a

R y2g(x)W (y1;y2)

dx

c2 =1a

R y1g(x)W (y1;y2)

dx:

Exemple 2.2.13 Résoudre l�équation di¤érentielle linéaire du second ordreavec second membre

y00 � 5y0 + 6y = ex:

� Recherche la SGESSM : y0 de l�équation

y00 � 5y0 + 6y = 0:

L�équation caractéristique :

r2 � 5r + 6 = 0() r1 = 2; r2 = 3

=) y0 = c1e2x + c2e

3x; c1;2 2 R:

� Recherche de SGEASM : y : En posant y = c1(x)e2x + c2(x)e

3x avec

47

Page 55: Cours BiomathØmatiques-Biostatistiques

2.2. Equations di¤érentielles

y1(x) = e2x; y2(x) = e

3x alors(c01y1 + c

02y2 = 0

c01y01 + c

02y02 =

g(x)a

()(c01y1 + c

02y2 = 0

2c01e2x + 3c02e

3x = ex:

En utilisant la méthode de Cramer8>>>>>>><>>>>>>>:c01 =

�������0 e3x

ex 3e3x

�������W (y1;y2)

= �e4xe5x

= e�x

c02 =

�������e2x 0

2e2x ex

�������W (y1;y2)

= e3x

e5x= e�2x

()(

c01 = e�x + k1

c02 = �12e�2x + k2

:

Alors

y = (e�x + k1)e2x + (�1

2e�2x + k2)e

3x

= k1e2x + k2e

3x| {z }y0

+ex

2|{z}Y

:

48

Page 56: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 3

Chapitre 3 : Fonctions à plusieurs variables

Dans la pratique, il arrive très souvent qu�une grandeur étudiée dépende

de plusieurs variables simultanément. Les fonctions à une variable traitées

dans le premier chapitre ne sont alors pas adaptées à la modélisation des

variations de ces grandeurs et il devient nécessaire d�introduire les fonctions à

plusieurs variables, dont nous allons par la suite utiliser les applications dans

le calcul d�erreur et la régression linéaire par moindres carrés. La notion de

vecteurs utilisée en physique et en mécanique de �uides sera aussi présentée.

3.1 Dé�nition d�une fonction à plusieurs variables

Dé�nition 3.1.1 Une application dé�nie sur un sous ensemble de Rn et pre-nant des valeurs réelles est appelée fonction à n variables :

f : Rn ! R

f(x1; x2; :::; xn) 2 R;8x = (x1; x2; :::; xn) 2 Rn:

Exemple 3.1.1 La pression P d�un gaz parfait est une fonction de trois va-

49

Page 57: Cours BiomathØmatiques-Biostatistiques

3.1. Dé�nition d�une fonction à plusieurs variables

riables, sa température T , son volume V et le nombre de moles N :

P (N;V; T ) =NRT

V;R = cte:

Dé�nition 3.1.2 Si l�on �xe à des valeurs constantes toutes les variablesd�une fonction à plusieurs variables sauf une, on obtient une fonction à une

seule variable, appelée application partielle.

Exemple 3.1.2 Si on �xe le volume V et le nombre des moles N à des

valeurs constantes (V = V0; N = N0), la pression P d�un gaz parfait dépend

uniquement d�une seule variable c�est la température T

P (T ) =N0RT

V0; R; V0; N0 = cte:

Dé�nition 3.1.3 Une fonction f à deux variables est dite homogène de degrén si :

f(�x; �y) = �nf(x; y):

Exemple 3.1.3 Soit la fonction

f(x; y) = 3x3 � 5x2y + y4 + x2y2

2x� 3y :

f(�x; �y) = 3�3x3 � 5�2x2�y + �4y4 + �2x2�2y2

2�x� 3�y

= �3(3x3 � 5x2y + y4 + x2y2

2x� 3y )

= �3f(x; y);

alors la fonction f est homogène de degré 3:

50

Page 58: Cours BiomathØmatiques-Biostatistiques

3.3. Dérivées partielles

3.2 Continuité

Dé�nition 3.2.1 � Une fonction f à n variables est dite continue en

x0(x01; x

02; :::; x

0n) si et seulement si : 8x = (x1; x2; :::; xn) et 8" > 0;9�(")

tel que :��x� x01�� < �(")��x� x02�� < �("):::::::::::::��x� x0n�� < �(")

9>>>>=>>>>; =)��f(x1; x2; :::; xn)� f(x01; x02; :::; x0n)�� < ":

� On écrit limx!x0

f(x1; x2; :::; xn) = f(x01; x

02; :::; x

0n):

� Si la fonction est continue en chaque point d�un sous ensemble E de R2

on dit qu�elle est continue sur E.

� Si f et g sont deux fonctions à n variables continues en x0, alors :

1. f + g est continue en x0

2. f:g est continue en x0

3. f=g est continue en x0 si g(x0) 6= 0:

3.3 Dérivées partielles

3.3.1 Dérivées partielles du premier ordre

Dé�nition 3.3.1 Soit une fonction f à n variables et l�application partielleobtenue en �xant toutes les variables sauf xk à des constantes (x01; x

02; :::; x

0n):

La dérivée (si elle existe) de l�application partielle au point x0k dé�nie par :

limxk!x0k

f(x01; x02; :::; xk; :::; x

0n)� f(x01; x02; :::; x0k; :::; x0n)xk � x0k

est appelée dérivée partielle de f au point x0 = (x01; x02; :::; x

0n) notée

@f

@xk(x01; x

02; :::; x

0n):

51

Page 59: Cours BiomathØmatiques-Biostatistiques

3.3. Dérivées partielles

Propriétés 3.3.1 � Une fonction à n variables admet n dérivées par-

tielles du premier ordre par rapport à x1; x2; :::; xn: On note@f@xk

la dé-

rivée partielle de f par rapport à xk:

� Les règles de dérivation des fonctions à une variable s�appliquent aussi

aux dérivées partielles. Plus particulièrement on a :

1. @c@xk

= 0 8k (où c = cte )2. @xk

@xk= 1 8k

3. @xk@xl

= 0 8(k; l) avec k 6= l:

Exemple 3.3.1 Trouver les dérivées partielles d�ordre 1 par rapport à T etpar rapport à V de la pression P d�un gaz parfait

P (T;N; V ) =NRT

V:

On calcule la dérivée partielle par rapport à T en considérant N et V comme

des constantes :@P

@T=NR

V:

De la même manière on calcule

@P

@V=�NRTV 2

:

3.3.2 Dérivées partielles d�ordre supérieur

La dérivée partielle de premier ordre d�une fonction f à n variables est

aussi une fonction à n variables. Si les dérivées partielles de @f@xk

par rapport à

ces variables existent, ces dérivées sont appelées dérivées partielles de second

ordre de la fonction f et sont notées :

1. @@xl( @f@xk ) =

@2f@xl@xk

k 6= l (dérivée mixte)

2. @@xk( @f@xk ) =

@2f@x2k:

Exemple 3.3.2 Trouver la dérivée partielle d�ordre 2 par rapport à V et la

dérivée mixte d�ordre 2 par rapport à V et T de la pression P d�un gaz parfait.

On a calculé @P@V =

�NRTV 2

et @P@T =NRV : Alors

52

Page 60: Cours BiomathØmatiques-Biostatistiques

3.3. Dérivées partielles

1. @2P@V 2

= @@V (

�NRTV 2

) = 2NRTV 3

:

2. @@T (

@P@V ) =

�NRV 2

; ou de manière équivalente @@V (

@P@T ) =

�NRV 2

: Donc

@

@T(@P

@V) =

@

@V(@P

@T):

Théorème 3.3.1 (Schwartz)Soit f une fonction de deux variables x et y: Si les dérivées partielles

mixtes de second ordre existent et sont continues, alors :

@

@y(@f

@x) =

@

@x(@f

@y);

et on écrit@2f

@x@y=@2f

@y@x:

Dé�nition 3.3.2 On appelle matrice hessienne en un point (x0; y0) d�unefonction f à deux variables , la matrice

Q =

@2f(x0;y0)

@x2@2f(x0;y0)@x@y

@2f(x0;y0)@x@y

@2f(x0;y0)@y2

!=

r s

s t

!:

3.3.3 Extrema d�une fonction à deux variables

Théorème 3.3.2 Soit f une fonction à deux variables x et y. Si f admet unextremum local en un point (x0; y0) et que f est dérivable par rapport à x et

par rapport à y en x0 et en y0; alors :

@f(x0; y0)

@x=@f(x0; y0)

@y= 0:

Propriétés 3.3.2 Extremum : minimum ou maximum?On admettra que f est dérivable deux fois. Notons � le déterminant de la

53

Page 61: Cours BiomathØmatiques-Biostatistiques

3.3. Dérivées partielles

matrice hessienne :

� =

�����@2f(x0;y0)

@x2@2f(x0;y0)@x@y

@2f(x0;y0)@x@y

@2f(x0;y0)@y2

�����=

@2f(x0; y0)

@x2:@2f(x0; y0)

@y2� (@

2f(x0; y0)

@x@y)2

= rt� s2:

1. Si � > 0 et r = @2f(x0;y0)@x2

> 0 =) (x0; y0) est un minimum.

2. Si � > 0 et r = @2f(x0;y0)@x2

< 0 =) (x0; y0) est un maximum.

3. Si � < 0 =) (x0; y0) est un point selle (pas d�extremum).

4. Si � = 0 =) cas indéterminé.

Exemple 3.3.3 Trouver les extrema de la fonction f(x; y) = ax2+by2; (a; b) 2R2: On a :

1. @f(x;y)@x = 2ax = 0 =) x = 0

2. @f(x;y)@y = 2by = 0 =) y = 0

alors (0; 0) est un extremum. (minimum ou maximum?). On a :

r = @2f(x0;y0)@x2

= 2a

t = @2f(x0;y0)@y2

= 2b

s = @2f(x0;y0)@x@y = 0

� = rt� s2 = 4ab:

D�où :

1. Si a et b sont positifs, alors r > 0 et � > 0 =) le point (0; 0) est un

minimum,

2. Si a et b sont négatifs, alors r < 0 et � > 0 =) le point (0; 0) est un

maximum,

3. Si a et b sont de signes contraires, alors � < 0 =) il n�existe pas

d�extremum.

54

Page 62: Cours BiomathØmatiques-Biostatistiques

3.5. Calcul d�erreur

3.4 Di¤érentielles

Dé�nition 3.4.1 On appelle di¤ érentielle partielle par rapport à xk d�unefonction f à n variables, l�expression

@f

@xkdxk:

Dé�nition 3.4.2 On appelle di¤ érentielle (en physique di¤ érentielle to-tale ou di¤ érentielle exacte) d�une fonction f à n variables :

df =

nXi=1

@f

@xidxi:

Théorème 3.4.1 Pour qu�une fonction f à n variables soit di¤ érentiableen un point x0 = (x01; x

02; :::; x

0n); il su¢ t que ses dérivées partielles du pre-

mier ordre existent et soient continues en x0:Une telle fonction f est appelée

régulière.

3.5 Calcul d�erreur

Une des principales applications des di¤érentielles totales est le calcul de

propagation d�erreur. Il s�agit de déterminer l�erreur maximal d�un résultat

de calcul faisant intervenir des paramètres expérimentaux imprécis.

3.5.1 Erreur absolu

Théorème 3.5.1 Soit f une fonction à n variables, régulière au point x0 =(x01; x

02; :::; x

0n) avec chaque x

0i a¤ecté d�une erreur �xi: L�erreur �f induite

par l�imprécision sur les x0i peut être estimée par

j�f j �nXi=1

���� @f@xi (x0)�����x0i

Exemple 3.5.1 Calculer le nombre de moles contenues dans un gaz parfaitmaintenu dans un récipient qui mesure 1L avec une précision de 0:5%; à une

55

Page 63: Cours BiomathØmatiques-Biostatistiques

3.5. Calcul d�erreur

pression P = 1atm; déterminée avec une précision de 1% et thermostaté à

300K par un thermostat pouvant être réglé au 1=10 de degré près. On donne

R = 0:08205atm L mol�1K�1:

Le nombre de moles N est donné par

N =PV

RT

=1� 1

0:08205� 300= 0:0406256mol:

On calcule la di¤érentielle

dN =@N

@PdP +

@N

@VdV +

@N

@TdT

=V

RTdP +

P

RTdV � PV

RT 2dT:

Donc

�N ����� VRT

�����P + ���� PRT�����V + ����� PVRT 2

�����T� 0:0406256� 0:01 + 0:0406256� 0:005

+0:000135419� 0:1

� 0:000622926mol:

On écrit

N = (0:0406� 0:0006)mol:

La précision est d�environ 1:5%:

3.5.2 Erreur relative et di¤érentielle logarithmique

Le calcul de l�erreur relative �ff est obtenu facilement par le calcul de la

di¤érentielle logarithmique

d ln jf j = df

f:

56

Page 64: Cours BiomathØmatiques-Biostatistiques

3.6. Méthode des moindres carrés

Exemple 3.5.2 Revenant à l�exemple 3.5.1. Nous allons refaire le calcule enutilisant la di¤érentielle logarithmique

lnN = lnPV

RT= lnP + lnV � lnR� lnT:

Alors

d(lnN) =dP

P+dV

V� dTT

�N

N=

���� 1P�����P + ���� 1V

�����V + ����� 1T�����T

= 0:01 + 0:005 +0:1

300= 0:015

= 1:5%

On remarque qu�on a trouvé le même résultat, mais avec un moyen plus

simple.

3.6 Méthode des moindres carrés

Soit y une grandeur expérimentale qui dépend d�une autre grandeur x

linéairement

y = a+ bx:

Dans la pratique, la grandeur y sera mesurée avec une certaine erreur, les

points (x; y) ne seront pas exactement alignés. Nous allons essayer de trouver

une droite moyenne satisfaisant l�expérience. Pour cela, nous allons déterminer

les valeurs a et b qui minimisent les écarts entre les points expérimentaux yi et

les points calculés par l�équation moyenne yi. La somme des carrés des écarts

57

Page 65: Cours BiomathØmatiques-Biostatistiques

3.6. Méthode des moindres carrés

est donnée par

S =

nXi=1

(yi � yi)2 =nXi=1

(a+ bxi � yi)2:

S étant une fonction de deux variables, on calcule les dérivées partielles :

1.

@S

@a=

nXi=1

2(a+ bxi � yi) =nXi=1

2a+

nXi=1

2bxi �nXi=1

2yi

= 2(na+ b

nXi=1

xi �nXi=1

yi);

2.

@S

@b=

nXi=1

2xi(a+ bxi � yi) =nXi=1

2xia+nXi=1

2bx2i �nXi=1

2xiyi

= 2(anXi=1

xi + 2bnXi=1

x2i �nXi=1

xiyi):

Pour obtenir un extremum, il faut que @S@a =

@S@a = 0: Ceci nous amène à

résoudre un système d�équations (dites équations normales) dont les inconnus

sont a et b : 8>><>>:na+ b

nPi=1xi =

nPi=1yi

anPi=1xi + 2b

nPi=1x2i =

nPi=1xiyi:

58

Page 66: Cours BiomathØmatiques-Biostatistiques

3.6. Méthode des moindres carrés

Alors, on obtient

a =

�nPi=1xi

nPi=1xiyi +

nPi=1x2i

nPi=1yi

nnPi=1x2i � (

nPi=1xi)2

b =

nnPi=1xiyi +

nPi=1xi

nPi=1yi

nnPi=1x2i � (

nPi=1xi)2

:

On calcule les dérivées partielles d�ordre 2 :

r =@2S

@a2= 2n; t =

@2S

@b2= 2

nXi=1

x2i ; s =@2S

@a@b=

n

2Xi=1

xi:

On a bien un minimum car : � > 0 et r > 0:

59

Page 67: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 4

Chapitre 4 : Méthodes numériques

Soit la valeur expérimentale d�une grandeur y qui dépend d�une autre

grandeur x et que l�on ne connaît pas l�expression analytique de la fonction f

qui relie les deux valeurs. Dans ce cas, quel est le moyen utilisé pour le calcul

des dérivées, calcul d�intégrales ? Dans ce chapitre, a�n de répondre à cette

question, nous allons introduire les méthodes numériques.

4.1 La courbe expérimentale et l�interpolation gra-

phique

Lors d�une expérience, on obtient des résultats expérimentaux présentés

sous la forme d�un tableau dit de correspondance.

Exemple 4.1.1 Soient les résultats expérimentaux donnés sous forme d�untableau :

t (min) 1 5 10 15 17 20 30 40

C(t) (mg/l) 24:5 10:30 8:50 7:8 7:70 7:45 7:30 7:25

Ces résultats sont représentés graphiquement par : Fig (4.1)

1. La grandeur C portée sur l�axe des ordonnées est appelée variable àexpliquer, elle varie en fonction de t portée sur l�axe des abscisses qui

60

Page 68: Cours BiomathØmatiques-Biostatistiques

4.2. Calcul approché de dérivées

Fig. 4.1 �Evolution de C(t) en fonction de t

est appelée variable explicative.

2. Par un tracé continu passant par tous les points expérimentaux, on ob-

tient une courbe dite expérimentale.

3. La lecture sur la courbe expérimentale nous permet de déduire une inter-

polation graphique des données non mesurées sans connaitre l�expression

de C :

� Quelle est la concentration au temps t = 7min? graphiquement, elle

est entre 8 et 9mg=L:

� A quel instant la concentration est-elle de 15mg=L? graphiquement il

est entre 3 et 4min :

4.2 Calcul approché de dérivées

Nous allons donner dans cette section quelques résultats utilisés pour le

calcul approché de la dérivée sans connaitre l�expression analytique de la

fonction f: Ces résultats découlent de la dé�nition de la dérivée d�une fonction

en un point comme étant la pente de la tangente en ce point.

Dé�nition 4.2.1 Si la fonction f est mesurée expérimentalement en deuxpoints : a et a + h où h est petit, alors la valeur approchée de la dérivée

61

Page 69: Cours BiomathØmatiques-Biostatistiques

4.2. Calcul approché de dérivées

Fig. 4.2 �Valeur approchée de la dérivée

première f 0(a) est donnée par

f(a+h)�f(a)h

Dé�nition 4.2.2 Si la fonction f est mesurée expérimentalement en deuxpoints : a� h et a+ h; alors la valeur approchée de la dérivée première f 0(a)est donnée par

f(a+h)�f(a�h)2h

Dé�nition 4.2.3 Si la fonction f est mesurée expérimentalement au troispoints : a�h; a et a+h; alors la valeur approchée de la dérivée seconde f 00(a)est donnée par

f(a+h)�2f(a)+f(a�h)h2

Exemple 4.2.1 Revenons à l�exemple 4.1.1 :� C 0(t) = C(t+h)�C(t�h)

2h :

� C 0(10) = C(15)�C(5)10 ' �0:25mg=L=min; avec h = 5:

� C 0(20) = C(30)�C(10)20 ' �0:06mg=L=min; avec h = 10:

62

Page 70: Cours BiomathØmatiques-Biostatistiques

4.3. Interpolations

4.3 Interpolations

Maintenant, nous allons donner une estimation de la fonction f en un

point x pour lequel l�expérience n�a pas été réalisée.

4.3.1 Interpolation linéaire

L�interpolation linéaire suppose qu�entre deux points expérimentaux, la

variation est linéaire.

Dé�nition 4.3.1 Si la fonction f est mesurée expérimentalement en deuxpoints a et a + h; où h et petit. Alors pour a < x < a + h; f(x) est estimée

par :

f(a) + (x� a)f(a+h)�f(a)h

Exemple 4.3.1 (Suite de l�exemple 4.1.1 ). Estimer C(7) par interpolationlinéaire. Pour cela, il su¢ t de connaître la fonction C en deux points a et

a+ h: Soit a < t < a+ h;

C(t) � C(a) + (t� a)C(a+ h)� C(a)h

On a 5 < 7 < 10; d�où a = 5 et h = 5

C(7) � C(5) + (7� 5)C(10)� C(5)5

� 9:58mg=L:

4.3.2 Interpolation parabolique

L�interpolation parabolique suppose qu�entre trois points expérimentaux,

la variation est parabolique.

Dé�nition 4.3.2 La fonction f est mesurée expérimentalement en trois pointsa� h; a et a+ h où h est petit. Si a� h < x < a+ h; alors f est estimée par

f(a) + (x� a)f(a+h)�f(a�h)2h + (x�a)22

f(a+h)�2f(a)+f(a�h)h2

63

Page 71: Cours BiomathØmatiques-Biostatistiques

4.4. Calcul approché de l�intégrale

Exemple 4.3.2 Estimer C(7) par interpolation parabolique. Dans ce cas, ilsu¢ t de connaître la fonction C en trois points : a � h; a et a + h: Soita� h < x < a+ h avec a = 10 et h = 5; alors

C(7) � C(10) + (7� 10)C(15)� C(5)10

+(7� 10)2

2

C(15)� 2C(10) + C(5)52

� 9:45mg=L:

4.4 Calcul approché de l�intégrale

Dans ce paragraphe, nous allons donner quelques méthodes numériques

utilisées pour le calcul approché de l�intégrale d�une fonction f continue et

dé�nie entre deux bornes a et b :bRaf(x)dx: Nous allons appliquer ces méthodes

numériques dans le cas où :

� Le calcul de la primitive de f est impossible ;

� La fonction f est le résultat de mesures expérimentales en quelques

points.

4.4.1 Méthode des rectangles pour deux points

Soit f une fonction mesurée expérimentalement en deux points a et a+h:

Dans ce cas, f sera approchée par la droite parallèle à l�axe des abscisses

d�équation y = f(a): Par conséquent, la surface sous cette droite est un rec-tangle de bases h et f(a) et d�aire hf(a): Donc on a le résultat suivant

I =a+hRaf(t)dt � hf(a)

4.4.2 Méthode des rectangles pour (n+1) points régulière-ment répartis

Maintenant, la fonction f est la donnée des mesures expérimentales en (n+

1) points. Ces points sont régulièrement répartis donnés par (a = x0; x1; x2; x3; :::; xn =

64

Page 72: Cours BiomathØmatiques-Biostatistiques

4.4. Calcul approché de l�intégrale

Fig. 4.3 �Méthode des rectangles pour deux points

b); où xi = a+ ih: Entre chaque deux points (xi; xi+1) la fonction f est appro-

chée par une droite parallèle à l�axe des abscisses d�équation y = f(xi): Sous

chaque droite, on obtient un rectangle de bases h et f(xi): Alors l�intégrale

I =bRaf(t)dt est estimée par la somme des aires de ces n rectangles

I � Irec tan gle = hf(a)| {z }aire du 1errectangle

+ hf(x1) + hf(x2) + :::+ hf(xn�1)| {z }aire du ni�emrectangle

Donc on a le résultat

I � hff(a) +n�1Pi=1f(xi)g

avec h = b�an :

Remarque 4.4.1 L�erreur d�estimation est donné par la di¤érence entre lavaleur exacte de l�intégrale notée I et la valeur approchée notée Irec tan gle:

4.4.3 Méthode des trapèzes pour deux points

Considérons la fonction f mesurée expérimentalement en deux points a

et a + h: Par cette méthode, la fonction f est approximée par une droite,

sous cette droite on obtient un trapèze d�une petite base f(a); grande base

65

Page 73: Cours BiomathØmatiques-Biostatistiques

4.4. Calcul approché de l�intégrale

Fig. 4.4 �Méthode des rectangles pour n+1 points

Fig. 4.5 �Méthode des trapèzes pour deux points

f(a + h) et d�un hauteur h. Donc l�intégrale entre a et a + h est estimé par

l�aire de ce trapèze. D�où on a

I =a+hRaf(t)dt � h

2ff(a) + f(a+ h)g

66

Page 74: Cours BiomathØmatiques-Biostatistiques

4.4. Calcul approché de l�intégrale

4.4.4 Méthode des trapèzes pour (n+1) points régulièrementrépartis

La fonction f est mesurée expérimentalement en (n+ 1) points régulière-

ment répartis (a = x0; x1; x2; x3; :::; xn = b): Entre chaque couples de points

(xi; xi+1) on approxime f par une droite. Sous chaque droite on a un trapèze.

L�intégrale I =bRaf(t)dt estimé par la somme des aires de n trapèzes.

Itrap�ezes =h2ff(a) + f(b) + 2

n�1Pi=1

f(xi)g

avec h = b�an :

Remarque 4.4.2 L�erreur d�estimation est donné par la di¤érence entre lavaleur exacte de l�intégrale notée I et la valeur approchée notée Itrap�ezes:

4.4.5 Méthode de Simpson pour trois points régulièrementrépartis

La fonction f est mesurée expérimentalement en trois points régulièrement

répartis x � h; x et x + h: Comme on a trois points, on peut approximer lafonction f par un arc de parabole d�équation f(x) = ax2+ bx+ c; où a; b; c

sont à déterminer. Le calcul estimé de l�intégrale I =x+hRx�hf(t)dt est donné par

l�aire sous cette parabole

ISimpson =h3ff(x� h) + 4f(x) + f(x� h)g

4.4.6 Méthode de Simpson pour (n+1) points régulièrementrépartis, n pair

La fonction f est mesurée en (n + 1) points régulièrement répartis (a =

x0; x1; x2; x3; :::; xn = b) où n est pair et h = b�an : La généralisation du résultat

précédent (pour trois point) nous conduit à estimer l�intégrale I =bRaf(t)dt

67

Page 75: Cours BiomathØmatiques-Biostatistiques

4.5. Résolution d�équations : Méthode de Newton-Raphson

par

ISimpson =h3ff(a) + f(b) + 4

(n�2)=2Pi=0

f(x2i+1) + 2(n�2)=2Pi=1

f(x2i)g

Remarque 4.4.3 Pour un même h, la méthode de Simpson est plus préciseque la méthode des trapèzes.

4.5 Résolution d�équations : Méthode de Newton-

Raphson

Considérons l�équation f(r) = 0: Par fois la recherche de la solution r de

cette équation par une méthode analytique est impossible. Pour cette raison,

nous allons introduire dans ce paragraphe une méthode numérique (Newton-Raphson) qui peut rendre cette recherche est plus facile et qui va nous donnerune valeur approchée de cette solution. Pour pouvoir appliquer la méthode de

Newton-Raphson, la fonction f doit être continue, monotone et dérivablesur l�intervalle étudié.

La méthode :� Étape 1 : �xer la précision " cherchée sur l�approximation de la solution

r:

� Étape 2 : mettre l�équation sous la forme f(x) = 0

� Étape 3 : calculer f 0(x)

� Étape 4 : choisir graphiquement un point de départ x0� Étape 5 : calculer x1 = x0 � f(x0)

f 0(x0)

� Étape 6 : comparer jx1 � x0j à " :

1. si jx1 � x0j < " : �n de la procédure r = x0 = x1

2. si jx1 � x0j > " : x1 devient un nouveau point de départ

et on calcule x2 = x1 � f(x1)f 0(x1)

; puis on compare jx2 � x1j à "; eton poursuit les itérations en calculant x3; :::; xn+1 jusqu�à ce que

jxn+1 � xnj < ":

68

Page 76: Cours BiomathØmatiques-Biostatistiques

4.5. Résolution d�équations : Méthode de Newton-Raphson

Remarque 4.5.1 � L�algorithme de Newton-Raphson coverge si : f 0(x); f 00(x) 6=0:

� x0 est un choix convenable si f 0(x0)f 00(x0) > 0:

Exemple 4.5.1 Résoudre l�équation ln(x) = x� 2 à 10�3 près.

1. la précision recherchée est " = 10�3

2. mettre l�équation sous la forme f(x) = 0 : f(x) = ln(x)� x+ 2 = 0:

3. calculer f 0(x) : f 0(x) = 1x � 1

4. la courbe f(x) coupe l�axe des abscisses en deux points, l�une est proche

de 0 et l�autre est proche de 3. choisissons un point de départ x0 = 3

5. x1 = 3� f(3)f 0(3) = 3:147918433

6. jx1 � x0j = 0:147918433 > "; donc x0 devient un nouveau point de

départ

i xi xi+1 = xi � f(xi)f 0(xi)

jxn+1 � xnj test

0 3 3; 147918433 0; 147918433 > "

1 3; 147918433 3; 146193441 0; 001724992 > "

2 3; 146193441 3; 146193221 2; 2:10�7 < "

D�où r � 3; 146

7. Si on prend un point de départ proche de 0 : x0 = 0; 1; alors on obtient

i xi xi+1 = xi � f(xi)f 0(xi)

jxn+1 � xnj test

0 0; 1 0; 14473168 0; 04473168 > "

1 0; 14473168 0; 15786436 0; 01313268 > "

2 0; 15786436 0; 15859234 0; 00072799 < "

D�où r � 0; 159

69

Page 77: Cours BiomathØmatiques-Biostatistiques

Deuxième partie

Probabilités

70

Page 78: Cours BiomathØmatiques-Biostatistiques

Probabilités, ou théorie des probabilités, branche des mathématiquesqui s�attache à mesurer ou à déterminer quantitativement la probabilité qu�a

un événement ou une expérience d�aboutir à un résultat donné.

Cette théorie utilise souvent les résultats de l�analyse combinatoire et no-

tamment les dénombrements appelés permutations, arrangements et combi-

naisons. Elle constitue la base de tous les travaux en statistiques.

"Microsoft R Encarta R 2009. c 1993-2008"

71

Page 79: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 5

Théorie des probabilités

5.1 Analyse combinatoire

5.1.1 Notion de factorielle

n! = n(n� 1)(n� 2):::(2)(1)

Par convention 0! = 1:

5.1.2 Permutation

On appelle permutation de n objets discernables toute disposition ordon-

née des n objets.

Pn = n!

Exemple 5.1.1 Soit E = f1; 2; 3g; alors (1; 2; 3); (1; 3; 2); (3; 2; 1) sont per-mutations de E:

72

Page 80: Cours BiomathØmatiques-Biostatistiques

5.1. Analyse combinatoire

5.1.3 Arrangements

On appelle arrangement de p éléments pris parmi n(p � n) toute dispo-sition ordonnée sans répétition (sans remise ou exhaustifs) de p objets pris

parmi n objets discernables.

Apn =n!

(n�p)!

Exemple 5.1.2 Soit E = fa; b; cg alors (a; b); (a; c); (b; a); (b; c); (c; a); (c; b)sont des arrangements de deux éléments de E:

Remarque 5.1.1 Si n = p alors Ann =n!

(n�n)! = n! = Pn

5.1.4 Combinaisons

On appelle combinaison de p éléments pris parmi n(p � n) toute disposi-tion non ordonnée de p objets pris parmi n objets discernables. Chaque objet

ne pouvant intervenir qu�une fois

Cpn =n!

p!(n�p)!

Exemple 5.1.3 Soit E = fa; b; cg; p = 2 alors fa; bg; fa; cg; fb; cg sont descombinaisons de deux éléments de E:

5.1.5 Propriétés des Cpn

1. Si 0 � p � n alors Cpn = Cn�pn

2. Si 1 � p � n alors Cpn = Cpn�1+ C

p�1n�1

3. Si n � 1 alors C0n = 1; Cnn = 1; C

1n = n:

5.1.6 Triangle de Pascal

En utilisant la propriété Cpn = Cpn�1+ Cp�1n�1; on obtient une construction

que l�on appelle Triangle de Pascal

73

Page 81: Cours BiomathØmatiques-Biostatistiques

5.2. Notion de probabilité

nnp 0 1 2 3 4 5 6 :::::

0

1

2

3

1

1

1

1

1

2

3

1

3 1

5.1.7 Formule du Binôme

La formule du Binôme est donnée par

(a+ b)n =

nXp=0

Cpnan�pbp

= C0nan + C1na

n�1b+ C2nan�2b2 + :::+ Cn�1n a1bn�1 + Cnnb

n

5.2 Notion de probabilité

5.2.1 Expériences aléatoires

Une expérience aléatoire est une expérience qui, au moins théoriquement,

peut être répétée aussi souvent que l�on veut et dont on ne peut pas prédire

le résultat. Par exemple le jet d�un dé à jouer. Chaque fois que l�expérience

est répétée, un résultat élémentaire est obtenu. L�ensemble des résultatsélémentaires d�une expérience aléatoire est appelé espace échantillon ouunivers, et noté :

A/ Espaces échantillons discrets

Un espace échantillons est dit discret si :

1. Le nombre des résultats possibles est �ni

Exemple 5.2.1 On lance un dé et l�on observe le nombre qui apparaît, = f1; 2; 3; 4; 5; 6g

2. Le nombre des résultats possibles est in�ni dénombrable (in�ni maison peut associer un nombre naturel à chaque résultat)

74

Page 82: Cours BiomathØmatiques-Biostatistiques

5.2. Notion de probabilité

Exemple 5.2.2 On lance un dé jusqu�à ce qu�on obtienne le chi¤re 5.Donc on peut compter le nombre de lancers e¤ectués pour obtenir le

premier 5; = f0; 1; 2; 3; 4; :::g:

B/ Espaces échantillons continus

Un espace échantillon est dit continu s�il contient un ou plusieurs inter-valles (in�ni non dénombrable).

Exemple 5.2.3 On lance un dé jusqu�à ce que l�on obtient le chi¤re 2 etl�on calcule le temps que cela a pris pour obtenir ce premier 2: On alors

= ft 2 R : t > 0g = (0;+1):

5.2.2 Événements

A/ Dé�nitions

Dé�nition 5.2.1 Un événement est un ensemble des résultats élémentaires.C�est-à-dire que c�est un sous-ensemble de l�univers.

Remarque 5.2.1 1. Chaque résultat est un événement

2. L�univers est un événement

3. Un résultat élémentaire est appelé aussi événement simple

4. Donc un événement composé est constitué de deux ou plusieurs résultats

élémentaires.

Exemple 5.2.4 1. Considérons l�expérience aléatoire de jet de dé. Alors

l�univers = f1; 2; 3; 4; 5; 6g

2. Maintenant, considérons l�événement A : "obtention d�un chi¤re pair".

Alors A = f2; 4; 6g

3. Puis, nous dé�nissons l�événement B : "obtention d�un chi¤re impair".

Alors B = f1; 3; 5g

75

Page 83: Cours BiomathØmatiques-Biostatistiques

5.2. Notion de probabilité

Remarque 5.2.2 1. Sur l�univers = f1; 2; 3; 4; 5; 6g; A et B sont des

événements composés et non simples. Mais si on considère un autre

univers 0 = fchi¤res pairs, chi¤res impairsg; alors A et B sont des

événements simples.

2. A une expérience aléatoire, n peut associer plusieurs univers.

Dé�nition 5.2.2 Les événements A et B sont dits incompatibles ou mu-tuellement exclusifs s�ils ne peuvent être réalisés en même temps. D�uneautre manière si leur intersection est vide A \B = /0:

Exemple 5.2.5 � Reprendre le même exemple "jet de dé " et observer

le chi¤re qui apparaît.

� Donc, = f1; 2; 3; 4; 5; 6g:� Soient les événements : A = f1; 2; 4g; B = f2; 4; 6g et C = f3; 5g:� On a A \B = f2; 4g et A \ C = /0: Donc A et C sont incompatibles.

Logique des événements

1. L�une des meilleurs façons pour représenter facilement les opérations

logiques des événements, est le diagramme ensembliste.

2. La théorie des ensembles avec toutes ces propriétés est peut être appli-

quer pour les événements.

3. L�événement qui contient tous les résultats de l�expérience aléatoire est

dit événement certain E = :

4. Un événement qui n�est jamais réalisé est dit événement impossibleE = /0:

5. Union d�événements : A [B : "A est réalisé ou B est réalisé"

6. Intersection des événements : A\B : "A est réalisé et B est réalisé"

7. Complémentarité : �A = Ac : complémentaire de A;A [ �A = et

A \ �A = /0 (A et �A sont incompatibles).

8. On appelle événement exhaustif ou complet toute ensemble d�événe-ments Ai(i = 1; :::; n) véri�ant :

76

Page 84: Cours BiomathØmatiques-Biostatistiques

5.2. Notion de probabilité

Fig. 5.1 �Union

Fig. 5.2 �Intersection

Fig. 5.3 �Complémentair de A

77

Page 85: Cours BiomathØmatiques-Biostatistiques

5.3. Probabilités totales

� Ai 6= /0;8i� Ai \Aj = /0

�n[i=1Ai =

5.2.3 Probabilité

Soient deux événements A et B :

Axiome 1 : La probabilité d�un événement A est un nombre compris entre0 et 1, noté P (A)

0 � P (A) � 1

Axiome 2 : La probabilité de l�événement certain est P () = 1

Axiome 3 : 1. Si A et B sont deux événements incompatibles, alors

P (A [B) = P (A) + P (B)

2. La probabilité de l�événement impossible est P ( /0) = 0:

Dé�nition 5.2.3 Soit l�univers

1. On dé�nit la probabilité sur comme étant un nombre appartenant à

[0; 1] associé à chaque événement élémentaire Ei de et noté P (Ei);

tel que

P (E1) + P (E2) + :::+ P (En) = 1

2. La probabilité de toute événement A de est la somme des probabilités

des événements élémentaires qui le constituent.

5.3 Probabilités totales

Le résultat suivant exprime la probabilité de réaliser A ou B:

Théorème 5.3.1

P (A [B) = P (A) + P (B)� P (A \B)

78

Page 86: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

Maintenant, on considère trois événements A, B et C

Théorème 5.3.2

P (A [B [ C) = P (A) + P (B) + P (C)� P (A \B)�P (A \ C)� P (B \ C) + P (A \B \ C)

Exemple 5.3.1 Dans un jeu de 32 cartes, on tire une carte. Calculer laprobabilité d�obtenir un trè�e ou un roi.

� L�événement A : "tirer un roi"

� L�événement B : "tirer un trè�e"

� Alors P (A) = 4=32 et P (B) = 8=32

� Remarquons le ou entre les deux événements, donc nous allons ap-

pliquer le théorème des probabilités totales :

P (A [B) = P (A) + P (B)� P (A \B)

� En véri�ant la compatibilité : Les événements A et B sont compatibles

car la probabilité de l�événement A \ B : "tirer le roi de trè�e" est

P (A \B) = 1=32� Donc

P (A [B) = 4=32 + 8=32� 1=32 = 11=32

� On a retranché P (A \ B) car le roi de trè�e est compté deux fois, unefois dans A et une fois dans B:

5.4 Probabilités conditionnelles

� Considérons une expérience aléatoire, A et B sont deux événements tels

que la réalisation de B in�uence la réalisation de A:

� La probabilité de réaliser A sachant que B a été réalisée est dite pro-babilité conditionnelle de A sachant B et s�écrit P (A=B)

� Autrement dit : elle est le calcul de la probabilité de A sur le sous-

ensemble réduit B de :

79

Page 87: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

Soit l�exemple

Exemple 5.4.1 1. Le nombre d�enfants dans une crèche est 300 :

(a) 190 sont des �lles

(b) 200 enfants habitent la même ville.

(c) Parmi ces 200 enfants qui habitent la même ville 100sont des �lles.

2. Si on choisit un enfant au hasard, et on s�intéresse aux trois événe-

ments :

(a) A : "L�enfant habite la même ville."

(b) B : "L�enfant est une �lle"

(c) A \B : "L�enfant est une �lle qui habite la même ville."

Alors P (A) = 200300 ; P (B) =

190300 ; P (A \B) =

100300

3. Maintenant, si on sait que l�enfant est une �lle, alors l�ensemble des

références est plus restreint, il est constitué de 190 �lles et la probabilité

qu�elle habite la même ville sachant qu�elle est une �lle est

P (A=B) =100

190

nombre des �lles qui habitent la même ville/le nombre des enfants �lles.

4. A remarquer que 100190 = (

100300)=(

190300)

5. Plus généralement,

P (A=B) = P (A \B)=P (B)

6. Sur l�ensemble restreint à 190 enfants, la probabilité que la �lle n�habite

pas la même ville est le complément à 1 de 100190 :

90190 ; donc

P ( �A=B) = 1� P (A=B)

80

Page 88: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

5.4.1 Théorème des probabilités composées

� Le théorème suivant sera utilisé pour calculer la probabilité de réaliser

A et B:

� On a P (A=B) = P (A \B)=P (B) avec P (B) 6= 0� Or P (A \B) = P (B \A)

Théorème 5.4.1

P (A \B) = P (B \A) = P (B)P (A=B) = P (A)P (B=A)

5.4.2 Événements indépendants

Dé�nition 5.4.1 1. Les deux événements A et B sont dits indépendantssi la réalisation ou la non-réalisation de B ne modi�e pas la réalisation

de A

P (A=B) = P (A)

2. Si A et B sont indépendants alors

P (A \B) = P (A)P (B)

Remarque 5.4.1 Ne pas confondre indépendance et incompatibilité.

5.4.3 Tirage avec ou sans remise

Dans cette section, nous allons bien assimiler la notion d�indépendance et

de dépendance avec le bais des tirages avec ou sans remise. Soit l�exempleexplicatif suivant :

"Soit une urne contenant n boules rouges notées (R) et N � n boulesblanches notées (B). Quelle est la probabilité de tirer deux boules rouges ?"

A/ Tirage avec remise (non exhaustif)

Soit R1 l�événement "obtenir une boule rouge au premier tirage", R2 l�évé-

nement "obtenir une boule rouge au deuxième tirage".

81

Page 89: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

Dans ce cas, (tirage avec remise) la composition de l�urne reste constante

au cours des tirages. Donc les tirages sont indépendants :

P (R1=R2) = P (R2):

La probabilité d�obtenir une boule rouge au premier tirage

P (R1) = P (R2) =n

N:

Donc

P (R1 \R2) = P (R2=R1)P (R1) = P (R1)P (R2) = (n

N)2

B/ Tirage sans remise (exhaustif)

Ici, la composition de l�urne change au cours des tirages. Après le premier

tirage d�une boule rouge, il reste n�1 boules rouges sur N�1 boules au total

P (R1) =n

N

P (R2=R1) =n� 1N � 1

Donc

P (R2) = P (R1 \R2) + P ( �R1 \R2)= P (R1)P (R2=R1) + P ( �R1)P (R2= �R1)

P ( �R1) = 1�n

N

et

P (R2= �R1) =n

N � 1Alors

P (R2) =n

N

n� 1N � 1 + (1�

n

N)

n

N � 1

P (R2) =n

N:

82

Page 90: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

5.4.4 Applications

Application 1 :

Dans une population, la probabilité de naissance d�un garçon est 0:52:

Dans cette population : 3% des �lles et 2% des garçons présentent un ictère

du nourrisson.

1. Quelle est la probabilité qu�un nouveau-né présente un ictère ?

2. Quelle est la probabilité qu�un nouveau-né présentant un ictère soit une

�lle ?

Méthode

� Exprimer les données du texte et les questions posées en termes de

probabilité.

� Analyser les événements pour déterminer s�ils sont associés par l�opéra-

tion ou ou et� véri�er la compatibilité.

Alors :

Question 1 :

� Les événements sont notés : F , G et I.

� On a

P (G) = 0:52

P (F ) = 1� 0:52 = 0:48

P (I=F ) = 0:03

P (I=G) = 0:02

� On calcule P (I) =?

� L�événement I est réalisé de deux façons :

� Par E1 : le nouveau-né est une �lle et elle présente un ictère :

E1 = I \ F

83

Page 91: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

ou

� Par E2 : le nouveau-né est un garçon et il présente un ictère :

E2 = I \G� Pour l�opération ou nous allons appliquer le théorème des probabilités

totales avec E1 et E2 sont incompatibles

P (I) = P (E1) + P (E2)

� Pour l�opération et nous allons appliquer le théorème des probabilités

composées

P (E1) = P (I \ F ) = P (F )P (I=F )P (E2) = P (I \G) = P (G)P (I=G)

Donc

P (I) = 0:0248

Question 2 :

Il nous demande de calculer P (F=I) (probabilité conditionnelle)

P (I \ F ) = P (F )P (I=F ) (5.1)

et

P (I \ F ) = P (F \ I) = P (I)P (F=I) (5.2)

De (5.1) et (5.2) on a :

P (F=I) =P (F )P (I=F )

P (I)= 0:581

Application 2

Dans un lot de 18 ampoules pour soluté injectable. 4 sont défectueuses.

On tire simultanément 2 ampoules. calculer la probabilité :

1. Pour qu�elles soient toutes les deux défectueuses

2. Pour qu�aucune ne soient défectueuse

84

Page 92: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

3. Pour qu�une au moins soit défectueuse

Méthode

Dans cette exemple le tirage est sans remise. Soit les événements :

* def1 : "La première ampoule est défectueuse"

* def2 :"La deuxième ampoule est défectueuse"

* def1;2 : "Les deux ampoules sont défectueuses"

1. On a P (def1) =418 et P (def2=def1) =

317

alors

P (def2) = P (def1;2) = P (def1 \ def2)

= P (def1)P (def1=def2)

=4

18

3

17=2

51

2. P (defaucune) = P (def1) \ P (def2) =?On a P (def1) = 1� 4

18 =1418 et P (def2=def1) = 13

17

alors

P (defaucune) = P (def1)P (def2=def1) =91

153

3. En général, l�événement "un au moins" est le contraire de "aucun".

Donc

P (defune�au�moins) = 1� P (defaucune)

= 1� 91

153

=62

153:

5.4.5 Arbre probabiliste

On peut simplement traiter un exercice de probabilités conditionnelles en

construisant un arbre qui résume toutes les données du problème Fig 5.4

85

Page 93: Cours BiomathØmatiques-Biostatistiques

5.4. Probabilités conditionnelles

Fig. 5.4 �Arbre probabiliste

86

Page 94: Cours BiomathØmatiques-Biostatistiques

5.5. Théorème de Bayes ou théorème de la probabilité des causes

Fig. 5.5 �Arbre probabiliste

Exemple 5.4.2 Considérons l�exemple de l�application 1. L�arbre probabi-liste associée est donnée par Fig 5.5

5.5 Théorème de Bayes ou théorème de la proba-

bilité des causes

Dans le théorème des probabilités composées on s�intéressait à la probabi-

lité de réaliser un événement E sachant qu�une certaine cause s�était réalisée.

Si on considère que E est réalisé, cette réalisation pouvant être due à plusieurs

causes C1; C2; ::: On pose la question suivante : "Sachant que E est réalisé,

calculer la probabilité que ce soit à cause de C1 (ou C2; :::) ?"

Remarque 5.5.1 Ces causes doivent former un système complet.

87

Page 95: Cours BiomathØmatiques-Biostatistiques

5.5. Théorème de Bayes ou théorème de la probabilité des causes

5.5.1 Cas de deux causes

Soient C1 et C2 deux causes possibles telles que C2 = C1: On a

P (C1 \ E) = P (C1)P (E=C1) = P (E)P (C1=E)

P (C1=E) =P (C1)P (E=C1)

P (E)

P (E) = P (C1)P (E=C1) + P (C2)P (E=C2)

Alors

P (C1=E) =P (C1)P (E=C1)

P (C1)P (E=C1) + P (C2)P (E=C2)

et

P (C2=E) =P (C2)P (E=C2)

P (C1)P (E=C1) + P (C2)P (E=C2)

5.5.2 Généralisation à plusieurs causes

Dans ce cas, on suppose qu�on a n causes Ci telles qu�elles forment un

système complet. Alors

P (Ci=E) =P (Ci)P (E=Ci)

P (C1)P (E=C1) + :::+ P (Ci)P (E=Ci) + :::+ P (Cn)P (E=Cn)

Exemple 5.5.1 Trois machines A, B et C produisent respectivement 40%,

35% et 25% du nombre total des comprimés fabriqués par un laboratoire phar-

maceutique. Chacune de ces machines produit respectivement 5, 6 et 3% de

comprimés défectueux.

1. On prend un comprimé au hasard. Quelle est la probabilité pour qu�il

soit défectueux ?

2. On prend un comprimé au hasard. On constate qu�il est défectueux.

Quelle est la probabilité qu�il ait été produit par la machine A ?

Méthode :On exprime les causes sous forme des probabilités :

88

Page 96: Cours BiomathØmatiques-Biostatistiques

5.5. Théorème de Bayes ou théorème de la probabilité des causes

P (A) = 0:4; P (B) = 0:35 et P (C) = 0:25

Soit l�événement observé D : "comprimé défectueux"

P (D=A) = 0:05; P (D=B) = 0:06 et P (D=C) = 0:03

1. Calcul de P (D) :

La réalisation de D peut être due à chacune des trois causes. Ces trois

causes sont incompatibles :

2. Maintenant, on sait que l�événement "comprimé défectueux" est réalisé.

On cherche la probabilité de la cause "machine A"

P (A=D) =P (A)P (D=A)

P (D)

=0:4� 0:050:0485

= 0:41:

89

Page 97: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 6

Variables aléatoires discrètes

Soit l�expérience aléatoire "lancer d�une pièce de monnaie". L�uni-vers est l�ensemble des deux événements élémentaires équiprobables : A :

"obtention de pile" et B : "obtention de face"

P (A) = 1=2; P (B) = 1=2

Maintenant, on appelle X le nombre de fois où l�événement B est réalisé. Alors

au cours d�un lancer, X = 1ou 0: On dit que X est une variable aléatoire

P (X = 1) = P (X = 0) = 1=2

Dé�nition 6.0.1 Une variable aléatoire X est dé�nie sur un univers , en

associant à chaque résultat de l�expérience aléatoire un nombre réel x carac-

téristique de ce résultat.

6.1 Dé�nition d�une variable discrète

Dé�nition 6.1.1 Une variable aléatoire X est dite discrète si l�ensemble desréalisations possibles x1; x2; :::; xn pour cette variables est �ni ou dénombrable

90

Page 98: Cours BiomathØmatiques-Biostatistiques

6.2. Loi de probabilité

Exemple 6.1.1 La variable aléatoire X associée à l�événement "un individu

traité développe-t-il une allergie ?" a deux réalisations possibles :

� "l�individu développe une allergie" c�est l�état associé au succès codé par

1

� "l�individu ne développe pas une allergie" c�est l�état d�échec codé par 0

X est une variable aléatoire discrète ayant deux réalisations : 0 et 1:

6.2 Loi de probabilité

Dé�nition 6.2.1 1. À chacune des réalisations xi de la variable aléatoire

X est associée une probabilité P (x = xi) = pi (0 � pi � 1): L�ensembledes couples (xi; pi) forme une loi de probabilité si la somme de toutesces probabilités est égale à 1

nXi=1

P (X = xi) =

nXi=1

pi = 1; i = 1; 2; :::; n (cas �ni)

nXi=1

P (X = xi) =1Xi=1

pi = 1; i = 1; 2; ::: (cas in�ni)

2. Une variable aléatoire peut se synthétiser par un tableau :

X = xi x1 x2 ::: xn

P (X = xi) p1 p2 ::: pnnPi=1pi = 1

3. En général, une variable aléatoire se représente par un diagramme enbâtons.

Exemple 6.2.1 On repend l�exemple 6.1.1. Soit p la probabilité de développerune allergie à ce traitement et soit q = 1�p la probabilité de ne pas développerune allergie : P (X = 1) = p = 0:1 et P (X = 0) = q = 1� p = 0:9

X = xi 0 1

P (X = xi) 0:9 0:1 1

91

Page 99: Cours BiomathØmatiques-Biostatistiques

6.3. Fonction de répartition

6.3 Fonction de répartition

Dé�nition 6.3.1 La fonction de répartition, associée à la variable aléa-toire X, est la fonction, notée F ou FX : R! [0; 1]

F (x) = FX(x) = P (X � x) =Xxi�x

P (X = xi)

D�où :

� Si x < x1 : F (x) = 0

� Si x1 � x < x2 : F (x) = p1� Si x2 � x < x3 : F (x) = p1 + p2� ...................................................

� Si xn�1 � x < xn : F (x) = p1 + p2 + p3 + :::+ pn�1� Si x � xn : F (x) = p1 + p2 + p3 + :::+ pn�1 + pn = 1La représentation graphique de F (x) est une fonction en escalier continue

à droite en tout point mais discontinue à gauche en chacune des réalisations

de la variable aléatoire. voir Fig.

Propriétés 6.3.1 1. 0 � F (x) � 1

2. F (x) est croissante , si a < b alors F (a) < F (b)

3. limx!�1

F (x) = 0 et limx!+1

F (x) = 1

Exemple 6.3.1 Suite de l�exemple 6.1.1

1. Si x < 0 alors FX(x) = P (X � x) = 0

2. Si 0 � x < 1; alors FX(x) = P (X � x) = P (X = 0) = 0:9

3. Si x � 1; alors FX(x) = P (X � x)= P (x = 0) + P (x = 1)

= 0:9 + 0:1

= 1

Propriétés 6.3.2 On a

P (a < X � b) = F (b)� F (a)

92

Page 100: Cours BiomathØmatiques-Biostatistiques

6.4. Paramètres caractéristiques

d�où

P (a < X � b) = P (X � b)� P (X � a) = F (b)� F (a)

6.4 Paramètres caractéristiques

Soit X une variable aléatoire à n réalisations possibles x1; x2; :::; xn

6.4.1 Espérance mathématique

Dé�nition 6.4.1 On appelle espérance mathématique de la variable Xnoté E(X) la somme de toutes les réalisations possibles de X pondérées par

leurs probabilités respectives :

E(X) =nPi=1xiP (X = xi) =

nPi=1xipi

Exemple 6.4.1 Suite de l�exemple 6.1.1

E(X) = [0� P (X = 0)] + [1� P (X = 1)] = 0:1

Propriétés 6.4.1 Soient X et Y deux variables aléatoires.

1. L�espérence est un opérateur linéaire :

� E(a) = a;8a 2 R� E(aX + b) = aE(X) + b;8(a; b) 2 R2

� E(X + Y ) = E(X) + E(Y )

� E(X � Y ) = E(X)� E(Y )

2. X et Y sont dites indépendantes ssi :

E(X;Y ) = E(X)� E(Y ):

6.4.2 Moments

Dé�nition 6.4.2 On appelle :

1. Moment d�ordre r E(Xr) =nPi=1xri pi

93

Page 101: Cours BiomathØmatiques-Biostatistiques

6.4. Paramètres caractéristiques

2. Moment centré d�ordre r Ef[X � E(X)]rg =nPi=1[xi � E(X)]rpi

Remarque 6.4.1 L�espérance est un moment d�ordre 1:

Exemple 6.4.2 Suite de l�exemple 6.1.1

E(X2) =nPi=1x2i pi = [0

2 � 0:9] + [12 � 0:1] = 0:1

6.4.3 Variance

Dé�nition 6.4.3 La variance de la variable aléatoire X; noté V (X); estle moment centré d�ordre 2 (espérance mathématique du carré de la variable

aléatoire X centrée)

V (X) = Ef[X � E(X)]2g =nPi=1[xi � E(X)]2pi

Propriétés 6.4.2 1. V (X) = E(X2)� [E(X)]2 =nPi=1x2i pi � (

nPi=1xipi)

2

2. Soit X une variable discrète, alors :

(a) V (X) � 0

(b) V (a) = 0

(c) V (aX) = a2V (X)

(d) V (X + a) = V (X)

3. Soient X et Y deux variables aléatoires discrètes, Si X et Y sont indé-

pendantes alors

V (X + Y ) = V (X � Y ) = V (X) + V (Y )

la réciproque est fausse.

Exemple 6.4.3 Suite de l�exemple 6.1.1

V (X) = E(X2)� [E(X)]2 = 0:1� (0:1)2 = 0:09

94

Page 102: Cours BiomathØmatiques-Biostatistiques

6.5. Variable centrée réduite

6.4.4 Écart-type

Dé�nition 6.4.4 L�écart-type de la variable aléatoire X; noté �(X) ou �X ;est la racine carrée de la variance

�(X) =pV (X)

6.4.5 Mode ou valeur modale

Dé�nition 6.4.5 Le mode de la variable X; noté Mo; est la (les) valeur(s)de la réalisation de X qui a (ont) la plus grande probabilité de réalisation :

P (X =Mo) � P (X = xi);8xi

6.5 Variable centrée réduite

Dé�nition 6.5.1 Soit X une variable aléatoire discrète avec E(X) = m et

V (x) = �(X)2: On appelle variable aléatoire centrée réduite associée àX; la variable aléatoire Y dé�nie par :

Y =X �m�(X)

On a :

1. E(Y ) = 0 et V (Y ) = 1 =) Y est une v.a centrée réduite.

2. E(Y ) = 0 =) Y est une v.a centrée.

3. V (Y ) = 1 =) Y est une v.a réduite.

Exemple 6.5.1 Suite de l�exemple 6.1.1Notons U la variable : U = X�E(X)

�(X) = X�0:10:3

La variable X a deux réalisations possibles x = 0 et x = 1 :

* Si x = 0, alors la réalisation correspondante pour la variable U est

u = �1=3

95

Page 103: Cours BiomathØmatiques-Biostatistiques

6.6. Principales lois de variables discrètes

* Si x = 1, alors u = 3

P (X = 0) = P (U = �1=3) = 0:9

et

P (X = 1) = P (U = 3) = 0:1

6.6 Principales lois de variables discrètes

6.6.1 Loi de Bernoulli

Dé�nition 6.6.1 Soit une expérience aléatoire ayant deux résultats possibles :E = fle succèsg et �E ={l�échec} avec

P (E) = p; 0 � p � 1P ( �E) = 1� p = q; 0 � q � 1

cette épreuve est appelée expérience de Bernoulli. On lui associe une va-riable aléatoire discrète X ayant deux réalisations possibles :

* 0 : état associé à l�échec

* 1 : état associé au succès

P (E) = P (Y = 1) = p

P ( �E) = P (Y = 0) = 1� p = q

Paramètres caractéristiques : X � BernoulliRéalisation : X = 0 ou 1

Probabilités :

(P (X = 1) = p avec 0 � p � 1P (X = 0) = p avec 0 � q � 1

Espérance mathématique : E(X) = p

Variance : V (X) = pq

Écart-type : �(X) =ppq

Exemple 6.6.1 Suite de l�exemple 6.1.1

96

Page 104: Cours BiomathØmatiques-Biostatistiques

6.6. Principales lois de variables discrètes

La variable aléatoire X : "avoir une allergie" suit une loi de Bernoulli de

paramètre p = 0:1. D�où E(X) = p = 0:1 et V (X) = pq = 0:09

6.6.2 Loi binomiale

La loi binomiale est utilisée dès qu�il s�agit d�un décompte de succès parmi

n épreuves répétées, identiques et indépendantes à deux issus seulement :

succès et échec.

Dé�nition 6.6.2 La somme de n variables aléatoires de Bernoulli Yi; (i =1; 2; :::; n) indépendantes de la même paramètre p est une variable aléatoire X

discrète qui suit une loi binomiale de paramètre n et p; (0 � p � n) :

X =nPi=1Yi � B(n; p):

Remarque 6.6.1 Une variable aléatoire qui suit une loi binomiale de para-mètre 1 et p est une variable aléatoire de Bernoulli.

Paramètres caractéristiques X � B(n; p):Réalisation : X = 0; 1; 2; 3; :::; n

Probabilités : P (X = k) = Cknpkqn�k avec q = 1� p

Probabilités successives : P (X=k+1)P (X=k) = n�k

k+1pq

Espérance mathématique : E(X) = np

Variance : V (X) = npq

Ecart-type : �(X) =pnpq

Mode np+ p� 1 �Mo � np+ p

Théorème 6.6.1 Si X � B(nX ; p) et Y � B(nY ; p) avec X et Y deux va-

riables aléatoires indépendantes de même paramètre p; alors la variable aléa-

toire S, somme de ces deux variables, suit une loi binomiale :

S = X + Y � B(nX + nY ; p)

97

Page 105: Cours BiomathØmatiques-Biostatistiques

6.6. Principales lois de variables discrètes

6.6.3 Loi de poisson

La loi de poisson modélise des comptages d�événements rares (la proba-

bilité de réalisation de ces événements est faibles) : maladies rares, accidents

mortels rares, radioactivité...

Dé�nition 6.6.3 On dit qu�une variable aléatoire X suit une loi de poisson

de paramètre réelle positif �; notée X � P(�) si elle prend des valeurs entièresdont les probabilités de réalisation sont dé�nies par :

8k 2 N; P (X = k) = e���k

k!

Paramètres caractéristiques X � P(�)Réalisation : X = 0; 1; 2; 3; :::(cas dénombrable)

Probabilités : P (X = k) = e�� �k

k!

Probabilités successives : P (X=k+1)P (X=k) = �

k+1

Espérance mathématique : E(X) = �

Variance : V (X) = �

Ecart-type : �(X) =p�

Mode : �� 1 �Mo � �

Théorème 6.6.2 Si X � P(�) et Y � P(�) avec X et Y deux variables

aléatoires indépendantes, alors la variable aléatoires S : somme de X et Y ,

suit aussi une loi de Poisson :

S = X + Y � P(�+ �)

Propriétés 6.6.1 Si n est grand, p petit et np �ni, alors fX � B(n; p)g peutêtre approximée par fX � P(�)g avec � = np:

6.6.4 Loi hypergéométrique

La loi hypergéométrique est utilisée lors d�un décompte de succès parmi

n épreuves répétées à deux issues seulement : succès et échec. La probabilité

98

Page 106: Cours BiomathØmatiques-Biostatistiques

6.6. Principales lois de variables discrètes

de succès est modi�ée d�un tirage à l�autre. (tirage sans remise)

Paramètres caractéristiques X � H(N;n; p)Réalisation : X = k;max(0; n�Nq) � k � min(n;Np)

Probabilités : P (X = k) =CkNpC

n�kNq

CnNavec q = 1� p

Probabilités successives : P (X=k+1)P (X=k) = n�k

k+1Np�k

Nq�n+k+1Espérance mathématique : E(X) = np

Variance : V (X) = npqN�nN�1

Ecart-type : �(X) =qnpqN�nN�1

Propriétés 6.6.2 Si n et p sont �xés, quand N !1; alors X � H(N;n; p)peut être approximée par X � B(n; p):

99

Page 107: Cours BiomathØmatiques-Biostatistiques

CHAPITRE 7

Variables aléatoires continues

Lors de l�étude d�un comportement de grandeurs physiques, telles que

la concentration d�un médicament ou la taille d�un individu, les variables

aléatoires discrètes ne sont pas adaptées. Dans ce cas, nous devons utiliser les

variables aléatoires continues.

7.1 Dé�nition d�une variable aléatoire continue

Dé�nition 7.1.1 Une variable aléatoire est dite continue si son domaine devariation est l�ensemble R ou un intervalle de R:

Exemple 7.1.1 Le poids et la taille d�un individu sont des variables aléa-toires continues. Car le domaine de variation de chacune est un intervalle de

R:

100

Page 108: Cours BiomathØmatiques-Biostatistiques

7.3. Fonction densité de probabilité

7.2 Fonction de répartition

Dé�nition 7.2.1 Une variable aléatoire continue X peut être dé�nie par sa

fonction de répartition F ou FX :

F (x) = P (X � x):

Propriétés 7.2.1 1. F est continue

2. F est croissante x1 � x2 =) F (x1) � F (x2)3. lim

x!�1F (x) = 0

4. limx!+1

F (x) = 1

Donc 8x 2 R; 0 � F (x) � 1:

Exemple 7.2.1 Soit F dé�nie par F (x) =

8><>:0 si x < 0

x si 0 � x � 11 si x > 1

Propriétés 7.2.2 A l�aide de la fonction de répartition on peut calculer la

probabilité

P (x1 < X � x2) = P (X � x2)� P (X � x1) = F (x2)� F (x1):

Exemple 7.2.2 Suite de l�exemple 7.2.1.On a

P (0:3 < X � 0:8) = F (0:8)� F (0:3) = 0:8� 0:3 = 0:5:

7.3 Fonction densité de probabilité

Dé�nition 7.3.1 Soit F la fonction de répartition d�une variable aléatoire

continue X. On appelle fonction densité de probabilité de X; la fonction

f : f(x) = F 0(x):

101

Page 109: Cours BiomathØmatiques-Biostatistiques

7.3. Fonction densité de probabilité

Propriétés 7.3.1 1. 8x; f(x) � 0

2. f est une fonction intégrable et+1R�1f(x)dx = 1

Remarque 7.3.1 A partir de la fonction densité de probabilité f(x); on peutcalculer la fonction de répartition

F (x) =xR�1f(t)dt:

Exemple 7.3.1 Soit la fonction f(x) =

8><>:0 si x < �1a jxj si � 1 � x � 10 si x > 1

f est-elle une fonction de densité de probabilité d�une variable aléatoire

continue X ? Donner la fonction de répartition correspondante.

1. f(x) � 0 =) a � 0

2.+1R�1f(x)dx = 1 =)

0R�1a(�x)dx+

1R0

a(x)dx = 1

=)h�ax22

i0�1+hax2

2

i10= 1

=) a = 1

3. La fonction de répartition :

F (x) =xR�1f(t)dt =

8>>>>>>>>>>><>>>>>>>>>>>:

xR�10dt si x < �1

�1R�10dt+

xR�1� tdt si � 1 � x < 0

0R�1� tdt+

xR0

tdt si 0 � x � 1�1R�10dt+

0R�1� tdt+

1R0

tdt+xR1

0dt si x > 1

F (x) =

8>>>>><>>>>>:0 si x < �10 + 1�x2

2 = 1�x22 si � 1 � x < 0

12 +

ht2

2

i10= 1+x2

2 si 0 � x � 11 si x > 1

102

Page 110: Cours BiomathØmatiques-Biostatistiques

7.4. Paramètres caractéristiques d�une variable aléatoire continue

7.4 Paramètres caractéristiques d�une variable aléa-

toire continue

7.4.1 Espérance

Dé�nition 7.4.1 L�espérance d�une variable aléatoire continue X de den-

sité de probabilité f est donnée par :

E(X) =+1R�1xf(x)dx

si cette intégrale existe.

Propriétés 7.4.1 Soient X et Y deux variables aléatoires continues, a est

une constante, alors :

� E(X + a) = E(X) + a

� E(a �X) = a � E(X)� E(X + Y ) = E(X) + E(Y )

� E(X � Y ) = E(X)� E(Y ):

7.4.2 Variable aléatoire continue centrée

Dé�nition 7.4.2 Un variable aléatoire est dite centrée si son espérance estnulle E(X) = 0:

7.4.3 Moments

Dé�nition 7.4.3 Le moment d�ordre r d�une variable aléatoire continue estdé�ni par :

E(Xr) =+1R�1xrf(x)dx:

7.4.4 Variance et écart-type

Dé�nition 7.4.4 La variance d�une variable aléatoire continue X est dé-

�nie comme le moment d�ordre 2 de la variable aléatoire continue centrée

103

Page 111: Cours BiomathØmatiques-Biostatistiques

7.4. Paramètres caractéristiques d�une variable aléatoire continue

X � E(X) :

V (X) =+1R�1

[x� E(X)]2 f(x)dx

aussi

V (X) = E(X2)� [E(X)]2

Remarque 7.4.1 La variance est positive.

Propriétés 7.4.2 Soient X et Y deux variables aléatoires continues, a est

une constante, alors :

� V (X + a) = V (X)

� V (a �X) = a2V (X)� Si X et Y sont indépendantes, alors

V (X + Y ) = V (X � Y ) = V (X) + V (Y ):

Dé�nition 7.4.5 L�écart-type d�une variable aléatoire continue est :

�(X) =pV (X):

7.4.5 Variable aléatoire continue centrée réduite

Dé�nition 7.4.6 Une variable aléatoire continue est dite centrée réduitesi E(X) = 0 et �(X) = 1:

Remarque 7.4.2 La variable aléatoire X�E(X)�(X) est centrée réduite quelle

que soit la variable aléatoire continue X:

7.4.6 Médiane et mode

Dé�nition 7.4.7 La médiane d�une variable aléatoire continue est le nombreréel noté Me tel que F (Me) = 0:5:

Autrement dit : la médiane correspond à la valeur de X qui divise la dis-

tribution en deux parts équiprobables : P (X �Me) = P (X �Me) = 0:5:

104

Page 112: Cours BiomathØmatiques-Biostatistiques

7.5. Principales loi de variables aléatoires continues

Dé�nition 7.4.8 Le mode Mo est la (ou les) valeur(s) qui correspond(ent)à un maximum locale de la fonction densité de probabilité.

Remarque 7.4.3 La fonction densité de probabilité a un seul maximum est

appelée unimodale.

Exemple 7.4.1 Suite de l�exemple 7.2.1

� E(X) =+1R�1xf(x)dx

=0R�1x � 0 � dx+

1R0

x � 1 � dx++1R0

x � 0 � dx

=hx2

2

i10= 0:5

� V (X) = E(X2)� [E(X)]2 =+1R�1x2f(x)dx� [E(X)]2

=1R0

x2 � 1 � dx� 0:52 = 112 � 0:0833

� �(X) =pV (X) � 0:289

(F (Me) = 0:5

x =2 [0; 1] =) F (x) = 0=)Me 2 [0; 1]

et comme F (x) = x sur [0; 1] ; alors F (Me) = 0:5 =)Me = 0:5:

7.5 Principales loi de variables aléatoires continues

7.5.1 Loi uniforme

La loi uniforme est celle qui correspond à une densité de probabilitéconstante pour tout l�ensemble de variations de la variable aléatoire. cette loi

est rencontrée lors de tirage d�un nombre aléatoire compris dans un intervalle

[a; b] :

Dé�nition 7.5.1 La fonction densité de probabilité d�une loi uniforme sur

105

Page 113: Cours BiomathØmatiques-Biostatistiques

7.5. Principales loi de variables aléatoires continues

l�intervalle [a; b] est dé�nie par

f(x) =

8><>:0 si x < a1b�a si a � x � b0 si x > b

* La fonction de répartition : F (x) =

8><>:0 si x < ax�ab�a si a � x � b0 si x > b

* E(X) = a+b2

* V (X) = (b�a)212

7.5.2 Loi normale (loi de Laplace-Gauss)

La loi normale est la loi de la probabilité la plus utilisée pour les va-riables aléatoires continues notamment pour les variables des caractères bio-

métriques : la taille, le poids,..., pour les variations morphologiques,...

La loi normale est dé�nie par son espérance � et son écart-type � et notée

N (�; �):

Dé�nition 7.5.2 � La fonction densité de probabilité d�une loi normaleN (�; �) est dé�nie par :

f(x) = 1�p2�e�

12(x��

�)2 ; x 2 R:

� La fonction de répartition de la loi normale est donnée par :

F (x) = P (X � x) = 1�p2�

xR�1e�

12( t���)2dt

� La loi normale est une loi unimodale avec E(X) =Me =Mo = �:

106

Page 114: Cours BiomathØmatiques-Biostatistiques

7.5. Principales loi de variables aléatoires continues

7.5.3 Loi normale centrée réduite

Pratiquement, on utilise beaucoup la loi normale, pour éviter le calcul

numérique de sa fonction de répartition, on utilise la loi normale centréeréduite dont les valeurs sont tabulées.

Théorème 7.5.1 Soit X une v.a.c suivant la loi normale N (�; �): Si one¤ectue le changement U = X��

� , on a

F (x) = P (X � x) = P (X��� � x��� ) = P (U � u) = FU (u):

1. La v.a.c centrée réduite U suit une loi normale centrée réduiteN (0; 1):

2. FU (u) = 1� FU (�u) = 1�GU (u)

3. P (jU j < u) = 2FU (u)� 1:

Théorème 7.5.2 (Théorème central limite)Soient X1; X2; :::; Xn n variables aléatoires indépendantes suivant des lois

de probabilités quelconques d�espérance E(Xi) et de variance �nie �2i : Alors

la loi suivi par la variable aléatoire : X =nPi=1Xi peut etre approximé pour n

grand, et sous certaines conditions par une loi normale N (�; �) avec

� =nPi=1E(Xi) et � =

snPi=1�2i :

7.5.4 loi log normale

Dé�nition 7.5.3 Si la variable aléatoire continue ln(X) suit une loi normaleN (�; �) alors la variable aléatoire continue X suit une loi log-normale, dont

la fonction densité de probabilité est dé�nie par

f(x) = 1�xp2�e�

12(ln(x)��

�)2 :

E(X) = e�+�2

2 et V (X) = e2�+�2(e�

2 � 1)

107

Page 115: Cours BiomathØmatiques-Biostatistiques

7.6. Approximations des lois

7.6 Approximations des lois

Pratiquement le calcul de probabilité avec la loi exacte de la variation

aléatoire est di¢ cile. Pour cela, et sous certaines conditions, il est possible

d�approximer la loi exacte par une autre loi dont le calcul devient plus facile.

7.6.1 Approximation de la loi binomiale par une loi normale

Si la moyenne d�une loi binomiale n est grande, la loi binomiale tends vers

une loi normale avec la même moyenne et le même écart-type que la binomiale

de départ.

Si

n > 25

np > 5

nq > 5

9>=>; alors B(n; p) � N (np;pnpq:

7.6.2 Approximation de la loi de Poisson par une loi normale

Lorsque la moyenne d�une loi de Poisson est grande, la loi de Poisson peut

être approximée par une loi normale de mêmes moyenne et écart-type.

Si � > 5 alors P(�) � N (�;p�:

108

Page 116: Cours BiomathØmatiques-Biostatistiques

BIBLIOGRAPHIE

[1] S. Bénazth, et als. Biomathématiques, Analyse, Algebre, probabilités, sta-

tistiques. Masson, Paris, 2001.

109