22
Maîtrise GEII Notes de cours de théorie des signaux aléatoires Emmanuel BOUTILLON Septembre 2001 IUP de Lorient, Université de Bretagne Sud 2, rue Le Coat St-Haouen, 56325 Lorient cedex Tél. 02 97 88 05 50 – Fax. 02 97 88 05 51

notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

  • Upload
    others

  • View
    9

  • Download
    0

Embed Size (px)

Citation preview

Page 1: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

Maîtrise GEII

Notes de cours de théorie des signaux aléatoires

Emmanuel BOUTILLON

Septembre 2001

IUP de Lorient, Université de Bretagne Sud2, rue Le Coat St-Haouen, 56325 Lorient cedex

Tél. 02 97 88 05 50 – Fax. 02 97 88 05 51

Page 2: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

1

Page 3: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

2

Table des matières

Partie I : La notion de signal

Partie II : Théorie des probabilités

Partie III : Variables aléatoiresIII.1. Caractéristiques d’une v.a..............................................................................................4III.2. Principale v.a. en théorie du signal................................................................................5III.3. Loi des grands nombres .................................................................................................6III.4. Cas des v.a. bi-dimensionnelles.....................................................................................7III.5. Corrélation et covariance...............................................................................................8III.6. Loi gaussienne multi-dimensionnelle ............................................................................8

Partie IV : Processus aléatoiresIV.1. Autocorrélation, autocovariance et intercorrélation ....................................................10IV.2. Stationnarité et ergodicité............................................................................................11IV.3. Densité Spectrale de Puissance ...................................................................................12IV.4. Cas des suites aléatoires ..............................................................................................13IV.5. Bruit « blanc » .............................................................................................................13

Partie V : Le filtrage des p.a.V.1. Rappels .........................................................................................................................15V.2. Formule des moments...................................................................................................16V.3. Processus ARMA..........................................................................................................16

VI. Problèmes d’estimationsVI.1 Généralités....................................................................................................................17

Mesure d’une moyenne.....................................................................................................18Mesure de la puissance .....................................................................................................18

VI.2. Estimation paramétrique..............................................................................................18VI.3. Critère de Bayes ..........................................................................................................19VI.4. Critère de Neyman-Pearson.........................................................................................20

ANNEXE 1: Lois de probabilité

Page 4: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

3

Avertissement : ce document comporte les définitions relatives à chaque partie du cours. Il nes’agit donc, en aucun cas, d’un document autonome.

Partie I : La notion de signal

Signal à temps continu : signal qui existe à chaque instant t∈ R : x(t)∈ R

Signal à temps discret : signal de la forme x(n), n∈ N

Signal déterministe : un signal est dit déterministe si ses valeurs peuvent être décrites de façonexacte par un modèle mathématique. Par définition, un signal déterministe ne contient aucuneinformation.

Signal aléatoire : Résultat d’une mesure physique qui, reproduites de façons apparemmentidentiques, donnent à chaque expérience des résultats qui semblent imprévisibles.

Partie II : Théorie des probabilités

Loi empirique des grands nombres : Considérons une expérience aléatoire ainsi qu’unévénement E lié à cette expérience. On suppose que l’expérience est répétée un nombrearbitraire de fois et l’on note N(E) le nombre de fois ou l’événement E est réalisé lors des Npremières répétitions. Alors, il existe un nombre p(E) unique tel que :

)()(lim EPNEN

N ==+∞→

Probabilité conditionnelle : La probabilité p(B/A) de B sachant que A est vrai s’exprime par :

)()()/(

APBAPABP ∩=

Si A et B sont indépendantes, P(B/A) = P(B) et )()()( BPAPBAP ×=∩

Soit Ω = A1 + A2 + …. + An une partition de Ω en n éléments avec p(Ai) >0, et B unévénement. On a les deux formules suivantes :

Formule de la probabilité totale :

Page 5: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

4

∑ ∑= =

×=∩=n

i

n

iiii APABPABPBP

1 1)()/()()(

Formule de Bayes (probabilité des causes) :

∑=

×

×=

∩= n

jjj

iiii

APABP

APABPBP

BAPBAP

1)()/(

)()/()(

)()/(

Partie III : Variables aléatoires

On appelle variable aléatoire (v.a.) une grandeur dont la valeur dépend totalement ou en partiedu hasard.

III.1. Caractéristiques d’une v.a.

Fonction de répartition : on appelle fonction de répartition )(xFX de la v.a. X la fonctiondéfinie par :

)()( xXPxFX <=

Propriétés :

1)(lim0)(lim ==== +∞→−∞→ xFxF XxXx

Densité de probabilité : on appelle densité de probabilité px(x) la fonction définie par :

)()( xdx

dFxp XX =

Propriétés :

∫=−=≤≤b

aXXX dxxpaFbFbXaP )()()()(

Espérance mathématique :

∑ =×=i

ii xXPxXE )(][ (cas discret)

Page 6: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

5

dxxpxXE X∫+∞

∞−

×= )(][ (cas continu)

Généralisation : Soit f(x) une fonction de R dans R, on définit :

∑ =×=i

ii xXPxfXfE )()()]([ (cas discret)

dxxpxfXfE X∫+∞

∞−

= )()()]([ (cas continu)

Si f(x) = xn, E[f(X)] est le moment d’ordre n de la v.a. X.

Moment d’ordre 2 : ][ 2XE est le moment d’ordre 2 du signal (sous réserve d’existence). Il estlié à la puissance du signal.

Variance : 222 ][][]])[[(][ XEXEXEXEXVAR −=−= est la variance de la v.a. X.

Ecart type : ][XVAR=σ est l’écart type de la v.a. X.

Théorème de la convergence presque sûre : Si E[X] = a et VAR[X] = 0, alors X = a presquesûrement.

III.2. Principale v.a. en théorie du signal

Distribution de Bernoulli : v.a. qui se réalise dans un ensemble à deux valeurs a, b.

101)()( <<−==== ppbXPpaXP

2)()1(][)1(][ bappXVARbpapXE −×−×=×−+×=

Distribution Binomiale : Probabilité d’avoir i tirage à 1 sur n réalisations d’une v.a. deBernoulli prenant les valeurs 1 avec la probabilité p et 0 avec la probabilité 1-p.

Nippni

CipnBP ini ∈−××== −)1()),(( avec )!(!

!ini

nni

C−×

=

Page 7: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

6

)1()],([)],([ ppnpnBVARpnpnBE −××=×=

Distribution de poisson Xλ : (approximation de B(n,p) pour n >> p et pn ×=λ )

Niei

iXPi

∈== −λλ

λ!

)(

λλ λλ == ][][ XVARXE

Distribution uniforme : v.a. qui se réalise sur [a, b] avec une d.d.p. uniformément répartie.

abxpX −

= 1)( si bxa ≤≤ , 0 sinon

12)(][

2][

2baXVARbaXE −=+=

Distribution gaussienne : (loi normale N(m,σ) de moyenne m et d’écart type σ)

2

2

2)(

21)( σ

−−

σπ=

mx

X exp

2][][ σ== XVARmXE

-3 -2 -1 0 1 2 30

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

x

pX(x)

d.d.p. de la fonction gaussienne N(0,1)

III.3. Loi des grands nombres

Page 8: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

7

Soit Xn, n∈ Nune suite de v.a. indépendantes de même loi, de moyenne finie µ=E[X] et devariance VAR[X]. On définit une nouvelle v.a. SN par :

N

XXXS N

N+++

=...21

On a les trois propriétés suivantes :

a) µ=+∞→ NN Slim

b) N

XVARSVAR N][][ =

c) ])[,0(lim XVARNSN NN =×+∞→

Généralisation : la somme d’un grand nombre de v.a. indépendantes quelconques tend versune v.a. gaussienne.

III.4. Cas des v.a. bi-dimensionnelles

Si X et Y sont deux v.a., alors le couple (X,Y) forme une v.a. bi-dimensionnelle caractériséepar sa fonction de répartition conjointe FX,Y, ou sa densité de probabilité pX,Y :

),(),(, yYxXPyxF YX <<=

),(),( ,

2

, yxFyx

yxp YXYX ∂∂∂=

Soit S est une surface du plan, on a :

∫=∈S

YX dxdyyxpSYXP ),()),(( ,

Densité de probabilités marginales : En intégrant la d.d.p PX,Y(x,y) par rapport à x,(respectivement y), on obtient la loi marginale pY(y) (respectivement pX(x)) :

∫+∞

∞−= dxyxpyP YXY ),()( ,

∫+∞

∞−= dyyxpyP YXX ),()( ,

Densité de probabilité conditionnelles : Par le théorème de Bayes, on obtient :

)()/()()/(),(, xpxypypyxpyxP XYYX ×=×=

Page 9: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

8

Dans le cas ou X et Y sont statistiquement indépendantes, ces relations deviennent :

)()(),(, ypxpyxP YXYX ×= de plus )()/( xpyxp X= et )()/( ypxyp Y=

III.5. Corrélation et covariance

Pour un coupe (X,Y) de v.a., on peut également définir leur corrélation RX,Y, leur covarianceCX,Y et leur coefficient de corrélation rX,Y.

∫∫ ×== dxdyyxpxyXYER YXYX ),(][ ,,

∫∫ ×=−−= dxdyyxpxyYEYXEXEC YXYX ),(])][])([[( ,,

][][,

,YVARXVAR

Cr YX

YX×

=

Propriété : Si les variables X et Y sont indépendantes, alors leur covariance est nulle. Laréciproque est fausse.

Inégalité de Schartz :

][][][ 222 YEXEXYE ≤

Remarque : il y a égalité si X=a.Y

III.6. Loi gaussienne multi-dimensionnelle

Définition : Deux v.a. X1 et X2 sont dites conjointement gaussiennes si et seulement si leurdensité de probabilité s’écrit :

σ−

+σσ

−−ρ−

σ−

ρ−−

ρ−σπσ= 2

2

22

1

22112

1

211

2221

21,2

(2

))((2

2)(

)1(21exp

12

1),(21

mxmxmxmxxxP XX

On a de plus, pour i=1,2 :

ii mXE =][ 2][ iiXVAR σ= ρ=σσ

−−=

21

2211,

)])([( mXmXEr YX

Théorème : si X1 et X2 on une covariance nulle, les deux v.a. sont indépendantes.

Cas général : la v.a. X = [X1, X2,…, XN]T est gaussienne si et seulement si :

Page 10: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

9

−−π

=−

2)()(

exp)()2(

1)(1 MXRMX

RDetXP

T

NX

avec M le vecteur moyenne M = [E[X1], E[X2],…, E[XN]]T et R la matrice decovariance définie par :

])][])([[(),( jjii XEXXEXEjiR −−=

Remarque : pour le cas bi-dimensionnelle, on a :

σσ×σ×ρσ×σ×ρσ= 2

221

212

1R

Les deux figures suivantes donnent les d.d.p. ainsi que le résultat du tirage de 2000 points dedeux v.a. X1 et X2 bi-dimensionnelle de matrice d’intercorrélation R1 et R2, avec :

=

198.098.01

1R

−=

15.05.01

2R

-3 -2 -1 0 1 2 3

-3

-2

-1

0

1

2

3

Tirage de 2000 points de X1

-3 -2 -1 0 1 2 3

-3

-2

-1

0

1

2

3

Tirage de 2000 points de X2

d.d.p. de X1 d.d.p. de X2

Page 11: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

10

Partie IV : Processus aléatoires

On appelle processus aléatoire (p.a.) une famille de v.a. indexée par le temps. Il est noté X(t)dans le cas continu.

Dans le cas ou l’ensemble des indices est dénombrable, on parle de suite aléatoire (s.a.) et onla note (Xn) n∈ Z .

Dans le cas où les v.a. de la suite aléatoire sont discrètes, c’est-à-dire prennent leurs valeursdans un ensemble dénombrable de valeur réelles, on parle de s.a. discrète ou encore, de chaînealéatoire (c.a.).

IV.1. Autocorrélation, autocovariance et intercorrélation

Définition de l’intercorrélation : Soit X1 et X2 deux p.a., on appelle fonction d’intercorrélation),( 2121

ttR XX la fonction qui à un couple d’instant (t1, t2) associe la corrélation entre les deuxv.a. )( 11 tX et )( 22 tX

∫∫ ××==2

2121 21212121221121 ),,,()]()([),(R

XXXX dxdxttxxpxxtXtXEttR

avec ),,,( 212121ttxxp XX la d.d.p. de la v.a. bi-dimensionnelle ))(),(( 2211 tXtX .

Définition de l’autocorrélation : Dans le cas ou X = X1 = X2, )]()([),( 2121 tXtXEttRXX = senomme l’autocorrélation de X.

Remarque : On a ])([),( 2111 tXEttRXX = qui est égal au moment d’ordre deux de la v.a.

)( 1tX . Il s’agit donc de la puissance du signal à l’instant t1.

Définition de l’autocovariance : Il s’agit de la fonction d’autocorrélation du p.a. centrés Xc

définit par :

)]([)()( tXEtXtX c −=

On la note ),( 21 ttC XX :

Page 12: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

11

)])]([)(()])([)([(),(),( 221112121 tXEtXtXEtXEttRttC cc XXXX −×−==

Remarque 1: ))((),( 111 tXVARttC XX =

Remarque 2: En règle générale, si 21 ttt −=∆ est grand, )( 1tX et )( 2tX deviennentindépendantes l’une de l’autre. On a alors : 0),( 11 →∆+ tttCXX quand +∞→∆t .

IV.2. Stationnarité et ergodicité

Définition de la stationnarité : un p.a. est dit stationnaire lorsque ses propriétés statistiquessont indépendantes de l’origine des temps.

Si le p.a. est stationnaire, on a les propriétés suivantes :)(),()( xptxp XtX =

][)]([ XEtXE = (la moyenne est constante)][)]([ XVARtXVAR = (la variance est constante)

En posant τ = t2-t1

)(),( 21 τ= XXXX CttC)(),( 21 τ= XXXX RttR

)(),(2121 21 τ= XXXX RttR

On parle de p.a. stationnaire au second ordre si seul les moments du premier et du deuxièmeordre sont indépendants de l’origine des temps.

Définition de l’ergodicité : un p.a. stationnaire est dit ergodique si ses moments temporels(calculés à partir d’une réalisation du p.a.) sont égaux aux moments statistiques (calculé àpartir de la moyenne sur l’ensemble des réalisations possibles).

Soit X un p.a. stationnaire et ergodique et x(t) une réalisation quelconque de ce p.a., on aalors :

∫+

−+∞→==

T

TT dttx

TXEtXE )(

21lim][)]([

∫+

−+∞→ −==

T

TT dtXEtx

TXVARtXVAR 2])[)((

21lim][)]([

∫+

−+∞→ τ+×=τ

T

TTXX dttxtx

TR )()(

21lim][

Page 13: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

12

∫+

−+∞→ τ+×=τ

T

TTXX dttxtx

TR )()(

21lim][ 2121

Tout comme la stationnarité, on peut définir différents niveaux d’ergodicités : niveau absolu(vrai pour tous les moments), ordre 2 (vrai uniquement pour les deux premiers moments).

Remarque : la stationnarité n’entraîne pas nécessairement l’ergodicité.

IV.3. Densité Spectrale de Puissance

Soit X un p.a. stationnaire et xi(t) une réalisation de X. La transformée de Fourrier de xi(t)n’existe pas en général car la condition de convergence (carré intégrable) n’est pas satisfaite.

Par contre, il est possible de définir la Transformée de Fourrier (T.F.) de la fonction xi(t,T)définie par :

xi(t,T) = xi(t) si |t| < T/2, xi(t,T) = 0 sinon.

On a :

∫∫+

π−+∞

∞−

π− ===2/

2/

22 )(),()),((),(T

T

jfti

jftiii dtetxdteTtxTtxTFTfX

La puissance moyenne )(TPix du signal contenu dans l’intervalle [-T/2, T/2] est donnée par :

∫∫∫+∞

∞−

+∞

∞−

+∞

∞−

=== dfT

TfXdfTfX

TdtTtx

TTfP i

iixi

222 ),(

),(1),(1),(

On pose T

TfXTfS i

i

xx

2),(),( = , on a alors :

∫+∞

∞−

= dfTfSTfPii xx ),(),(

La puissance du signal est égale à l’intégrale, sur toutes les fréquences de la fonction),( TfS

ix . Cette fonction est appelée « périodigramme ». Ce périodiagramme est une grandeuraléatoire puisqu’en principe différente pour chaque réalisation xi(t,T) du p.a. X.

On peut en définir l’espérance pour chaque fréquence :

)],([),( TfSETfSixX =

La densité spectrale de puissance (d.s.p.) du p.a. X(t) est donnée par le passage à la limite :

Page 14: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

13

]),(

[lim),(lim)(2

TTfX

ETfSfS iTXTX +∞→+∞→ ==

Théorème de Wienner_Khintchine : la d.s.p. )( fS X d’un p.a. stationnaire est la transforméede Fourrier de sa fonction d’autocorrélation )(τXXR .

∫+∞

∞−

τπ− ττ= deRfS fjXXX

2)()(

Propriétés de la d.s.p. SX(f) et de la fonction d’autocorrélation RXX(τ).

Si X(t) est réel, RXX(τ) = RXX(-τ) et SX(f) est paire.

Puissance : RXX(0) = E[X(t)2]

Pour tout τ, on a : )0()( XXXX RR ≤τ (inégalité de Schwartz).

2)(lim XX mR =τ+∞→τ

IV.4. Cas des suites aléatoires

Dans le cas d’une suite aléatoire Xn, on a les mêmes propriétés avec :

τ+=τ ∑

+∞

−∞=nXX nxnxER )()()(

τ= ∑

+∞

−∞=τ

τπ− fjXX eREfS 2)()(

∫−

τπ=τ5,0

5,0

2)()( dfefSR fjXXX

)( fS X est une fonction périodique de période 1.

On a la puissance du signal exprimé par :

∫∑−

∞+

−∞==

=

5,0

5,0

2 )()()0( dffSnxER Xn

XX

IV.5. Bruit « blanc »

Le bruit blanc est un p.a. stationnaire du second ordre dont la d.s.p. est constante sur tout l’axedes fréquences.

Page 15: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

14

fN

fS B ∀=2

)( 0

La fonction d’autocorrélation s’écrit alors :

)(2

)( 0 τδ=τN

RBB

Attention : l’énergie d’un vrai bruit blanc est infinie.

Les figures suivantes montrent un exemple de réalisation d’un bruit blanc gaussien (discret).

0 50 100 150 200 250 300-3

-2

-1

0

1

2

3

4

Réalisation d’un bruit blanc gaussien de loiN(0,1).

Abscisse : n° échantillon d’indice n.Ordonnée : valeur de l’échantillon x(n).

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.50

1

2

3

4

5

6

7

fréquence

Périodigramme du bruit blanc gaussien.Abscisse : fréquence normalisée fOrdonnée : Valeur de la puissance du signal

)1000,( fX i pour la fréquence f.

En effectuant la moyenne des )1000,( fX i surun grand nombre de réalisation, la fonctiondevient constante et égale à 1.

0 50 100 150 200 250 300-0.2

0

0.2

0.4

0.6

0.8

1

1.2

tau

Autocorrélation calculé sur la réalisation :Abscisse : τOrdonnée :

)1000mod()(1000

1 1000

1∑=

τ+i

ixix

En effectuant la moyenne des autocorrélationsur un grand nombre de réalisations, lafonction devient égale à 1 si τ=0, 0 sinon.

Page 16: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

15

En pratique, on considère le bruit blanc comme un p.a. dont la d.s.p. n’est constante que dansune bande de fréquence donnée (ce qui est le cas des signaux physiques).

Premier cas (passe bas) : ],[2

)( 0 BBfsiN

fS B −∈= , 0 sinon

La puissance du signal est alors N0B, la fonction d’autocorrélation s’exprime par :

ττ=τ

BBBNRBB 2

)2sin()( 0

Deuxième cas (passe bande) :

]2

,2

[]2

,2

[2

)( 00000 BfBfBfBffsi

NfS B +−∪+−−−∈= , 0 sinon.

La puissance du signal est toujours N0B et la fonction d’autocorrélation s’exprime maintenantpar :

)2cos(2

)2sin()( 00 τπτ

τ=τ fB

BBNRBB

Partie V : Le filtrage des p.a.

Le filtrage est une opération très courante dans les applications de traitement du signal. Sonbut est d’isoler la partie utile du signal.

V.1. Rappels

Par définition, un filtre linéaire est un système dont les entrées sorties sont régies par uneéquation différentielle linéaire indépendante du temps. Le filtre linéaire se caractérise par saréponse impulsionnelle h(t).

Soit x(t) l’entrée du filtre et y(t) sa sortie, on a :

∫+∞

∞−

−== duutxuhtxthty )()()(*)()(

Soit X(f), H(f) et Y(f) les transformées de Fourrier de x(t), h(t) et y(t). On a la relationsuivante :

)()()( fXfHfY ×=

Page 17: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

16

V.2. Formule des moments

On considère un p.a. X(t) stationnaire au 2ième ordre de moyenne E[X(t)]=mx. Ce signal estappliqué à l’entrée d’un filtre linéaire de réponse impulsionnelle h(t) et soit Y(t) le p.a. obtenuen sortie du filtre.

a) Moment du premier et deuxième ordres

On a Y(t) stationnaire au second ordre qui vérifie les propriétés suivantes :

XY mHmtYE ×== )0()]([)(*)()( ττ=τ XXXY RhR

)(*)(*)()( ττ−τ=τ XXYY RhhR

)()()()()()( 2* fSfHfSfHfHfS XXY ×=××=

Rappel : dans le cas discret, les formules sont les mêmes avec :

∑+∞

−∞=

π−=n

jnfenhfH 2)()(

∑+∞

−∞=

π−=n

jnfXY enRfS 2)()(

b) Formule des interférences

Si on considère deux p.a. X1(t) et X2(t) stationnaire entrant dans deux filtres linéaires deréponse impulsionnelle h1(t) et h2(t), on peut définir l’interspectre )(

21fS XX comme la

transformé de Fourrier de la fonction d’intercorrélation )(21

τXXR . La formule desinterférences donne :

)()()()(2121

*21 fSfHfHfS XXYY ××=

c) Puissance de sortie d’un filtre linéaire

A partir de la formule de filtrage des d.s.p., on peut calculer la puissance en sortie du filtre :

∫∫+∞

∞−

+∞

∞−

×=== dffSfHdffSRP XYYYY )()()()0( 2

V.3. Processus ARMA

Question : comment générer un p.a. ayant une d.s.p. donnée ?Réponse (Monsieur Yule, 1927) : utiliser un filtre linéaire excité par un bruit blanc.

Page 18: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

17

W(t) bruit blanc => 2

)( 0NfSW =

La sortie X(t) du filtre de réponse impulsionnelle h(t) excité par W(t) à donc une d.s.p quivérifie :

20 )(2

)( fHN

fS X =

a) Définitions

Si le filtre ne contient que des pôles, le p.a. X(t) généré est dit Auto-Régressif (AR). Si le filtre ne contient que des zéros, le p.a. X(t) généré est dit Moyenne Mobile ou MA(Motion Average).Si le filtre contient des pôles et des zéros, le p.a. X(t) généré est dit ARMA.

Dans la suite de ce chapitre, on ne considère plus que des filtres discrets. Pour ces filtres, ona :

20

2)( WW

NfS σ== , avec 2

Wσ la variance de W(t).

VI. Problèmes d’estimations

Le problème abordé dans ce chapitre concerne l’estimation d’un paramètre inconnu d’unsignal aléatoire à partir d’une observation de durée finie. Les outils utilisés pour quantifier laqualité de l’estimation sont aussi abordés.

VI.1 Généralités

Soit X une suite aléatoire, considérons θ un paramètre (ou une grandeur) inconnu associé àcette suite. On suppose que l’on connaisse N valeurs successives x(1), x(2), …, x(N) d’uneréalisation de X et l’on cherche à estimer θ par un estimateur θ

) construit à partir de

l’observation de X : ))(),...,2(),1(( NxxxF=θ)

.On peut noter que θ

) est une v.a.

Définitions : On appelle θb biais de l’estimateur la quantité :

θ−θ=θ ][)

EbOn appelle erreur quadratique moyenne (eqmθ) la quantité :

22 )var(])[( θθ +θ=θ−θ= bEeqm))

On appelle erreur relative la quantité (sans dimension) :

Page 19: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

18

θ=ξ θeqm

r

Bien sur, le meilleur estimateur est celui qui a un biais nul et une erreur quadratique moyenneminimale (ou erreur relative minimale).

Mesure d’une moyenne

On cherche à estimer la valeur moyenne mX d’un p.a. La méthode la plus naturelle consiste àprendre l’estimateur :

∑=

=N

kkx

NM

1)(1)

On a XmME =][)

soit bM =0, l’estimateur est sans biais.

Déterminons l’e.q.m. en remarquant que M)

est le résultat du filtrage de X par un filtre deréponse impulsionnelle :

Nkh 1)( = si Nk ≤≤1 , 0 sinon.

On obtient :

)()1(1 kRNk

Neqm XX

Nk

NkM −= ∑

=

−=Remarque : la qualité de cet estimateur dépend de la fonction d’autocorrélation de X. Danscertain cas, il existe d’autres estimateurs qui peuvent-être plus précis.

Mesure de la puissance

L’estimateur le plus naturel est :2

1)(1)0( kx

NR

Nk

kX ∑

=

==

)

C’est un estimateur sans biais. Son erreur quadratique moyenne est donnée par :22

)0( )()1(1 kRNk

Neqm XX

Nk

NkRX

−= ∑=

−=

)

VI.2. Estimation paramétrique

C’est le cas ou le p.a. observé dépend d’un paramètre θ inconnu.

Exemple : Observation de X(k) = θ + W(k), θ paramètre à estimer et W(k) un bruit blancgaussien centré de variance σ2.

On définit la loi de probabilité :

2

2

2))((

1, 2

1)/)(),...,2(),1(( σθ−−

=θ ∏ ⋅

πσ=θ=

ixN

iXX eNxxxpp rr

Page 20: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

19

Pour une observation ))(),...,1(( NxxX o =r

fixée, on a )(, oX Xpv

rθ qui est une fonction de θ.

Cette fonction est appelée fonction de vraisemblance. Le meilleur estimateur de θ est celui quimaximise la fonction de vraisemblance (c-a-d, rend l’observation la moins improbable).En pratique, on choisit de prendre le logarithme de cette fonction en omettant les termesindépendants de θ.

∑=

θ σθ−−=+=θ

N

iOX

ixCteXpXL1

2

2

, 2))(())(log(),(

rrr

La meilleur estimation θ* de θ est donc tel que :θ∀θ≥θ ),,(),( * XLXL

rr

Solution : <=>=θ∂

θ∂ 0),(XLr

∑=

=θN

iix

N 1

* )(1

Remarque : on retrouve l’estimation de la moyenne.

Cette méthode, très générale, s’adapte à différents problèmes.

VI.3. Critère de Bayes

Reprenons le problème précédent en supposant cette fois-ci une hypothèse supplémentaire : θne peut prendre que deux valeurs θ0 et θ1, de plus, les probabilités a priori )( ii p θ=θ=πsont connues.

Le critère de Bayes permet de choisir θ minimisant la probabilité d’erreur en tenant comptedes probabilités a priori πi.On a :

00000 )/()()/(),( π×θ=θ=θ×θ=θ ooo XppXpXprrr

11111 )/()()/(),( π×θ=θ=θ×θ=θ ooo XppXpXprrr

Si ),(),( 01 θ≥θ oo XpXprr

, alors θ1 est choisi. Dans le cas contraire, θ0 est choisi.

Afin de systématiser la décision, il est possible d’effectuer une partition de RN (l’espace danslequel oX

r se réalise) en deux régions de décisions ∆0 et ∆1 tel que :

0∆∈∀ oXr

, ),(),( 10 θ≥θ oo XpXprr

(choix de θ0)

1∆∈∀ oXr

, ),(),( 01 θ≥θ oo XpXprr

(choix de θ1)

Exemple : si π0 = π1 = 0,5 et N=1, on a :

θ+θ

≥∈=

πσ×π≥

πσ×π∈=∆ σ

θ−−σ

θ−−

2/

21

21/ 102

))((

12

))((

012

20

2

21

xRxeeRxixix

Page 21: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

20

La probabilité d’erreur est donnée par :

)/(21)/(

21

1001 θ∆∈+θ∆∈= xpxppe

Soit :

)( 01σ

θ−θ= Qpe , avec dtexQ t

x

2/2

21)( −

+∞

∫ π=

Cette technique est utilisée pour les communications numériques.

Cet exemple se généralise sans difficultés.

VI.4. Critère de Neyman-Pearson

On considère maintenant le choix de deux hypothèses θ0 (absence de signal) et θ1 (présenced’un signal, écho radar, par exemple) et l’on s’intéresse aux probabilités Pα (probabilité defausse alarme) de détecter θ1 alors que θ0 est vrai et Qd (probabilité de détection), laprobabilité de détecter θ1 justement.

On suppose connues les lois )/()( 00 θ= xpxp rr et )/()( 11 θ= xpxp rr .

Soient ∆0 et ∆1 les deux zones de décisions associées aux hypothèses θ0 et θ1. On a donc :xdxpP rr)(0

1

∫∆

α = et xdxpQdrr)(1

1

∫∆

=

Ces deux probabilités dépendent du choix de la partition.

Question : Comment maximiser Qd tout en gardant une probabilité de fausse alarme inférieureou égales à un seuil α0 prédéfini ?

On montre (critère de Neyman-Pearson) que la partition (∆0, ∆1) est optimale, si etseulement si :

η≤=∆∈∀)()(

)(,0

10 xp

xpxLx r

rr

avec η tel que :

00 )(1

α== ∫∆

α xdxpP rr

Page 22: notes cours signal GEII3b - Lab-STICCboutillon/enseignement/cours_signal_geii3.pdf · 3 Avertissement : ce document comporte les définitions relatives à chaque partie du cours

21

ANNEXE 1: Lois de probabilité

Loi gaussienne

x N(0,1)(x) ∫−

x

x

dttN ))(1,0( ∫+∞

x

dttN ))(1,0(

0 0,399 0,00% 50,00%0,2 0,391 15,85% 42,07%0,4 0,368 31,08% 34,46%0,6 0,333 45,15% 27,43%0,8 0,290 57,63% 21,19%1 0,242 68,27% 15,87%

1,2 0,194 76,99% 11,51%1,4 0,150 83,85% 8,08%1,6 0,111 89,04% 5,48%1,8 0,079 92,81% 3,59%2 0,054 95,45% 2,28%

2,2 0,035 97,22% 1,39%2,4 0,022 98,36% 0,82%2,6 0,014 99,07% 0,47%2,8 0,008 99,49% 0,26%3 0,004 99,73% 0,13%

Loi de poisson pour différentes valeurs de λ.

x λ=0,5 λ=1 λ=20 60,65% 36,79% 13,53%1 30,33% 36,79% 27,07%2 7,58% 18,39% 27,07%3 1,26% 6,13% 18,04%4 0,16% 1,53% 9,02%5 0,02% 0,31% 3,61%6 0,00% 0,05% 1,20%7 0,00% 0,01% 0,34%8 0,00% 0,00% 0,09%9 0,00% 0,00% 0,02%