Chapitre 4
4. Apport des méthodes d'analyse fréquentielle et temps-
fréquence à l'analyse des potentiels tardifs de l’ECG-HR
Préambule: l'objectif de ce chapitre est de présenter des méthodes
d'analyse de l'ECG-HR utilisant des outils de représentation fréquentielle et
temps-fréquence. Nous proposons une description succincte de ces
principaux outils et présentons leurs avantages et inconvénients pour la
détection des potentiels tardifs. Ce chapitre s'achève par une étude
quantitative des principales transformations par ondelettes de l'ECG-HR.
4.1. Méthodes fréquentielles
Une des alternatives de l'analyse de l'ECG-HR dans le domaine temporel est l'utilisation de
la transformation de Fourier (TF) (cf. annexe F).
4.1.1. Transformée de Fourier, densité spectrale de puissance et résolution
fréquentielle
La représentation des composantes fréquentielles d'un signal et plus précisément de
l'électrocardiogramme ecg(t) est relativement aisée. Elle se formule de la façon suivante:
TF ecg t i t dtecg( ) ( ) exp( )ν πν= −−∞
∞
∫ 2 équation 4-1
où TFecg(ν) est la TF de ecg(t). Pour le signal électrocardiologique numérisé, la
transformation s'écrit:
ECG k ecg n i nk Nn
N
( ) ( ) exp( / )= −=
−
∑ 20
1
π équation 4-2
où ECG(k) est la TF discrète du signal ecg(n).
On associe généralement à cette transformation, le spectre de puissance P kecg( ) :
P k ECG kecg( ) ( )=2
équation 4-3
Pour l'analyse de l’ECG-HR, la TF est appliquée à une partie du segment QRS-ST. Cette
partie de l'ECG ne remplit pas les conditions d'application de la TF qui suppose que le signal
transformé soit périodique et de durée infinie. En fait, le signal est artificiellement rendu
Chapitre 4
périodique en calculant sa TF sur un intervalle de durée finie. Cette périodisation introduit des
discontinuités à ses extrémités qui sont éliminées par l'utilisation d'un fenêtrage [Har 78].
Cette imperfection inévitable des signaux physiques numérisés, conduit à une
transformation qui n'est qu'une estimation de la vraie densité spectrale de puissance et qui est
représentée avec une précision qui dépend de deux facteurs : la durée de l'intervalle du segment
QRS-ST analysé et les caractéristiques de la fenêtre utilisée.
La résolution fréquentielle initiale de la TF, que nous appelons ∆f n, est inversement
proportionnelle à la durée Ti de l'intervalle considéré.
∆fTin =1
équation 4-4
Le fenêtrage provoque, de plus, un lissage du spectre et diminue la précision fréquentielle:
∆fQ
Tinf f
= équation 4-5
où Qf est une constante liée à la fenêtre utilisée.
4.1.2. Analyse spectrale de l’électrocardiogramme
Typiquement, les auteurs analysent un intervalle constitué de la partie terminale du
complexe QRS et d'une partie du segment ST. Le fenêtrage est effectué avec des fenêtres de
Blackman-Harris dont la durée est choisie relativement large (typiquement 40 ms) afin d'avoir
une localisation fréquentielle précise. L'intervalle d'analyse est localisé manuellement sur l'ECG.
La composante continue est éliminée par soustraction de la valeur moyenne. La TF est ensuite
calculée par l'intermédiaire d'un algorithme de type FFT minimisant le temps de calcul1. La FFT
suppose que le signal contienne un nombre de points égal à une puissance de deux. Si le signal
ne remplit pas cette condition, il doit être complété par des zéros jusqu'à ce qu'il comporte 2n
points (méthode du "zéro padding"). Ce stratagème n'a aucun effet sur la résolution spectrale. Il
implique simplement un lissage du spectre.
A ce jour, l'analyse fréquentielle a uniquement été appliquée à l'ECG-HR dans le cadre
d'études rétrospectives. Ces études s'appliquent à décrire les composantes fréquentielles des
patients en post-infarctus avec ou sans TV documentée (cf. figure 4-1). Cain [Cai 84] [Cai 85]
propose le calcul de la TF de l'ECG-HR en utilisant un intervalle de 40 ms situé à cheval sur la
1ll s'agit de l'algorithme Fast Fourier Transform de Tukey et Cooley.
Chapitre 4
fin du complexe QRS et le début du segment ST. Il utilise la mesure de l'amplitude du pic du
spectre entre 20 et 50 Hz pour caractériser les ECG-HR des patients. Il montre ainsi que les
patients en post-infarctus avec TV (n=23) présentent des composantes significativement plus
élevées (p<0.0001, test de Student) que les patients sans TV (n=53). Deux ans plus tard, Kelen
démontre que ce résultat est très dépendant de la localisation et de la durée de l'intervalle analysé
[Kel 87]. Cette variabilité a été ensuite confirmée par Haberl [Hab 88], Worley [Wor 88] et
Machac [Mac 88] dans des études comparant les méthodes temporelle et fréquentielle.
Figure 4-1 : exemple de spectrogrammes calculés sur les trois dérivations X, Y, Z du signal
ECG-HR pour deux patients. Patient avec TV sur la colonne de droite et patient sans TV sur la
colonne de gauche. Ces spectrogrammes ont été calculés sur un intervalle contenant les 40
dernières millisecondes du complexe QRS et un fenêtrage du type Blackman-Harris.
Afin de se libérer de la contrainte du choix de la localisation de la fenêtre d'analyse, Cain
[Cai 91] définit une nouvelle approche obtenue en étendant l'étude de la portion terminale du
QRS à l'analyse du contenu fréquentiel de la totalité du cycle cardiaque. Les résultats obtenus
pour les patients avec TV sont les suivants :
- Augmentation des composantes fréquentielles entre 1 et 7 Hz.
- Diminution des composantes fréquentielles entre 13 et 57 Hz et entre 69 et 128 Hz. La
bande intermédiaire est perturbée par le 60 Hz du secteur [Eng 91].
Ces diminutions des composantes fréquentielles ont été expliquées par le fait que la
cicatrice de l'infarctus est plus étendue chez les patients avec TV que chez les patients sans TV.
Cette caractéristique est généralement confirmée par la présence d'une fraction d'éjection
Chapitre 4
ventriculaire gauche plus faible chez les patients avec TV. En effet, plus la cicatrice de l'infarctus
est importante, plus la masse du myocarde électriquement active est diminuée, expliquant la
diminution du potentiel électrophysiologique.
Ce type d'altérations des composantes moyennes fréquences avait également été détecté par
Abboud [Abb 87] lors d'études expérimentales sur des nécroses provoquées artificiellement par
ligature des coronaires sur des coeurs de chien.
Toutes ces études mettent en évidence qu'il existe des caractéristiques fréquentielles
anormales chez les patients en post-infarctus avec risque de TV. Cependant, aucun auteur n'a
développé des critères permettant une discrimination fiable des patients avec TV.
Seul Lindsay [Lin 88] présenta, en 1988, une étude qui compare la méthode fréquentielle
utilisée par Cain [Cai 85] et la méthode temporelle sur une population constituée de patients en
post-infarctus avec TV dont la durée de QRS standard (non filtrée) est supérieure ou égale à 120
ms (patients avec BB). Avec la méthode fréquentielle, les paramètres mesurant les PT ne sont
pas affectés par la présence d'un BB. La méthode fréquentielle est alors présentée comme une
alternative à l'analyse conventionnelle de l'ECG-HR pour la détection des PT chez les patients
avec un BB.
4.1.3. Limites des méthodes fréquentielles
Les méthodes fréquentielles ont permis de dévoiler des modifications des composantes
fréquentielles de l'ECG-HR des patients avec TV. La construction d'un critère fiable de détection
du risque d'apparition de TV basé sur le domaine fréquentiel est cependant rendu difficile du fait
des caractéristiques intrinsèques du complexe QRS. Ce complexe est une onde rapide, de grande
amplitude par rapport au reste du signal électrocardiographique. Il est généralement assimilé à
une fonction de Dirac dont on sait que le spectre est infini. Les composantes fréquentielles
anormales générées par les PT sont donc noyées dans celles du spectre du QRS normal et
deviennent difficile à extraire.
Les méthodes fréquentielles présentent également deux inconvénients majeurs : une
résolution fréquentielle inadéquate et l'élimination de l'information temporelle. L’analyse des PT,
qui sont d’après leur définition des signaux transitoires de l’ECG, ont des composantes
fréquentielles et temporelles qui sont difficiles de dissocier de celles de l'ECG standard.
Finalement, tous ces inconvénients mettent en évidence que l'analyse de Fourier est
inadaptée à la détection des PT sur l'ECG-HR. Les travaux de recherche se sont alors tournés
Chapitre 4
vers l'utilisation d'outils procurant une information localisée simultanément dans les domaines du
temps et des fréquences.
4.2. Méthodes temps-fréquence
Il existe un nombre considérable de méthodes temps-fréquence. Nous ne décrirons que les
méthodes qui ont été appliquées à l'ECG-HR : la transformée de Fourier à fenêtre glissante et le
spectrogramme, la distribution de Wigner-Ville et ses dérivées. Les transformations par
ondelettes seront présentées en section 4.3.
4.2.1. Méthode de la transformation de Fourier à fenêtre glissante
Le besoin d'une représentation des signaux à la fois dans le domaine du temps et des
fréquences fut satisfait en 1946 par Gabor et Ville. Ces derniers proposèrent une représentation
des composantes fréquentielles d'un signal, calculées à partir d'une série de portions du signal à
analyser. La transformation de Fourier à fenêtre glissante (TFFG) fut tout d'abord évaluée sur
différents types de signaux : acoustiques et sismiques. L'application de cette technique à des
signaux électrophysiologiques est apparue à la fin des années 1980 (électroencéphalogramme,
ECG).
La formulation de la TFFG de ecg t( ) est donnée par :
TFFG t w ecg t i decgw ( , ) ( ) ( ) exp( )ν τ τ πντ τ= + −
−∞
∞
∫ 2 équation 4-6
où w t( ) est la fenêtre utilisée pour la sélection du segment de durée 2T.
Le choix de la durée de la fenêtre est délicat. En effet, d'après l'équation 4-4, plus la fenêtre
temporelle est étroite (correspondant à une précision temporelle élevée), plus la précision
fréquentielle est faible. Nous verrons que cette dualité des précisions de la représentation temps-
fréquence est l'inconvénient majeur de la TFFG.
4.2.1.1. Spectrogramme
Généralement, c'est le spectrogramme qui est utilisé pour la représentation de l'ECG-HR:
Spec n w k ecg n k i kecgw
k N
N
( , ) ( ) ( ) exp( )ν πν= + −=− +
−
∑ 21
1 2
équation 4-7
Mise à part la non-reproductibilité de sa représentation, le spectrogramme possède peu de
propriétés. Il présente, néanmoins, une distribution réelle.
Chapitre 4
4.2.1.2. Application à l’ECG-HR.
Pour l'analyse de l'ECG-HR, le spectrogramme est réalisé par segmentation du cycle
cardiaque par des fenêtres de durée 2T déplacées le long de l'ECG d'une quantité ∆. Les fenêtres
sont superposée d'un segment sur l'autre de la quantité ( )2T − ∆ [Lan 92]. La fenêtre utilisée
pour cette analyse est celle de Blackman-Harris (cf. annexe H).
Deux méthodes ont été implémentées pour le pronostic des TV chez les patients en post-
infarctus.
4.2.1.2.1. Méthode de la cartographie spectro-temporelle
L’objectif de la "cartographie spectro-temporelle" est de mesurer les composantes
fréquentielles de certaines portions de l’ECG-HR afin d'en retirer les valeurs anormales générées
par les mécanismes électro-physiopathologiques [Lan 90] .
La méthode classique utilise une fenêtre de durée 2T=80 ms avec un décalage de la fenêtre
de ∆ = 3ms [Hab 89]. Le début du premier segment transformé est situé à t=52 ms après la fin du
complexe QRS. Les segments suivants sont obtenus par décalage dans la direction inverse du
temps, c'est-à-dire vers l'intérieur du complexe QRS. Vingt cinq segments sont ainsi analysés,
définissant une représentation tridimensionnelle : segments, fréquences et densité spectrale
d'énergie. La figure 4-2 présente les cartographies spectro-temporelles des "vecteurs amplitudes"
d'un patient avec TV et d'un patient sans TV. Sur ces exemples volontairement choisis pour être
très représentatifs, les cartographies font clairement apparaître des modifications de l'amplitude
des spectres entre 60 et 160 Hz pour le patient en post infarctus avec TV (a) en comparaison avec
celui du patient sans TV (b).
La quantification des anomalies des cartographies est obtenue par l'utilisation d'un facteur
de normalité. Ce facteur correspond à la moyenne des valeurs d'énergie mutuelle d'interaction
(coefficient de corrélation) entre les spectres des segments 20 et 21, 21-22 jusqu'au couple 24-25,
divisé par la moyenne des cinq coefficients de corrélation entre les spectres des segments 1 à 5.
Chapitre 4
Figure 4-2 : cartographie spectro-temporelle du vecteur amplitude d'un patient après
infarctus du myocarde avec TV (a) et d'un autre sans TV (b). Dans (a), la représentation fait
clairement apparaître une activité anormale de l'énergie haute fréquence (60-160 Hz) à la phase
terminale de l'onde de dépolarisation ventriculaire (segments 15-25).
Un patient anormal est caractérisé par un facteur de normalité <30%. Sur une population
constituée de patients en post-infarctus avec et sans TV (respectivement n=32 et n=19), la
méthode a été jugée plus sensible (+44%) et moins spécifique (-16%) que la méthode
conventionnelle de Simson.
Une variante de cette méthode a été industrialisée par la compagnie "Arrhythmia Research
Technology" [ART 90], avec ∆ = 2ms et le premier segment débutant 20 ms après la fin de QRS.
C’est la seule méthode temps-fréquence appliquée à l'ECG-HR à avoir trouvé des applications
Chapitre 4
dans le domaine commercial. L’utilisation de ce matériel reste cependant marginale en milieu
hospitalier.
4.2.1.2.2. Méthode de l'analyse des turbulences spectrales
Kelen [Kel 91] a montré en 1991 que la représentation de l'évolution du spectre du signal
en fonction du temps présentait des changements abrupts qui reflètent des anomalies de la
dépolarisation ventriculaire. Dans sa méthode, une fenêtre de 2T=24 ms est déplacée par pas de
∆ = 2ms à partir de la vingt-cinquième milliseconde avant le début du QRS, et jusqu'à 125 ms
après le début de QRS.
Les quantifieurs utilisés pour la mesure des perturbations locales de l'activité spectro-
temporelle sont estimés à partir de l'ensemble des spectrogrammes constituant la représentation
temps-fréquence. Ils sont définis de la façon suivante :
1) Moyenne des coefficients de corrélation calculés entre les spectres adjacents, c'est-à-
dire les spectres calculés à partir de deux fenêtres temporelles contiguës.
2) Pourcentage des coefficients de corrélation ayant une valeur >0.985.
3) Ecart type des valeurs des coefficients de corrélation.
4) Entropie spectrale.
Ces mesures sont effectuées sur les trois dérivations orthogonales. Plus les paramètres ont
une valeur élevée, plus les variations d'un spectre à l'autre sont importantes, et plus ils traduisent
la présence de PT. Kelen compare la méthode des turbulences spectrales à la méthode temporelle
sur une population de 71 patients (43 IM+TV et 28 IM-TV). Sur cette population, les
performances de cette méthode sont de 88% en sensibilité et 96% en spécificité. Ces résultats
sont supérieurs à ceux de la méthode classique, avec un gain en spécificité et en sensibilité de
respectivement 24% et 11%.
Haberl [Hab 89] et Kelen étudièrent également le comportement des méthodes basées sur
le spectrogramme des ECG-HR de patients en post-infarctus avec BB. Les résultats sont
similaires à ceux obtenus avec la méthode fréquentielle : tous les patients en post-infarctus et
avec une durée de QRS supérieure à 120 ms sont correctement classés.
Finalement, la présence d'un BB ne semble pas modifier suffisamment les composantes
fréquentielles de l'ECG-HR pour que cela implique un mauvais classement des patients
concernés. Les méthodes d'analyse temps-fréquence que nous venons de décrire permettent donc
d'évaluer le risque de TV et de mort subite chez les patients en post-infarctus avec BB.
Chapitre 4
4.2.1.3. Limites des méthodes d’analyse par spectrogramme
L'utilisation d'une représentation spectro-temporelle a permis d'augmenter les performances
des méthodes de discrimination des patients avec risque de TV. Cette analyse présente cependant
un inconvénient majeur : elle présente une résolution temporelle trop faible pour l'analyse précise
des potentiels de hautes fréquences. L'utilisation d'une fenêtre plus étroite conduirait à une perte
de précision en fréquences. Cet inconvénient prend toute son importance lorsque l'on considère
l'analyse des signaux transitoires que sont les PT. Ces potentiels présentent une excursion en
fréquence comprise approximativement entre 40 et 250 Hz. Ils correspondent à des phénomènes
d'une durée comprise entre 25 et 4 ms. Or la durée des segments analysés dans les méthodes
utilisant le spectrogramme est constante et mesure environ 20 ms. Il apparaît donc évident que
les PT ne peuvent être localisés précisément avec ce type de représentation.
4.2.2. La Distribution de Wigner-Ville
Cette transformation fut proposée en 1932 par Wigner. Elle fut appliquée au traitement du
signal en 1948 par Ville, comme une forme du "spectre instantané", c'est-à-dire de la
représentation de la densité d'énergie du signal à chaque instant.
La transformation de Wigner-Ville (TWV) du signal ecg(t) s'écrit:
WV t ecg t ecg t i decg( , ) ( ) ( ) exp( )ν πντ ττ τ= + − −−∞
+∞
∫ 2 2 2 équation 4-8
où ecg t( ) est la forme conjuguée de ecg(t). La formulation discrète s'écrit de la manière
suivante:
WV n k ecg n l ecg n l i klecgl
l
( , ) ( ) ( ) exp( )= + − −=−∞
∞
∑2 4 π équation 4-9
La TWV est généralement calculée à partir de la forme analytique du signal à transformer,
ceci afin d'éliminer les ondes parasites dues à l'interférence entre les fréquences positives et
négatives du spectre du signal transformé (cf. annexe I).
Cette transformation fait partie de la classe de Cohen (cf. annexe J). Elle fournit une
représentation temps-fréquence dite bilinéaire, dont la projection sur l'axe du temps est la
puissance instantanée du signal et la projection sur l'axe des fréquences est la densité spectrale
d'énergie [Coh 66].
La puissance instantanée d'un signal quelconque x(t) s'exprime en fonction de sa
transformée de Wigner-Ville (WV) par l'équation :
Chapitre 4
WV t d x tx ( , ) ( )ν ν =−∞
+∞
∫ 2équation 4-10
La densité spectrale de puissance de la transformée du même signal x(t) est déterminé par
la projection sur l'axe fréquentiel :
WV t dt Xx ( , ) ( )ν ν=−∞
+∞
∫ 2équation 4-11
où x(t) et X(ν) sont respectivement le signal à transformer et son spectre.
La transformation de Wigner-Ville présente en théorie la meilleure précision temps-
fréquence des représentations temps-fréquence actuelles [Jon 92]. Cependant l'inconvénient de
cet outil est l'apparition de termes d'interférences dans la représentation temps-fréquence [Hla
92]. Ces interférences apparaissent sous forme d'oscillations imprévisibles liées à l'interaction
entre les différentes composantes temps-fréquence du signal étudié. Elles sont la conséquence
indirecte de la propriété de bilinéarité de la distribution. Ainsi, la transformation de Wigner-Ville
d'un signal constitué par la somme des signaux x(t) et y(t) s'exprime par l'équation :
WV WV WV Réel WVx y x y xy+ = + + 2 ( ) équation 4-12
où le terme d'interférence WVxy représente l'inter-distribution de la représentation de
Wigner-Ville :
WV x t y t i dxy = + − −−∞
+∞
∫ ( ) ( ) exp( )τ τ πντ τ2 2 2 équation 4-13
La présence de l'onde P et de l'onde T produit des interférences avec l'onde QRS qui
donnent un aspect "chaotique" à la représentation de la transformation de Wigner-Ville du signal
ECG-HR (cf. figure 4-3). Ces interférences sont généralement présentées comme un
inconvénient majeur de la transformation de Wigner-Ville puisqu'elles cachent l'information utile
et rendent très difficile l'interprétation de la représentation [Hla 84] [Pey 92] [Rub 95].
Cependant un article récent a proposé un nouveau point de vue sur ces interférences. En effet,
d'après Reyna [Rey 96], on pourrait mettre a profit l'existence d'interférences avec les post-
potentiels pour localiser précisément les composantes temps-fréquence des potentiels tardifs, la
présence d'interférences étant proportionnelle à celle des potentiels tardifs.
Chapitre 4
Figure 4-3 : exemple de transformation de Wigner-Ville de la dérivation X d'un sujet sain,
sans fenêtrage du complexe QRS. Les flèches indiquent les zones d'interférences.
4.2.2.1. La Pseudo Distribution de Wigner-Ville
Il existe d’autres types de transformations dérivées de la TWV qui ont été créées afin de
diminuer les interférences dans la transformation de Wigner-Ville. Ces transformations
conservent les propriétés de la classe de Cohen. Par exemple, la "pseudo distribution de Wigner-
Ville" proposée par Martin et Flandrin [Mar 85] est une forme lissée de la TWV. Elle s'écrit :
PWV t w s t s t i dsw ( , ) ( ) ( ) ( ) exp( )ν πντ ττ τ τ= + − −
−∞
+∞
∫ 2
2
2 2 2 équation 4-14
ou w(t) est la fonction fenêtre utilisée.
L'implémentation de la TWV lissée est basée sur la formulation discrète de l'équation 4-15.
Le lissage intervient dans le domaine des fréquences.
PWV l kM
w n s l n w n x l n ikn
Mws
n
M
( , ) ( ) ( ) ( ) ( ) exp( )= + − − −=
−
∑1
22
0
1
π équation 4-15
Pour limiter les interférences de la transformation de Wigner-Ville de l'ECG-HR, une
solution est d'éliminer dans un premier temps les ondes P et T qui sont à la source de certains
termes d'interférences. Le complexe QRS est isolé en utilisant une fonction de Hanning. La
figure 4-4 montre la pseudo transformation de Wigner-Ville pour le même signal que celui de la
Chapitre 4
figure 4-3 après élimination des ondes P et T et lissage par une fenêtre w(t) qui est également une
fonction de Hanning. Notons que certaines interférences persistent. Elles sont localisées sur la
portion terminale du QRS, c’est-à-dire sur la zone d'apparition des PT.
Figure 4-4 : pseudo transformation de Wigner-Ville du patient de la figure 4-3 avec une
fenêtre de lissage de Hanning de 31 points et une FFT calculée sur 256 points. La flèche indique
la localisation d'interférences résiduelles.
4.2.2.2. La Pseudo Distribution de Wigner-Ville Lissée
Une seconde forme dérivée de la TWV, appelée la "pseudo distribution de Wigner-Ville
lissée", peut être utilisée pour éliminer les interférences résiduelles de la pseudo TWV. Cette
nouvelle transformation conduit à un lissage de la représentation dans le domaine du temps.
Cette transformation s'écrit:
PWVL t w h u t s t s t du i dsw h, ( , ) ( ) ( ( ) ( ) ( ) ) exp( )ν πντ ττ τ τ= − + − −
−∞
+∞
−∞
+∞
∫∫ 2
2
2 2 2
équation 4-16
où h(u-t) correspond à la fenêtre de lissage (type Hanning) dans le domaine du temps.
Sous forme discrète, la formulation devient :
PWVL n w k h m s n m k s n m k i ksw h
m M
M
k N
N, ( , ) ( ) ( ) ( ) ( ) exp( )ν πν= + + + − −
=− +
−
=− +
−
∑∑2 42
1
1
1
1
équation 4-17
Chapitre 4
Figure 4-5 : exemple de pseudo transformation de Wigner-Ville lissée du même
enregistrement que celui de la figure 4-4. La transformation est réalisée avec des fenêtres de
type Hanning de 31 points pour le lissage fréquentiel et de 11 points pour le lissage temporel. La
FFT a été calculée sur 256 points.
Finalement, ce type de représentation semble être le plus pertinent pour la détection des PT
chez les patients susceptibles de faire des TV (cf. figure 4-5). Les interférences sont très
nettement atténuées. On peut néanmoins se demander si le lissage n’a pas éliminé une partie de
l’information pertinente.
4.2.2.3. Application à l’ECG-HR
Cette représentation temps-fréquence de l’ECG-HR n’a fait l’objet que de très peu d’études
mais semble connaître un regain d'intérêt. Parmi les précurseurs, citons Waldo [Wal 90] et
l'équipe de Peyrin [Pey 92] [Kar 92] qui ont adopté cette transformation pour la détection des PT.
Dans son travail de DEA, B. Karoubi [Kar DEA] propose une méthode de classification des
patients avec risque de TV basée sur des algorithmes de détection et de synchronisation des
maxima des transformations temps-échelle de l'ECG-HR, initialement mise au point par D.
Morlet [Mor 93] sur des représentations temps-échelle. Ce travail montre que la pseudo TWV est
le meilleur compromis entre le spectrogramme et la TWV pour la détection des PT. La méthode
permettait, avec une sensibilité de 95% et une spécificité de 100% (N=2×20 patients), une très
bonne séparation des patients avec et sans risque de TV. Ces chiffres sont cependant à considérer
Chapitre 4
avec précaution car les populations d'études contenaient de nombreux cas avec une durée de QRS
supérieure à 120 ms.
4.2.2.4. Limites des méthodes basées sur la distribution de Wigner-Ville
L'atténuation des interférences de la TWV semble avoir été résolue par l'utilisation de
formes lissées. Le lissage s'applique au signal dans son ensemble et peut donc éliminer une partie
du signal utile. En particulier, les PT subissent l'effet du lissage au même titre que les
interférences. La perte de l'information utile reste cependant difficile à évaluer.
4.2.3. La transformation de Gabor
L’objectif du travail de Gabor était de créer une transformation de Fourier à fenêtre
glissante utilisant une fenêtre qui optimise les précisions temporelle et fréquentielle pour la
représentation d'un signal. Cette fenêtre "optimale" est une fonction gaussienne de la forme:
w tt
α πα α( ) exp(
²)= −
1
2 4équation 4-18
où α est une constante positive.
4.2.3.1. Caractérisation temps-fréquence
Afin de décrire précisément la caractéristique de cette fenêtre temporelle, nous utiliserons
deux paramètres qui sont sa durée 2∆ w et son centrage t*. En général, ces paramètres sont
obtenus par l'utilisation de formules basées sur la racine carrée de la variance (écart type) des
valeurs de t :
{ }tw
t w t dt* ( )=−∞
+∞∫1
22
2, équation 4-19
{ }∆ w wt t w t dt= −
−∞
+∞∫1
2
12
( *)² ( ) ² équation 4-20
où w w t w t dt2
2 =−∞
+∞
∫ ( ) ( ) est l'énergie de la fenêtre.
Pour une fonction gaussienne d'écart type 2α, la valeur de la durée de la fenêtre est :
2 2∆w = α .
Dans le domaine des fréquences, nous pouvons caractériser de la même façon la bande de
fréquence 2∆ ~w et la fréquence centrale f* de cette fenêtre :
Chapitre 4
{ }fw
f w f df* ~( )=−∞
+∞∫1
22
2équation 4-21
{ }∆ ~ ( *)² ~( ) ²w wf f w f df= −
−∞
+∞∫1
2
12
équation 4-22
où ~( )w f est la TF de la fenêtre w t( ).
La TF d'une fonction gaussienne reste une fonction gaussienne. En considérant l'écart type
comme un changement d'échelle, le spectre de la fenêtre s'écrit :
~( ) exp( ²)w f f= −α π2 équation 4-23
La bande-passante dans le domaine des fréquences est égale à 21
∆ ~w =α
.
Dans le plan temps-fréquence, cette fenêtre peut être représentée par un rectangle dont la
longueur est la durée temporelle de la fenêtre et la hauteur est la bande de fréquence du spectre
de cette même fenêtre.
La représentation de cette fenêtre temps-fréquence est appelée "boîte de Heisenberg" [Hub
95] (cf. figure 4-6). Sa surface minimale est liée au principe d'incertitude de Heisenberg. Ce
principe met en évidence l’impossibilité de localiser simultanément avec une grande précision un
signal en temps et en fréquence. Les travaux de Heisenberg ont montré que le produit de la
variance du signal en temps et en fréquence est au moins supérieur à une constante égale à 1
16π ²,
correspondant à une fenêtre de surface égale à 4∆ ∆w w~=1
4π.
La fenêtre de Gabor délimite donc la surface temps-fréquence dans laquelle l'ondelette de
Gabor mesure l'énergie du signal étudié. Afin de réaliser une translation de la fenêtre dans le
domaine du temps et des fréquences, Gabor utilise deux paramètres b et η :
w i t w t bbα
ηαη, exp( ) ( )= − équation 4-24
La modulation de la fenêtre par la pulsation η induit une translation du spectre qui sera
centré sur la fréquence 2πη, alors qu'une translation temporelle b entraînera un centrage de la
fenêtre sur cette valeur. Finalement, Gabor utilise une fenêtre caractérisée par une surface temps-
fréquence donnée qui est décalée dans les domaines du temps et des fréquences. Les côtés de la
boîte de Heisenberg sont alors définis par [ , ]b bw w− +∆ ∆ en temps et [ , ]~ ~η η− +∆ ∆w w en
fréquence.
La transformation de Gabor s'écrit:
Chapitre 4
TG b s t w t b i t dts ( , ) ( )( ( ) exp( ))η ηα= − −−∞
+∞∫ équation 4-25
Fréquence
Tempsb1
η1
2∆ w
2∆ ~w
b2
η2
Figure 4-6 : représentation temps-fréquence, encore appelée boîte de Heisenberg, des
caractéristiques de la transformation de Gabor..
4.2.3.2. Limitations de la transformation de Gabor
L'inconvénient majeur de cette transformation réside simplement dans le fait que Gabor
utilise une fenêtre de durée constante dans laquelle seul le nombre d'oscillations varie. Par
conséquent, la précision temporelle reste identique pour la mesure de l'énergie des composantes
du signal dans les basses et les hautes fréquences. C'est l'une des raisons pour laquelle cette
technique n’a pas été appliquée à l’ECG-HR. Si nous la citons, c’est parce qu’elle a donné
naissance aux outils temps-échelle.
4.2.4. Reproductibilité des méthodes fréquentielles et temps-fréquence
L'équipe de Malik s’est intéressée à la reproductibilité des méthodes temporelle et de la
cartographie spectro-temporelle [Mal 92]. L'évaluation fut effectuée sur une population de 40
sujets comprenant des sujets sains (n=15), des patients avec TV sans nécrose (n=10) et des
patients en post-infarctus avec TV (n=15). Sur tous ces patients, trois ECG-HR ont été
enregistrés à cinq minutes d'intervalle, avec des niveaux de bruit des enregistrements inférieurs à
0.5 µV. L'analyse de la reproductibilité des paramètres de Simson avec un filtrage à 25 et à 40 Hz
fait apparaître que la reproductibilité du LAS40 et du RMS40 est beaucoup plus faible que celle
du QRSf. Malik démontre également que la méthode de la cartographie spectro-temporelle est
beaucoup moins reproductible que le méthode temporelle puisque leur reproductibilité
respectives sont égales à 67.5% et 87.5%.
Kautzner [Kau 93] a présenté une étude ne s'appuyant que sur des sujets sains (n=28) et
comparant la méthode temporelle, la cartographie spectro-temporelle et l'analyse des turbulences
Chapitre 4
spectrales. L'étude a porté sur l'analyse de la reproductibilité à long et à court termes (1 jour, 1
semaine et 1 mois) des trois méthodes. Les résultats ont mis en évidence que la méthode de
Simson et l'analyse des turbulences spectrales auraient une reproductibilité équivalente, qui est
supérieure à celle de la cartographie spectro-temporelle. Il n'y a pas par ailleurs de différences
entre la reproductibilité à long et à court termes entre les trois méthodes.
Plus récemment, Vasquez [Vas 95] a étudié la reproductibilité à court terme de ces mêmes
trois méthodes sur des sujets sains (n=85) et sur des patients en post-infarctus (n=225). Ses
résultats indiquent que la reproductibilité des méthodes diagnostiques est de respectivement 97%
pour la méthode temporelle, 94% pour l'analyse des turbulences spectrales et 83% pour la
cartographie spectro-temporelle et ceci, sur l'ensemble de la population d'étude.
4.2.5. Conclusion
Les méthodes basées sur la transformation de Fourier à fenêtre glissante ont des précisions
fréquentielles et temporelles fixes. Il est par conséquent difficile de faire une mesure précise des
composantes d’un signal à la fois dans les hautes et les basses fréquences. Au regard des
principaux inconvénients des outils de représentation évoqués précédemment, l'outil de
traitement du signal optimal pour l'analyse de l'ECG-HR devrait être caractérisé par une capacité
à mesurer l'énergie d'un signal avec une précision temps-fréquence suffisante pour se limiter aux
zones d'apparition des LP. Cet outil devrait être en outre assez précis pour effectuer une
caractérisation des composantes fréquentielles des différentes ondes constituant le cycle
cardiaque, comme a tenté de le faire Cain [Cai 91] avec la TFFG en 1991. La transformation de
Wigner-Ville possède toutes ces caractéristiques, mais elle souffre de termes croisés qui rendent
difficile l'interprétation de sa représentation.
C'est à partir de l'observation des inconvénients du spectrogramme et de l'étude de la
transformation de Gabor que Jean Morlet proposa en 1975 une autre approche donnant naissance
à la théorie des ondelettes.
4.3. Transformation temps-échelle
Les premiers travaux liés à la théorie des ondelettes sont apparus dans les années 30 à
l'occasion des études de Lusin et Caldèron. Mais c'est en 1975 que Jean Morlet définit pour la
première fois la transformation par ondelettes (TO). La validité théorique n'a été confirmée que 9
ans plus tard, en 1984, par Alex Grossman.
Chapitre 4
Jean Morlet travaillait à l'origine sur l'ondelette de Gabor, dénomination qu'il avait donnée
à la fenêtre utilisée par Gabor pour le calcul de la transformation de Fourier à fenêtre glissante.
L'idée de Morlet fut d'inverser la démarche de Gabor. Au lieu de garder une fenêtre de durée
constante et de faire varier le nombre d'oscillations qu'elle contient, il garda constant le nombre
d'oscillations et fit varier la taille de la fenêtre par contraction et dilatation. Cette idée a priori très
simple allait faire naître un nouvel outil des plus surprenants. Jean Morlet utilise pour son
ondelette analysante une fonction de base constituée par une gaussienne modulée:
ϕ ω( ) exp( ) exp( )t i t t= −0 2
2
équation 4-26
4.3.1. Définition
La transformation par ondelettes d'un signal s(t) s'écrit :
TO a b s t t dts a b( , ) ( ) ( ),=−∞
+∞
∫ ϕ équation 4-27
La forme discrète de cette transformation est :
TO a b s n ns a bn
N
∃ ( , ) ( ) ( ),==
−
∑ ϕ0
1
équation 4-28
Ainsi, quel que soit le signal s(t) à analyser, un coefficient d'ondelette peut être calculé par
la mesure de la surface du produit de l'ondelette par le signal s(t) analysé.
Les phénomènes de contraction et de dilatation sont obtenus par utilisation d'un paramètre
d'échelle :
ϕ ϕatat a( ) ( )= − 1
2 équation 4-29
La valeur du paramètre d'échelle est toujours positive. Pour une valeur de a inférieure à 1,
la fonction ondelettes est contractée. Elle est dilatée pour une valeur supérieure à 1. Le
coefficient pondérateur a − 12 permet de conserver l'énergie de l'ondelette d'une échelle à l'autre.
L'objectif de la fonction ondelette est de pouvoir analyser les composantes de haute et de
basse fréquences du signal en adoptant automatiquement une résolution temps-fréquence
adéquate. De plus la TO doit permettre de reconstruire le signal à partir de sa transformée. Ces
propriétés ne sont réalisables que sous certaines conditions dites "d'admissibilité".
En effet, pour être admissible, la fonction d'ondelette doit avoir une surface nulle :
ϕ ( )t dt =−∞
+∞∫ 0 équation 4-30
Chapitre 4
et la constante Cϕ doit être finie :
Cf
fdfϕ
ϕ= < ∞
−∞
+∞∫~( ) ²
équation 4-31
Pour la localisation temporelle de l'ondelette, Morlet utilise un paramètre b de centrage,
équivalent à celui utilisé par Gabor. En définitive, la famille d'ondelettes s'écrit:
ϕ ϕa bt bat a, ( ) ( )= − −
12 équation 4-32
4.3.2. Représentation temps-fréquence des ondelettes
L'utilisation du paramètre d'échelle modifie le centrage et la durée de la fonction
d'ondelette. L'ondelette ϕa,b est centrée sur b+at* et la durée de la fonction est 2a∆ϕ. L'étendue
temporelle est [b+at*-a∆ϕ , b+at*+a∆ϕ]. La fréquence centrale et la bande de fréquence analysée
sont respectivement f
a
* et
2
a∆ ~ϕ . L'étendue spectrale de la fenêtre est [
*,
*]
~ ~f
a a
f
a a− +
∆ ∆ϕ ϕ.
Fréquence
Tempsb1
2 1a ∆ ϕ
2
1
∆ ~ϕ
a
b2
f
a
*
2
2
2
∆ ~ϕ
a
2 2a ∆ ϕ
f
a
*
1
Figure 4-7 : représentation temps-fréquence des ondelettes mettant en évidence leurs
caractéristiques pour deux valeurs du paramètre d'échelle a et de localisation temporelle b
(b1<b2 et a1<a2).
L'aire temps-fréquence de l'ondelette est égale au produit 2a2∆ϕ×( 2∆ ~ϕ /a2). Cette surface,
égale à 4∆ ∆ϕ ϕ~ , est constante car indépendante du paramètre d'échelle.
4.3.3. Transformations par ondelettes
Il existe plusieurs types d'ondelettes orthogonales et non orthogonales. Les plus connues
sont les ondelettes de Morlet, Spline ou dérivées d'une fonction gaussienne pour les non
orthogonales, et les ondelettes de Lemarié [Lem 86], Mallat [Mal 89] et de Meyer [Mey 90] pour
Chapitre 4
les orthogonales. Nous avons, pour notre part, surtout utilisé les ondelettes de Morlet et de
Meyer, assez répandues dans divers domaines médicaux comme la cardiologie [Mes 91] et la
neurologie [Boh 91].
La transformation par ondelettes d'un signal correspond à un calcul d'intégrale relativement
simple à implémenter. Cependant le nombre d'intégrales à calculer est d'autant plus important
que le nombre d'échelles et de points constituant le signal à transformer sont élevés. Nous
verrons par la suite que quel que soit le type de la transformation par ondelettes, orthogonal ou
non-orthogonal, le temps de calcul des transformations peut-être réduit en effectuant les
transformations dans le domaine des fréquences.
Les deux paragraphes suivants décrivent les processus de calcul des TO de Morlet et de
Meyer.
4.3.3.1. Transformation par ondelettes de Morlet
D'après les travaux de Kronland-Martinet [Kro 87], la valeur de pulsation de l'ondelette de
Morlet doit être fixée entre 5 et 6 rad.s-1 pour remplir la condition d'admissibilité de la fonction
ondelette. Nous utilisons la valeur proposée par Morlet, soit ω0 égale à 5.33 rad.s-1 (cf. équation
4-26).
Afin de minimiser les temps de calcul des transformations, nous utilisons un artifice
mathématique exploitant les propriétés du domaine fréquentiel. Cet artifice mathématique utilise
le théorème de Plancherel : le produit de convolution entre deux fonctions dans le domaine
temporel est équivalent à un produit simple dans le domaine des fréquences. Cette propriété nous
permet d'écrire la transformation continue par ondelettes TO a ns( , ) de la fonction s(t) :
TO a n TF s f fs a( , ) [~( ) ~ ( )]= −1 ϕ avec ~ ( ) ~( )ϕ ϕa
afNf = équation 4-33
où ~( )s f est la TF de s(n), N le nombre total d'échantillons de s et ~( )ϕ afN la TF de
l'ondelette ϕa n( ) à l'échelle a.
Imaginons que sur un signal s(n) constitué de N échantillons, nous voulions calculer la
transformation par ondelettes avec un centrage de l'ondelette sur chaque échantillon n, c'est-à-
dire que b prendrait toutes les valeurs de n. Ceci correspondrait à N calculs d'intégrale du produit
de l'ondelette par le signal. Cette opération est équivalente à un produit de convolution dans le
temps du signal s(n) avec l'ondelette ϕa b n, ( ) . Or d'après le théorème de Plancherel, nous pouvons
réduire l'ensemble des N calculs d'intégrale correspondant aux N centrages de l'ondelette sur le
Chapitre 4
signal par le calcul de la transformation de Fourier inverse du produit des transformations de
Fourier du signal et de l'ondelette. Ainsi le temps de calcul est très sensiblement diminué.
Dans ce cas bien précis, cette transformation est assimilée à un filtrage fréquentiel
numérique ou filtrage linéaire au sens de Blanc-Lapierre. Ce type de filtrage n'entraîne pas de
distorsion de phase.
4.3.3.2. Transformation par ondelettes de Meyer
Meyer a montré en 1987 qu'il était possible de construire une base orthogonale d'ondelettes
élémentaires. L'ondelette de Meyer est généralement formulée de la façon suivante :
ψ ψj kj jt t k,/( ) ( )= −2 22 avec j et k entier équation 4-34
L'ondelette de Meyer n'a pas de définition temporelle directe. Elle est définie uniquement
dans le domaine des fréquences où elle est décrite par sa transformée de Fourier :
~ ( ) exp( )~( ),/ψ π ψj k
j j jf i f k f= −− − −2 2 2 22 équation 4-35
avec 2 22− −jj k
j f/,
~ ( )ψ la TF de l'ondelette mère ψ ψjj jt t,/( ) ( )022 2= . Le terme de
modulation du spectre exp( )− −i f kj2 2π correspond à la translation temporelle induite par k sur la
fonction temporelle.
Le spectre de l'ondelette mère ~( )ψ f est construit à partir d'une fonction θ( )f (cf. figure
4-8) :
~( ) exp( ) ( )ψ π θf i f f= − équation 4-36
qui satisfait aux conditions suivantes :
1) Parité du spectre de l'ondelette :θ θ( ) ( )f f= −
2) θ ( )f ≠ 0 pour f ∈ − +
1
21 2ε ε,
3) θ ( )f = 1 pour f ∈ + −
1
21 2ε ε,
4) θ θ² ( ) ² ( )f f+ − =1 1 pour f ∈ − +
1
2
1
2ε ε,
5) θ θ( ) ( )2 1f f= − pour f ∈ − +
1
2
1
2ε ε,
et 0<ε≤1/6 équations 4-37
Chapitre 4
Fréquence1/2 1½+ε½-ε 1+2ε1-2ε
θ ( )f
Figure 4-8 : forme du spectre de l'ondelette mère de Meyer.
La construction du spectre de l'ondelette sur l'intervalle [ ]− +ε ε, autour du point ½ est
incomplète puisque ses pentes ne sont pas définies dans la série d'équations 4-37. On introduit
donc une fonction supplémentaire κ(f) qui présente la forme de θ(f) à proximité du point ½.
k f f( ) ( )= γ pour 0≤ f ≤ ε
k f f( ) ( )= −1 2γ pour -ε≤ f ≤ 0 équation 4-38
Cette définition de la fonction κ(f) permet de préserver la condition 4 de la série
d'équations 4-37.
La fonction γ(f) peut être définie de diverses façons, correspondant à des fonctions sinus,
quadratique, exponentielle et même linéaire. Dans notre travail, nous avons choisi d'utiliser la
fonction exponentielle pour sa simplicité :
γαε
ε( ) exp(
²
( )²)f
f= −
−1 avec α=Log(1-2-1/2) équation 4-39
Le choix de la valeur du facteur ε est beaucoup plus important que le choix de la fonction
définissant les pentes du spectre de l'ondelette mère, car cette valeur implique des modifications
significatives de la forme de l'ondelette dans le domaine temporel. Ainsi, lorsque la valeur de ε se
rapproche de 0, les pentes du spectre de l'ondelette sont très raides et l'ondelette temporelle
présente une forme comprenant des oscillations importantes. Une valeur d'epsilon plus proche de
son maximum (1/6) permet de mieux localiser l'ondelette dans le temps. Cet avantage est
contrebalancé par une augmentation de la bande-passante de l’ondelette.
Bohorquez [Boh 91] a montré qu'elle était l’incidence de la valeur de ε sur les
caractéristiques temps-fréquence des ondelettes de Meyer. Les résultats montrent que leur
Chapitre 4
étendue spectrale augmente avec la valeur de ε, les bandes-passantes correspondantes sont plus
large et les zones de recouvrement fréquentielle inter-échelle augmentent. Dans l'espace des
temps, plus la valeur de ε augmente, plus l'énergie de l'ondelette se concentre. Lorsque ε tend
vers (1/6), le poids temps-fréquence des ondelettes tend vers la valeur minimale théorique 1
4π.
Dans la suite, nous avons fixé la valeur de ε à 1
10, valeur que nous justifierons dans la
section 4.3.3.2.2.
4.3.3.2.1. Réalisation d'une base orthogonale
D'après la formule du spectre de l'ondelette, chaque fois que le paramètre d'échelle j
augmente de 1, le spectre se décale vers les hautes fréquences et sa bande de fréquence double.
Meyer a montré que la famille des ondelettes ainsi générées forment une base orthogonale,
c'est-à-dire :
ψ ψ δ δj k j k j j k kt t dt, , , ,( ) ( )′ ′ ′ ′−∞
+∞=∫ équation 4-40
où δ l m, est le symbole de Kronecker défini par :
{ 1
0
j k=
j k≠δj,k=
équation 4-41
La transformation en ondelettes orthogonales d'un signal s(t) quelconque se calcule comme
nous l'avons précédemment décrit par la relation :
TO j k t s t dts j k( , ) ( ). ( ),=−∞
+∞∫ ψ équation 4-42
En remplaçant ψ j k t, ( ) par son expression dans l'espace des fréquences et en considérant
l'expression de l'ondelette introduite au début de ce paragraphe :
[ ]TO j k TF s f f ksj j j( , ) ~( ). ~( ) ( )/= − − − −2 2 22 1 ψ équation 4-43
où ~ψ est le spectre de l'ondelette de Meyer.
Les coefficients d'ondelettes TO j ks( , ) correspondent au filtrage du signal s(t) par un filtre
passe-bande suivi par un sous-échantillonnage à des instants 2-jk. Ainsi, pour un j donné, les
coefficients TO j ks( , ) apparaissent comme la sortie sous-échantillonnée après un filtrage passe-
bande du signal s(t). L'utilisation d'un pas d'échantillonnage de 2-jk permet de construire une base
Chapitre 4
présentant un rapport de deux d'un niveau de décomposition à l'autre. Cette base est appelée
"dyadique". Le nombre de coefficients double d'une échelle vers l'échelle en fréquence
immédiatement supérieure.
Grâce à la TO orthogonale de Meyer, nous pouvons reconstruire en totalité le signal
original s(t) à partir des coefficients TO j ks( , ) . Cette caractéristique, qui est très utile pour la
compression de signaux, ne sera pas utilisée pour l'étude des PT. Néanmoins une reconstruction
sur des signaux tests a été effectuée afin de valider nos algorithmes de décomposition
orthogonales. La reconstruction est obtenue par la sommation des coefficients TO j ks( , ) pour
toutes les valeurs de j et de k pondérées par l’ondelette analysante associée ϕj,k(t) :
s t TO j k ts j kkj
( ) ( , ) ( ),= ∑∑ ϕ équation 4-44
L'implémentation de la base orthogonale d'ondelettes de Meyer nécessite bien évidemment
une phase de discrétisation qui devrait permettre de décomposer l'ensemble des composantes
temps-fréquence du signal électrocardiographique sans induire de perte d'information.
4.3.3.2.2. Formulation discrète
Les ondelettes discrètes sont obtenues par discrétisation du spectre continu de l'ondelette de
Meyer, aux fréquences 2-jν/N. La phase du spectre de l'ondelette, liée à k, détermine la position
temporelle de l'ondelette. La formulation discrète de l'équation 4-45 est l'expression discrète de
l’équation 4.35 :
~ ( ) exp( / )~( / ),/ψ π ψj k
j jf i fk N f N= −− −2 2 22 pour f=[-N/2+1,N/2] équation 4-45
On obtient les différents spectres de la base orthogonale par un sous-échantillonnage aux
points 2-jf/N du spectre de base défini par l’équation 4.36. La transformation par ondelettes de
Meyer discrète nécessite, par conséquent, un nombre de points égal à N=2n, et ceci quel que soit
le nombre d’échelles n (n entier). La figure 4-9 présente l'évolution de ce spectre en fonction des
échelles pour un nombre de points égal à 512 avec une valeur de ε=1/10. Cette valeur de ε limite
le recouvrement inter-spectres tout en conservant la concentration de l'énergie de l'ondelette.
Chapitre 4
Figure 4-9 : représentation de la partie réelle des spectres des ondelettes de Meyer et des
ondelettes dans le domaine temporel pour les échelles 1 à 3 de la décomposition.
• Inconvénients de la discrétisation
Le processus de discrétisation de l'ondelette de Meyer introduit quatre inconvénients
majeurs :
(1) l'expression temporelle de l'ondelette de Meyer est obtenue en utilisant la TF inverse de~ ( ),ψ j k f . Bien évidemment les ondelettes calculées de cette façon sont, de par la
définition de la transformation de Fourier, des fonctions périodiques de période N qui ne
répondent plus à l'équation 4.31.
(2) pour l’ondelette de plus basse fréquence, le sous échantillonnage limite le spectre à une
seule valeur, transformant ce spectre en une fonction Dirac dont la TF inverse est une
Chapitre 4
fonction sinusoïdale pure. Dans ce cas bien précis, les conditions d'existence de
l'ondelette en tant que telle ne sont plus valides.
(3) la composante continue du signal est perdue après décomposition.
(4) d'après la définition des spectres, celui de l'ondelette de l'échelle de plus haute
fréquence ne permet pas de conserver toute l'énergie des composantes du signal.
• Conservation de l'énergie du signal décomposé
Les deux premiers inconvénients liés à la discrétisation ne peuvent être évités lors de la
construction d'une base orthogonale discrète d'ondelettes de Meyer. En revanche les problèmes
liés à la conservation de l'énergie entre les deux espaces de représentations sont résolus par des
modifications de la définition de la décomposition.
Afin de conserver la totalité de l’énergie du signal, on ajoute un coefficient à la
décomposition correspondant à la valeur moyenne du signal. On définit donc arbitrairement un
coefficient supplémentaire mesurant la valeur moyenne du signal:
TON
s nsn
N
( , ) ( )0 01
0
1
==
−
∑ équation 4-46
Pour palier à la perte d'information dans le spectre de l'échelle de plus haute fréquence, on
introduit la condition de l'équation 4-47 valable uniquement pour l'échelle j=-1.
θ(f)=1 pour f ∈ +
1
21ε , équation 4-47
Avec la nouvelle condition de l'équation 4-47, on conserve l'intégralité de l'énergie
contenue dans le spectre du signal analysé.
• Reconstitution du signal transformé
Finalement, la construction de cette base d’ondelettes pour l’analyse des signaux discrets à
durée finie s’appuie sur une construction orthogonale dans le domaine des fréquences qui permet
d’obtenir un opérateur réversible fournissant une dualité entre l’espace des temps et l’espace des
fréquences. La construction des spectres de l'ondelette permet d'obtenir une base orthonormée
utilisant des fonctions d'ondelettes discrètes de durée finie.
Nous avons testé sur un certain nombre de signaux la formule de reconstruction 4-48 pour
valider nos algorithmes de décomposition :
s n TO TO j k ns s j kk
N
j p
j
( ) ( , ) ( , ) ( ),= +=
−
=−
−
∑∑0 00
2 11
ψ équation 4-48
Chapitre 4
On vérifie que cette formulation permet bien la conservation de l’énergie du signal analysé,
caractéristique la plus importante de la transformation.
s n N TO SN
s fn
N
s j kf N
N
k
N
j p
j
( ) . ( , ) ~( ),/
/2
0
12 2 2 2
2 1
2
0
2 11
0 01
= + ==
−
=− +=
−
=−
−
∑ ∑∑∑ équation 4-49
• Conclusion
La TO de Meyer permet de décomposer la totalité d'un signal quelconque s(n) de N
échantillons, N étant une puissance de deux, en un nombre fini de coefficients égal à (N-1).
Lorsque j passe à la valeur tout de suite supérieure, c'est-à-dire que l'on passe à l'échelle
supérieure au sens des fréquences, la bande passante de l'ondelette double, le nombre d'ondelettes
contenues dans cette échelle double également. Quand, au contraire, la valeur de j diminue, la
bande de fréquence est divisée par deux, l'étendue de l'ondelette temporelle correspondante est
doublé et le nombre d'ondelettes dans cette échelle est divisé par deux. La figure 4.10 présente la
base orthogonale dyadique de Meyer que nous avons utilisé pour l'analyse de l'ECG-HR.
Figure 4-10 : base orthogonale dyadique de Meyer définie sur 512 points, soit 9 échelles.
Le nombre total de coefficients est donné par la formule suivante:
Nc Np j
j p
= = −+
=−
−
∑2 11
équation 4-50
Chapitre 4
Ce calcul ne comprend pas le coefficient de mesure de la moyenne du signal. Si on ajoute
ce coefficient, il existe une dualité parfaite entre les espaces de représentation temporel et
fréquentiel sans perte d'information lors du passage d'un espace à l'autre. On utilise N valeurs
pour représenter le signal dans chacun des espaces.
4.4. Application des ondelettes à l'ECG
Les ondelettes ont trouvé un très grand nombre d'applications dans le domaine médical,
principalement dans l'analyse des signaux bio-acoustiques, électroencephalographiques,
électrocardiographiques et les signaux d'imagerie médicale [Uns 96].
Dans le domaine de la cardiologie, les ondelettes ont été utilisées afin de résoudre divers
problèmes de détection d'ondes [Sen 92], de points fiduciels [Li 93] et de la présence de PT [Tut
88]. Les deux premiers types de travaux n'ont pas retenu l'attention car le problème de
classification des complexes et de détection des ondes anormales avait déjà été résolu par des
approches déjà performantes [CSE 90].
Les travaux s'intéressant à l’analyse de l’ECG à haut résolution pour la détection des PT
ont par contre généré un grand nombre de publications. Deux cent cinquante neuf articles
concernant l'analyse des PT sur l'ECG-HR sont parus entre 1992 et 1996, 30% utilisaient une
transformation par ondelettes.
4.4.1. Etudes descriptives
Les premier travaux sur l'application des ondelettes au signal ECG ont été principalement
descriptifs. L'équipe de Rix [Mes 89] fut en 1989 l'une des premières à appliquer la
transformation par ondelettes à des ECGs enregistrés par un système d'acquisition digital à haute-
résolution (5 kHz). Basé sur les transformations par ondelettes de Morlet, ce travail est un des
premiers à avoir montré le bénéfice apporté par les transformations temps-échelle
d'enregistrements comportant un faible nombre de cycles moyennés (N=16), démontrant que les
ondelettes pouvaient être utilisées pour la détection des PT battement par battement. En 1991,
Meste [Mes 91] [Mes 94] démontre l'intérêt de la transformation par ondelettes de Meyer pour la
détection des PT. La même année, dans une étude effectuée sur 38 patients (20 avec TV et 18
sans TV), Fuller [Ful 91] montra que les ondelettes de Lemarié font apparaître des détails de
l'ECG-HR, invisibles sur le signal filtré par la méthode du filtrage bidirectionnel.
Chapitre 4
4.4.2. Etudes quantitatives
La transformation par ondelettes de l'ECG s'est avérée visuellement intéressante.
Néanmoins l'apport des représentations temps-échelle de l'ECG par rapport à des méthodes
connues doit être évalué. Une comparaison quantitative au sens des performances diagnostiques
de ces méthodes était donc nécessaire. Pour cela, les auteurs ont cherché à définir des paramètres
permettant de quantifier les informations contenues dans les représentations temps-fréquence.
Dickhaus en 1992 [Dic 92] proposa d'utiliser comme quantifieur le volume de la
représentation temps-échelle de la transformation de Morlet entre les fréquences 100 et 300 Hz et
sur un intervalle de 300 ms centré sur le complexe QRS. Avec ce paramètre, Dickhaus obtenait
des valeurs significativement différentes (p=0.0005, test de Wilcoxon) entre sa population test
constituée de 21 patients avec TV soutenues et sa population de référence constituée de 29 sujets
sains. Les patients n'étaient pas sous traitement antiarythmique et aucun ne présentait de BB.
Utilisant toujours le même type de paramètre mais avec des zones temps-fréquence
différentes (cf. tableau 4-1), Dickhaus [Dic 94] proposa en 1994 une nouvelle méthode
caractérisée par quatre "régions" délimitées dans le domaine fréquentiel par les bandes 40-100 et
100-300 Hz et dans le domaine temporel par deux segments, le premier correspondant au
complexe QRS et le deuxième à un intervalle [tb, th] localisé dans la partie terminale de QRS,
satisfaisant à la contrainte d'avoir une amplitude inférieure à 60 µV. Les résultats rivalisent avec
ceux généralement associés à la méthode conventionnelle de Simson (cf. table 4-1).
Zone
temps-fréquence
sensibilité spécificité
tb<t<th 100<f≤300 Hz 90 72
tb<t<th 40<f≤100 Hz 81 66
Durée de QRS 100<f≤300 Hz 76 65
Durée de QRS 40<f≤100 Hz 84 58
Tableau 4-1 : résultats de l'analyse de Dickhaus. tb et th délimitent les extrémités de la
partie terminale du complexe QRS dont l'amplitude est inférieure à 60µV.
Shinnar et Simson [Shi 92] ont utilisé une approche très différente pour la quantification
des anomalies des représentations temps-échelles. Ils ont montré que les maxima des différentes
échelles des TO traduisaient la dimension fractale de l'ECG. Ils en ont déduit une méthode de
séparation des patients avec et sans TV, les patients avec TV présentant une dimension
multifractale. Cette étude originale est malheureusement restée à l'état d'étude préliminaire.
Chapitre 4
Plus récemment, Reinhardt [Rei 96] a évalué la valeur pronostique des ondelettes de
Morlet pour la détection d'événements arythmiques sur une population de 769 patients
enregistrés après infarctus du myocarde (cf. tableau 4-2). L'auteur s'est également intéressé à
l'incidence de la localisation de l'infarctus sur les composantes temps-fréquence de l'ECG-HR.
La méthode de quantification utilisée par Reinhardt s'appuie sur un paramètre mesurant la
"fonction de corrélation d'ondelettes", qu'il combine avec les paramètres de Simson classiques
pour prédire le risque de TV. La fonction de corrélation d'ondelettes, dont la définition est très
proche des quantifieurs utilisés pour la mesure des turbulences spectrales (cf. §4.2.1.2.2.),
quantifie l'énergie mutuelle d'interaction entre les TO consécutives c'est-à-dire entre les TO ayant
des échelles consécutives, et ceci sur la totalité du complexe QRS.
Historique
clinique
Infarctus antérieur Infarctus
inférieur
p
N 351 418
Age 52.8±7.5 53.1±7.2 NS
Patients avec TV (%) 9.7 7.3
Présence de PT (%) 32.3 42.7 0.003
Durée de QRS>120 ms (%) 3.7 2.7 NS
Tableau 4-2 : caractéristiques de la population étudiée par Reinhardt.
L'amélioration obtenue par l'introduction de ce nouveau paramètre est de 13% en
spécificité pour les infarctus antérieurs et de 23% pour les infarctus inférieurs. Cependant,
l'augmentation de spécificité est compensée par une diminution de la sensibilité de 11% pour les
topographies antérieures et de 26% pour les topographies inférieures. La valeur prédictive
positive est augmentée de 2% pour les deux localisations de l'infarctus (cf. tableau 4-3). La
valeur prédictive négative reste soit inchangée, soit légèrement en retrait, mettant en évidence
que les ondelettes apportent une information supplémentaire à celle obtenue à partir de la
méthode conventionnelle.
infarctus antérieurs infarctus inférieurs
Chapitre 4
PT PT+TO PT PT+TO
sensibilité 76 65 86 60
spécificité 63 76 50 73
VP+ 10 12 6 8
VP- 98 98 99 98
VPpt 64 76 52 72
Tableau 4-3 : Sensibilité, spécificité, valeur prédictive positive (VP+), valeur prédictive
négative (VP-), valeur prédictive totale (VPpt) pour la méthode classique de Simson (PT), et
l'utilisation combinée de la TO et de la méthode de Simson (PT+TO) sur la population de test de
Reinhardt. Toutes les valeurs sont en pourcent.
Une autre approche fut celle pronée par Dominique Morlet [Mor 91] [Mor 92] dont nombre
de travaux ont été à la base du travail présenté dans cette thèse. Les méthodes développées par D.
Morlet sont toutes basées sur l'ondelette de Jean Morlet2 et s'appuient sur les résultats d'une étude
de Mallat [Mal 90] mettant en évidence que les maxima de la TO sont synchrones avec les
structures transitoires et irrégulières du signal.
Dominique Morlet a cherché à exploiter cette propriété. Elle a utilisé une famille de sept
ondelettes (cf. figure 4-11) correspondant à une analyse des composantes fréquentielles du signal
entre 70 et 200 Hz sur un intervalle temporel de 250 ms commençant au début du complexe
QRS.
La TO a été appliquée aux ECG-HR d'une population comprenant 50 sujets, dont 10 sujets
normaux utilisés comme groupe de référence, 20 patients en post-infarctus avec TV et 20
patients en post-infarctus sans TV.
Notons cependant que neuf patients avec TV sur 20 présentent des durées de QRS standard
supérieures à 120 ms. Les enregistrements ont été effectués dans la semaine suivant l'apparition
des TV, et chez les patients sans TV entre 10 et 21 jours après l'infarctus. Le vecteur amplitude
des TO de chaque dérivation est analysé.
2 Il n'existe aucun lien de parenté entre ces deux personnes.
Chapitre 4
Figure 4-11 : représentation dans le domaine du temps et des fréquences de la famille
d'ondelettes utilisée par D. Morlet [extrait de Morlet D et al., [MOR 93], p. 312].
La méthodologie pour la détection et la quantification des PT est la suivante :
1- Un algorithme détecte les maxima de la TO et ne retient que les maxima dont la valeur
en amplitude est supérieure à 4% de l'amplitude maximale de la TO correspondant à l'échelle de
plus hautes fréquences. Cette valeur de pourcentage a été définie empiriquement.
2- Une méthode de synchronisation est ensuite appliquée sur chaque échelle afin de
localiser des chaînes de maxima synchrones. La méthode débute par la recherche des maxima sur
les échelles de haute fréquence en progressant ensuite vers celles de plus basses fréquences.
Deux maxima successifs sont considérés comme synchrones si l'écart entre les deux localisations
est inférieur à ±3 ms. Du fait de la progression de l'algorithme de l'échelle 1 vers l'échelle 10,
cela revient à considérer la position des maxima de l'échelle inférieure comme référence.
3- Utilisation de courbes ROC pour la détermination d'un intervalle de temps optimal dans
lequel le nombre de chaînes de maxima permet de discriminer les patients avec risque de TV
après infarctus des patients sans risque.
Les résultats démontrent que le critère composite consistant à détecter au moins une chaîne
d'au moins trois maxima successifs localisée au plus tôt 98 ms après le début de QRS (cf. figure
4-12) permet d'obtenir une méthode diagnostique avec une sensibilité de 85% et une spécificité
de 90%. Ceci représente une amélioration de 20% en sensibilité et de 5% en spécificité par
rapport aux résultats obtenus en appliquant une méthode de type Simson mettant en œuvre des
paramètres RMS40, LAS40 et QRSf dont les valeurs de seuil ont été optimisés en fonction de la
population de test au moyen de courbes ROC.
Chapitre 4
Figure 4-12 : exemple de représentation des transformation par ondelettes de Morlet d'un
patient du groupe IM+TV avec indication du résultat de la détection et de la localisation des
chaînes de maxima [extrait de Morlet D [Mor 93], p 316].
4.4.3. Incidence du type d'ondelette et de la dérivation utilisée pour
l'analyse par ondelettes
L'originalité de l’approche de Dominique Morlet décrite réside essentiellement dans sa
méthode de quantification des singularités, basée sur la détection de chaînes de maxima. La
formation de ces chaînes utilise le phénomène de redondance fréquentielle d'échelle à échelle
conduisant à une caractérisation temporelle et fréquentielle des singularités de l'ECG-HR. Les
résultats de cette approche sont très encourageant. Néanmoins certains choix méthodologiques
sont à confirmer afin d'évaluer si cette approche est optimale :
• l'utilisation du vecteur amplitude des TO apporte-t'elle une synthèse de l'information
contenue dans chacune des dérivations ?
• l'analyse des dérivations de façon indépendante ne permettrait-elle pas d'améliorer les
performances de la méthode ?
• est-ce que l'ondelette de Morlet est une ondelette optimale pour la détection des PT dans
l'ECG-HR ?
Chapitre 4
Afin de répondre à l'ensemble de ces questions et dans un souci d'optimisation de nos
résultats, nous avons comparé les résultats obtenus avec la méthode de détection et de
synchronisation des maxima sur la TO de sept familles d'ondelettes différentes : les ondelettes de
Morlet et les ondelettes définies par les premières dérivées de fonctions gaussiennes (cf. figure 4-
12) [Cou DEA] [Cou 93] [Cou 94,1] [Cou 94,2]. Les équations de ces fonctions d'ondelettes et
leurs représentations temporelles et temps-fréquence sont respectivement présentées dans le
tableau 4-4 et les figures 4-13 et 4-14.
G1 DG d'ordre 1 ϕ ( ) ( ) exp( )²t t t= − − 2
G2 DG d'ordre 2 ϕ ( ) ( ² ) exp( )²t t t= − −1 2
G3 DG d'ordre 3 ϕ ( ) ( ) exp( )²t t t t= − + −323
G4 DG d'ordre 4 ϕ ( ) ( ² ) exp( )²t t t t= − + −426 3
G5 DG d'ordre 5 ϕ ( ) ( ) exp( )²t t t t t= − + − −5 3210 15
G6 DG d'ordre 6 ϕ ( ) ( ² ) exp( )²t t t t t= − + − −6 4215 45 15
MO Ondelette de Morlet ϕ ω( ) cos( ) exp( )²t t t= −0 2
Table 4-4 : liste des différentes fonctions d'ondelettes utilisées et leur définition. DG :
dérivée de gaussiennes.
Figure 4-13 : représentation temporelle des ondelettes dérivée de fonctions gaussiennes
d'ordre 1 (G1), 2 (D2), 3 (G3), ..., et 6 (G6).
Chapitre 4
Figure 4-14 : représentations temps-fréquence de quatre familles d'ondelettes appliquées à
l'ECG-HR [extrait de Morlet [Mor 95], p 315].
L'optimisation des résultats, basée sur la recherche de la famille d'ondelettes la plus
appropriée et de la dérivation la plus pertinente, est associée à la recherche de valeurs de seuils
optimaux des critères composites décris dans le paragraphe précédent. La recherche systématique
des valeurs de ces critères optimaux a été effectuée en paramétrant le processus de décision par
l'introduction des quatre paramètres [Mor 95] définis comme suit :
1- Un seuil d'acceptation des maxima (SAM). Dans les études précédentes, ce seuil était
fixé arbitrairement à 4% de la valeur maximale de l'échelle de plus haute fréquence. Il varie dans
cette nouvelle étude entre 1 et 14% par pas de 1%. Ce seuil permet d'éliminer les maxima
générés par le bruit du signal.
2- Un seuil mesurant la précision temporelle de l'alignement des chaînes de maxima entre
deux échelles consécutives (SVL). Cette valeur varie entre 2 et 5 ms par pas de 1 ms.
3- Un seuil correspondant au nombre minimal de maxima constituant une chaîne (SM).
La valeur est définie entre 3 et 10 maxima par pas de un maximum.
Chapitre 4
4- Une valeur fixant le début de l'intervalle temporel, par rapport au début du complexe
QRS, dans lequel les chaînes de maxima sont détectés (DIT: début de l'intervalle temporel). La
durée de l'intervalle est égale à (250-DIT ms).
L'analyse a consisté en une recherche systématique par l'intermédiaire des courbes ROC d'un
quadruplé optimal de valeurs des paramètres (SAM, SVL, SM et DIT) pour la discrimination des
patients avec TV et des patients sans TV. Plus de 30 000 combinaisons de ces quatre paramètres
on été testées.
G1 G2 G3 G4 G5 G6 OM
X 85 92.5 90 90 87.5 85 87.5
Y 82.5 87.5 85 82.5 80 82.5 85
Z 77.5 82.5 85 85 87.5 87.7 87.5
1/3 80 90 92.5 90 90 87 87.5
2/3 82.5 87.5 90 95 92.5 92.5 92.5
3/3 80 82.5 90 87.5 87.5 85 87.5
Vec. Mag. 80 85 82.5 87.5 90 87.5 92.5
Tableau 4-5 : tableau récapitulatif des valeurs d'efficacité diagnostique de la méthode des
chaînes de maxima pour chacune des dérivations et pour la combinaison de ces dérivations (n/3:
n dérivations sur 3 présentent au moins une chaîne). Les valeurs maximales d'efficacité
diagnostique pour chaque famille d'ondelettes sont notées en gras.
L'efficacité diagnostique de la méthode n'est jamais inférieure à 77.5% et atteint, pour
certaines combinaisons des paramètres, la valeur de 95% (cf. tableau 4-5). Les ondelettes DG
d'ordre 2, DG d'ordre 4 à 6 et de Morlet fournissent des résultats similaires. L'ondelette DG
d'ordre 1, caractérisée par une précision temporelle importante mais une précision fréquentielle
faible, s'est avérée peu pertinente. L'analyse indépendante de chacune des dérivations n'apporte
pas d'amélioration supplémentaire par rapport à l'utilisation du vecteur amplitude. Néanmoins,
une combinaison de deux dérivations parmi les trois conduit à un résultat optimal. La valeur
d'efficacité diagnostique optimale (95%) est obtenue pour les valeurs suivantes:
SAM=7%, SVL=2-5 ms, SM=3 maxima et DIT=95-105 ms
Chapitre 4
4.4.4. Discussion des résultats
La transformation par ondelettes appliquée à l'ECG-HR pour la détection des potentiels
tardifs s'est immédiatement avérée être très intéressante. D'abord d'un point de vue descriptif
puisque certains auteurs ont montré que la TO des ECG-HR présentait des configurations
visuellement très différentes selon que le patient présentait ou pas des TV. Puis, d'un point de
vue quantitatif, divers paramètres ont été définis tels que la fonction de corrélation inter-échelle
ou la méthode de détection et d'alignement des maxima. Dans ce dernier exemple, la TO nous
permet de détecter et de quantifier les anomalies de l'ECG-HR caractérisant les patients en post-
infarctus avec des TV en exploitant la capacité des ondelettes à détecter les singularités d'un
signal. Ces singularités correspondent à la présence de signaux transitoires fractionnés localisés
au-delà de l'instant 95 ms après le début de QRS. En plus d'apporter une méthode décisionnelle
relativement précise, l'exploitation des représentations temps-échelle permet également de
localiser les PT dans le domaine temps-fréquence. La valeur optimale du paramètre SM (SM=3)
démontre que les trois échelles de plus hautes fréquences correspondant aux fréquences entre 125
et 250 Hz contiennent l'information la plus pertinente pour la mesure des PT. NCM=95-105 ms
met en évidence que ces PT apparaissent à partir de 95 ms après le début de QRS.
Les résultats des méthodes basées sur la TO laissent à penser que cet outil est plus efficace
que la méthode de Simson où que les méthodes fréquentielles.
Par l'intermédiaire des ondelettes, les nouvelles représentations de l'ECG-HR nous
permettent de "scanner" avec une précision adaptative les composantes temps-fréquence et d'en
extraire certaines anomalies quantifiées sous forme de chaînes de maxima ou de dissimilarité
entre les transformations de chaque échelle. Cependant, l'ensemble des résultats présenté dans les
sections précédentes s'appuie sur des populations relativement faibles. La validité de cette
méthode nécessite donc d'être évaluée sur un groupe différent et plus important en nombre afin
de tester la robustesse des critères proposés.
4.5. Conclusion
Trois méthodes d'analyse de l'ECG-HR candidates sortent du lot des méthodes décrites
dans ce chapitre : le spectrogramme, la transformation de Wigner-Ville et la transformation par
ondelettes. Ces trois transformations temps-fréquence permettent de nouvelles représentations de
l'ECG-HR qui sont susceptibles de mieux accéder à l'activité électrophysiologique anormale
caractérisant les patients avec un risque de TV.
Chapitre 4
L'analyse spectrale simple a ouvert un nouveau champ d'investigation, soulignant que
l'apparition des PT pouvait également être quantifiée dans le domaine fréquentielle. Par la suite,
le besoin de localiser ces composantes fréquentielles dans le temps s'est fait rapidement ressentir.
Les méthodes temps-fréquence ont fourni une réponse à ce problème. Parmis les méthodes les
plus répandues, la "cartographie spectro-temporelle" et "l'analyse des turbulences spectrales".
Elles ont amélioré de 23% en moyenne la sensibilité des méthodes de diagnostic de TV.
L'analyse des turbulences spectrales s'est également avérée être plus spécifique (+16%) que la
méthode de Simson, alors que la méthode utilisant la "cartographie spectro-temporelle" l'est
moins (-16%). La reproductibilité de ces nouveaux outils a fait l'objet de peu d'études. Les
quelques travaux publiés à ce sujet mettent néanmoins en évidence une reproductibilité inférieure
de 3 à 20% à celle de la méthode conventionnelle.
Les ondelettes sont de nouveaux outils qui sont particulièrement bien adaptés à l'analyse de
signaux transitoires. L'ondelette de Morlet par exemple, s'avère être une ondelette très pertinente
pour l'analyse des PT sur l'ECG-HR. Les résultats relatés dans le § 4.3 sont, avec 95% d'efficacité
diagnostique, globalement supérieurs à ceux obtenus par l'ensemble des méthodes décrites dans
ce chapitre. On note néanmoins que de tels résultats doivent être confirmés sur une population
plus large ou à l'occasion d'études prospectives. De plus, il apparaît clairement dans les
publications sur ce sujet que les représentations temps-échelle n'ont pas été exploitées " à fond".
En effet, l'exploitation des transformations temps-échelle s'est limitée soit à une zone temps-
fréquence particulière, soit uniquement à une propriété des transformations (maxima des
transformations). Une analyse de la totalité de l'information contenue dans les représentations
temps-échelle n'a pas été réalisée.
L'utilisation des ondelettes orthogonales pour l'analyse de l'ECG-HR a été beaucoup moins
utilisée. Parmi les principaux travaux cités, rares sont ceux qui présentent des méthodes de
diagnostic automatique complètes mettant en évidence l'apport de ce type de décomposition.
Nous tenterons dans le prochain chapitre de combler cette lacune en investigant plus en détail
l'apport des ondelettes orthogonales à la résolution d'un problème de construction de méthodes de
détection de patients à risque de TV, précises et robustes.
Chapitre 4
65
[Har 78] Harris JF: On the use of windows for the harmonic analysis with the dicrete Fourier transform.
Proceedings of the IEEE, 1978, Vol. 66, p. 51-83.
[Cai 84] Cain MA, Ambos HD, Witkowski FX, Sobel BE: Fast-Fouriet transform analysis of signal-
averaged electrocardiograms for identification of patients prone to ventricular tachycardia. Circulation, 1984,
Vol. 69, p. 711-20.
[Cai 85] Cain ME, Ambos HD, Markham J, Fischer AE, Sobel BE. Quantification of differences in
frequency content of signal-averaged electrocardiograms between patients with and without sustained ventricular
tachycardia. Am J Cardiol 1985;55:1500-1505.
[Kel 87] Kelen GJ, Henkin R, Fontaine JM, El-Sherif N. Effects of analyzed signal duration and phase on
the result of fast Fourier transform analysis of the surface electrocardiogram in subjects with and without late
potentials. Am J Cardiol 1987;60:1282-1289.
[Hab 88] Haberl R, Jilge G, Pulter R, Steinberg G. Comparison of frequency and time-domain analysis of
the signal averaged electrocardiogram in patients with ventricular tachycardia and coronary heart disease:
methodologic validation and clinical relevance. J Am Coll Cardiol 1988;12:150-158.
[Wor 88] Worley SJ, Mark DB, Smith WM, Wolff P, Califf RM, Strauss HC, Manwaring MG, Ideker RE.
Comparison of time domain and frequency domain variables from the signal-averaged electrocardiogram: a
multivariate analysis. J Am Coll Cardiol 1988;11:1041-1051.
[Mac 88] Machac J, Weiss A, Winters SL, Barecca P, Gomes A. A comparative study of frequency
domain and time domain analysis of signal-averaged electrocardiogram in patients with ventricular tachycardia. J
Am Coll Cardiol 1988;11:284-296. Circulation 1988;77:122-130.
[Cai 91] Cain ME, Ambos HD,Markham J,Lindsay B, Arthur RM. Diagnostic implication of spectral and
temporal analysis of the entire cardiac cycle in patient with ventricular tachycardaia. Circulation 1991;83:1637-
1648.
[Eng 91] Engel TR. Spectrotemporal analysis of the electrocardiogram (Editorial Comment). Circulation
1991;83:1827-1829.
[Abb 87] Abboud S, Cohen RJ, Selwyn A, Ganz P, Sadeh D, Friedman PL. Detection of transient
myocardial ischemia by computer analysis of standard and signal-averaged electrocardiograms in patients
undergoing percutaneous transluminal coronay angioplasty. Circulation 1987;76:585-594.
[Lin 88] Lindsay BD,Markham J, Schechtman KB,Ambos HD, Cain ME. Identfication of patients with
sustained ventricular tachycardia by frequency analysis of signal-averaged electrocardiograms despite the
presence of bundle branch block. Circulation 1988;77:122:130
[Lan 92] Lander P, Berbari J. Principles and signal processing techniques of the high-resolution
electrocardiogram. Prog Cardiovasc Dis 1992; 64:34.
[Lan 90] Lander P, Albert DE,Berbari EJ: Spectro-temporal analysis of ventricular late potentials. J
Electrocardiol. 23:95-108,1990.
Chapitre 4
66
[Hab 89] Haberl R, Jilge G, Pulter R, Steinbeck G. Spectral mapping of the electrocardiogram with
Fourier transform for identicication of patients with sustained ventricular tachycardia and coronary artery disease.
Eur Heart J 1989; 10:316-22.
[ART 90] ART FFT-Plus, Spectral temporal mapping using the fast Fourier transform. User's Manual.
Arrythmia Research Technology, Austin, Texas, 1990.
[Kel 91] Kelen GJ, Hankin R, Starr AM, Caref EB, Bloomfield D, El-Sherif N. Spectral turbulence
analysis of the signal-averaged electrocardiogram and its predictive accuracy for inducible sustained
monomorphic ventricular tachycardia. Am J Cardiol 1991;67:965-975.
[Coh 66] Cohen L. Generalized phase space distribution functions. J Math Phys 1966;7:781-786
[Jon 92] Jones DL, Parks TW. A resolution comparison of several time-frequency representations. IEEE
Trans Sig Proc 1992;40:413-420.
[Hla 92] Hlawatsch F, Boudreaux-Bartels GF. Linear and quadratic time-frequency signal representations,
IEEE SP, April 1992, 21-67.
[Hla 84] Hlawatsch F. Interference terms in the Wigner distribution, in digital signal processing-84, V-
Cappelini et AG Constantinides eds., North-Holland, Amsterdam, p363-367,1984.
[Mar 85] Martin W, Flandrin P. Wigner-Ville spectral analysis of nonstationnary processes. IEEE ASSP
1985;33:1461.
[Wal 90] Waldo D, Chitrapu P. Use of Wigner-Ville distribution to analysis of cardiac late potentials, IEE
EMBS 1990,12;2:825-827.
[Pey 92] Peyrin F, Karoubi B, Morlet D et al. Application of the Wignar-Ville distribution to the detection
of late potentials in ECG. Advanced Signal Processing Algorithms Architectures and Implementation III, SPIE
1992;1770:418-428.
[Kar 92] Karoubi B, Peyrin F, Morlet D et al. Characterization of micropotentials in high-resolution ECGs
by time-frequency and time-scale analysis. IEEE EMBS 1992:773-774.
[Kar DEA] Karoubi B. Analyse temps-fréquence de signaux ECG en vue de la détection de
micropotentiels. DEA d'acoustique au Laboratoire de Traitement du signal et Ultrasons URA CNRS 1216, INSA,
septembre 1992.
[Mor 93] Morlet D, Peyrin F, Desseigne P, Touboul P, Rubel P. Wavelet analysis of high-resolution
signal-averaged ECGs in post-infarction patients. J electrocardiol 1993;26:311-319.
[Hub 95] Hubber BB. Ondes et ondelettes, la saga d'un outil mathématique. Pour la science (ed),
1995,235.
[Mal 92] Malik M, Kulakowski P, Staunton A, Odemuyiwa O, Farrell T, Camm AJ. Frequency versus
time-domain analysis of signal-averaged electrocardiograms. 1. Reproducibility of the result. J Am Coll Cardiol
1992;20:127-134.
[Kau 93] Kautzner J, Kulakowski P, Hnatkova K, Staunton, Malik M. Long-term reproducibility of
individual indices of time-domain analysis, spectral temporal mapping, and spectral turbulence analysis of signal-
averaged ECGs. J Electrocardiol 19--;26 (suppl):129-136.
Chapitre 4
67
[Vas 95] Vasquez R, Caref EB, Torres F, Reina M, Ortega F, El-Sherif N. Short-term reproducibility of
time-domain, spectral temporal mapping, and spectral turbulence analysis of the signal-averaged
electrocardiogram in normal subjects and patients with acute myocardial infarction. Am Heart J 1995;
130,5:1011-1019.
[Lem 86] Lemarié PG,, Meyer Y. Ondelettes et base hilbertiennes, Revista Mathematica Iberoamericana
Vol. 2 (1986) ,p 1-18.
[Mal 89] Mallat S. Multiresolution Representations and wavelets, Ph.D. in Electrical Engineering,
University of Pennsylvania 19104, USA.
[Kro 87] Kronland-Martinet R, Morlet J, Grossmann A: Analysis of sound patterns through wavelet
transforms, Int J Patt Recogn Artif Intel, 1(1987):97-126
[Sen 92] Senhadji L. Some new application of wavelet transform. IEEE EMBS 1992;:2592-2593.
[Tut 88] Tuteur FB. Wavelet transformation in signal detection. Wavelets, Time-frequency methods and
phase space. Proceedings of the international conference, Marseille, dec. 14-18,1987. JM Combes, A Grossman,
Ph. Tchamitchian eds. Springer-Verlag, 1988:132-138.
[Mes 89] Meste O, Rix H. Detection of late potentials by means of wavelet transform. IEEE EMBS, 11th
annual Int. Conf. 1989:28-29.
[Mes 91] Meste O, Rix H. Jane R et al. Détection battement par battement de potentiels tardifs dans les
électrocardiogrammes à hautes amplification. ITBM 1991.12;5:517-531.
[Ful 91] Fuller MS. Wavelet analysis of the signal-averaged electrocardiogram. IEE EMBS 1991.
13;2:639-640.
[Dic 92] Dickaus H. Ventricular late potentials studied by nonstationnary signal analysis. IEE EMBS
1992;:490-491.
[Dic 94] Dickaus H, Khadras L, Brachmann J. Time-frequency analysis of ventricular late potentials.
Meth Inform Med 1994;33:187-195.
[Shi 92] Sinnar M, Simson MB. Wavelets and the multifractal sugstrate of ventricular tachicardia.
Circulation 1992. Suppl. I,86;4:319 (abstract).
[Rei 96] Reinhardt L, Markku M et alµ. Predictive value of wavelet correlation function of signal-
averaged electrocardiogram in patients after anterior versus inferior myocardial infarction. JACC 1996; 27,1:53-
59.
[Mor 91] Morlet D, Peyrin F, Desseigne P et al. Time-scale analysis of high-resolution signal-averaged
surface ECG using wavelet transformation. In: Murray A and Arzbaecher R, Eds Computers in Cardiology, IEEE
Computers Society 1991,:393-396.
[Mor 92] Morlet D, Desseign P, Peyrin F.et al. Time-scale analysis of high-resolution signal-averaged
ECGs in post-infarction patients using wavelets. J of Electrocardiol 1993, 26:311-319.
[Mal 90] Mallat S, Hwang WL. Singularity detection and processing with wavelets. Courant Institue of
Mathematical Science, NY University, NY 10012.
Chapitre 4
68
[Cou DEA] Couderc Jph, Analyse par ondelettes de l'électrocardiogramme à haute-amplification en vue
du pronostic des tachycardies ventriculaires et des morts subites. Evaluation de différentes ondelettes. DEA de
génie Biolologique et Médical 1993, Pôle GBM Rhône-Alpes.
[Cou 93] Couderc JPh, Morlet D, Rubel P, Touboul P. Analyse de l'électrocardiogramme à haute-
résolution en vue du pronostic des TV et des morts subites. Mise en oeuvre de méthodes temps-échelle et temps-
fréquence. INSERM, Deuxième colloque régional Rhône-Alpes Auvergne Bourgogne, Lyon (France), 16-17
décembre 1993, p. 17.
[Cou 94,1] Couderc JPh, Morlet D, Rubel P, Touboul P. Apport de la transformation en ondelettes à
l’analyse de l’ECG-HR en vue du pronostic des tachycardies ventriculaires et de la mort subite. GDR TdSI.
Colloque Temps-fréquence, Ondelettes et Multirésolution, INSA., Lyon (France), 9-11 mars 1994, p. 23.1-23.4.
[Cou 94,2] Couderc JPh, Morlet D, Rubel P, Touboul P. Application de la transformation en ondelettes à
l’ECG-HR pour la discrimination des patients avec et sans tachycardie ventriculaire après infarctus. ITBM, VII
Forum Jeune chercheur, Lyon (France), 26-27 mai 1994, p. 50-51.
[Mor 95] Morlet D, Couderc JP, Touboul P,Rubel P. Wavelet analysis of high-resolution Ecgs in post-
infarction patients: role of the basic wavelet and af the analyzed lead. Int J Biomed Comp 1995;39:311-325.