cAPAcITÉ DE POURSUITE DES
ALGORITHMES ADAPTATIFS DANS UN
CANAL DE TRANSMISSION SOUS-MARIN A m T S MULTIPLES
Mémoire présenté
à la Faculté des études supérieures de l'université Laval
pour l'obtention du grade de maître ès sciences (M-Sc.)
Département de Génie Électrique
FACULTÉ DES SCIENCES ET DE GÉNIE
UNTVERSITÉ LAVAL
Juillet 1997
O Gaël Le Pemp , 1997
Acquisitions and Acquisitions et Bibliographie Services services bibliographiques
395 Wellington Street 395. nie Wellington OttawaON K1AOM Ottawa ON K i A ON4 Canada Canada
The author has granted a non- exclusive licence allowing the National Library of Canada to reproduce, loan, distribute or sell copies of this thesis in microform, paper or electronic formats.
The author retains ownership of the copyright in this thesis. Neither the thesis nor substantial extracts fkom it may be printed or othewise reproduced without the author's permission.
L'auteur a accordé une licence non exclusive permettant a la Bibliothèque nationale du Canada de reproduire, prêter, distribuer ou vendre des copies de cette thèse sous la forme de microfiche/nIm, de reproduction sur papier ou sur format électronique.
L'auteur conserve la propriété du droit d'auteur qui protège cette thèse. Ni la thèse ni des extraits substantiels de celle-ci ne doivent ê e imprimes ou autrement reproduits sans son aut orkation.
Le sujet de ce mémoire est d'étudier la capacité de poursuite des algorithmes adaptatifs
rapides. Nous nous intéressons à l'effet néfaste des ruptures brusques sur ces algorithmes et
nous nous penchons particulièrement sur le comportement du SFTF (stabilised fast transversal filter). Après avoir fait la revue des théories sous-jacente à ce type d'algorithme nous avons mis au point un environnement de simulation intégré qui permet de soumettre le SFTF, le LMS et
le RLS à des conditions très particulières. Nous avons r6alisé de nombreuses simulations qui
ont permis de mettre en évidence plusieurs caractéristiques de poursuite de ces algorithmes.
Nous concluons ce travail par l'analyse et l'interprétation des résultats obtenus.
Gael LE PEMP #orninique Grenier
Je tiens à remercier ma directrice de recherche Béatrice Philibert. et mon directeur
remplaçant Dominique Grenier d'avoir accepté de diriger mon mémoire. Ils ont su me guider
et me conseiller pour que ces années de travail parviennent à bon terme. Je voudrais également
souligner l'apport précieux de Nicolas Duclos Indie, lequel a toujours été disponible pour offrir
son support et participer à des discussions très enrïchissantes sur les communications
numériques, le traitement numérique des signaux et d'autres sujets philosophiques.
Une mention spéciale est donnée à Jean François Cliche de son soutient moral et sa
grande patience. Je pense aussi tout particulièrement à Stéphane Côté, qui, par son humour a
assaisonné ces quelques années universitaires. Je m'en voudrais d'oublier Alain Marchand,
Maxime Cayer, Énc Grisel, Éric Blanchet et bien d'autres.
Je ne saurais passer sous silence l'appui de mes parents et de ma famille qui, par leur
générosité, et par leur patience, ont facilité ce travail.
Le cadre de travail détendu et l'esprit d'entraide des etudiants gradués et des professeurs
du Laboratoire de Radiocommunication et de Traitement du Signal ont rendu mon séjour des
plus agréable.
Un dernier merci tout particulier à Karen Dupont pour sa présence inconditionnelle qui
m'a soutenue tout au long de ce travail. À elle je dedis ce mémoire.
. . RÉsUMÉ ............................................................................................................................... II
AVANT-PROPOS ................................................................................................................... iii
TABLE DES MATIÈRES ................... .. ......................................................................... iv
LISTE DES FIGURES ................................. .................................................................. 9
CHAPITRE 1
..................................................................................... INTRODUCTION 1
....................................... ............................. 1.1 Organisation du mémoire .......... 3
CHAPITRE 2
TRANSMISSION DE L'INFORMATION DANS UN CANAL .............................................................. ACOUSTIQUE SOUS.MARIN. 4
.................................................... 2.1 Schéma général d'une chaîne de communication 4
............................................................................................ 2.2 Sources d'informations 5
2.3 Adaptation de ia source au canai ............................................................................. 6
............................................... 2.4 Restitution du signal ............................................ 6
2.5 Canal de propagation ............................................................................................... 6
................ 2.5.1 Génhlisation pour la modélisation d'un canal en espace libre 7
....... ............................ 2.6 Modèle de transmission utilisé pour le canal acoustique .. 9
2.6.1 Réponse impulsionnelle du canal ....................................................... 10
2.7 Première situation: Communication entre un navire et un sous-marin ................. 11
2.7.1 Modélisation de la communication dans le d i e u sous-marin ................ 12
................... 2.8 Deuxième situation: Détection acoustique de la signanire radar d'un sous-marin .................................................................................................................... 15
.......................... 2.8.1 Modélisation de la deuxième situation par une structure d'identification .......................................................................................... 15
................ ................... 2.9 Modélisation théorique de la transmission acoustique ... 18
2.9.1 Canal éErnentaire idéal constant .....................................1..........1............. 20
2.9.2 Canal élémentaire variable ............. ............ ................... ................ 20
............................................................... 2.9.3 Variation brusque dans le canal 22
................................... ......................... 2.9.4 Canal à trajets multiples ....... 23
2.9.5 Le signal et la fonction de convoIution .........-.......................................... 23
2.9.6 Le bruit ..................................................................................................... 26
2.1 O Conclusion .......................................................................................................... 27
DU SIGNAL ............................................m............................................... 29
................... ................................. 3.1 Modèle de prédiction: l'identificateur ... 30
3.1.1 Critères d'erreur ....................................................................................... 32
3.1.2 L'équation Normale de Wiener .............................................................. 34
3.2 Algorithme LMS ................................................................................................... 38
................................................................................................... 3.3 Algorithmes RLS 42
3.3.1 Initialisation de l'algorithme RLS .......................... .. ...................... 46
............................................................... 3.4 Algorithme des moindres carrés rapides 47
3.4.1 Introduction ................................... ... ...................................................... 47
3.4.2 Approche géométrique des algorithmes des moindres carrés .................... ré- ......................................................... ....................... cursifs rapides ... 49
........ 3.4.3 Approche algébrique des algorithmes des moindres carrés récursifs ra- pides ........................................................................................................ 50
...... 3.4.4 Algorithme des moindres carrés transversaux rapides FI'F et SFïF 53
3.5 Conclusion ............................................................................................................. 57
4.1 Concepts de base ....................... .. ........................................................................ 58
4.1. I Définition ............................................................................................. 58
4.1 -2 Caract6nstiques .................................~................................................. 59
4.1.3 Accéder Simadap ................................................................................... 59
....................................................................................... 4.1.4 Quitter Simadap 60
4.1.5 Écran de Simadap ..................................................................................... 60
4.1.6 Barre des menus ....................................................................................... 61
4.1.7 Items versant à l'afkhage ..................................................................... 62
4.1.8 Fonction d' aide ......................................................................................... 62
......................... 4.2 Les opérations de simulation et l'affichage des données ...... 62
4.2.1 Signal d'entrée ....................................................................................... 62
4.2.2 Canal de transmission .............................................................................. 65
............... .*.........-...........-........................... 4.2.3 Signai de sortie ............. 68
................. ............................... 4.2.4 Utilitaire de la visualisation du bruit ..... 68
..................................................... 4.2.5 Simulation des algorithmes adaptatifs 70
....................................................... 4.2.6 Visualisation de I'erreur quadratique 71
..................................... 4.2.7 Visualisation des coefficients du filtre adaptatif 72
4.2.8 Aide à la manipulation des données ......................................................... 74
............................................................ 4.2.9 Visualisation d'une fenêtre active 74
4.2.10 Fenêtres de mise en garde ............................... ............................ 75
......................................... 4.3 RCsumé de la procédure de simulation et d'affichage 75
4.4 Description des programmes ............................................................................ 75
4.4.1 Génhtion du canal .................................................................................. 76 ................................................... 4.4.2 Génération des algorithmes adaptatifs 77
.......................................................................... 4.4.3 Géneration de l'interface 77
B . 1 Matrice de projection orthogonale ...................................................................... 105
............................................................................................. ................... ANNEXE C ....... 112
................................................................................... ALGORITHME FTF ET SFTF 112
................................................................................................. C.2 Algorithme 112 C.3 Algorithme SFTF ............... .... ................................................................... 115
ANNEXE D ........................................................................................................................... 118
.............................. ............... FICHIER DE CONFIGURATION ..........-......... 118
vüi
Figure 2.1
Figure 2.2
Figure 2.3
Figure 2.4
Figure 2.5
Figure 2.6
Figure 2.7
Figure 2.8
Figure 2.9
Figure 2.10
Figure 2.1 1
Figure 2.12
Figure 2.13
Figure 2.14
Figure 2.15
Figure 2.16
Figure 2.18
Figure 2.17
Schéma général d'une chaîne de communication .................~........................... 5
(a) Représentation temps - délais de la fonction de transfert. ............................. pour un trajet constant et (b) sa représentation dans le domaine .....................
# - delas-Doppler. ............................-.-...~......-................................... . . . . . . 8
Exemple de la représentation d'un canal sous-marin dispersif .................. .. ..... fréquence Doppler temps (extrait DeFerrari [7]) ............................................... 9 Shéma de la situation physique des communications acoustiques ................. sous-marines.. ................. ...... ....... . ...... ....... ........ . ...... . ....... ....... ...... .. ........ . ........ 10 Illustration de la première situation, communication dans le milieu ................ sous-marin ........ .. .................. ... ............ . . . ............. . . . . . . .. . . . . . . . . . 12
Schéma de l'égalisation du canal de transmission ........................................... 13
Modélisation du problème de I'égalisation comme un problème ..................... d'identification directe. ......... ..... ......... ....... . .... . ............... . . . . . . ........ 15
ïilustration de la deuxième situation. Écoute active de la signature ................. radar d'un sous-maring. ....... +...+.+.--. ..... ,,, ............ ....... ....... ..., ............. 16
Modélisation des deux situations sous une structure d'identification ......... ..... 17
Schéma général de la transmission du canal acoustique .................................. 18
(a) Exemple d'une représentation temps-délais de la fonction.. . . . . .. . ... .. ... ......... de transfert du canal de transmission; (b) fonction de diffusion ....................... Doppler-délais de (a) ....... ............. .......... ................... . . . . . . . . . 19
a) Représentation temps délais de la fonction de transfert pour ........................ la première composante d'un trajet variable et @) sa représen- .......... .. ......... tation dans le domaine délais Doppler .......................... ........ ....... .......... . . . 20
(a) Représentation temps-delais de la fonction de transfert ............................. pour la deuxième composante d'un trajet variable et (b) s a .......................... représentation dans le domaine délais Doppler ............ ..... ........ . . . . . . 2 1
(a) Représentation temps-delais de la fonction de transfert .............................. pour le trajet variable compost de la figure 2.12 et de la ......................... ...... figure 2.13 et (b) sa représentation dans le domaine delais Doppler ............... 22
Fonction de transfert du canal de transmission ..................... ., ....... ., ............... 23
Représentation tridimensionnelle de la fonction de transfert ............. .. ........ 24
Modélisation de la transmission acoustique .............. ... ..... ... . .......... ......... 26 Évolution de la convolution pour deux itérations numériques ......................... 27
Figure 3.1
Figure 3.2
Figure 3.3
Figure 3.4
Figure 3.5
Figure 4.1
Figure 4.2
Figure 4.3
Figure 4.4
Figure 4.5
Figure 4.7
Figure 4.6
Figure 4.8
Figure 4.9
Figure 4.10
Figure 4.1 1
Figure 4.12
Figure 4.13
Figure 4.14
Figure 4.15
Figure 4.16
Figure 4.17
................................................................................. Structure d'identification 31
................... Graphe des algorithmes adaptatifs issus de l'équation de Wiener 37
.............................. Illustration d'une paraboloïde d'EQM à deux dimensions 38
............ ....*** Représentation du fdtre transversal rapide avec ses variables .. ................................ . de calcul pour chaque fdtre ................................C...... 53
Diagramme bloc de la représentation d'état de l'algorithme ............................ ................................... SFïF et son sytème d'erreur numérique correspondant
(a) implémentation de l'algorithme, @) système d'erreur d'arrondi ............... 57
...... ................... Présentation générale du simulateur réalisée à l'aide du ... logiciel Matlab (aucune simulation réalisée) ................................................ 60
.......... Présentation générale du simulateur réalid ii l'aide du logiciel Matlab 61
............................. Vue d'un des menus d'aide qui est généré avec Matlab 63
Menu ...................................................... Paramètres de la fenêtre principale 63
Vue du fichier des paramètres du signal ...................................... d'entrée . . . 64
.................................... L'allure de la densité spectrale de puissance du signai .................................. d'entrée X(t) à l'aide de 1s touche Sxx qui a été calculée
.............................. .......................... à l'aide du pénodogramme moyenné .. 64
...... ...................... Menu Simulations de la fenêtre principale. Signal X ( t ) ... 65
................. Menu Paramètres de la fenêtre principale. fonction de transfert ..... 65
......................... Fichier des paramètres de la fonction de transfert du canal de . . transmssion ...................................................... ... ......................................... 66
.......................... Vue du fichier de données du bruit utilisé par le programme 67
.............. Menu Simulation de la fenêtre principale. fonction de transfert H(t) 67
............................. Menu Simulation de la fenêtre principale. signal de sortie Y(t) ou ensemble du canal .......................................................................... 68
.................. Interface graphique de l'utilitaire de visualisation du bruit du ..... système d' identification ........................ ..... .......................................... 69
. a) Histogramme d'un bruit B l'entrée du canal dont la probabilité ............. .... ............... . est uniforme b) Histogramme d'un bruit à la sortie du canal dont ..... . . ......... la probabilité est gaussienne ... ....................................................... 69
..................................... Menu Paramètres de la fenêtre principale. adaptation 70
................................. Vue de la fenêtre Matlab des paramètres agissant sur les algorithmes d'adaptation ........................ .. ................................................. 70
.................................. Menu Simulation de la fenêtre principale. algorithme 71
Figure 4.18
Figure 4.19
Figure 4.20
Figure 4.21
Figure 4.22
Figure 4.23
Figure 4.24
Figure 4.25
Figure 4.26
Figure 5.1 9
Figure 5.20
Figure 5.2 1
Figure 5.22
Figure 5.23
Figure 5.24
Figure 5.25
Figure 5.26
.................................. Menu Simulation de la fenêtre principale, Monte-Carlo 72
..................... Menu déroulant pour la visualisation de l'erreur quadratique .... 72
............................ Fenêtre du signal d'erreur pour I'dgonthme FTF pour une .................. configuration particulière du canal avec un bruit blanc à ......
............................................................................................ l'entrée de celui-ci 73
...................... Menu déroulant pour la visualisation de l'erreur quadratique ... 73 ................................ Fenêtre des poids W du fdtre adaptatif pour l'algorithme
...... ........................ FiT pour la même cod~guration que la figure 4.20 ... 73
.......................................................... Menu Utilitaires de la fenêtre principale 74
Menu ............................................................ Fenêtres de la fenêtre principale 74
................................. Exemple de fenêtre de mise en garde qui peut apparaître .............................................. lorsque nous manipulons les cadres de contrôle 75
.................. Étapes à suivre pour faire fonctionner le simulateur correctement 76
............................... Allure de la densité spectrale du signal d'entrée a) PCM 1 et b) PCM2 ....................................................................................................... 80
Diff du SFTF pour un cas de divergence
Diff du SFTF .......................................................-...............-.-.......................... 82
Diff du SFTF ..................................................-...........-..................................... 82
....... .................. Réponse impulsionnelle étroite du canal de transmission ... ........................ stationnaire, a) Erreur quadratique du LMS et du SFTF, b) ....
.................................. Indice de performance de la comparaison entre l'erreur ............................... quadratique du LMS et du SFTF, c) Coefficients obtenus
............................................ par le LMS, d) Coefficients obtenus par le SFïF 85
......... ................... Réponse impulsionnelle étroite du canal de transmission .. stationnaire,a) Erreur quadratique du LMS et du S m ..................................
.............................. b) Indice de performance de la comparaison entre I'erreur ....... ................. quadratique du LMS et du SFïF c) Coeff~cients obtenus ...
............................................ par le LMS, d) Coefficients obtenus par le S F P 86
................... Erreur quadratique du LMS et du SFïF pour une réponse ....... ...... ................ impulsionnelle longue du canal de transmission, b) Indice ...
....................... de performance de la comparaison entre 1' erreur quadratique.. .............................. du LMS et du SFTF c) Coefficients obtenus par le LMS.
....................... ...................... d) Coefficients obtenus par le SFTF ............... 87
........................................ a) Erreur quadratique du LMS et du SFTF pour une réponse impulsionnelle longue du canal de transmission ,................................
.............................. b) Indice de performance de la comparaison entre i'erreur ............................. quadratique du LMS et du SFTF, c) Coeff~cients obtenus
-
CHAPITRE
INTRODUCTION
En acoustique sous-marine, l'écoute et la détection de la signature acoustique d'un
navire ennemi constitue une grande priorité depuis la fin de la Première Guerre mondiale. La
transmission du signal utile est pertubée d'une part par du bruit et, d'autre part, par le
phénomène de trajets multiples dû à des réflexions et des réfractions en milieu sous-marin. les
réflexions et les réfractions sont nombreuses en eaux peu profondes. Pour certains types de sol
l'onde acoustique peut être absorbée et générer quelquefois des ruptures brusques du signal. Le
traitement de signaux nécessaire à l'extraction du maximum d'informations possibles à partir
des données disponibles porte essentiellement sur le besoin de détecter les navires de surface et
les sous-marins de plus en plus silencieux dans un environnement océanique bmyant et ce , à
des distances toujours plus grandes.
Les navires qui écoutent des signatures acoustiques ou communiquent des données
agissent fortement avec l'environnement (milieu marin) dans lequel ils se trouvent et avec les
bruits ambiants. Les problèmes rencontrés nécessitent des traitements spécifiques à la prise de
sons: annulation d'écho acoustique, débruitage et déréverbération du son. Ces problèmes
peuvent être ramenés à l'identification de canal avec entrée connue ou non, et sortie bruitée.
L'objectif est de minimiser pour l'utilisateur la puissance des signaux pertubateun (écho, bruit,
réverbération) sans dégrader le signal utile (communication entre deux bâtiments ou écoute de
la signature d'un navire).
Pour réaliser efficacement cette identification, on doit prendre en compte les propriétes
particulières des canaux acoustiques et des signaux traités. Ainsi, l'amélioration de la
compréhension du milieu de propagation est une condition nécessaire pour le bon
développement de l'analyse et la conception d'un simulateur du système acoustique sous-marin.
Depuis les trois dernières décennies, le traitement adaptatif donne de nouvelles
possibilités de traitement du signal. En effet, le sujet des filtres adaptatifs est maintenant assez
mature pour qu'il constitue actuellement un puissant outil pour parvenir à optimiser un système
de structure spécifié en fonction d'un environnement donné. Nous les retrouvons dans
l'égalisation adaptative, le codage de la voix, l'analyse spectrale adaptative, la soustraction de
bruit et l'adaptation du gain d'antenne qui servent dans les domaines des télécommunications,
du contrôle, du radar, du sonar et de la séismologie.
En générai, si le rapport signal à bruit est trop faible, nous n'avons pas d'autre choix que
d'utiliser des transmissions redondantes utilisant des familles de signaux orthogonaux dont la
transmission à élargissement de spectre, comme on rencontre en modulation PSK (phase shift
keying), FSK (frequency shift keying), etc . Cependant, en acoustique sous marine, il est
préférable d'utiliser l'égalisation de canal si c'est possible. En effet, dans un canal acoustique,
il est préférable d'éviter le PSK ou le FSK pour ne pas trop affecter le débit binaire car la bande
passante est plus étroite que dans un canal de propagation atmosphérique où les familles de
signaux orthogonaux optimisent le débit binaire. L't5galiseur n'a pas besoin de redondance
d'échantillon, mais peut demander des calculs importants. Nous voudrions tout de suite mettre
le lecteur en garde. L'étude du canal acoustique n'est qu'un prétexte pour orienter le canal de
simulation vers une caractéristique intéressante de notre canal de transmission qui concerne les interruptions brusques dans le canal.
Le présent travail consiste à construire un tgalisateur aveugle basé sur un algorithme
FTF Cfast transversalfilter ou filtre transversal rapide). Cet égalisateur doit annuler les échos
provoqués par la transmission sur un canal sous-marin à trajets multiples en eaux peu profondes
soumis à des ruptures brusques du canal de propagation. M n d'utiliser une méthodologie
commune, cet égalisateur est modélisé comme un problème d'identification directe qui
fonctionnera avec des données numériques. Des simulations ont été réalisées et le
comportement de l'algorithme a été testé en présence de variations brutales du milieu de
transmission.
1.1 Organisation du mémoire
Ce travail comprend, en plus de l'introduction et de la conclusion, quatre chapitres dans
lesquels on retrouve: la théorie autour du canal de transmission qui est mis en place pour les
simulations, la thdorie des algorithmes adaptatifs, la présentation du simuiateur qui a été réalisé
au laboratoire du LRTS et enfin les résultats de simulation.
De manière plus détaillée, le deuxième chapitre expose la problèmatique et met en place
la structure d'identification qui correspond à notre application. Nous faisons tout d'abord un
rappel de la transmission de l'information, puis nous nous attardons au modèle de transmission
utilisé pour le canai acoustique en considérant la communication entre un navire et un
sous-marin. Après une modélisation commune des deux situations sous une structure
d'indentification, nous mettons en place la modélisation du canal de transmision et du système
de communication sans compensation du canal.
Le troisième chapitre porte sur le traitement adaptatif suite B la structure d'identification
choisie au chapitre 2. Après avoir déterminé le cRt8re d'erreur et mis en place l'équation de
W~ener, nous utilisons le LMS ( least mean square ou moindre carré moyen), le RLS (recursive
least square ou moindre carré récursif) et le FTF (fa trcutmersalfilter ou filtre transversal
rapide) pour la structure d'identification. Nous nous attardons plus spécifiquement sur le SFïF (stabilized fast transversalfilter ou filtre transversal rapide stabilisé) qui est une forme stabilisée
du FF, car ce dernier présente de fortes instabilités numériques.
Le chapitre 4 présente un outil permettant la simulation du canal de transmission et
I'adaptation de celui-ci grâce à une structure d'identification. La convivialiti du simulateur
permet une modification de tous les paramètres importants aux différents stades de calcul et
l'affichage graphique des données simulées. Ce simulateur utilise une combinaison du langage
C et de MatIab.
Enfin, le chapitre 5 expose les résultats obtenus des diverses simulations sous
différentes conditions. Nous commençons par montrer l'influence des paramètres tels que
l'énergie du signal, le nombre de poids du filtre, le facteur d'oubli sur les résultats de simulation
pour une entrée ayant les meilleures caractéristiques: un bruit blanc gaussien. Pour une entrée
gaussienne, un bruit blanc gaussien, nous montrons ensuite la stabilité de l'algorithme SFïF par la visualisation du facteur de vraisemblance et le comportement de chaque algorithme LMS, RLS et SFïF. Nous comparons ensuite les algorithmes pour une entrée PCM (pulse coded
modulation ou modulation d'impulsion codée) et un canal non stationnaire. Nous discutons
ensuite de la perspective d'amélioration du logiciel pour effectuer l'adaptation en temps réel.
CHAPITRE
TRANSMISSION DE L'INFORMATION DANS UN CANAL ACOUSTIQUE SOUS-MARIN
Le présent chapitre est consacré à la mise en place de la structure d'identification
répondant à la transmission et A la détection de l'information dans un canal acoustique
sous-marin. Notre présentation commencera par un survol de la structure classique d'une
chaîne de communication en nous attardant plus particulièrement sur le canal de propaga-
tion. Nous tiendrons compte ensuite de deux situations pratiques à partir desquelles nous
déterminons un modèle commun sous la structure d'identification. Enfin la modélisation
théorique de la transmission acoustique, constituant la première partie de la structure d'identification, nous permettra d'écrire les équations du canal de transmission qui sont im-
plantées dans le simulateur. La deuxième partie de la structure d'identification concernant
le traitement adaptatif du signal sera traité au chapitre 3.
2.1 Schéma général d'une chaîne de communication
Nous avons besoin de différents modules, représentés à la figure 2.1, pour trans-
mettre l'information de forme déterminée (par exemple un son, une image ou une suite nu-
mérique) entre une source et un utilisateur. Nous dons passer rapidement en revue ces
modules de manière générale et qualitative.
d'information
- Adaptation de Ia source au rsnal
Canal de propagation
Démodulation
Figure 2.1 Schéma général d'une chaîne de communication
2.2 Sources d'informations
Nous retrouvons les deux principales classes de sources d'informations: les sources analogiques et numériques. Suivant les caractéristiques du signal à transmettre, nous pou- vons avoir une largeur de bande variable pouvant aller de quelques dizaines de kHz pour
un signal sonore sous-marin ou auditif à quelques MHz pour un signal vidéo. Pour émettre
un signal analogique sans perte d'information, il faut que la largeur de bande du signal soit
plus petite que celle du canal de transmission. Par contre, pour les signaux numériques,
nous devons tenir compte de deux aspects. Le spectre du signal échantillonné (2.5 fois le
signal analogique) et le codage donnent un signal dont la largeur spectrale est bien supé-
rieure au signal analogique.
Dans la plupart des cas, il est beaucoup plus facile de manipuler des signaux numé- riques. II faut donc faire subir une modification aux signaux analogiques pour les transfor- mer en signaux numériques sans perdre d'information. Cette transformation doit se faire en
trois étapes:
Échantillonnage du signal analogique en respectant le critère de Nyquist.
Quantification du signal échantillonné qui defini les niveaux quantifies analogiques. Cette opération engendre du bruit dû au choix du
quantificateur entre une valeur et une autre. Le bruit de quantification est d'autant plus important que le pas de quantification est important
Convertisseur analogique-numérique qui attribue une valeur binaire en fonction du niveau de quantification du signal précédent et en fonction d'une règle que l'on s'est fixée au préalable.
Remarque : Les caract6ristiques statistiques du signal et particulièrement la sta-
tionnarité jouent un rôle très important dans le choix du mode de transmission du signal.
2.3 Adaptation de la source au canai
En fonction du type de canal de transmission, il existe des techniques optimales
pour transmettre l'information 2 travers le canal. Nous avons d'une part le codage de I'in-
formation qui permet de réduire. voire d'éliminer la redondance naturelle de l'information
contenue dans le signal. Le codage peut aussi protéger I'information issue de la source, des
pertubations introduites par le canal. C'est une opération d'adaptation du signal transmis
au milieu qu'il doit traverser. Il faut évidemment que le milieu soit connu a priori. D'autre
part, la modulation permet de déplacer le spectre du signal sur l'axe des fréquences en fonc-
tion du médium utilisé (paire de fils torsadée, câble coaxial, liaison micro-onde ...)
2.4 Restitution du signal
Nous avons deux étapes principales dans la restitution du signal. Nous devons tout
d'abord ramener le signal en bande de base à l'aide de la démodulation puis ensuite faire
I'opération de décodage, qui est l'opération inverse du codage, pour récupérer le signai uti-
le original. Le module de décodage est généralement plus complexe que le décodeur illustré
à la figure 2.1 [9].
Après ces quelques rappels sur la structure générale de la transmission d'un signai,
voyons la transmission dans le canal acoustique.
2.5 Canal de propagation
II existe deux principaux supports pour propager I'information: les milieux où la
propagation est guidée Oignes t616phoniques, câbles coaxiaux, guides d'ondes, fibres opti-
ques) et les milieux où la propagation est libre (atmosphère et troposphère pour les ondes
radioélectriques et la mer pour les ondes ultrasonores).
Sur un support guidé, il n'est pas toujours nécessaire d'utiliser la modulation, le si-
gnal en bande de base est suffisant. Nous pouvons cependant multiplexer le signal en fré-
quence sur les liens guidés pour optimiser la bande passante liée à des contraintes de coQt,
de capacité et d'espace.
Plusieurs phénomènes affectent le signal qui évolue dans le canal de transmission:
L'atténuation: Elle atteint, à titre d'exemple, 200 dB pour une liaison Terre-satellite gdostationnaire (36 000 Km) ii 6 GHz et moins d'un décibel par kilomètre dans une fibre optique monomode, à une longueur d'onde de 1.3 micron. Distorsion: Elle est due à la dispersion des milieux matériels traversés et éventuellement à la diffraction des ondes. La distorsion est souvent le phénomène prépondérant que l'on s'efforce de réduire sinon d'éliminer en utilisant un égalisateur de canal. Bruit: Il résulte soit de l'injection dans le milieu de propagation de signaux indésirables (parasites industriels, brouilleurs occasionnels ou délibérés, bruit de vagues. ...), soit des fluctuations internes des milieux matériels traversés qui se comportent comme des sources de bruit. Le bruit peut s'ajouter au signal ou se multiplier avec ce dernier.
La connaissance du milieu de propagation dans lequel évolue le signal est essen-
tielle en télécommunication pour I'adaptation de la source au canal de transmission utilisé.
La modélisation qui nous intéresse ici se situe dans un milieu libre dont la distorsion et le
bruit engendré en grande partie par le navire lui-même sont importants. D'une manière gé-
nérale, la transmission en espace libre est perturbée d'une part par du bruit et d'autre part
par le phtnomène de trajets multiples composés de plusieurs copies du signal d'entrée dé-
calées, déphasées et d'amplitudes différentes. Ce phénomène est d'autant plus important
que nous nous situons dans une zone propice aux réflexions comme en eaux peu profondes.
2.5.1 Généralisation pour la modélisation d'un canal en espace libre
Le canal filtre le signal à transmettre en modifiant son amplitude et sa phase. Ce filtre modifie l'information utile plus ou moins sévèrement. Nous pouvons voir la modéli-
sation du milieu de propagation dans sa forme la plus complète à partir de sa fonction de
difision temps-fréquences. Un canal parfait comme à la figure 2.2 n'est pas dif is dans le
domaine des temps de propagation de groupe, ni dans le domaine des fréquences Doppler.
Xi est donc équivalent Zi une distribution de Dirac.
Figure 2.2 (a) Représentation temps - délais de la fonction de t ran~er t pour un trajet cons- tant et (b) sa représentation dans le domaine délais-Dopple~
Si nous ajoutons un autre trajet ayant un délai et une amplitude différente du pre-
mier, nous avons dors deux distributions de Dirac centrées en zéro et dont le retard et l'am-
plitude sont différents. Nous avons alors un étalement de la réponse impulsionnelle que
nous traduisons par une difision dans le domaine du temps de propagation. C'est ce que
les trajets multiples introduisent.
Si maintenant le mobile a une certaine vitesse O < v c v,, , nous avons pour chaque
trajet des délais variables dans la représentation temps-délais de la figure 2.2 a) ce qui se
traduit dans le domaine délais-Doppler de la figure 2.2 b) par une diffusion des fréquences
Doppler. Une représentation dans un canai sous-marin du phénomène des trajets multiples
combinées à une vitesse du mobile est montrée à la figure 2.3 dans le domaine délais Dop-
pler.
Si nous connaîssons les caractéristiques statistiques du milieu de propagation dans
les deux domaines suivants: domaine des Mquences Doppler (spectre Doppler sur chaque
trajet) et domaine des temps de propagation de groupe, nous pouvons d o n reconstituer les
variations dans le temps du milieu de propagation par une transformée inverse rapide de
Fourier (FFT) bi-dimensionnelle avec la correspondance:
Fr6quence Doppler - temps
Temps de propagation de groupe - fréquence
Nous disposons ainsi des fonctions de transfert du canal (domaine fréquenciel) va-
riant au cours du temps (domaine temporel). Une condition très importante de cette rnodé-
Figure 2.3 Exemple de la représentation d'un canal sous-marin dk- persiffréquence Doppler temps ( m i t DeFerruri f 71)
lisation est que le milieu de propagation doit être stationnaire au sens large sur la durée
temporelle considérée. S'il n'est pas stationnaire, il faudra alors considérer de petites sec-
tions temporelles sur lesquelles nous le considèrons quasi-stationnaire (évaluer les paramè-
tres statistiques sur ces sections) et appliquer ensuite sur toutes ces sections des variations
à long terme.
2.6 Modèle de transmission utilisé pour le m a l acoustique
Nous avons plusieurs types d'applications sonars B la figure 2.4. Ces applications
sont liées à différentes transmissions en acoustique sous-marine. Nous y retrouvons en
autre tes sonars actifs ou passifs, la navigation sous-marine, les communications acousti-
ques et le tracé des fonds marins. Nous allons étudier deux situations qui font appel à un
canal de propagation de I'onde acoustique soumis 2 des pertes énergétiques (liées à la fré-
quence de transmission), à l'existence de trajets multiples (dus aux réflections et à la réfrac-
tion des rayons) et à l'effet Doppler (courants, vitesse des bâtiments). Les pertes sont
influencées par de nombreux phénomènes physiques: saisons, état de la mer, profondeur.
Les situations qui nous intéressent sont, premièrement, la communication acousti-
que entre un navire et un sous-marin (voir figure 2.5) et, deuxièment, la détection acousti-
que de la signature radar de sous-marins à partir d'un navire 2 la surface de la mer (voir
figure 2.8). Les deux situations comportent plusieurs trajets dont le trajet principal et des
répliques de ce dernier. L'ensemble des éléments du canal à trajets multiples peut être ex-
Figure 2.4 Shéma de la sitication physique des commwtications acoustiques sous-marines.
primé mathématiquement par une somme d'impulsions de Dirac d'amplitude complexe va-
riable, décalées dans le temps
où a;, r i , Bi sont respectivement le facteur d'atténuation, le retard et le déphasage de pro-
pagation du t? trajet reçu. La transmission dans le canal acoustique sous-marin qui se fait
en bande de base réduit l'expression (2.1) à
2.6.1 Réponse impuIsionnelIe du canal
Les situations d'études précédentes ont lieu en eaux peu profondes c'est-à-dire en-
viron 30 mètres sous le niveau de la mer. C'est, en effet, à ces profondeurs que le canai pré-
sente le plus de réflexions, diffractions et refractions de l'onde acoustique. Le canal est
beaucoup moins sévère pour les hauts fonds, car l'onde acoustique se propage en fonction
de la fréquence dans un guide d'onde acoustique sous-marin[5], [8].
Dans le milieu de propagation sous-marin, les études menées en eaux profondes
menées par M. Wild et R. Joyce [37] permettent une modélisation tridirnentionnelle de la
dispersion d'une impulsion acoustique en bande étroite en utilisant la théorie du mode nor-
mal dont les préceptes sont explicitées par L. M. Brekhovski et Yu. P. Lysanov 1391. Scott
J. Levingston, Evan V. Westwood, Robert A. Korch, Stephen K. Mitchell et Carol V. Shep-
pard [38] s'appuient aussi sur la théorie du mode normal pour développer leur modèle de
propagation acoustique dans le milieu marin. Y Desaubies et K. Dysthe [42] montrent qu'il
est plus facile de travailler en eaux profondes. En effet, le guide d'onde océanographique
est lié au gradient de température qui fait courber les ondes en fonction de la fréquence.
Mais les méthodes utilisées en eaux profondes ne peuvent être appliquées avec succès pour
les applications en eaux peu profondes comme le soulignent H. A. DeFerrari et H. B. Nguyen [43] dans un article traitant d'une expérimentation de transmission-réception ef-
fectuée au large de la Floride et dont l'ordre de grandeur de la réponse impulsionnelIe était
de 500 ms. Dans ce type d'étude, le fond marin et la surface jouent un rôle non négligeable
dans la modélisation de la transmission acoustique. M. Badiey, J. Jaya et H. D. Cheng [4L]
montrent bien la complexité et l'importance que joue le sol dans la modélisation de la pro-
pagation acoustique. Kibblewhite et Wu 1401 démontrent que le modèle de propagation
dans le milieu sous-marin est grandement influencé par le comportement de la perte de ré-
flexion dans les couches du sol marin.
Ainsi l'étude en eaux profondes de l'onde acoustique peut être modélisée comme
une propagation dans un conduit acoustisque alors qu'en eaux peu profondes les nombreu-
ses réflexions et réfractions des ondes acoustiques entraînent une grande complexité de mo-
délisation du canal de propagation.
2.7 Première situation: Communication entre un navire et un sous-marin
La première situation est illustrée à la figure 2.5. Une communication entre un na-
vire et un sous-marin y est représentée. L'information doit être transmise du navire vers le
sous-marin et vice versa avec une puissance la plus faible possible afin de ne pas propager
l'information vers un récepteur indiscret. Le signal nécessite donc une puissance la plus fai-
ble possible, limitée cependant par le niveau du bruit
Nous transmettons des signaux composés de raies dans la bande spectrale ou enco-
re un signal à spectre de raies.
Lorsqu'un canal introduit des distorsions, on peut inclure au récepteur un égalisa-
teur adaptatif ayant pour but de déconvoluer la distorsion ajoutée par le canal sur I'infor-
mation transmiseCe module est efficace si le rapport signal à bruit est supérieur à environ
5 dB [12]. Le problème de l'égalisation de canal consiste à modéliser l'inverse de la fonc-
tion de transfert du canal de transmission par une somme finie d'éléments à retard et d'ap-
pliquer cette fonction de transfert au signal reçu qui contient du bruit océanique afin de
retrouver le signal d'origine.
En télécommunication, les canaux peuvent être modélisés par une somme de quel-
ques éléments à retard. Or, l'inverse d'une telle fonction de transfert s'exprime générale-
ment comme une somme infinie d'éléments à retard. De plus, ces séries infinies sont
généralement convergentes. Dans le cas de I'égalisation linéaire, nous ferons I'approxima-
tion de cette série par une série tronquée et nous minimiserons le critère d'erreur quadrati-
que entre la sortie du filtre adaptatif Y (n - A) et les donnees y ( n -A) (voir figure 2.6). Z
Trajet secondaire
Figure 2.5 Illustration de la première situation, communication dam le milieu sous-marin
2.7.1 Modélisation de la communication dans le milieu sous-marin
L'égalisation du cand de propagation B la figure 2.6 illustre le système de commu-
nication de la figure 2.5. Il est composé de l'égalisateur en mode d'apprentissage et en
mode aveugle.
Le signal y ( t ) que nous supposons être du PCM (Pulse code modulation) [9], re-
présente le signal à transmettre du navire vers le sous-marin. La fonction de transfert i ( t )
et le bmit b, ( r ) modélisent le canal dans son ensemble. Le bruit b , ( t ) représente le bruit
ambiant du milieu acoustique qui, d'après Turkey et Gazery [8], peut être considéré comme
un bmit blanc gaussien. Le signai b, de la figure 2.5 représente le bruit g6néré par les mo-
teurs du navire. Ce bruit est soustrait au signal grâce des hydrophones, places à proximité
de la source de bruit, et n'entre pas en compte dans le système.
Le signal de référence qui représente le signal servant à la séquence d'apprentissa-
ge a déjà subi un retard avant l'échantillonnage, mais le délai TA que nous insèrons après
I'échantillonneur tient compte de ce retard. Ce délai est nécessaire pour comparer le signal
9 (n -A) 2 la sortie de I'égaiisateur et le signal d'entrée. Le choix de A conditionne le fonc-
tionnement de l'algorithme pour comparer le signal de sortie de I'6gaiiseur avec y ( t ) au
bon instant.
Y ( n - N
Mode + + Mode c(n) = y (n -A)
Référence Apprentissage aveugle
Figure 2.6 Schéma de l'égalisation du canal de transmission
L'égalisateur a pour but d'identifier le filtre inverse g (n) de la fonction de transfert
i ( t ) du canal pour restituer le signal utile y ( t) . Il s'exprime comme suit
où wn représentent les poids de l'égalisateur.
L'égaliseur possède deux modes de fonctionnement. D'une part, le mode d'appren-
tissage permet à I'égalisateur d'identifier correctement le canal grâce à une séquence en-
voyée avant la transmission. D'autre part, le mode aveugle permet la transmission des
données. En supposant que l'égalisation a été correctement effectuée en mode d'apprentis-
sage, nous sommes en mesure de récupérer le signal y (n) après avoir éliminé le bruit du
signal Y (n - A) ii l'aide du module supplémentaire F ( n ) . Ce module peut être simplement
une détection de seuil. Le signal purifié devient le nouveau signal de référence pour I'éga-
Iisation dans le mode aveugle. L'erreur de prédiction est alors
Cette phase de poursuite permet, en fonctiomement continu, de conserver une bon-
ne égalisation, en s'adaptant aux variations lentes du canal.
De manière générale, dans le cas de l'égalisation, nous distinguons la fonction de
transfert du canal de transmission 2 phase minimale et à phase non-minimale. Le dévelop-
pement en série d'une fonction de transfert B phase minimaIe est une séne unilatérale, tan-
dis que celle d'une fonction de transfert à phase non-minimale est bilatérale. Or, si le canal
à égaliser est à phase non-minimale, le filtre adaptatif devra approximer la série bilatérale.
Nous pouvons aussi noter au passage un troisième cas. Lorsque les pôles de la fonc-
tion de transfert sont très près du cercle unitaire, la série est alors à la limite de la conver-
gence. Cette situation correspond, dans un canal à trajets multiples, à un évanouissement
profond. Or, comme la séne dont nous devons faire l'approximation est à la limite de la
convergence, il est très difficile de le faire convenablement à partir d'une série tronquée.
Dès que nous avons des instabilités numériques liées à l'algorithme utilisé, les égalisateurs
adaptatifs linéaires ne convergent pas.
La modélisation du problème d'identification inverse sous foxme d'identification di-
recte est souvent utilisé en traitement adaptatif du signal. Nous le faisons couramment pour
revenir à la structure classique transversale directe pour simplifier le problème. Cela revient
i?i identifier un filtre linéaire h ( n ) représenté 5 la figure 2.7 dont la sortie est entaché d'un
bruit additif b ( n ) équivalent au bruit de mesure intervenant dans le système initial de la
figure 2.6 indépendant de l'entrée. Nous avons alors à étudier un problème d'identification
à la différence près que le bruit b, ( n ) intervient non seulement dans la mesure de l'erreur
d'estimation, par l'intermédiaire de b ( n ) , mais aussi dans l'expression du filtre optimal
h ( n ) [Il]. En effet, nous avons les correspondances
b ( n ) = i - ' ( b , ( n ) )
h ( n ) = i-' ( n )
Avec les Cquations ci-dessus nous arrivons au modèle direct de la figure 2.7. Cependant,
d'après Odile Macchi [12], b (n) n'a plus la propriété d'être indépendant et identiquement
distribué; il devient coloré. De plus, son spectre et son niveau de puissance varient avec le
filtre direct h ( n ) . C'est pourquoi ce probléme n'est pas une extension triviale du problème
direct.
Figure 2.7 Modélisation du problème de L'égalisation comme un problème d'iden- tification directe.
2.8 Deuxième situation: Détection acoustique de la signature radar d'un sous-marin
La deuxième situation, illustrée à la figure 2.8, montre un navire qui fait une écoute
active de la signature radar d'un sous-marin, à l'aide d'hydrophone. Ici la problèmatique
est différente car nous n'avons aucune possibilité d'avoir une référence du signal acousti-
que du sous-marin. Nous savons seulement que le signal est émis par le moteur de celui-ci.
Nous avons donc affaire à un signal large bande. Le spectre de ce signai est très différent
de la situation précédente. L'égalisation pour ce type de situation est impossible, car même
si l'égalisateur est toujours capable de prendre une pseudo référence du signal pendant sa
période d'apprentissage, il nous sera impossible d'estimer ce signal pour nous en servir
pendant la poursuite en régime permanent. Voyons comment nous allons modéliser cette
situation pour être capable de récupérer la signature acoustique du sous-marin.
2.8.1 Modélisation de la deuxième situation par une structure d'identification
Comme nous ne pouvons pas passer par une 6gaIisation du canal, nous allons poser
les hypothèses suivantes afin de réaliser une structure d'identification pour être capable
d'isoler la signature acoustique du sous-marin.
Hypothèse 1 : Le sous-marin doit être assez loin du navire pour que son signal aux
hydrophones 2 et 3 (figure 2.8) soit négligeable devant le bruit ambiant de la mer.
Hypothèse 2 : Le signal étalon &nis est au-dessus du sous-marin.
b,: bruit ambiant
1: Groupe d'hydrophone à l'extrémité du cable au dessus du sous-marin 2: Groupe d'hydrophone proche du navire 3: Groupe d'hydrophone à proximité de la source de bruit généré par le bruit
du navire
Figure 2.8 Illustration de la deuxième situation. Ecoute active de la signature radar d'un sous-marin
Hypothèse 3 : Les caractéristiques du bruit ambiant du milieu main dans lequel
nous travaillons sont considérées stationnaires. Nous pouvons considérer le bruit, d'après
[8], comme un bruit blanc gaussien de moyenne nulle [IO] dont la fonction de densité est
Hypothèse 4 : Les hydrophones 3 ne reçoivent que la signature acoustique du na-
vire.
Rappelons que le bruit généré par les moteurs du navire est loin d'être négligeable.
Les groupes d'hydrophones situés le plus près de la source du bruit permettent de connaître
leur signature. Nous avons plusieurs groupes d'hydrophones sur le câble que nous avons
désigné par les numéros de 1 à 3 sur la figure 2.8. Les hydrophones 1 à l'extrémité du câble
reçoivent
où s,,,,, , s, , b,,, et b, représentent respectivement le signal reçu au groupe d'hydropho-
nes 1, la signature acoustique du sous-marin, le bruit du navire modifié par le milieu de pro-
pagation et le bruit ambiant de la mer. Les hydrophones 2 reçoivent
où ShYdro2, slind, bn et b, représentent respectivement le signal reçu au groupe d'hydropho-
nes 2, le signal étalon modifié. le bruit du moteur du navire non modifié par le milieu de
propagation et le bruit ambiant Or, comme la signature du bruit du navire est récupérée par les hydrophones 3 à proximité de la source de bruit d'après l'hypothèse 4, la relation aux
hydrophones 2 devient
Figwe 2.9 Modélisation des deux situations sous une structure d'identification
Grâce aux signaux S,,,,, et shdm2 qui représentent respectivement x ( n ) et y ( n ) + b, ( n ) sur la figure 2.9. nous ne pouvons en aucun cas soustraire le bruit b, au signal
étalon étant donné la nature statistique d'un tel signal. Il devient évident que le rapport si-
gnal à bruit s , /b , doit être supérieur à une valeur qui permette de distinguer le signal s,,, . II devient facile ensuite de retrouver le bruit du moteur du navire, bn,, , grâce à la fonction inverse g-' ( n ) . Nous pouvons ainsi isoler la signature du sous-marin grâce à la relation sui- vante
Le problème revient donc identifier le canal inconnu h (n) de la figure 2.9. Nous
reconnaissons la même structure mise en place lors de la première situation à la différence près que le bruit ambiant, 6 , ( n ) , est coloré avec le signal d'entrée. Nous pourrons tenir
compte de cet aspect ultérieurement Dans un premier temps, nous allons tenir compte d'un
bruit blanc gaussien, comme formulée par la 3' hypothèse.
Nous allons dans la prochaine section mettre en place les éléments théoriques pour
simuler les principales caractéristiques du canal de transmission représenté en pointillés sur
la figure 2.9.
2.9 Modélisation théorique de la transmission acoustique
Le diagramme général, sur lequel nous allons travailler, est représenté à la figure
2.10. Le schéma se divise en trois moduies principaux: la fonction de transfert qui régit le
canal de propagation, les signaux emis, le bruit et un module auxiliaire permettant de ra-
jouter des options telles qu'une coupure brusque.
Options LJ Fonction de
Signaux Sortie
Bruit O Figure 2.10 Schéma général de h trmsmission du canal acoustique
Comme nous l'avons souligné plus haut, le canal de transmission est réel et nous
rappelions ci-dessous l'équation (2.2) qui régit la fonction de transfert du canal pour un ca-
nal numérique
où et a, et ,ki sont respectivement le facteur d'atténuation et le retard de propagation. L'al-
gorithme adaptatif sera confiontre au problème de la rupture brusque des trajets. Nous al-
lons construire des trajets dont l'amplitude (ou l'atténuation) et le retard varient
linéairement dans le temps, c'est-à-dire que les variables ai et ki sont régies respectivement
par les fonctions linéaires suivantes
Ainsi l'équation (2.12) devient
Les figures 2-11 a) et b) illustrent l'équation (2.15) en ayant respectivement une représen-
tation tridimentionnelle de la fonction du transfert temps-retard et sa représentation fré-
quence-Doppler pour un trajet dont l'atténuation et le retard diminue au cours du temps .
Ce canal sous-marin possède des propriétés qui nous intéresse pour nos simula-
tions. Un retard et une amplitude qui évoluent linéairement dans le temps et une possibilité
de générer des ruptures. Nous entendons par rupture que le trajet peut disparaître et appa-
raître subitement. Nous voulons voir comment réagissent les algorithmes dans ces cas de
ruptures.
Figure 2.11 (a) Exemple d'une représentation temps-délais de la fonction de transfert du canal de transmission; (b) fonction de df is ion Doppler-délais de (a)
2.9.1 Canal élémentaire idéal constant
Nous considèrons tout d'abord un trajet direct sans aucune &flexion dans un canal idéal. Si le sous-marin et le navire sont immobiles, le retard et l'amplitude restent constants
et la fonction de transfert est
où a,, et k,,, caractérisent respectivement l'atténuation du signal et le retard de propaga-
tion qui sont tous les deux constants.
La représentation en trois dimensions de la figure 2.2 montre I'évolution de ce ca-
nal au cours du temps. Ce canai est très simple puisque le navire et le sous-marin sont im-
mobiles et le retard et I'amplitude du trajet restent constants. Nous avons affaire à un cand parfait qui n'est ni diffis dans le domaine du temps de propagation de groupe, ni diffus dans
le domaine des fréquences Doppler.
2.9.2 Canal 6h5mentaire variabIe
Si, par contre, le navire et le sous-marin sont en mouvement, la fonction de transfert . .
Figure 2.12 a) Représentarion temps délais de la fonction de transfert pour la première composante d'un trajet variable et (b) sa représentation dans le domaine délais Dopplei
évolue au cours du temps. La fonction de transfert s'écrira pour un seul trajet
Il faut donc faire évoluer l'amplitude et le retard du trajet. Les figures 2.12 et 2.13 nous montrent respectivement un exemple où le sous-marin se rapproche puis s'éloigne du
navire. Ces deux figures illustrent deux modules de base à partir desquels nous pouvons
construire autant de trajets que nous le souhaitons pour constituer notre canal de transmis-
sion. Ainsi, la somme de ces deux modules ou de ces trajets de base perxnet la reconstitution
possible de la situation du sous-marin qui se rapproche puis s'éloigne du navire en suppo-
sant un trajet théorique unique. C'est ce que nous avons simulé & la figure 2.14 en sommant
les deux modules de base des figures 2.12 et 2.13. Nous remarquons sur ces différentes fi-
gures la construction d'un trajet où l'on maintient une certaine amplitude pendant plus
d'une itération. Ainsi, si nous prenons, par exemple, pour l'équation d'un trajet
h (n. k (n) ) = (n + 1) 6 [ n - (Sn + 2 ) ] , l'amplitude et le retard valent respectivement aux
itérations
Pour garder le même état pendant un certain nombre d'itérations, il faut que la fonction de transfert reste constante; ceci afin de garder un contrôle sur la stationnarité du
canal. Pour effectuer cette opération, nous interpolons un certain nombre d'échantillons en- tre chaque variation du canal. Les figures 2.12 à 2.14 ont été construites à partir du main-
tient de 6 (k) pendant 5 itérations.
On pourrait réecrire h (n , k ( n ) ) en fonction des interpolations comme
où [ y ] représente un valeur entière composée de i interpolations
ri
Figure 2.13 (a) Représentation temps-délais de la fonction de transfert pour la deuxiè- me composante d'un trajet variable et (b) sa représentation dans le domaine délais
Doppler
Figure 2.14 (a) Représentation temps-délais de Ia f m i o r t de transfien pour le trajet variable composé de la figure 2.12 et de la figure 2.13 et (b) sa représentation dans le
domaine délais Doppler
2.9.3 Variation brusque dans le canal
Nous pouvons simuler les variations brusques du canal en multipliant la fonction
de transfert par une porte de la forme
où k,, et k,, caractérisent respectivement le début et la fin de la porte. Cette fonction a été
utilisée pour produire les résultats aux figures 2.12, 2.13 et 2.14. En effet, grâce à la fonc-
tion de coupure, nous pouvons générer deux trajets indépendants en simulant l'équivalent
d'un seul trajet théorique mentionné plus haut. La figure 2.14 illustre une combinaison li-
néaire de deux trajets multipliés chacun par la porte de l'équation (2.19) (référez-vous au chapitre 4). Ainsi l'équation compléte pour chaque composante devrait plutôt s'écrire com-
me suit
2.9.4 Canai à trajets muitiples
Pour constituer le canal, il suffit d'ajouter les modules de base décris par l'équation
(2.20). Le canai complet s'écrit alors
Le schéma de principe est illustré par les figures 2.16 et 2.15 ci-dessous. Chaque trajet
constitue une branche composée d'un retard et d'une atthuation évoluant linéairement à
chaque échantillon. Chaque module de base est régi par la fonction linéaire que nous avons
choisie pour chacune d'entre elles. Ces branches sont indépendantes les unes des autres.
Figure 2. I S Fonction de transfert du canal de transmission
Pour chaque trajet sur le graphique, les ai constituent les différentes atténuations ou ampli-
tudes du signal et les hi représentent les retards associés aux coupures brusques. Nous pos-
sédons , à cette étape-ci de notre démarche, un canal de transmission à trajets multiples. Ce
canal se rapprocherait encore plus de la réalité s'il était ponderé par une certaine fonction
de distribution stochastique adaptée au canal acoustique.
2.9.5 Le signal et la fonction de convolution
2.9.5.1 Les signaux
L'allure du spectre du signal peut être de faible énergie comme dans le cas d'un
spectre de raies ou de forte énergie pour les spectres à bande large. Ce type de spectre limite
généralement le traitement que l'on peut faire sur le signal en utilisant une égalisation du
Signal étalon dn)
Signal de sortie
Figure 2.16 Représentation tridimensionnelle de lu fonction de transfert
canal ou une estimation du canal si le rapport signal à bruit est trop faible. Pour les signaux
à spectre de raies, nous avons toujotus la possibilité d'utiliser un codage-décodage pour ré- cupérer nos signaux. Par exemple, en radio-mobile [33. nous utilisons un codage convolu-
tionnel suivi d'un décodage de Viterbi pour la restitution du signai utile.
Or, la perte du spectre liée à la redondance des bits pour le codage ne pose aucun
problème pour les fiequences d'opération de l'ordre du GHz en propagation radioélectn-
que, mais peut toutefois devenir critique en propagation sous-marine là où la bande passan-
te n'est que de quelques kHz.
Nous avons besoin d'une banque de signaux pouvant représenter les cas typiques
et les signaux d'essais. Nous retiendrons ici le signal gaussien et le PCM. LR PCM est cons-
truit à partir d'une variable aléatoire ayant une distribution uniforme ou gaussienne à partir
de laquelle nous effectuons une décision de plus ou moins un en fonction d'un seuil.
2.9.5.2 La convolution
Pour calculer le signal à la sortie du canal de transmission, la transformée Fourier
rapide (FFï) s'avére être l'opération la plus rapide. Pour avoir le droit d'utiliser la FFT il faut d'une part que le canal soit linéaire et invariant et d'autre part le signal d'entrée doit
être stationnaire sur le nombre d'échantillon sur lesquelles nous effectuons la FFï. Les rup- tures brusques qui surgissent pseudoaléatoirement (nous avons le contrôle sur la génération
des trajets pendant la simulation) ne nous permettent pas de considérer le milieu de propa-
gation comme Iineaire et invariant, même sur les échantillons pour lesquelles la FFï pou-
raient être effectuées.
En revanche, si nous utilisons une convolution à chaque itération nous respectons
les conditions de linéarité et d'invariance. R faut dans ce cas recalculer la fonction de trans- fert pour chaque itération comme l'illustre la figure 2.17.
Nous avons limité la longueur du signal à deux fois la longueur de la fonction de
transfert pour respecter la critère de la convolution circulaire. Le signal x (K) de l'exemple
de la figure 2.17 est une sinusoïde inversé x (-U) et décalé dans le temps x ( r n - U) . L'équa- tion (2.22) montre la convolution qui est effectuée. Nous avons pris un saut de 6 pour
l'exemple de la figure 2.17.
Avec m = saut - n et saut E N, pour h (m, k) voir l'équation (2.21). Nous avons ainsi sur cette figure, le calcul numérique aux deux premières itérations respectivement en a) b) C) et en d) e) f) pour une fonction de transfert qui evolue entre le premier et le deuxième instant. Le résultat de cette convolution à chaque instant en c) et f ) , est résumé en g), ce qui nous donne le signal de sortie du canal de transmission pour les deux premiers instants.
2.9.6 Le bruit
Nous ajoutons aux échantillons de sortie du canal y (n) le bruit 6 (n) dont la fonc- tion de densité à été exprimée par l'équation (2.7) pour obtenir le système de transmission complet (figure 2.1 8) qui va nous servir pour étudier les performances des algorithmes
adaptatifs.
N x(") h (n, k) = C [ (cin + di) - 6 ( n - (ein +fi) ) J
i = l r w - k m ) -u(n-k,,)i
- Figure 2.1 8 Modélisation de la transmission acoustique
a) b) c) Première itération d) e) f) Deuxième itération
l y h ) = y(@ + Y U )
g n
Figure 2.17 Évolution de la convolution pour deux itérations nwnériques
2.10 ConcIusion
Dans ce chapitre, après un rappel sommaire de la chaîne de communication, nous
avons proposé, à partu des deux situations pratiques de la communication entre un navire et un sous-marin et de la détection acoustique de la signature radar d'un sous-marin, un mo-
dèle commun sous une structure d'identification. La première partie de cette structure, qui concerne le canal de transmission, permet une latitude inttressante sur le contrôle des tra-
jets pour former les situations particulières qui nous intéressent a h d'étudier le comporte-
ment des algorithmes adaptatifs. Nous y retrouvons aussi la possibilité d'ajouter le nombre
de trajets désiré suivant une loi linéaire pour l'amplitude et le retard, de maintenir I'ttat du
canal pendant un certain nombre d'itérations, de commencer et de texminer un trajet à l'ité-
ration désirée. La deuxième partie, qui concerne le traitement adaptatif du signal sur le ca-
nal de transmission, va être vue au chapitre suivant.
CHAPITRE
CARACTÉRISATION DU CANAL DE PROPAGATION ACOUSTIQUE PAR UN
TRAITEMENT ADAPTATIF DU SIGNAL
Ce chapitre complète la suucturc de I'identification vue au chapitre 2 en y ajoutant
un traitement adaptatif du signal afin de caractériser le canai h (t). Les algorithmes
adaptatifs utilisés pour identifier le canal sont le LMS (" least mean square" ou moindre
carré moyen), le RLS ("recursif least square" ou moindre carré récursif) et le SFTF ("stabilized fast transversal filter" ou filtre transversal rapide stabilisé). L'algorithme LMS est un membre important de la famille des algorithmes basés sur le gradient stochastique
dont la caractéristique principale est sa simplicité. L'algorithme RLS, basé sur les moindres
carrés, possède la caractéristique très intéressante de converger plus rapidement que le
LMS. Cette convergence rapide se fait au détriment de la complexité de calcul. Le S m ,
version rapide du RLS, basé également sur les moindres carrés, allie la rapidité de
convergence du RLS et une cornplexit6 de calcul réduite proche du LMS.
La première partie de ce chapitre développe les équations issues de la structure
transversale illustrée à la figure 3.1. L'identification du canal commence par I'établissement
de I'erreur entre la sortie du canal et du filtre adaptatif. Par la suite, le choix d'un critère
d'erreur nous permet de définir une fonction de coat que nous cherchons à minimiser. Nous
en déduisons alors l'équation normale de Wiener qui répond au problème de minimisation
du critère d'erreur choisi. C'est à partir de la technique récursive d'inversion de la matrice
d'autocorrélation que vont appmAtre les différents algorithmes que nous retrouvons pour
le traitement adaptatif des données. La deuxième partie du chapitre rappelle les principaux
résultats du LMS. Après cela, nous développons pour le RLS, les équations issues du
Lemme d'inversion de la matrice (identifie dans la littérature comme l'identité de
Woodbury) et son initialisation. Ensuite, nous nous attardons aux algorithmes des
moindres carrés récursifs rapides par les approches géométrique et algébrique. Nous
prenons le cas particulier de la structure transversale en considérant le FïF (filtre
transversal rapide ou fast transversal filter) de Cioffi 1141 qui est la version originale
instable de l'algorithme S m . Enfin, nous terminons par le SFTF de Slock et Kailath [27],
1281.
3.1 Modèle de prédiction: l'identificateur
Le filtrage de Wiener se réfère à la structure du modèle d'identification mis en pla-
ce au chapitre 2. Le cas qui nous intéresse est celui du filtrage transverse d'ordre fini N (RIF). La figure 3.1 détaille la structure d'identification du canal h (t) inconnue en prati-
que.
Paramètres de la figure
Si nous considèrons le cas général de signaux aléatoires, centrés et stationnaires du
second ordre.
x (n) est le processus aléatoire observé. y (n) le signal désiré.
9 (n) représente l'estimation de y (n) , e (n) l'erreur d'estimation.
Les relations qui relient ces différents paramètres sont exprimées par l'équation
suivan te
Figure 3.1 Structure d'identification
la durée impulsionnelle du canal est finie et de taille N. On peut exprimer le signal A la sortie du filtre adaptatif comme
Si nous supposons un canal à réponse impulsionnelle finie non bruité, nous avons alors y (n) - 9 (n) = O et les poids du canal à identifier et de I'identificateur sont identi-
ques. Mais en réalité le bruit sur ce type de système est toujours présent et nous définissons
comme l'erreur de prédiction. L'erreur de prédiction e (n) est égaie 2 une certaine valeur
qui dépend du bruit la sortie du canai de transmission. Généralement, le bruit n'est pas
corrélé avec le signal d'entrée. Nous pouvons noter que si le bruit est corrélé avec le signal
d'entrée, comme c'est le cas pour la situation de I'écoute acoustique du sous-marin, une
partie du bruit contenu dans le signal d'entrée ne pouna être isolée par l'identificateur. Les
poids du filtre sont donc d'autant plus affectes que la corr61ation entre Ie bruit ii la sortie et
le signal d'entrée est importante. Le filtrage de Wiener est Ie concept fondamental de la sé-
paration des signaux par décorrélation. Ce filtrage est régi par l'équation normale dévelop-
pée ci-après, qui traduit le fait que l'erreur e ( n ) est décorrélée des données.
Géométriquement e (n) est orthogonal à l'espace { X ( n ) ) des données x (n) . L'équa-
tion normale est le point de départ vers les différents algorithmes que nous retrouvons dans
la littérature pour le traitement adaptatif des données [17], [25] et [3 11. Mais avant d'établir
l'équation normale, il faut choisir un critère d'erreur encore appelé fonction de coût.
3.1.1 Critères d'erreur
L'erreur quadratique est utilisée comme critère d'erreur pour des raisons de corn-
modité et afin de se conformer à une méthodologie commune reprise dans de nombreux
ouvrages 1171, [25] et [3 11 portant sur le traitement adaptatif du signal. Nous retrouvons
dans la littérature I'erreur quadratique moyenne définie par
qui correspond à la puissance moyenne d'une erreur de prédiction et l'erreur quadratique
par moindres carrés qui est définie par
où w , qui représente les coefficients optimaux, minimise dans I'espace de Hilbert la dis-
tance entre les variables aléatoires y (n) et 9 (n) . Pour constituer un espace de Hilbert il
faut que les variables aléatoires de carré intégrables (c'est dire à énergie finie ) soient mu-
nis du produit scalaire (X, Y) = E (XY) . Les deux variables aléatoires X et Y sont dites
alors orthogonales si et seulement si E (XY) = O. Pour minimiser la fonction de coût, il
faut pouvoir trouver, en fonction du critère d'erreur choisi, le minimun des équations (3.4) ou (3.5). Il faut cependant prendre garde que le problème théorique à r6soudre reste la min-
imisation de la fonction de coût (3.4) definie à l'aide de la statistique des données à traiter.
Nous pouvons aussi utiliser l'équation (3.5) mais cela implique l'hypothèse la plus impor-
tante pour les moindres carrés qui est la condition d'ergodicité des données à traiter. En ef-
fet, V(w) tente de remplacer I'espérance mathématique de J ( w ) par une estimation empirique. Si la condition d'ergodicité n'est pas maintenue pour l'équation (3.3, l'estima-
tion de l'erreur quadratique sera erronée.
En pratique, nous n'avons que peu de connaissances a-priori des statistiques des si-
gnaux. Or, les algorithmes basés sur l'optimisation déterministe travaillent sur ia fonction
à minimiser J ( w ) que nous supposons connue et non sur les données aléatoires des pro-
cessus à étudier. Pour obtenir le rninimun de la fonction de coût J ( w ) il faut que tous les
éléments du vecteur gradient VJ ( w ) soit simultanément nuls, c'est-à-dire que
De plus, la condition suivante
nous garantit un minimum local.
Ce sont les conditions de l'équation (3.6) et (3.7) que nous cherchons à satisfaire à l'aide
des algorithmes numériques. Il faut s'assurer que la solution avec I'équation (3.7) est bien
un minimun global de J ( w ) . Les structures transversales d'ordre fini d'après Minoux[l6]
n'ont qu'un minimum global.
Un algorithme basé sur la fonction d'optimisation J ( w ) ne permet pas d'identifier
directement w à partir des données observées. Comme nous ne connaissons pas la statisti-
que des signaux, nous ne pouvons pas calculer directement J (w ) . Nous distinguons à cet
effet deux familles d'algorithmes dont le calcul récursif se fait sur le temps avec un calcul
itératif du gain mais dont l'ordre est fixe:
Les algorithmes déterministes basés sur J ( w ) qui, à partir de statistiques connues, se transforment en algorithmes qui travaillent directement sur les données qualifiés de stochastiques. L'algorithme LMS fait partie de cette famille.
Les algorithmes qui font une optimisation directement par le traitement de donnees. Nous devons remplacer dans ce cas l'espérance mathématique du cntère J (w) par I'estimateur V(w) qui minimise le cntère géométrique defini à I'Quation (3.5). L'utilisation de cet estimateur est justifik si I'ergodicité des données est respectée. Cette famille mène aux
algorithmes RLS et SFT'F. Il existe une autre approche, que nous ne traitons pas ici, où le calcul récursif se
fait sur le temps et sur l'ordre. Cette approche tmise par Durbin et Lennson [17] mène aux
aïgorithmes en treillis comme le LSL (least square ktîice).
Déterminons maintenant le filtre optimal Ûr (n) qui minimise le critère d'erreur de l'équation (3.4) issue du problème théorique 2t résoudre.
3.1.2 L'équation Normale de Wiener
L'estimation du filtre optimal ~ ( n ) de l'équation (3.4) minimise, dans l'espace de Hilbert, la distance entre les variables aléatoires x (n) et y (n) mesurées par l'erreur
quadratique moyenne
L'équation (3.8) devient alors
le nombre de coefficients du filtre. Développons cette équation
Nous posons
qui représentent respectivement la puissance moyenne du signai désiré, le vecteur de l'in-
tercorrélation entre le signal d'entrée x (n) et le signai désiré y (n) et la fonction de la
matrice d'autocorrélation du signal d'entrée.
Alors,
Il faut, pour minimiser le critère d'erreur, calculer le minimum de la dérivée par
rapport aux coefficients de J ( w ) pour respecter les conditions (3.6) et (3.7). Ainsi,
Si la matrice d'autocorrélation est inversible nous arrivons à l'équation normale
suivante
L'utilisation de l'équation normale (3.18) exige la connaissance des propriétés sta-
tistiques de RNN et de PN. Lorsque ces deux quantités ne sont pas disponibles, nous utili-
sons des observations successives pour les estimer. Nous effectuons ces estimations 2 partir des données ce qui ne conduit pas au système optimal, mais donne de bons résultats en pra-
tique.
Le choix du critère deterministe de l'équation (3.5) mène aussi à la solution opti-
male (3.18). Cependant, les définitions des termes de I'autocorrélation RNN et P,,, sont dif-
férentes. En effet, nous avons comme dtfinitions, pour les estimateurs déterministes, les
équation suivantes, issues du même développement que pour le critère (3.4)
Lorsque les conditions de stationnarité ne sont plus respectées. les estimations ergodiques doivent être réalisées sur des durées finies, ce qui peut être obtenu en pondérant le critère
d'erreur (3.5) comme suit
Cette pondération, apportée par h , communément appelé le facteur d'oubli, permet de mi-
nimiser l'importance des données passées de RNN (n) et de PN ( n ) . La minimisation de
l'équation (3.21) modifie l'écriture de RNN (n) et PN (n) comme
Il faut noter que pour estimer correctement la fonction d'autocorrélation, la fenêtre
d'observation doit être la plus grande possible et ceci en accumulant le plus d'échantillons
possibles pour se rapprocher de la théorie des grands nombres et diminuer ainsi le biais de
I'estirnateur. Or, ces conditions sont difficilement respectées car, dans le cas de non station-
narité, la fenêtre d'observation doit être petite dans le temps.
Tous les algorithmes adaptatifs que nous retrouvons en traitement du signal sont
basEs sur l'équation normale (3.18). Même si la structure est sous une forme transversale, prédictive ou égalisatrice, l'équation normale (3.18), qui donne le filtre optimal w (n) , garde la même forme et seules les écritures de la matrice d'autocorrélation et du vecteur
d'intercorrélation peuvent varier. Par exemple, pour la structure transversale, nous avons
vu que la même équation de W~ener (3.18) donne des équations différentes pour la matrice
d'autocorrélation et d'intercorrélation en fonction du critère d'erreur choisi. En effet, pour le critère d'erreur (3.4) et (3.21). nous avons respectivement les équations (3.13). (3.14) et
(3.22)' (3.23) pour la matrice d'autocorrélation et d'intercorrélation. Toute la technique, à
partir de l'équation normale, consiste à inverser la matrice d'autocorrélation en utilisant le
moins de calculs numériques possible. Nous pouvons voir à la figure 3.2 les différents ty- pes d'algorithmes qui découlent de l'équation de Wiener en fonction du critère d'erreur
choisi et de la structure qui répond le mieux au problème posé.
3.2 Algorithme LMS
L'algorithme LMS fait partie de la famille des algorithmes du gradient. Ces algo-
rithmes sont basés sur la minimisation du critère d'erreur quadratique moyenne (EQM).
Lorsque les signaux à filtrer sont de type réponse impulsionnelle finie (RF), ce critère d'er-
reur mène à une courbe d'erreur quadratique de forme parabolique à N dimensions (où N est le nombre de coefficients du filtre). Ainsi, en se dirigeant toujours dans la direction in-
verse de la pente maximale de la courbe d'erreur quadratique, le gradient de I'EQM, l'al-
gorithme converge inévitablement vers le minimum de cette courbe d'erreur. L'équation
récursive (3.24) est à la base de l'algorithme du gradient
où WN ( n ) est le vecteur des coefficients du filtre, p le pas d'itération, ~(n) I'EQM où 2
E (n) = E { e (n) ) et le dernier terme Vwest le gradient de I'EQM.
Courbe de I'EQM à 2 dimensions
axe Projection du parcours de
l'algorithme sur le plan des
coefficients
axe wl
Figure 3.3 Illustmtion d'une paraboloTde d 'EQM à deux dimensions
L'algorithme LMS est base sur un estimateur très simple du gradient de I'EQM.
Cette simplification permet de contourner le calcul exact du gradient (donc de la connais-
sance des statistiques du second ordre du signal à filtrer). Cette simplification conduit à une
structure itérative simple de même forme que celle de I'algorithme de la descente rapide
avec comme estimateur du gradient
a 2 e (n) = -2e (n) XN (n)
3%
où e (n) est l'erreur de prédiction et XN (n) le vecteur des données. En remplaçant I'ex-
pression (3.25) dans l'expression (3.24) nous obtenons l'algorithme LMS
Nous aboutissons à une structure itkrative semblable à celle de la descente rapide,
mais nécessitant beaucoup moins de calculs.
La vitesse de convergence des algorithmes de la famille du gradient dépend de plu-
sieurs facteurs. Elle dépend entre autres de la forme de la courbe d'erreur quadratique
moyenne. En effet, plus la forme du paraboloïde de I'EQM est excentrique (aplatie) moins
la convergence des algorithmes du gradient est rapide. L'aplatissement de la courbe d'er-
reur quadratique moyenne dépend directement de l'étalement des valeurs propres de la ma-
trice d'autocorrélation du signal d'entrée. La convergence est optimale dans le cas où les
valeurs propres sont identiques. Le gradient pointe dors directement en direction du rnini-
mum de la courbe de I'EQM. Par contre, plus le rapport de la valeur propre maximale à la
valeur propre minimale est grand, moins la convergence est bonne.
Ainsi, la vitesse de convergence de ces algorithmes dépend directement des valeurs
propres de la matrice d'autocorrélation, donc des caractéristiques du signal d'entrée. Elle
est optimale seulement pour un signal d'entrée blanc. C'est peut être la seule limitation de
l'algorithme LMS lorsque le signal d'entrée possède une grande dynamique spectrale.
C'est pour cette raison que nous tentons d'utiliser, dans des applications d'annulation
d'écho acoustique, des algorithmes de type moindres carrés exacts dont la vitesse de con-
vergence est indépendante de la dispersion des valeurs propres de la matrice d'autocorréla-
tion du signal d'entrée.
Nous notons aussi au passage qu'il existe un lien entre le spectre de puissance des
données et les valeurs propres. En effet, il est possible de montrer que le rapport du maxi-
mum au mirninurn de la densité spectrale de puissance donne une borne supérieure du rap-
port de la valeur propre maximale à la valeur propre minimale. Donc, en connaissant la
densité spectrale de puissance du signal à filtrer, on a une idée de la vitesse de convergence
des algorithmes du gradient.
Enfin, le choix du pas d'itération p de ces algorithmes est déterminant sur la vites- se de convergence. En raisonnant par symétrie, nous constatons qu'avec un paramètre p très petit, la convergence de l'algorithme est très lente. Pa. contre, nous approchons le mi-
nimum avec une grande précision. En choisissant le paramètre p trop grand, l'algorithme diverge car, à chaque itération, nous pointons de plus en plus loin du minimum de la surface
d'erreur quadratique. II existe donc un choix optimal du paramètre p selon la précision
avec laquelle nous voulons approximer le processus A modéliser. Pour le LMS, nous avons
respectivement les conditions de convergence en moyenne et en erreur quadratique moyen-
ne suivantes
où les )ï sont les valeurs propres de la matrice d'autocorrélation et &, la valeur propre
maximale. Dans le cas où j~ 1 , l'équation (3.28) peut s'écrire comme suit
Nous attendons à ce que ce choix optimal de p s'exprime en fonction des valeurs
propres. De ce fait, nous pouvons montrer que le p, qui donne la vitesse de convergence
optimale est
Cette équation est obtenue en moyennant l'algorithme LMS et en mettant en évi-
dence dans I'algorithme les valeurs propres de la matrice d'autocorrélation. En pratique, pour le choix de la constante p une condition plus restrictive nous utilisons souvent,
Cette dernière condition exploite le caractère defini positif de la matrice d'autocar-
relation. L'algorithme du gradient stochastique est résumé au tableau 3.1.
Paramètres: N = nombre de coefficients
p = pas du LMS 3
O < F < L
puissance total du signal X (n)
Conditions initiales: F f N (O) = O
Les données: XN ( n ) = vecteur des données à l'entrée à l'instant n
y (n) = sortie désirée à I'instant n
À calculer: ÛI, (n + 1) = estimé du vecteur des poids du filtre à I'instant n + l
Calcul: Pour n = 0, 1,2, ..., calculer
e (n) = d (n) - (n) xN (n) mN(n+ 1) = &(n) +2p-XN(n)e(n)
. -
Tableau 3.1 Résumé de l'algorithme LMS
Les performances asymptotiques de I'algorithme LMS peuvent se résumer par le
conpromis à faire d'une part à l'aide d'une EQM faible (en précision finie) c'est-à-dire un
pas faible, et d'autre part une bonne capacité de poursuite pour les signaux non stationnai-
res à I'entrée, ce qui demande une grande valeur du pas. Nous nous assurons que la valeur
du pas p ne soit ni trop grande, ce qui pourrait enwîner une divergence de I'algorithme,
ni trop faible pour suivre correctement les variations du canal. Nous montrons ainsi que
lorsque p est petit, la mémoire du système s'allonge, ce qui signifie que I'algorithme con-
verge moins rapidement.
Pour des signaux d'entrée non stationnaires. nous choisissons généralement une
version de I'algorithme LMS facilitant le choix du pas d'adaptation constant. En effet, la
condition de convergence de I'algorithme LMS dépend de la puissance du signal d'entrée.
Pour rendre les perfomances de l'algorithme indépendantes de cette puissance, nous nor-
malisons le gain scalaire p de I'algorithme LMS par une quantité dépendante de l'énergie
du signal d'entrée. Si nous multiplions et nous divisons le pas d'adaptation p de l'algorith-
me par la trace de la matrice RNN et nous posons p' = p trace (RNN) , nous obtenons
ainsi une autre forme pour l'algorithme
II en résulte un algorithme de complexité supérieure car il faut calculer l'énergie
du signal d'entrée. L'algorithme à gain normalisé est résumé au tableau 3.2.
Paramètres : N = nombre de coefficients
p = pas du LMS
O < p < 2
Conditions initiales: wN (O) =
Les données: X (n) = vecteur des données à l'entrée à l'instant n
d (n) = sortie désirée à l'instant n
À calculer: mN (PZ + 1 ) = estimé du vecteur des poids du filtre à l'instant n + l
Calcul: Pour n = 0, 1,2, .,,, calculer
e ( n ) = d ( n ) - & ( n ) ~ ( n )
Tableau 3.2 Résumé de l'algorithme NLMS
3.3 Algorithmes RLS
En choisissant d'autres critères de minimisation, nous avons vu à Ia section 3.1.1
qu'il est possible de définir d'autres algorithmes ayant des propriétés différentes. Ainsi, au
lieu de minimiser un critère statistique établi sur l'erreur commise en estimant le signal de
sortie à partir d'une combinaison linéaire du signal d'entrée, nous minimisons, il chaque ité-
ration, la somme pondérée des carrés des erreurs commises depuis l'instant initial basé sur
l'équation (3.21)[25]. Ce critère est défini par les équations suivantes
1 c h"-ie2 ci) 2 E (n) = -
n
où WN (n) est le vecteur des coefficients du filtre au temps n . XN (i) le vecteur des don-
nées de taille N utilisé pour prédire e (i) , y (i) la ernc donnée à estimer, e (i), l'erreur
d'estimation de la f me donnée au temps n , E (n) le critère d'erreur quadratique Zi mini-
miser et h un facteur d'oubli qui permet de tenir compte des non-stationnarités du signal.
Remarque: Les poids du filtre transversal restent fixes pendant l'intervalle d'ob-
servation des données,
La solution du problème des moindres carrés revient à minimiser I'équation (3.34)
en fonction des coefficients du filtre, ce qui revient à égaler la dérivée de l'équation (3.34)
e n fonction de w N (n) à zéro. NOUS obtenons alors l'équation normale classique
avec
Ces équations peuvent se réécrire comme suit
n - 1
RNN ("1 - XN (i) xi (i) + XN (n) XL (n) (3.38)
d'où
En pratique, nous cherchons à remettre à jour les coefficients en minimisant la quantité de calcul et le temps de leurs exécution. Nous pouvons tendre vers cet objectif en utilisant le Lemme d'inversion de matrice [Ml, [45] suivant:
alors
En posant
puis en remplaçant (3.45) et (3.46) dans (3.44) nous obtenons
L'équation (3.46) devient
Le facteur K (n), est appelé gain de Kdman.
L'étape suivante consiste à dCvelopper une équation récursive pour la remise à jour des coefficients estimés wN (n) du filtre. .\ p d r de l'équation (3.35) nous obtenons
La combinaison de (3.50) et (3.41) donne
En remplaçant le CNN (n) de la prcmikre partie du membre de droite de l'équation (3.5 1 ) par (3.47) nous obtenons
Puis avec (3.5 1) nous obtenons
Et enfin, en utilisant l'équation (3.49), nous obtenons le résultat important de la re- mise à jour des coefficients du filtre transversal
Nous préférons écrire (3.54) de cette façon:
mN(n) = mN(n - 1) + K ( n ) - a (n)
avec
* T Le produit scalaire WN (n - 1) - XN (n) représente un estimé de la réponse désirée d (n),
basé sur les anciens estimés des poids du filtre au temps n - 1 . En fait, nous pouvons aussi
se référer à a (n) comme l'estimation a-priori. Les équations (3.46) (3.47) (3.55) et (3.56)
constituent l'essentiel de l'algorithme RLS.
3.3.1 Initialisation de I'algorithme RLS
L'application de l'algorithme RLS nécessite I'initialisation de l'équation récursive
(3.48) en choississant pour CNN (0) une valeur non singulière de la matrice d'autocorré-
lation RNN (n) . En effet à I'initialisation
où les données initiales sont comprises entre -no S i I O et peuvent être nulles. La procé-
dure consiste à modifier légérernent I'expression de Rw (n) sous la forme
où I est la matrice identité et 6 une constante positive très petite. Cette modification affecte
la valeur de départ, mais la récunion n'en est pas affectée. Son effet diminue à mesure que
n augmente. Ainsi à l'instant initial
RNN (n) = 61 (3.59)
Nous devons nous assurer de retrouver comme condition initiale de I'algorithme RLS
Le résumé de l'algorithme qui a été mis en place se trouve au tableau 3.3. -
1 Initialisation de l'algorithme RLS : 1 pour n = O
1 Pour n = 1 à n = dernière valeur, faire
( ( 1) Acquisition de ci (n) , et xN (n) (2) Calculer la prédiction
a ( n ) = d ( n ) -drTN(n- 1 ) .X,(n)
(3) Calculer le vecteur de gain
(4) Remise à jour des poids du filtre
WN(n) = f i N ( n - l ) + K ( n ) - a ( n )
(5) remise à jour de de la matrice d'autocorrélation inverse
C,,(n) = k1 - C N N ( n - 1 ) -A-' K ( n ) -Xz(n) .C,,(n- 1 )
Fin de boucle Tableau 3.3 Résumé de l'algorithme RLS
3.4 Algofithme des moindres carrés rapides
3.4.1 Introduction
L'algorithme des moindres carrés récursifs (RU) permet, en propageant une ma-
trice carrée N x N, de trouver itérativement la solution qui minimise le critère de l'équation
(3.34). Cette solution nécessite un coût en dernière opération arithmétique proportionnel à
A? . Ii faut pouvoir se débarrasser des operations de mise il jour matricielle du RLS respon-
sable de cette complexité. Il s'agit pour cela d'orthogonaliser l'espace d'observation, ce qui
permet alors de calculer des projections orthogonales sans résolution des équations nonna-
les.
F. Michaut [26] montre que la structure en treillis de la prédiction linéaire d'un si-
gnai permet de réaliser cette orthogonalisation de l'espace d'observation. La difficulté à ré-
soudre vient du fait que nous travaillons directement sur les données et donc sur des
matnces de covariance estimées de RNN qui n'ont pas strictement la structure ~ o e ~ l i t z ' .
Elles ont cependant des propriétés d'invariance par décalages qui en font des matrices pro-
ches de Toeplitz.
Les premiers travaux sur les propriétés de rang de déplacement de matrices proches
de Toeplitz ont été développés par Morf [19]. C'est une solution efficace pour la prédiction
des moindres carrés où la matrice de corrélation n'est pas Toeplitz. L'algorithme des moin-
dres carrés exacts vient de Morf et Lee [20]. Falconer et Ljung [21] reconnaissent l'impor-
tance du travail de Morf et appliquent cela formellement pour dériver l'algorithme des
moindres carrés récursifs rapides connus sous le nom de Fast Kalman, de complexité (10
N). En combinant différemment les équations de l'algorithme Fast Kalman, Carayannis,
Manolakis et Kaloupsidis 1231 ont défini l'algorithme FAEST (Fast a posteriori error se-
quential technique ou technique séquentielle rapide d'erreur à postériori) plus symétrique
et qui a de plus I'avantage d'abaisser le volume de calculs par itération. En gardant I'esprit
de l'algorithme FAEST, Cioffi et Kailath [14], pour tenter de diminuer encore le volume de
calcul, ont abordé le problème en utilisant directement le théorème de la projection ortho-
gonale. Cette approche donne un algorithme connu sous le nom de FTF (fast transversal
filter) de complexité (7 N).
Ii existe plusieurs études de synthèse concernant I'obtention des algorithmes des
moindres carrés récursifs rapides. Dans les références [14], [ 171, [26]. [29], nous trouvons
les algorithmes RLS rapides décrits par l'approche géomgtrique. L'obtention de ces mêmes
algorithmes par l'approche algébrique se retrouve dans les références [23], [25], [32].
Les paragraphes suivants montrent l'essentiel du mécanisme des approches géo-
métrique et algébrique des algorithmes RLS rapides généraux qui peuvent être appliqués
aussi bien pour des structures en treillis que transversales. Par la suite, nous nous limitons
aux approches géométrique et algébrique des algorithmes RLS rapides developpés par
' Les matrices Toepliz sont des matrices symdtriques dtfinies positives . C'est A partir de ces propriétés particulières qu'a été développé l'algorithme de Levinson - Durbin qui donna naissance aux structures en treillis [2], [26].
Cioffi et Kailath [Ml. Nous poursuivons par le S m mis en place par Slock et KailaLh 1271, [28] pour répondre aux skrieux problèmes d'instabilité du FT'F.
3.4.2 Approche géométrique des algorithmes des moindres carrés récursifs rapides
La construction suivante est basée sur une approche géométrique parallèle à l'al-
gorithme de Levinson [6], où nous raisonnons sur un espace Euclidien standard H plutôt
que sur l'espace de Hilbert des variables aléatoires de camé intégrable 15 11 en nous inspi-
rant d'Alexander, de F. Michaut et de Cioffi. La demarche consiste à utiliser des propriétés
algébriques simples des opérateurs de projection dans 23, et les propnét6s de décalage re-
liant entre eux les vecteurs de l'espace de projection, afin d'obtenir les relations de récur- rence sur I'ordre et sur le temps des prédictions nécessaires à la mise en oeuvre des
algorithmes récursifs. Après les rappels sur les vecteurs orthogonaux de l'annexe A, l'an-
nexe B détaille I'approche géométrique qui aide à la compréhension des algorithmes des
moindres carrés récursifs basés sur l'approche algébrique. Un résumé des différentes équa-
tions de l'annexe A qui expose I'approche géométrique est présentée ci-dessous.
L'utilisation de la projection orthogonale de l'observation v sur l'espace engendré
par les données nous permet de calculer l'estimation îI comme
où {X (n) } est le sous espace généré par les vecteurs colonnes de X qui représentent les
données. L'opérateur de projection doit être remis à jour à chaque itérations suivant I'ordre
et suivant le temps. Nous obtenons l'équation pour la remise à jour suivant l'ordre
.
où v correspond la nouvelle observation, P { à l'opérateur de projection, { LI, v} cor-
respond au nouvel espace, { U} = (X (n) ) l'espace des données. Pour la remise à jour temporelle nous avons l'équation
où x,, et xq sont respectivement des vecteurs de données de taille p et q , x représente un vecteur unitaire.
L'huation constitue la mise à jour temporelle d'un projecteur orthogonal. Ceci
nous amène à introduire les paramètres angulaires dont l'interprétation est importante.
y, ( n) quantifie le changement angulaire entre I'ancien et le nouvel espace en cours de cal-
cul. Le fait de rajouter une nitme composante modifie l'espace dans lequel nous travaillons.
yu (n) traduit cette évolution qui est très difficile à visualiser une fois passée la troisième
dimension. La dimension de I'espace généré dépend du nombre de coefficients du filtre. Le principe des algorithmes rapides sous sa forme géométrique est beaucoup plus intuitif que
les équations algébriques. Nous recevons à chaque instant une nouvelle composante; il faut
donc pouvoir remettre Zi jour le projecteur orthogonal sur l'ordre dont I'espace vient d'être
modifié par cette nouvelle valeur et orthogonaliser ce nouveau vecteur par Ia remise à jour
temporelle. Ces opérations s'exécutent donc à chaque nouvelle valeur.
Nous avons tout d'abord une première partie d'initidisation où l'espace à N di-
mensions se contmit, puis une remise à jour de cet espace chaque fois qu'une nouvelle va-
leur est prise en compte. Les équations algébriques générales des algorithmes rapides sont
moins intuitives mais nécessaires pour l'implantation pratique sous la forme algorithmique.
3.4.3 Approche algébrique des algorithmes des moindres carrés récursifs rapides
L'approche géométrique décrite ci-dessus permet de mieux comprendre le principe
des algorithmes rapides. L'approche algébrique, plus proche de l'implantation pratique des
algorithmes rapides, dépend de la prédiction avant et rétrograde du gain vecteur encore ap- pelé gain de Kalman et du paramètre angulaire. Un résumé des différentes équations qui
mènent aux algorithmes rapides est présenté ci-dessous avec
Prédiction linéaire avant
-1 où = rl -&(n1lT 9 K~ (n) = R~~ (n) XN (n) selon (3.49) et q N (n) est
avec FN (n) la valeur minimale de la somme des erreurs fN (n) au camé de la prédiction
avant et fN ( n) I'erreur de prédiction avant a-posteriori.
Prédiction linéaire arrière
T avec CN (n) = [-G Cn) où G (n) représente les poids du filtre pour le prédicteur ar-
rière et y,,, (n) l'erreur de prédiction rétrograde a-priori.
avec bN (n) l'erreur de prédiction rétrograde a-posterioriet BN (n) la valeur minimale de
la somme des erreurs bN (n) au carré de la prédiction arrière.
Vecteur de gain
avant: KN + (n) =
arrière: KN+1 ("1 =
Facteur de conversion
[""on'] 3'" BN (n) 'N'")
avec yN (n) le paramètre angulaire et eN (n) l'erreur de l'estimation a-posteriori à la sor-
tie du filtre transversal
Ces équations sont le développement fondamental des algorithmes rapides pour ré-
soudre le problème de l'estimation des moindres carrés récursifs. Trois grandes classes
d'algorithmes peuvent être identifiées (voir figure 3.2).
l'algorithme rapide à filtre transversal qui comprend:
algorithme RLS rapide ("fast Kahan" développé par Falconer et Ljung (1978) [2 11)
algorithme FAEST (développé par Carayannis, Kalouptsidis et Man01 akis 1231)
algorithme FîF (développé par J. M. Cioffi et T. Kailath 1141)
algorithme rapide de prédiction en treillis basé sur le RLS rapide
algorithme des moindres carrés en treillis basé sur une décomposition QR (présenté par Cioffi en 1988 1151)
Par la suite, nous allons nous intéresser plus particulièrement aux algorithmes ra- pides à filtre transversal qui correspondent à la structure développée au chapitre 2.
Wang Tmssel montre, sous réserve d'un choix judicieux des conditions initiales,
que les algorithmes fast Kalmnn, FAEST et FTF sont équivalents et propose dans son arti-
cle [24] l'unification de ces trois algorithmes. Cependant, le choix du FTF est intéressant
car, outre l'utilisation de la projection orthogonale, I'originaiit6 de la méthode FIT est de
proposer une procédure d'initiaiisation exacte pour démarrer l'algorithme.
3.4.4 Algorithme des moindres carrés transversaux rapides FlT et SETF
L'algorithme FTF développé par J. M. Cioffi et T. Kailath 1141 utilise quatres fil- tres (voir figure 3.4) qui sont issues d'une combinaison des équations résumées de (3.69) a (3.80) adaptées pour une structure transversaie. Un résumé présentant I'initialisation et le
Filtre auxiliaire Processus adaptatif dans lequel les poids du filtre
Traitement du filtrage où le signal d'erreur à éte sont remis à jour par produit en réponse à l'estimation appliquée au I'incrémentation des filtre concerné anciennes valeurs
Solution exacte aux problèmes du RLS
Figure 3.4 Représentation du filtre transversal rapide avec ses variables de calcul pour chaque filtre.
régime permanent de l'algorithme sont présentés respectivement au tableau C. 1 et C.2 de l'annexe C.
L'algorithme FïF réalise ainsi la solution exacte des moindres carrés récursifs par
rapport au RLS standard. La complexité de calcul du FïF augmente linéairement avec le nombre de poids du filtre adaptatif comme dans le cas de l'algorithme LMS. Ainsi, l'algo-
rithme FTF offre le meilleur des deux mondes: la propriété de convergence de l'algorithme
RLS et la simplicite de calcul de I'dgorithme LMS.
En résumé le lTF offre de très bonnes caractéristiques:
Une solution rkcursive exacte du problème lineaire des moindres carrés.
Une complexité qui croit héairement avec la dimension du filtre.
Un taux de convergence rapide insensible au conditionnement de la matrice d'autocorrélation du signal d'entrée.
Une évolution temporelle du paramètre angulaire y, encore appelée variable de vraisemblance, qui doit conserver < 1 .
Cependant, une sérieuse limitation du FE est causée par un problème d'instabilité
numérique. En général, le premier type de divergence est détecté quand la variable de vrai-
semblance devient supérieure à 1, ce qui engendre, après quelques ithtions, des valeurs
négatives de cette même variable et la divergence des principales variables récursives.
C'est ce mode de divergence que nous appellons numérique. Il est plus lié à la structure de
l'algorithme qu'à la nature du signal d'entrée. Les erreurs numériques augmentent, au
cours du temps, de manière régulière et non bornée. Le meilleur signal de test est le bruit
blanc qui permet d'écarter le problème, commun à tous les algorithmes des moindres carrés
exact, dû au mauvais conditionnement de la matrice d'autocorrélation du signal d'entrée.
Lorsqu'une précision infinie est utilisée, les différentes solutions de calcul sont identiques
et stables. Même si le problème numénque lié aux nombres finis des caIculateurs avait déjà
été soulevé par Faiconer, Ljung et Morf en 1978 [21], il fut reporté quelques années plus
tard par F. Ling [33] et J.M. Cioffi [14]. En effet, J.M. Cioffi proposa de calculer le gain de
Kalman avec I'algorithme FTF qui est numériquement instable puis de le réinitialiser à
l'aide des paramètres du filtre transversal adaptatif chaque fois que la divergence est détec-
tée. Mais une telle réinitialisation dégrade les performances de l'algorithme.
Par la suite Botto [29], Bellanger 1301 et Benallal[32] introduisent une certaine re-
dondance dans le calcul qui résout partiellement le problème de stabilisation. D'après Slock
[28], la redondance reste la clé du problème du FTF et il faut introduire une boucle de retour
de l'erreur pour résoudre complètement le problème. La première version de cette idée est
présentée dans [27]. Finalement, la solution complète est donné dans Slock et Kailath [28]
qui présente l'algorithme SFTF que nous avons utilisé pour nos simulations.
La description des propriétés de l'erreur de propagation est une tâche très difficile.
Les algorithmes numériques adaptatifs sont récursifs par nature et ils peuvent être vue
d'après Slock et Kailath [28] comme des systèmes dynamiques discrets non linéaires. Soit
8 (n) une quantité qui détermine l'état de l'algorithme. Ainsi, les algorithmes adaptatifs
peuvent être considérés ici en terme de vecteurs d'états sous la forme
Comme I'implantation numérique génère des int5xactitudes dans le traitement ré-
cursif de l'algorithme adaptatif, l'algorithme fonctionnera avec une quantité pertubatrice
6 (n) qui peut être décrite par
où le terme L (n) représente le bruit lié à la troncature numkrique. Si l'algorithme est assez
robuste aux erreurs numériques et que le nombre de bits de codage utilisés est suffisamment
long alors la pertubation
A e (n) = 6 (n) - 9 (n) (3.83)
sera petite. Trois étapes essentielles qui caractérisent les effets des erreurs d'arrondies peu- vent être dégagées [28]
Génération de I'erreur: elle décnt I'erreur qui a 6té générée au cours de la récursivité au temps n .
* Propagation de I'erreur: elle décnt comment l'erreur générée au temps n se propage dans les récursivités ultérieures.
* Accumulation de l'erreur: elle décrit I'erreur accumulée à des temps différents.
La première étape à été étudiée dans [34], [35] et [36] pour différentes implanta-
tions des filtres de Kalman. Dans les articles [22], [27], 1331 et [34] nous retrouvons I'es-
sentie1 de la deuxième étape concernant la propagation de I'erreur. La troisième étape
d'après [28] ne peut pas être complét6e analytiquement.
L'idée du SFTF consiste à utiliser un mécanisme de retour dans l'ordre d'influence
de I'erreur de propagation. Les signaux peuvent revenir en n'importe quel point de l'aigo-
rithme sans perturber le vrai caractère de l'algorithme RLS. La structure spécifique propo-
sée par Slock et Kailath avec l'algorithme du SFTF est résumée au tableau C.3 de l'annexe
C. Le choix particulier de sa structure en boucle fermée permet de stabiliser tous les modes
instables de propagation d'erreur.
Les différences entre une précision infinie et la troncature numérique peuvent être vues comme des signaux de sortie de l'erreur de propagation du système. Nous pouvons
penser les utiliser dans un mécanisme de retour dans I'ordre d'influence de l'erreur de
propagation. Cependant, une importante question se pose: quelle structure de retour
utiliser? En fait, ces différents signaux peuvent revenir en n'importe quel point de
I'algorithme sans pemiber le vrai caractère de l'algorithme RLS étant donné que la valeur
de ces erreurs serait nulle si la précision infinie etait disponible. R existe de multiples
manières d'agir pour modifier les propriétés numériques de l'algorithme sans modifier leur
structure théorique. Nous nous référerons au papiers de Slock et KaiIath [28] et de Benda1
1321. Ces modifications sont possibles grâce à l'existence de la redondance dans les
algorithmes de moindres carrés rapides. Par exemples, il existe deux manières de calculer
l'erreur de prédiction retour. L'une est l'erreur de prédiction a priori rétrograde calculée
directement sur le signal que Slock nomme $(n) (équation (8) du tableau C3 de l'annexe
C), et l'autre (n) est la même erreur cdcuiée à l'aide de la variance retour de la Nème composante du gain de KaIman d'ordre Nt1 (équation (5) du tableau C3 de l'annexe C).
Ainsi, ces deux formes de la même erreur de retour permettent de définir une variable
d'indicateur de divergence théoriquement nulle
Diff (n) = $(n) - (n) .
En pratique, cette variable n'est jamais nulle à cause de la précision finie des ma-
chines utilisées. Diff (n) est fonction des erreurs numériques dans les variables récursives
de retour. Cette variable ne modifie pas la structure théorique de l'algorithme. Par contre,
son introduction en un point quelconque de I'algorithme modifie ses propriétés numén-
ques. La structure spécifique proposée dans [28] qui fait intervenir ces erreurs est réprésen-
tée à la figure 3.5. ixs trois quantités ci) (n) avec i = I 2 '5 agissent grâce aux
équations (6), (9)' (10)' (1 3), (14) et (21) du tableau C.3 de l'annexe C en divers endroit
dans l'algorithme. En utilisant une valeur différente pour la valeur de retour constante de
K nous pouvons dors avoir plus de liberté pour infi uencer l'erreur du système dynamique.
Il faut bien insister sur le fait que la quantité calculée par les algorithmes est indépendante
des Ki si la précision infinie est disponible. La sortie Y (n) de I'erreur du système corn-
prend 3 erreurs de prédiction de retour a-prion théoriquement équivalentes qui sont utili-
sées pour calculer le vecteur de prédiction de retour explicit6 dans les références [28] [29] 1301 et [XI.
La notation entre l'algorithme SFTF et FTF de l'annexe C3 sont légérernent diffé-
rentes. Si nous mettons les Ki = O de l'algorithme SFT'F, nous retrouvons l'algorithme
Filtre estirnt5
RN, n
Signaux d'entrée tN (n)
Erreur de prédiction
Erreur générée -
par le c?i.lculateur Eneur du
Corrections
Figure 3.5 Diagramme bloc de la représentation d'état de l'algorithme SFTF et son sytème d'erreur numérique correspondant. (a)
implémentation de t 'algorithme, (b) système d'erreur d'arrondi
FTF en associant les couples d'équations présentés à la fin de l'annexe C. L'algorithme FTF original avec une complexité (7N) est un cas particulier de celui proposé par Slock en 199 1
[281
3.5 Conclusion
Ce chapitre a permis de voir les différents algorithmes adaptatifs qui peuvent inter-
venir pour une structure transversale du modèle d'identification du chapitre 2. Les caracté-
ristiques importantes des algorithmes adaptatifs sont la rapidité de convergence, la
complexité de calcul par itération et la stabilite. Le FTF détient la palme d'or pour le coût
de complexité le plus faible avec 7 N, mais il est exponentiellement instable. Une certaine
redondance nous permet d'avoir un contrôle sur l'erreur générée par la troncanire numéri-
que. L'asservissement de I'eneur se fait à l'aide du SFïF dont la complexité de (8 Ai) ce
qui en fait, actuellement, le plus performant des algorithmes stables.
CHAPITRE
Nous avons jusqu'a présent développé la partie traitant du canai de transmission et du traitement adaptatif respectivement au chapitre 2 et 3. L'intégration sur ordinateur de ces
notions a produit le simulateur Simadap qui est présenté au cours de ce chapitre. La convivialité du simulateur permet une modification simple de tous les paramètres
importants de la simulation à différents stades de calcul et permet l'affichage des données
simulées. Nous débutons la présentation par les concepts de base du simulateur. Nous
traitons ensuite des opérations de simulation et de l'affichage des données. Enfin, un
résumé des programmes qui ont servi à construire le simulateur termine ce chapitre.
4.1 Concepts de base
4.1.1 Définition
Le simulateur Simadap génère, à partir d'une banque de paramètres modifiables et
de programmes exécutables, toutes les données nécessaires ik l'affichage des caractéristi-
ques d'un système d'identification lintaire. L'identification directe se fait à partir d'une
structure transversale.
4 1 Caractéristiques
Simadap permet de générer le canal de transmission sur mesure correspondant aux
tests que nous voulons effectuer avec les algorithmes adaptatifs pour une stmcture trans-
versale. L'accès aux paramètres tels que Le nombre de trajet, le signai d'entrée, le bruit à la
sortie du canal de transmission, le facteur d'oubli, les affichages des données aux différents
points important de la structure sont quelques-unes des flexibilités de Simadap.
4.1.3 Accéder à Simadap
Les fichiers et les répertoires qui constituent le simulateur se trouvent dans le fi-
chier sirnadap . t a r . Z sous forme compressée. Pour récupérer le contenu s ima-
dap . tar . 2 un répertoire de votre choix doit être crée sur un compte Unix puis exécuter
la commande suivante:
samaqua% zcat sintadap-tar.2 1 tar -xvf -
Une fois décompressé, le fichier s tartup . m contient les répertoires qui seront
accessibles sous Matiab. II faut faire attention que ceux-ci n'entrent pas en conff it avec le
fichier s tartup . m déjà existant. Une fois que ceci est mis en place, il ne reste plus qu'à
exécuter le fichier simulateur . m dans une fenêtre de commande MatIab
samaqua% rlogin nat
samaqua% setenv DISPLAY samaqua:O
samaqua% rnatlab
* * Simu1ateur.m: Système d'identification
* 13/11/95 G. Le Pemp - Université Laval * version 1.3 (C) copyright
* * ***************************************************** chargement de la fenêtre principale
Nous obtenons ainsi la fenêtre principale de simulation à la figure 4.1.
Figure 4.1 Présentation générale du simulateur réalisée à l'aide du logiciel Matlab (aucune simulation réalisée)
4.1.4 Quitter Simadap
Il suffit d'appuyer sur le bouton Fin de simulation
4.1.5 Écran de Simadap
Lors de la première mise en fonction du simulateur de la figure 4.1. différents bou- tons et menus n'étaient pas disponibles comme nous pouvons le voir maintenant à la figure
4.1. En effet, certains affichages ne sont pas permis si aucune simulation n'a tté réalisée.
L'Ccran dont nous disposeons propose les menus et les boutons interactifs en gris et le texte permettant la compr6hension de Sirnadap en blanc. Voici la signification des composantes grisées de la fenêtre de travail principale de la figure 4.1.
Figure 4.2 Présentation générale du shulateur réalisé à l'aide du logiciel Matiub
4.1.6 Barre des menus
Simulation
Paramètres
Utilitaire Fenêtres
Aide
Sinié à I'extr&nité supérieure gauche de l'écran, ce menu exécute les simulations afin de générer Ies données pour la construction et pour l'identification du canal à l'aide des algorithmes adaptatifs. Ce menu, situé à coté de l'item précédent, lance les procédures qui permettent de modifier les paramètres de la simulation. Ce menu permet l'aide de la manipulation des données. Ce menu visualise Ies fenêtres actives et permet de les s6Iectionner. Ce menu situé en haut à droite de la barre appelle une fenêtre d'aide sur le simulateur.
4.1.7 Items versant à 19a€fichage
Affiche X(t)
Bruit
Affiche Y(t)
SNR0:OdB
Affiche H
Afîwhe E(t)
Affiche W(t)
Ce bouton situé en haut 2 gauche affiche le signal d'entrée du canal. Ce bouton génère une interface graphique de l'utilitaire de visualisation du bruit du système d'identification.
Situé en haut iî droite, ce bouton affiche le signal de la sortie du canal.
Situé au dessous du bouton précédent, il permet de modifier le rapport signal à bruit entre le signal et le bruit de sortie du canal de transmission.
Ce menu d6roulant permet I'accès à l'affichage des caract6ristiques du canal de transmission.
Ce menu déroulant pexmet I'accès à l 'fichage de l'erreur entre le signal de sortie Y(t) et le signai estimé Y l(t). Situé au bas de la fenêtre, ce menu déroulant donne accès à la visualisation des poids du filtre.
Itération:5000 Placée en bas à gauche, elle peut être modifiée pour agir sur le nombre d'itérations de la simulation.
U n W L'action sur ce bouton génère deux boutons qui se substitue à Un W et rend possible l'affichage d'un poids en particulier. II suffit d'appuyer sur Tous W pour revenir au bouton Un W.
4.1.8 Fonction d'aide
Nous pouvons accCder à la fonction Aide en tout temps en cliquant sur la barre du
menu Aide dont la fenêtre est représentée à la figure 4.3. Deux sous-menus, dont Menu
principal introduit le fonctionnement général du simulateur et Questions-réponses qui
présente les principales réponses aux questions courantes que peuvent se poser les utilisa-
teurs du simulateur Simadap.
4.2 Les opérations de simulation et l'affichage des données
4.2.1 Signal d'entrée
La procédure suivante doit être utilisée à chaque fois que nous désirons genérer un
signal d'entrée et le visualiser.
Figure 4.3 Vue d'un des menus d'aide qui est généré avec Matlab
1 - Choisir le menu Paramètres de la figure 4.1 puis le sous-menu Signaux illustré à la figure 4.4 pour faire apparaître la fenêtre de modification des paramètres du signal de la figure 4.10.
1 fonction de trahfert 1
1 bruits 1 1 adaptation 1
Figure 4.4 Menu Paramètres de la fenêtre principale
2 - Modifier à volonté les paramètres de l'éditeur de texte lié au signal représenté à la figure 4.10.
Signal 1 pour la sinusoïde et 2 pour le PCM ('pulse code modulation" ou modulation codée pulste)
Amplitude Amplitude de la sinusoïde fs Fréquence du signal fe Fréquence d'échantillonnage du signal choix 1, 2 ou 3; déterminent la forme de la distribution de la
densité de probabilité de la pondération de genération du
0 - SICnAL IIKRIIIK;E ( c t c l mste valablc s'Il exlste dtjr un slgnr l catcul t dans l e f ichfer slnon l e p rograre gtnert uni erreur.) 1 - SINUSofDE 2 - Pcll 3 - BRUIT-CNISSIEN
t ~ T a H T i ~ t t r e b r u l t e n t n t l r du f l ch ie r b r u k d r t
a q l i tudt r 3 f s =*O00 f e = 10000
caracr t r is t f que du PCn(2)
1 -D aucune ponderation 2 -* ponderatton unl fomt 3 -* pondercitlon grussiennt 4 -> pondtration de raylejgth s -* pondtration de r i c t
choix - 3 s t tdpc i = 460
ca racter(stique du bruit gaursitn(31
Figure 4.5 Vue du fichier des paramètres 13 signal ' 'entrée
PCM pour modifier les caractéristiques pseudo-aléatoires du signal.
seedpcm Modifie la valeur initiale servant à initialiser la séquence pseudo-aléatoire du signal.
3 -Pour lancer la simulation du signal, choisir !e menu Simulations de la figure 4.1 puis le sous-menu Signai X(t) illustré B la figure 4.6.
4 - Appuyer sur Affiche X(t) de la figure 4.1 pour visualiser le signal d'entrée. L'exemple d'une sinusoïde est prtsenté à la figure 4.7.
Figure 4.7 L'allure de la densité spectrale de puissance du signul d'entrée X(t) à l'aide de La touche Sxr qui a été calculée à 2 'aide du périodogrumme moyenné
1 Fonctionde transfert H(t) 1 Signal de sortie Y(t)
1 Ensemble du canal 7
1 Algorithme LMS 1 1 Algorithme RLS 1
Monte Carlo RLS
1 Monte Carlo SFTF 1 Figure 4.6 Menu Simulations de la fenêtre principale, Signal X(t)
Nous pouvons agir sur la présentation du signal en utilisant les boutons de contrôle
à droite de la figure. Nous pouvons ainsi observer le signal sur une échelle linéaire ou lo-
garithmique et afficher sa fonction d'autocorrélation. La méthode du périodogramme
moyenné à été utilisée pour la visualisation de la densité spectrale avec Sxx. Il est bien en-
tendu qu'une FFI' aurait été suffisante pour ce signal déterministe.
4.2.2 Canal de transmission
Nous devons utiliser la procédure suivante à chaque fois que nous désirons générer
le canai de transmission et le visuaiiser.
1 - Choisir le menu Paramètres de la figure 4.1 puis le sous-menu fonction de
transfert et bruit, comme il est illlustré à la figure 4.8 pour faire apparaître la
fenêtre de modification de la fonction de transfert et du bruit à la sortie du canal
de transmission,
1 signaux I 1 bruits 1 ( adaptation 1
Figure 4.8 Menu Paramètres de la fenêtre principale, fonction de trangerî
2 - Modifier à volonté les paramètres de I'éditeur de texte lié à la fonction de trans-
fert et au bruit représentés respectivement à la figure 4.9 et 4.10.
f i c h l t r d ' i n i t i a l i s r t i o n der t r a j e t s
i t e r a t l o n - ZOO0 garde-fou - î##00 nocbres,trrjtts = i
I n t e r p o l r t i o n œ 4 in terpo la t lon<n) -* on i n s e r t 3 va leurs ( c f e x t q l e l c i dessous) d i w n s i o r l f c h = 0 diwnsionC0) -D f i c h l e r i n t t i p o l e de d l w n s i o n f l x c
ua r tab le I c o e f f i c i e n t I c o e f f l c f en t 1 c o e f f i c l t n t 1 I quadrr t lque I I l n e r i r e I constant 1 I Cd) I Ce) I CO I 1
TAU 1
I 1
cotf-tau0 = C O O coef-tau* =
= 3 C O O
cotf,truZ = 50 1
O O 32 > coef-tau3 = C O O 32 >
I c o e f f i c i e n t I c o e f f i c i e n t l coe f f i c i en t I I qurd t r t i que 1 l i n e r i n I constant I I (1) I (b) I CC) l I 1 I AWLITUDE l
coe f ,a~ l i tudeo = C O O î O
1 coef-amplitudel = C O coef,mplitude2 = € O O
10 3 0.s 3
coef-amplitude3 = i O O
I f n t e r n t p t i o n I f n t t r r u p t i o n I I ruant l r r r l e r c I 1 <cw) 1 (car) 1
cotf-coupure0 = i O O t r a j e t t C O ~ ~ , C O U ~ U ~ ~ ~ * € O O 1 t r a j e t 2 c o t f , ~ o u p u r e 2 = € O O t r a j e t 3 coef,coupun3 = i: O O t r a j e t 3
excrp le1
t r a e t 1 t r a j e t ii t r a j e t 3 t r r j e t 3
t r a j e t i t r r j e t 2 t r a j e t 3 t r a j e t 3
r r r j e t o r l g l n a l M 24 28 ... t r a j e t l n t t r p o l e ( 3 1 M #I 20 ?in 24 24 24 24 28 28 28 a...
Figure 4.9 Fichier des paramètres de la fonction de transfert du canal de transmission
itération Nombre d'itérations pour lequels nous voulons réaliser la simulation
garde fou Borne sup6rieure de la limitation du nombre d'itérations nbre de trajetsspécifie le nombre de trajets dont nous voulons tenir
compte pour la simulation interpolation Permet de garder les caractéristiques du canal identiques
pendant un nombre d'itérations indique par cette variable bruit sortie Choix 1.2 ou 3 de la forme de la distribution de la densité
de probabilité de la pondération apportée 2 la sortie du canal.
seedbruit sortieDétemiine le début de la séquence pseudo-aléatoire de la
Figure 4. IO Vue du fichier de données du bruit utilisé par ie programme
génération du bruit moyenne sortieDétermine la moyenne statistique du niveau du bruit. SNRO Permet d'ajuster le niveau du rapport signal à bruit à la
sortie du canal de transmission (vérifier si c'est en DB ou linéaire)
3 - Pour lancer la simulation du canal de transmission, choisir le menu Simulations (figure 4.1) puis le sous-menu Fonction de transfert H(t) illustré à la figure 4.11,
Figure 4-11 Menu SNnulation de la fenêtre principale, fonction de trawert H(t)
4 - Nous pouvons, si désiré, visualiser la fonction de transfert du canal de transmis- sion en choisissant une des options du menu déroulant Atncbe H.
4.2.3 Signal de sortie
Il faut pour générer et visualiser le signai de sortie avoir complété les procédures
des paragraphes 4.2.1 et 4.2.2.
1 - Choisir le menu Simulations de la figure 4.1 puis le sous-menu Signal de sortie
dont I'interface graphique est semblable à la figure 4.12. Un raccourci avec le
sous-menu Ensemble du canai permet de générer le signal, la fonction de trans-
fert et le signai de sortie. Il est bien entendu que les différents paramètres doi-
vent être correctement choisis.
Fonction de transfert H(t)
1 Algorithme LMS 1 1 Algorithme RLS 1
Algorithme FTF
( Monte Car10 FïF 1 Figure 4.12 Menu Simularion de la fenêtre principale, signal
de sortie Y(t) ou ensemble du canal
2 - Appuyer sur Affiche Y(t) de la fenêtre principale (figure 4.1) pour visualiser le signal de sortie du canal de transmission.
Nous pouvons de la même manière que la procédure de la section 4.2.1, agir sur la
présentation du signal.
4.2.4 Utilitaire de la visualisation du bruit
Cet utilitaire vise à établir l'histogramme, la fonction d'autocorrélation du bruit à
I'entrge et à la sortie du canal de transmission ainsi que l'état de corrélation entre le signal
d'entrée et le bruit à la sortie.
1 - Choisir le bouton Bruit de la figure 4.1 pour faire apparaiAtre la figure 4.13
ci-dessous,
Figure 4.13 Interfiace graphique de l'utilitaire de visualisation du bruit du système d'identification
2 - En sélectionnant les différents items de cette fenêtre, nous sommes en mesure d'afficher les caractéristiques des différents bruits qui agissent sur le système d'identifica- tion dont les histogrammes qui sont représentés à la figure 4.14.
Figure 4.14 . a) Histogramme d'un bruit à Z 'entrée du canal dont la probabilité est unifonne. b) Histogramme d'un bruit
à la sortie du canal dont ia probabilité est gaussienne
4.2.5 Simulation des algorithmes adaptatifs
Nous devons utiliser la procédure suivante pour calculer les poids du filtre adapta- tif. Ceci ne peut se faire que si les procédures des sections 4.2.1'4.2-2 et 4.2.3 ont été ef- fectuées au ~réalabie.
lustré tifs".
choisi
1 - Choisir le menu Paramètres de la figure 4.1 puis le sous-menu adaptation, il- à la figure 4.15, pour faire apparaftre la fenêtre "adaptation des algorithmes adapta-
1 fonction de transfert 1 1 signaux I 1 bruits I
Figure 4.15 Menu Paramètres de la fenêtre principale, adnp ta tion
2 - Modifier ii volonté les paramètres d'adaptation en fonction de l'algorithme représentée à la figure 4.15.
Figure 4.16 Vie de la fenêtre Matlab des parmètres agissant sur les algorithmes
Pas Valeur de pas de l'algorithme LMS pas conseilié Pas conseil16 pour l'algorithme LMS bas6 sur le calcul de
2 puissance totale du signal X(t)
lambda Facteur d'oubli pour 1' algorithme R U delta Valeur initiale pour l'algorithme RLS
lambda ftî Facteur d'oubli pour l'algorithme FïF
EO Valeur initiale pour l'algorithme FE calculée comme
EO = nombre de poids du filtre puissance de X(t) 100
EO conseillé Cette valeur EO conseillée est basée sur I'équation 4.2
3.1 - Pour lancer une des exécutions avec I'un des algorithmes adaptatifs, choisir
le menu Simulations de la figure 4.1 puis le sous-menu Algorithme LMS, AI-
gorithme RLS ou Algorithme FTF illustrt5 à la figure 4.17.
1 Signal de sortie Y(t) 1 1 Ensemble du canal 1
1 Monte Carlo LMS 1 Monte CarIo RLS
1 Monte Carlo FTF 1
Figure 4.17 Menu Simulation de la fenêtre principale, algorirhrne
3.2 - Pour lancer plusieurs fois la même exécution pour moyenner les résultats avec
les entrées et le bruit aléatoire modifiés à chaque passage, choisir le menu Si-
mulation de la figure 4.1 puis le sous-menu Monte-Carlo LMS, Monte-Carlo RLS ou Monte-Carlo FTl? illustré à la figure 4.18.
4.2.6 Visualisation de l'erreur quadratique
L'erreur entre le signal à la sortie du canal du filtre adaptatif en fonction des diffé-
rents algorithmes adaptatifs utilisés peut être visualisé par la procédure suivante.
1 Signai de sortie Y(t) 1 Ensemble du canal I l l
/ Aigorithme RLS I 1 Algorithme FïF 1
Figure 4.18
PROCÉDURE
Menu Simulation de la fenêtre principale, Monte- Carlu
1 - Choisir un des trois articles du menu déroulant Affiche E(t): de la fenêtre prin- cipale illustrée à la figure 4.19 pour obtenir la fenêtre de la figure 4.20.
1 Affiche E(t): lms o 1
1 Affiche E(t): sftf o 1 Figure 4.19 Menu déroulunt pour la visualisation de l'erreur quadratique
Nous pouvons agir sur la présentation de la fenêtre de visualisation illustrée à
la figure 4.20. Nous pouvons ainsi observer l'erreur sur une échelle linéaire ou logarithmi-
que, et effectuer un agrandissement d'une zone de la courbe sélectionné à l'aide de la sou-
ris. Nous avons, pour I'algorithme S m , la possibilité de visualiser la variable d'indicateur
de divergence en sélectionnant le bouton P.E..
4.2.7 Visualisation des coefficients W, du filtre adaptatif
Les coefficients du filtre adaptatif en fonction des différents algorithmes utilisés
peuvent être visualisés en utilisant la procédure suivante.
Itérations Figure 4.20 Fenêtre du signal d'erreur pour l'algo~rhme FTF pour une configuration panicuiière du canal avec un bruit blanc à l'entrée
de celui-ci PROCÉDURE
1 - Choisir un des trois articles du menu dCrouIant Affiche W(t): de la fenêtre pnn-
cipale illustrée à la figure 4.19 pour obtenir la fenêtre de la figure 4.22
1 Affiche W(t): Ims o 1 1 Affiche W(t): rls o 1 1 Affiche W(t): sftf o 1 - - . - - - - - -
Figure 4.21 Menu déroulant pour la visualisation de l'erreur quadratique
Nous pouvons agrandir une partie de la fenêtre de visualisation illustrée à la figure 4.22 en sélectionnant une zone du graphique avec la souris.
Figure 4.22 Fenêtre des poids W du filtre adaptatf pour l'algorithme FTF pour la même configuration que la figure 4.20
4.2.8 Aide à la manipulation des données
L'aide apportée au sujet du simulateur Simadap peut ê a obtenue en utilisant la procédure suivante.
1 - Choisir le menu Utilitaires
Figure 4.23 Menu Utilitaires de la fenêtre principale
2 - En sélectionnant le sous-menu efface les fichiers des coeff W du disque ou fer- mer les fenêtres, nous pouvons respectivement libérer l'espace du disque rela- tif aux poids du filtre une fois la simulation terminée ou effacer toutes les fenêtres Matlab actives à l'exception de la fenêtre principale.
4.2.9 Visualisation d'une fenêtre active
Cette procédure vise à sélectionner une fenêtre active.
1 - Choisir le menu Fenêtres de la figure 4.1 et le sous-menu d'une des fenêtres désirées illustré à la figure 4.24 pour la ramener sur le devant de l'écran.
Figure 4.24 Menu Fenêtres de la fenêtre principale
4 m 2 m 1 0 Fenêtres de mise en garde
Les mises en garde identifiées par les fenêtres "waniing dialog" qui apparaissent
en @s comme à la figure 4.25 ci-dessous ne pas sont critiques pour le déroulement de la
simulation. Seules les fenêtres d'emun "error dialog" peuvent gén6rer des problèmes d'af-
fichage et d'exécution des fonctions si nous n'en tenons pas compte.
Figure 4.25 Exemple de fenêtre de mise en garde qui peur apparaître lorsque nous manipulons les cadres de
contrôle
4.3 Résumé de la procédure de simulation et d'affichage
Les principales étapes vues précédemment sont résumées par la figure 4.26 ci-des-
sous. Nous retrouvons les trois fichiers de données (signaLdat, bruit-dat,
données-trajet.dat) que nous pouvons éditer et modifier à volonté. Ces fichiers agissent
respectivement sur les conditions de simulation de signal, convolution etfi. Nous avons au
même titre que les trois fichiers de données une fenêtre d'adaptation sous Matlab qui per-
met de modifier les variables associées aux algorithmes adaptatifs (LMS, RLS, S m ) .
Avec les données générés par signal etfi nous pouvons afficher respectivement le
signal x ( t ) h ( i ) et effectuer la convolution entre le signal et la fonction de transfert du ca-
nal de transmission. Les données générés par la fonction convolution permettent la simula-
tion d'un des algorithmes adaptatifs (LMS. RLS, FF). Les données générés par les
algorithmes permettent l'affichage de leur erreur quadratique et de leurs coefficients res-
pectifs.
4.4 Description des programmes
Nous avons deux types de programmes:
Le langage C pour la génération du canal Matlab pour la génération des algorithmes adaptatifs et l'utilitaire
affiche E(t) et W(t) affiche E(t) et W(t) affiche E(t) et W(t) pour le LMS pour le RLS pour le FTF
Figure 4.26 Étapes à suivre pour faire fonctionner le simulateur correctement
graphique Les programmes qui sont associés aux diverses fonctions sont identifiés dans la
sous section qui suit.
4.4.1 Génération du canai
Nous retrouvons les exécutables:
signai:
signa1.c: cette fonction génère les différents signaux (sinusoïde, PCM, gaussienne) bruit-c: cette fonction de signal génère le bruit gasdev.~: cette librairie permet de génèrer un bruit gaussien ran.c: cette librarie géntre une variable aléatoire ayant une distribution uniforme
ft:
ft.c: Cette fonction permet de calculer le canal de transmission en tenant
compte des fichiers ci-après. test_coupure.c: ce programme utilitaire permet de tester si les coupures avant et arrière fiés au fichier de donnée sont valables caIcuI-ft.c: ce programme permet le calcul de la fonction de transfert pour chaque trajets. calcul-m.c: ce programme permet de calculer la valeur maximale que prendra le retard initialisation-c: ce programme permet d'associer les variables contenues dans le fichier donnees-trajetsdat aux variables du programme sans passer par les scanfO classique.
convolution:
convo1ution.c: cette fonction permet de réaliser la convolution entre le signal et la fonction de transfert du canal de transmission
4.4.2 Génération des algorithmes adaptatifs
Nous retrouvons les fichiers Matlab:
1ms.m: algorithme des moindres camés moyens r1s.m: algorithme des moindres carrés récursifs ftf.m: algorithme du filtre transversal rapide stabilisé ( S m
4.4.3 Génération de l'interface
On doit retrouver les fichiers suivants:
adaptation-m: génération de la fenêtre adaptation b-init-m: manipulation des boutons reliés à l'adaptation calcul-ad.m: calcul de la variable EO identif-m: programme de la fenêtre principale simulateur-m: programme appelé au début de la simulation initialisation.m: initialkation des boutons et remise à jour des valeurs sur la fenêtre principale bruit-m: génération de la fenêtre bruit
abscisse.m: gestion de l'abscisse en fonction du type de figure à afficher Mm: fonction qui exécute l'algorithme stabilisé du FIT IectW-fKm: cette fonction permet l'affichage des données produites par l'algorithme d' identification du lectW-r1s.m: cette fonction permet l'affichage des données produites par
l'algorithme d'identification du R I S lectW-1ms.m: cette fonction permet l'affichage des données produites par I'algorithme d'identification du LMS 1ms.m: fonction qui exécute l'algorithme LMS r1s.m: fonction qui exécute I'algorithme RLS 1ectad.m: fonction qui permet d'afficher l'erreur entre la sortie du canal et la sortie du filtre adaptatif 1ectbmitentree.m: affiche le bruit à l'entrée du canal de transmission lectbruit-sortie-m: affiche le bruit à la sortie du canal de transmission 1ectft.m: affichage des données du canal de transmission lectsignaLm: affichage du signai à l'entrée du canal de transmission 1ectsortieY.m: affichage du signal à la sortie du canal de transmission Xcom-Xbs.m: fichier de calcul de I'intercorrélation entre le signal le bruit d'entrée et de sortie
4.6 Conclusion
Dans ce chapitre nous avons présenté le simulateur Simadap qui gère les dif-
férentes exécutions des programmes et la visualisation des données. Nous avons présenté
les concepts de base pour accéder et trouver les principales boîtes de dialogues du logiciel.
Les opérations de simulation et l'affichage de données effectués par Simadap ont été pas- sées en revue dans l'ordre chronologique où les boîtes de dialogue doivent être sollicitées.
Un résumé des procédures de simulation et une description des programmes en annexe per-
mettent à l'utilisateur de voir où les programmes agissent dans le cycle des simulations.
CHAPITRE
SIMULATIONS ET RÉSULTATS
Nous présentons dans ce chapitre des résultats de simulation produits avec le simulateur
Sirnadap présenté au chapitre 4. Nous parlons tout d'abord des signaux utilisés pour la
simulation puis nous nous assurons ensuite de la stabilité à long terme de l'algorithme SFïF. Après cela nous observons le comportement des algorithmes LMS et SFTF pour un canal
stationnaire avec des réponses impulsionnelles courte et longue. Enfin. nous introduisons des
coupures brusques dans le canal pour vérifier l'efficacité de poursuite de I'aigorithme SFTF.
5.1 Les signaux utilisés pour la simulation
Les deux types des signaux que nous avons employés pour réaliser les simulations sont
le signal PCMl et le PCM2. Le signal gaussien sert souvent de rgference pour le traitement
adaptatif du signal, son riche contenu fréquenciel et le bon conditionnement de sa matrice d'autocorrélation permettent aux algorithmes adaptatifs de jouir de conditions idéales. Le signal PCM 1 est construit à partir d'une gaussienne à laquelle nous fixons un seuil à 1 pour les
valeurs positives et -1 pour les valeurs négatives. Nous utiliserons le signal PCMl dont la
densité spectrale est illustré à la figure 5.19 a). Ce signal riche en fréquence offre un bon conditionnement de la matrice d'autocorrélation du signal et du spectre en fréquence. Le PCM2 est généré aléatoirement it partir de la gaussienne tout comme le PCM 1. En effet, nous gérons
tout d'abord une gaussienne qui nous donne une suite de nombre réel comprise entre O et 1.
Nous fixons un seuil pour générer soit des 1 ou - 1. Cela nous donne un signal
moins riche en fréquence pour influencer le conditionnement de la matrice d'autocorrélation du
signal d'entrée. Le spectre de PCM2 est représenté à la figure 5.19 b).
Fréquence
1 O-'
Fréquence
Figure 5.I9 Allure de la densité spectrale du signal d'entrée a) PCMZ et b)
5 2 Stabilité de l'algorithme SFTF'
Nous présentons dans cette partie quelques-unes des nombreuses simulations qui ont
été effectuées pour s'assurer de la stabilité à long terme de l'algorithme S F P qui a été m i s en
place. La variable indicatrice de la divergence, Diff, definie au chapitre 3 à IYquation (3.84)'
nous permet d'observer et de prévenir I'instabilite de I'dgonthme S m .
Les simulations sont effectuées en virgules flottantes dont la précision des variables est
respectivement IO-' et 10-l~ pour les programmes fonctionnant en C et sur Matlab.
Figure 5.20 Diff du SFTF pour un cas de divergence h > 1 - 1 / (pN) (a) bruit b h c à l'entrée de variance 0.5, N=256, SNRO=3 dB, k = 0.996, H(Z) = z~~~ (b) bruit blanc d L'entrée de variunce 0.5, N=256. SNRO=3 dB, = 0.995, H(Z) = z2"
La valeur de Diff qui a été prise pour l'afichage est calculée selon
où $f (I) et $ (T) représentent respectivement l'erreur de prediction a priori du retour cal-
culée directement sur le signal et la même erreur mais cette fois-ci sans redondance. Cette forme
est plus facile à visualiser. La divergence a lieu lorsque la variable Diff augmente continuelle-
ment en fonction des itérations. L'algorithme n'est pas capable à ce moment-là d'asservir I'ac-
cumulation de l'erreur numérique. Le facteur d'oubli pour le S F P se calcule en général [32].
[48] par la relation suivante
où p > 2 et N représentent le nombre de coefficients du filtre adaptatif. Les différents
graphiques de la variable Diff, pour différentes fonctions de transfert du canai de transmission,
sont illustrés aux figures 5.20,5.21 et 5.22.
Nous remarquons sur la figure 5.20, que I'algorithme diverge autour de 1800 itérations
pour un facteur d'oubli de 0.996 et autour de 11000 itérations pour un facteur d'oubli de 0.995.
Ceci est dû à la contrainte trop forte sur I'aigorithme SFïF liée un facteur d'oubli en dessous
de la limite de la stabilité. L'algorithme SFTF diverge longtemps après le début de la simulation,
dors que l'algorithme FiF classique diverge très rapidement autour de la première centaine d'itérations d'après des simulations réalisées par Cioffi 1141 et Benaiid [32]. Les figures 5.21 et 5.22 montrent la stabiIité de l'algorithme sur 40000 itérations; les conditions de simulation sont
indiquées sur chaque figure.
Figure 5.21 Dzrdu SFTF (a2pn<ir b h c ù l'entrée de varionce 0.5 , N=Z56, SNRO=lO dB, h = 0.999. H# = Z ', (6) RE. du SFTF Enfrt?e PCM, N=256, SNRO=I0 dû, Â. = 0.999. H(Z) = Z-
Figure 5.22 Dzrdu SFTF (a) bruit b h c à entrée de varionce 0.5 , N=256. SmO=IO dS, h = 0.999, H(Z) = I + l . 6 z1 -0.9522 (f) bruit biànc à l'entrtfe de variance 0.5, N=256, SNRO=IO dB. h = 0.999. H(Z) = I + I Z -0.4 z2
53 Comportement du LMS et du SFTF pour un canal stationnaire
53.1 Considérations généraies
Plusieurs articles concernant la performance des algorithmes des moindres carrés et du gradient stochastique existent dans la littérature (1461, [47]) de même pour les algorithmes du type du gradient stochastique 1491 et, pour les algorithmes des moindres carrés B oubli
exponentiel [50]. Nous rappelons ici les principes concernant les algorithmes des moindres
carrés à oubli exponentiel k .
La constante de temps d'un algorithme adaptatif est par définition le temps, en nombre d'itérations, que met I'algorithme adaptatif pour atteindre la fonction de transfert à identifier.
R existe un conflit entre la vitesse de convergence dans le cas de la poursuite et la précision d'un algorithme adaptatif. Nous aurons toujours à faire un compromis entre une erreur
résiduelle faible (A proche de 1) et une meilleur vitesse de convergencecapacité de poursuite ( h faible devant 1). Des valeurs de h optimisant ce compromis sont calculées dans la référence
[49]. Notons qu'en général les valeurs optimales de h conduisent à des algorithmes rapides
numériquement instables.
Nous observons dans les paragraphes suivant, la vitesse de convergence des algorithmes LMS et SFïF pour une entree PCMl et une entrée PCM2 pour un canal
stationnaire. Les connaissances a prion du canal nous permettent facilement d'optimiser au
mieux le choix de certains paramètres.
Le contrôle sur le canal acoustique nous permet d'effectuer des simulations avec une
réponse impulsionnelle courte et longue du canal de transmission. Nous utiliserons un indice de performance utilisé en identification de canaux [32]
- - où I? (n) et 9 (n) représentent respectivement l'énergie de l'erreur de filtrage normalisée par celle du signal à modéliser moyennée sur plusieurs centaines de séquences consécutives.
Les deux séries de simulation ont été effectuées avec un canal dont la longueur de la
réponse irnpulsionneile est respectivement N c 30 pour le canal court et N > 150 pour le canai
long.
Tableau 5.3 Condition de simulorion des algorithmes adoptatifs pour un canai stationnaire
simulations
Figure 5.23
Figure 5.24
Figure 5.25
Condition de simulation des algorithmes
H ( Z ) = o . ~ - z - ' + o . ~ = z ~ + o . ~ * z * + o . ~ OZ-'
Moyennage sur 300 séquences d'échantillons
Entrée PCM 1, N = 10, conditionnement de RNN (n) = 1.8 Rapport signal à bruit de 5 db Facteur d'oubli RtMS = 0.4, hFTF = 0.95 EO = 0.1
Moyennage sur 300 séquences d'échantillons
Entrée PCM 1, N = 10, conditionnement de RNN (n) = 1,8
Rapport signal à bruit de 5 db
Facteur d'oubli hLMS = 0.08 , hSmF = 0.95 EO = 0.1
Moyennage sur 300 séquences d'échantillons
Entrée PCM 1, N = 23 1, conditionnement de RNN (n) = 15
Rapport signal à bruit de 5 db
Facteur d'oubli iM = 0.05, LsFTF = 0.99 EO = 0.1
5.3.2 Performances du SFTF et du LMS pour un canal stationnaire pour une réponse impuisiomelle courte
Nous avons illustré quelques simulations afin de voir le comportement du LMS et du
SFTF pour un canai de transmission fixe avec une réponse impulsionnelle courte dont la
fonction de transfert est
Nous avons réalisé des simulations pour des valeurs de pas différents de I'algonthme
LMS ( h = 0.2 et h = 0.05 ). Les deux séries de simulations se retrouvent aux figures 5.23 et 2 5.24. L'erreur quadratique e (n) et l'indice de performance IP sont illustrés respectivement
aux figures 5.23 c), 5.24 c), 5.23 d et 5.24 d).
Nous notons tout d'abord une emeur résiduelle plus faible quand le pas du LMS diminue. Nous constatons d'autre part, que les performances du SFïF sont supérieures à celles de l'algorithme LMS. Ce qui est normal dans la mesure où le canal acoustique de transmission
est fixe. En effet, pour un canal stationnaire fixe nous avons intérêt B avoir un facteur d'oubli
proche de l'unité pour que les échantilIons passés participent ii I'estimation de la fonction
d'autocorrélation du signai d'entrée.
Figure 5.23 Réponse impuLFioMelle étroite du canal de transmission stationnaire, a) Erteur quadratique du U I S et du S m b) IIndice de
pe~onnunce de la coniparaison entre l'erreur quadratique du LMS et du S F Z c) Coeficients obtenus par le LMS. d) Coeficients obtenus par le
SFTF
(Or.
8
6
4
2
a -2-
4-
-8-
a-
5.3.3 Performances du SFTF et du LMS pour un canal stationnaire avec une réponse impulsionneile longue
Nous retrouvons les mêmes types de graphiques que la section précédente qui
concernait la réponse impulsionnelle courte. Nous avons ajouté un terme à I'kquation (4.4) pour augmenter la taille de la réponse impulsionnelle du canai.
0; 20 40 60 80 100 120 1 O 20 40 eQ #1 100 1 2 0 -10
Mniiai. lt&auœm
- - -
- SFTF * - - - - LMS
-
Figure 5.24 Réponse impuIsiunnelle étroite du canal de transmission stationnaire, a) Erreur quadratique du LMS et du S m b) Indice de
pe$umance de la comparaison entre l'erreur quadratique du LMS et du SFTF c) Coefficients obtenus par le LMS, d) Coefticients obtenus par le
Z L'erreur quadratique o (ni l'indice de performance et les coefficients de l'algorithme
LMS et SFIT sont respectivement illustrés aux figures 5.25 a), 5.25 b), 5.25 c) et 5.25 d)
La fenêtre d'observation plus grande entraîne un conditionnement de la matrice
d'autocorrélation du signal plus important. L'algorithme LMS doit diminuer son pas pour converger et l'algorithme SFTF doit augmenter son facteur d'oubli pour éviter l'instabilité
numérique. Nous observons alors une convergence plus lente des coefficients générés par I'algorithme LMS liée à la diminution du pas. Le SFTF, par contre, estime les poids du filtre
adaptatif plus rapidernment. En effet, une valeur du facteur d'oubli plus forte comme nous
l'avons dit à la section 5.3.2 pour un canal fixe. permet à I'algorithme d'atteindre plus
rapidement son régime optimal. Nous voyons l'erreur quadratique de l'algorithme SFTF
décroître vers l'axe des abscisses autour de 230 iterations lorsque l'espace d'observation des
données à été complétée. L'erreur quadratique de l'algorithme LMS decroît continuellement car
il reconstruit à chaque fois son espace d'observation.
- SFTF
-I O 1 r 4 . t O t 0 0 2 0 a 3 0 0 U K ) S Q O 6 ( 1 0 m
tI4fauOns 0 1 0 0 2 0 0 3 0 0 4 0 ( 1 5 9 9 g 0 0 7 0 0
hm
Figure 5.25 Erreur quadratique du LMS et du SFTF pour une réponse impulsionnelle longue du canal de transmission, b) Indice de
perfomance de la comparaison entre l'erreur quadratique du LMS et du SFTF c) CoefiFciennts obtenus par le LMS, d) Coefficients obtenus par le
5.4 Comportement du LMS et du SFTF pour un canal non stationnaire
5.4.1 Rupture du canal pour une réponse impulsionneiie courte
Nous exploitons à nouveau la fonction de transfert vu précédemment pour le canal stationnaire ayant une réponse impuIsionnelle courte.
2 Pour cette fonction de transfert, I'emur quadratique 2 (n:, l'indice de performance IP (n:, les coefficients générés par l'algorithme LMS et SFïF sont illustrés respectivement aux
figures 5.26 a), 5.26 b), 5.26 c) et 5.26 d). Les données relatives aux simulations sont disponibles
dans le tableau 5.4
Tableau 5.4 Condition de simulation des algorithmes adaptatifs pour un canal non - - stationnaire
Figure des simulation:
Figure 5.26
Figure 5.27
Figure 5.28
Figure 5.29
Condition de simulation des algorithmes
H (2) = 0.9 - z-~ + 0.6 z4 + 0.4 Z* + 0.3 Z-y
Coupure du trajet 0.6 z - ~ entre les itérations 20 et 70
Moyennage sur 300 sequences d'échantillons
Entrée PCM 1, N = 10, conditionnement de RNN (n) = 5.2
Rapport signal à bruit de 5 db
Facteur d'oubli htMs = 0.4, hSFTF = 0.95 EO = 0.3
H (2) = 0.9 - z - ~ + 0.6 - z4 + 0.4 z - ~ + 0.3 - z-' Coupure du trajet 0.6 z4 entre l'itération 20 et 70
Moyennage sur 300 séquences d'échantillons
Entrée PCM2, N = 23 1, conditionnement de RNN (n) = 48.2 Rapport signal à bruit de 5 db
Facteur d'oubli iLMs = 0.01, 7CSFIF = 0.99 EO = 0.2
Coupure du trajet 0.6 z4 pour les itérations de 80 à 400 et 600 à 00
Moyennage sur 300 séquences d'échantillons
Entrée PCM 1, N = 23 1, conditionnement de RNN (n) = 14.5
Rapport signal à bruit de 5 db Facteur d'oubli hLMs = 0.1, hSFTF = 0.99 EO = 0.6
Voir annexe D pour le détail du fichier de configuration de la réponse im-
pulsionnelle du canal de transmission
Moyennage sur 300 séquences d'échantillons
Entrée PCM 1, N = 23 1, conditionnement de RNN (n) = 10.1
Rapport signal à bruit de 5 db
Facteur d'oubli LL, = 0.07, hsFTF = 0.99 EO = 0.25
Nous créons cette fois, une rupture bmsque dans le canai de transmission. Le deuxième
trajet 0.6 - z4 de l'équation Figure 5.24 est annulé à l'itération 20 puis réapparaît à l'itération
70. Nous voyons sur la figure 5.26 I'évolution de l'erreur quadratique et de l'indice de
performance pour les algorithmes LMS et SFïF.
- 021 8 I l CQ W
4 . 1 L O r0 40 100 120 O a) 40 60 m I W 120 - WRaOnr
Figure 5.26 a) Erreur quudratique du LMS et du SFïFpour une réponse impulsionnelle longue du canal de transmission, b) Indice de
perjumance de la comparaison entre l'erreur quadratique du LMS et du SFTF, c) Coefficients obtenus par le LMS d) CoeBcients obtenus par le
Nous constatons que les performances de l'algorithme SFI'F sont inférieurs à celles de
l'algorithme de gradient stochastique LMS. Nous avons toujours une convergence initiale plus
rapide que le LMS. Ces mauvaises performances en capacité de poursuite de l'algorithme SFïF par rapport à ceux de l'algorithme LMS sont liées au fait que le facteur d'oubli du premier
algorithme est nettement inférieur à celui du deuxième algorithme. En effet, d'après H. Benallai
1321 la relation entre le gain des deux algorithmes s'écrit comme suit
Ainsi, si nous prenons p = 2, un pas de 0.4 et si la puissance du signal est égale 2i 1,
alors le gain asymptotique de I'algorithme LMS est 1.6 fois plus grand que celui de l'algorithme
SFTF. C'est là un inconvénient des algorithmes SFïF numenquement stables. En effet,
l'ensemble des algorithmes des moindres carrés numtriquement stables existant actuellement
nécessitent, pour une entrée stationnaire, une limite infi5rieure sur le facteur d'oubii p > 2, ce
qui limite par conséquent leur capacité de poursuite.
Figure 5.27 a) Erreur quadratique du UIS et du SFTF pour une réponse impulsionnelle longue du canal de tranrmission, b) Indice de performance de la comparaison entre l'erreur quadratique du L M . et du S m c) Coefficients
obtenus par le LMS. d) Coeficients obtenu par le SFTF
Nous montrons qu'en utilisant PCM2 la figure 5.27 que les performances de
I'algorihtme SFTF sont comparables à l'algorithme LMS. Il est intéressant de constater que les
coefficients calculés à l'aide de l'algorithme SFIT n'ont pas été affectés par le nouveau signal
d'entrée, et que le conditionnement de la matrice d'autocorr6lation a augmenté. Par contre, le
LMS est obligé de diminuer son pas pour éviter l'instabilit6 ce qui lui vaut d'être équivalent
avec ce signal au SFïF. Le SFïF prend tout de suite un avantage si la matrice d7autocorr61ation
devient mal conditionnée.
La différence des gains d'adaptations ne prouve pas en général que l'algorithme LMS
converge plus vite, sauf peut être pour une entrée blanche en fréquence, mais indique seulement
que l'oubli peut être choisi plus important pour l'algorithme LMS et, par conséquent sa capacité
de poursuite est meilleure pour un canal acoustique variable à chaque instant. Par contre, si
pendant le régime asymptotique il y a un changement par sauts de la réponse impulsionnelle à
identifier, la vitesse de convergence vers le nouvel optimum est plus rapide (même avec un gain
plus faible) avec I'algorithme SFTF. Ceci est dfi au fait que la vitesse de convergence dans ce dernier ne dépend que de la valeur de h, alors que dans les algorithmes de type gradient
stochastique, en plus du gain d'adaptation, elle est gouvernée par la plus petite valeur propre de
la matrice d'autocomélation du signal d'entrée.
5.4.2 Rupture du canal pour une réponse impulsionnelle longue
Les graphiques pour ce cas sont illustrés à la figure 5.28. Nous retrouvons le même type
de figure que pour la réponse impulsionnelle stationnaire longue. Nous effectuons deux coupures de trajet comme il est indiqué aux tableaux 5.4.
Figure 5.28 a) Erreur quadratique du LMS et du SFTF pour une réponse impuIsionnelle longue du canal de transmission, 6) Indice de
peflomance de la comparaison entre l'erreur quadratique du LMS et du S m c) Coeflcients obtenus par le LMS, d) CoefiFcients obtenus par le
L'algorithme S m ne pose aucun problème à I'initialisation. Par contre, nous voyons
que ces performances lors de la poursuite sont plus mauvaises que le LMS. Rappelons que le
signal PCM l est intémessant pour le LMS.
5.4.3 Evo~ution du eand de transmission en fonction du temps
Les graphiques illuseés à la figure 5.29 dont les conditions sont indiquées par le tableau 5.4 représente I'évolution de l'emeur quadratique, de l'indice de performance et des coefficients du filtre adaptatif pour les algortihmes LMS et S m pour un canal dont la réponse impulsionnelle est composée de 42 trajets
Figure 5.29 a) Erreur quadratique du LMS et du S m p o u r une réponse impuIsionnelle longue du canuZ de transmission, 6) Indice de pe@ommtce de la comparaison entre l'erreur quadratique du LMS et du SFTE c) Coeficients obtenus par le LMS, d) Coeficients obtenus par le SFTF, e) Coeficients 2, 8 et 9 de la figure 5.29 c), fl Coefficients du SFTF 2, 8 et 9 de la figure 5-29 d)
Nous avons dégagé aux figures 5.29 e) et 5.29 f) certains trajets qui nous montrent, pou
des variations brusques de l'ensemble des trajets. un comportement similaires 2 la rupture
brusque d'un canal dont la réponse impulsionnelle est courte.
5.5 Conclusion
Pour les ordres N faibles, l'équation 4.2 ne constitue pas une limitation dans la mesure
où les facteurs d'oubli obtenus permettent des gains d'adaptation asymptotique non
négligeables. Par contre, les performances en vitesse de convergence et en capacité de poursuite
se dégradent très vite pour les ordres élevés, aux h très proche de 1 et un gain asymptotique très
faible. Par conséquent, l'ensemble des solutions envisageables, pour d i o r e r la capacité de
poursuite des algorithmes des moindres carrés à oubli exponentiel, doivent permette un gain
d'adaptation asymptotique non négligeable aux dépens d'une erreur résiduelle importante.
CHAPITRE
CONCLUSION
Dans ce mémoire, nous avons présenté les travaux réalisés sur les algorithmes
adaptatifs du gradient et des moindres carrés pour I'adaptation d'un canal de transmission
acoustique sous une structure transversale.
Après un rappel de la chaîne de communication classique, nous avons mis en place le
canal de transmission acoustique en nous basant sur deux types de situations que nous pouvons
retrouver pour la communication entre un navire et un sous-marin. Ces situations théoriques ont
été un prétexte pour orienter le canal de transmission vers une caractéristique intéressante qui
est la rupture bmsque du canal de transmission.
Sous une structure commune d'identification, nous avons posé les équations du canal
de transmission qui ont été implantées par la suite dans le simulateur. Le canal constitué
présente une grande souplesse pour l'étude des performances des algorithmes adaptatifs. Nous
y retrouvons la possibilité d'ajouter le nombre de trajets desirés suivant une loi linéaire pour
l'amplitude et le retard, de maintenir l'état du canal pendant un certain nombre d'itérations et
de commencer et de terminer un trajet à l'itération désirée.
Nous avons ensuite complété la structure d'identification en y ajoutant un traitement
adaptatif du signal afin de caractériser le canal de transmission. Nous avons tout d'abord mis
en place le critère d'eneur en fonction de la structure transversale utilisée. Ce critère nous a mené à l'équation de Wiener. Nous avons montré que les différentes techniques numériques qui sont utilisées pour inverser la matrice d'autocorrélation du signal d'entrée génèrent une
collection importante d'algorithmes adaptatifs. Nous nous sommes penchés sur deux grandes
familles: le gradient et les moindres carrés. Pour la famille du gradient, le LMS a été étudié. Le RLS et le SFTF ont été consid6rs pour la famille des moindres carrés. Nous avons isolés les
carac térisques particulières de chaque algorithme.
Nous avons vu que la vitesse de convergence de l'algorithme LMS dépend directement
des valeurs propres de la matrices d' autocorrélation du signal d'entrée et que son implantation
est très simple. L'algorithme RLS nous a permis d'introduire les algorithmes rapides. L'idée
séduisante apportée par le Lemme d' inversion matricielle utilisé sur I'équation de Wiener, nous
a montré une solution qui nécessite un coût en opération de calcul proportionnel à $. NOUS
nous sommes ensuite débarrassés des opérations de mise à jour matricielle du RLS en
orthogondisant l'espace d'observation. Cette approche nous a menés aux algorithmes rapides.
L'approche géométrique que nous avons utilisée est purement académique. Par contre,
l'approche algébrique plus proche de l'implantation pratique est un peu moins intuitive à
comprendre. Nous avons pose les difErentes équations du développement fondamental des
algorithmes adaptatifs rapides pour résoudre le problème de l'estimation des moindres carrés
récursifs. Cependant, l'algorithme FTF qui a été vu présente une sérieuse limitation liées aux
instabilités numériques. Une certzine redondance dans le calcul qui résout le problème
d'instabilité nous a permis de mettre en place l'algorithme S F E numériquement stable.
Par la suite, nous avons présenté Ic simulateur qui a été développé dans le cadre de ce
travail. Nous y décrivons les différentes fonctions de base du simulateur Sirnadap pour accéder
et trouver les principales boîtes de dialogues du logiciel. Nous parlons ensuite des opérations de
simulation et d'affichage des données dans l'ordre chronologique où les boîtes de dialogue
doivent être sollicitées. Nous terminons par une description des différents programmes qui sont
utilisés pour construire le simulateur et pour générer les différentes données.
La dernière partie de ce travaille montre les résultats obtenus grâce aux simulateur
Simadap. Nous montrons tout d'abord les signaux utilisés pour les simulations et nous nous
assurons par l'observation sur 40000 itérations de la stabilité de l'algorithme S m . Nous
étudions ensuite les performances de I'aigorithme SFLT par rapport à I'algorithme LMS pour
un canal stationnaire. Nous avons remarqué que la convergence initiale de l'algorithme SFTF est meilleure que l'algorithme LMS. Cette convergence initiale est encore plus rapide pour une
réponse impulsionnelle longue. Le facteur d'oubli du SFTF proche de l'unité entraîne des gains
d'adaptation très rapides. Nous avons noté que I'erreur quadratique du S m n'est pas très
stable tant que l'algorithme n'a pas fini de construire son espace d'observation. Par contre le
LMS, qui recontmit son espace d'observation a chaque itération, présente une décroissance plus
régulière de I'erreur quadratique.
Dans le cas des ruptures brusques, nous avons observe que les performances du SFTF en vitesse de convergence et en capacité de poursuite se degradent très vite pour les ordres
élevés, k très proche de l'unité et un gain asymptotique très faible. Par consequent, l'ensemble
des solutions envisageables pour arnkliorer la capacité de poursuite des algorithmes des
moindres c m & oubli exponentiel, doivent permette un gain d'adaptation asymptotique non
négligeable aux dépens d'une erreur résiduelle importante
L'opinion couramment admise que les algorithmes des moindres carrés reconnus pour
leur meilleure vitesse de convergence dans le cadre d'un canal fixe sont de ce fait supérieurs aux
gradients dans un contexte non stationnaire, sujet aux variations. Nous avons montré que ce
n'est pas forcement le cas et de nombreux paramètres peuvent faire pencher la balance dans
l'autre sens.
Le simulateur pourrait être amélioré pour permettre les variations brusques du canal de
transmission indépendant pour chaque trajet. Nous poumons aussi ajouter une pondération
statistique sur les trajets du canal de transmission afin de tendre vers un canal acoustique plus
complet. L'implantation pour Sîmadap d'algorithmes en temps réel rendrait très intéressante les
tests de performances des algorithmes rapides. Enfin, pour gagner en rapidité de calcul, il serait
interréssant de mettre certaines fonctions de Matlab en langage C en créant des fonctions "mex files" de Matlab par exemple.
S. B. Weinstein et P. M. Ebert, ''Data Transmission by Frequency Multiplexing using the Discrete Fourier Transforn ", IEEE Tram. Cornm. COM-11(12), décembre 1971, pp. 360-93.
A. Benveniste, M. Metivier et P. Mouret, "Algorithme adaptatifs et approxima- tions stochastiques", Masson, 1984, pp. 43-51.
M. LecIerc, "Analyse des performances d'un système de télécommunication à porteuse multiples dans un canai radio-mobile", Mémoire de maîtrise, Université Laval, Novembre 1994,
P. Scalart, Elaboration et Évaluation d'un système de transmission numérique à haut débit par voie ionosphérique, Thèse de doctorat, Université de Rennes 1, décembre 1992.
Alan Oppenheim, "Application of digital signal processing", Prentice-Hall, 1978, pp 367.
N. Levinson et R. M o Redheffer, "The Wiener RMS (root-mean-square) error cri- terion in fiIter design and prediction", Math Phys., VOL 25, pp 261-278.
A. A. DeFerrari et L. Nghiem-Phu, "Scattering Function Measuments for a 7-Nrn Propagation Range in the florida Straights," J. Acou~t. Soc. Amex, vol 56, 1974, pp. 45-52.
D. G. nicker and B. K. Gazery, 'Applied Undenvater Acoustics", Pergarnon Press, 1977.
Bo Sklar, "Digital Communications: Fundamentais and Applications", Pren- tice-Hall, Englewood Cliffs, NJ 1988.
A. Papoulis, "Probability, Random and Stochastics processes". Mc Graw Hill, 1991.
P. Bragard, "Structure d'identification inverse application à I'égdisation", Revue scienti$que française, publié par le GRETSI, numéro spécial 1989. algorithmes adaptatifs et soustration de bruit, Vol. 6 no 5, pp. 381.
O. Macchi, "Méthodologie comparative", Revue scientifquefim~aise, publié par le GRETSI, numéro spécial 1989, algorithmes adaptatifs et soustration de bruit, Vol. 6 no 5, pp. 335.
Alan Oppenheim et Ronald W. Schafer, "Discrete-time signal processing", Prentice-Hull, Englewood Clzfs, NJ 1989.
J. M. Cioffi et Tm Kailath, 'Fast, recwsive l es t squares transversal filters for ad- aptative filtering", IEEE Trans. Acoust. Speech, Signal Processing. vol. ASSP-32, no. 2, pp. 304-337. apr: 1984.
J. M. Cioffi, "High speed systolic impiementation of fast QR adaptative filters", Proc. IEEE Intemtional Conference on Acourtics, Speech, and Signal Process- ing, ICASSP-88. New York, pp. 1584-1588.
M. Minoux, 'Trograrnmation mathématique", vol. 1, Dunod, Paris 1983.
S. Thomas Alexander, "Adaptative signal processing: theory and applications", Springer- Verlag, pp. 143 1986.
Jean-Charles Gilles, ''Calcul matriciel et introduction à l'analyse fonctionnelle", Lidec Montréal, pp 124 1989
M. Morf, 'Fast Algorithm for Multivariable Systems", Ph, D. Dissertation Stan- ford University, 19 74
M. Morf et Y. Lee, "Recursive least squares ladder fonn for fast parameter track- ing", Proc. Con$ Decision and Control, San Diego, California 1978 p1362.
L. Ljung, M. Morf and D. Faiconer, ''Fast calculation of gain matrices for recur- sives estimation schemes", Intem. J. Cmitrol, Vol 27, 1978.
S. Ljung and L. Ljung, "Error propagation properties of recursive least-square adaptation algon thms", Automatica, vol. 21, no., pp. 157-167. 1985.
Carayannis, Kalouptsidis, Manolakis, "A fast sequential algorithm for LS filter- ing a prediction" IEEE AS* Déc 83, Vol 31, pp. 1394.
W. 'Ihissel, "A unified derivation of the fast RLS algorithms", ICASSP 86, Tokyo, pp 261.
S. Haykins, "Adaptative filter theory", Prentice-Hall, Second edition, Englewood Cliffs, NJ O 7632, pp. 1 65.
F. Michaut, "Méthode adaptative pour le signal", édition Hermès, Paris, 1992
Dirk T. M. Slock et T. Kailath, "'Numerically stable fast recursive les t square transversal filters", in Proc. ICASSP 88 Con$ (New York, NY), Avx 1988, pp. 1365-1 368.
Dirk T. M. Slock et Tm Kailath, "Numerically stable fast transversal filters for re- cursive least square adaptative filtenng, IEEE Trans. Signal Processing, vol. 39, no. 1, pp. 92-113, jan. 1 991.
J. L. Botto, "Étude des algorithmes transversaux rapides, application à I'annula- tion acoustique pour 1' audioconférence", Thése Université de Rennes, 1986.
M. Bellanger, 'Zngineering aspects of fast least squares algorithms in transversal adaptative filters", in Proc. ICASSP 87 Con$ (Dallas, TX), Apr: 1987, pp. 2149-2152.
Bernard Widrow and Samuel D. S t n , "Adaptative signal processing", Pren- tice-Hull, Englewood Cliffs, NJ 07632, pp. 195.
A. Benailal, '%tude des algorithmes des moindres carrés transversaux rapides et application à l'identification de réponses impulsionnelles acoustiques.", Thèse Université de Rennes 1, 1989.
F. h g et J. G. Proakis, "Numerical accuracy and stability: two problems of ad- aptative estimation algorithms caused by roundoff ecror", in Proc. ICASSP 1984 (San Diego, CA), Mar. 1984. pp. 30.3.1-30.3.4-
M. Hm Verhaegen et P. Van Dooren, "Numerical aspects of different Kalrnan filter implementations", IEEE Trans. Automat. Con&, vol. AC-JI, no 14 pp. 907-917, Oct. 1986.
M. Hm Verhaegen, "A new class of algorithm in Linear system theory, with applica- tion to real-time aircraft mode1 identification", thése de Ph. D. dissertation, Catho- lic Univ. Leuven, Leuven, Belgiqu, Nov. 198.5.
M. H. Verhaegen, "Round-off error propagation in four, generally-applicable, re- cursive, Ieast-squares estimation schemes", Automatica 25(1989) no.3 blz. 43 7444.. Et-09/84-30.
M. Wid et R Joyce, "Modeling the spatial and frequency distribution of nar- row-band acoustic signals scaterring from ocean surface" J. Acoust. Soc. Am. 97(3) pp. 1559-1566 march 1995.
Scott J. Levinson, Evans V. Westwood, Robert A. Koch, Stephen K. Mitchell et Carol Va Sheppard, " An efficient and robust method for underwater acoustic normal mode computation", J. Acoust. Soc. Am. 65(3) Murch 1979.
L. M. Brekhovskikh et Yu P. Lysanov, "Fundamentals of ocean acoustics", sec- ond edition. Sprirzger- Verlag.
A. Ce Kibblewhite and C. Y. Wu, "A study of reflection loss 1. A multilayered viscoelastic seabed at very low frequency", J. Acoust. Soc. A m 96. pp 2965-2980. 1994.
M. Badiey, J. Jaya et Hm-D. Cheng, "Shallow-water acoustic/geoacoustic experi- ments at the New Jersey adantic generating station site, J. Acoust. Soc. Am. 96 p. 3593-3604, 1994.
Y. Desaubies et K. Dysthe, "Spectral and modal representations of the Dop- pler-shifted fielf in ocean waveguides", J- Acoust. Soc. Am. 96 (1). july 1994.
H. A. DeFerrari and Hm B. Nguyen, "Acoustic reciprocal transmission expen- ments, Florida Straits" J. Acoust. Soc. Am. 79 (2) février 1986.
J.G. Proakis, 'Digital Communication", Mc-Graw-Hill, New York, 1 983.
G J.Bierman, "Factorization Methods for Discrete Sequential Estimation", Aca- demic Press, New York, 1977.
B. Widrow, J. M. McCod, M. G. Larimore et Cm R. Johnson, "Stationnary and nonstatiomary learning characteristics of the LMS adaptative filter", in Proc. of IEEE 64, No. 8, Aug. 1976.
D. C. Farden, "Tracking properties of adaptative signal processing aigorithrns", IEEE Trans. ASSP, vol 29, No 3, June 1981.
1481 K. Maouche "Algorithmes des moindres carrés récursifs doublement rapides : ap- plications à l'identification de réponses impuisionnelles longues.", Thèse ENSI: 1996.
1491 E. Eleftheriou, D. D. Falconer, 'Tracking properties and steady-state perfor- mance of RLS adaptative dgorithms", IEEE Trans. ASSE vol 34, No 5, Oct. 1986.
[SOI Fm Ling et J.G. hakis , "Nonstatiomary learning characteristics of LS adaptative estimation algorithms", Proc. IEEE-ICASSP, Mar: I984 San Diego.
[SI] M. Charbit, "Élément de théorie du signal: les signaux aléatoires", Ellipses 1990, Paris
ANNEXE A
RAPPELS SUR LES VECTEURS ORTHOGONAUX
A.1 Espace des vecteurs linéaires
Si nous considèrons le vecteur X (n) des données qui ont et6 acquises au temps n , alors le vecteur
est défini dans un espace à N dimensions.
Supposons, pour fixer les idées, un espace à trois dimensions c'est-à-dire N = 3 . Nous définissons dans cet espace trois vecteurs avec les données: x (1) = 3 x (2) = 5 et
x (3) = 2
X( ' ) = k(l) O O]
X(2) = L(2) x(1 ) O]
X ( 3 ) = L(3) x(2) x( l ) ]
Nous retrouvons la représentation de ces vecteurs dans l'espace tridimentionnel à la
figure Figure A. 1
Nous pouvons représenter tout autre vecteur U ( n ) du plan A engendré par une combinaison linéaire des vecteurs X (1) et X (2) . Nous pouvons écrire ceci sous la forme
mathématique
Figure A.1 Représentation vectorielle des données
où a, et a2 sont des constantes. Ainsi, pour I'espace vectoriel à N dimensions, nous aurons N
vecteurs de base tel que
où a, sont des constantes et Xk (n) les N vecteurs de base.
Dans ce cas, l'espace de Hilbert est muni du produit scalaire standard et peut être
réprésente dans le cadre général par
où n > N si N représente la taille maximale des observations. Ainsi, la minimisation de I'écart
E (n) défini par l'équation (3.4) revient à réaliser des projections orthogonales sur des sous es-
paces de H munis de ce produit scalaire.
De même, le produit scalaire de deux matrices est défini dans H par
en autant que les deux matrices LI et X soient compatibles et la norme euclidienne d'un vecteur
soit défini par
Vecteur orthogonaux
Deux vecteurs sont dit orthogonaux si leur produit scalaire est nul
( U ? V = 0
Vecteur orthogonaux à n vecteurs indépendants
Comme conséquence de la propnètée de distributivité dans H
(U?V+W) = (U?V)+(U,W) (A.7)
Si un vecteur est orthogonal à n vecteurs indépendants, il I'est pour tous les vecteurs du sous-espace qu'il engendre. Nous disons qu'il est orthogonal à ce sous-espace.
A.4 Projection orthogonale
Le produit scalaire de U par V est le même que celui de U par Vu, projection de V
sur U
UVU, qui représente la valeur algébrique de cette projection, permet encore d'écrire
que nous pouvons visualiser sur la figure Figure A.2.
Figure A.2 Représentation de la projection orthogonale
Le vecteur de projection orthogonal de V sur U est le vecteur unitaire selon Llmultiplid par ce nombre algébrique
(A. 10)
Pour iIlustrer ies espaces vectoriels et leurs projections, considérons l'espace à deux dimensions de la figure Figure A.3. Soient
A et B , deux espaces vectoriels distincs
Quel que soit x E A et quel que soit y E B
si ( x , y) = O alors A I B
si A 1 B et A u B = V dors
V est la somme directe de A et B: quel que soit v E V et il existe x E Aet y E B tel que v = x t y .
x est la projection de v dans A
et y est la projection de v dans B
x et y sont uniques.
Figure A.3 Représentation tridimensionnel
ANNEXE B
APPROCHE GÉOMÉTRIQUE DES MOINDRES CARRÉS RÉCURSIFS RAPIDES
B.1 Matrice de projection orthogonale
À l'instant t correspondant à I'itération n , nous connaissons l'observation v et
Figure 3.6 Représentation matricielle de la matrice de projection
nous calculons par moindre carré le prédicteur optimal d'ordre N de v basé sur les données du passé X (n) : cela revient à calculer l'estimation Y comme projection orthogonale de
v sur I'espace engendré par les donntes X (n), {X (n) }, comme le montre la figure 3.6. Ainsi
où {X (n) ) = {X} est le sous espace gentké par les vecteurs colonnes de X. La matrice de projection est défini par
avec û E R~ tel que
La matrice de projection P ( X ( n ) pe m e t de projeter un vecteur quelconque sur l'espace
{XI. Celle-ci est définie de manière générale par
Remarque: Lorsque le vecteur Zi projeter se trouve déjà dans le sous espace {XI, nous re- trouvons le même vecteur. Il faut noter que LI peut être une matrice, un vecteur de donnée ou même un scalaire.
B.1.1 Propriétés des matrices de projection
Une formulation matricielle de I'approche géométrique ci-dessus à été établie à l'annexe B.
B.1.2 Équation de mise à jour
Pour les algorithmes des moindres carrés récursifs rapides, nous pouvons traiter les données en terme de prédiction directe ou retrograde comme représentée à la figure 3.7. Les
a) Prédiction avant e (n) et arrière r (n - 1) à l'instant n - 1
b) Prédiction avant e (n + 1 ) et amière r (n) à l'instant n
Figure 3.7 Visualisation des données permettant de déteminer l'erreur et leur espace respectif en fonction de la prédiction choisie
erreurs e ( n ) et r ( n - 1 ) utilisent le même espace de projection {X (n - 1) } . Par contre,
r ( n ) utilise l'espace { X ( n ) ) = { x ( n ) , x ( n - 1), ..., x ( n - N + 1 ) ) . Nous
voyons donc que e (n) et r (n) utilise un espace de projection différent. .Le but est de
construire les erreurs e (n) et r (n) par une double récurrence sur l'ordre du prédicteur N et sur le temps à l'instant d'observation.
Comme ces erreurs sont définies par des opbrateurs de projection orthogonale PU I
et P u nous sommes amenes à utiliser les propriétés algébriques des opérateurs et leurs
remises à jour sur I'ordre et sur le temps.
B.1J.l Mise ih jour suivant l'ordre des projecteurs orthogonaux
Lorsqu'une nouvelle donnée est disponible, nous pouvons construire un autre vec-
teur et modifier l'espace vectoriel de travail en prenant soin de réaliser une orthogonalisa-
tion de Gramm-Smith à chaque fois. Ce principe est très bien illustré dans le volume de
Jean-Charles Gilles [18]. Quelle est la relation entre ces deux espaces?
Nous avons
où X (n) représente l'espace des données X de dimension N à l'instant n et ? un opé-
rateur de retard défini dans l'annexe B.
Ou encore
qui est l'espace généré par U et v . Le but consiste à exprimer la projection P dans l'espace { LI, v} en fonction de P et v . A chaque fois qu'une nouvelle donnée appa-
rait, il faut pouvoir exprimer récursivement le nouvel espace généré illustré par la figure
3.8.
Figure 3.8 Eremple de l'espace généré par U et v
Comme e = v - C et C = P U, v nous avons alors
Nous pouvons générer {e} tel que e l { U), ce qui implique { e ) l { LI} ,
alors e = P& v et l'espace qu'il engendre {X (n) ) = { U, v } est détailIé à l 'equation (3.92).
. . . o..
-0.
...
. . *
Nous remarquons, comme nous l'avons signalé plus haut, que I'ordre est fixe et dé-
pend du nombre de coefficient du filtre adaptatif. L'espace généré par {LI, e ) et par { U, v ) sont identiques donc,
~ ' { ~ p = e = ( I - P { ~ ] ) v
et que d'après (3.86)
i De plus comme P ( = 1 - P , VI alors
Ainsi, par exemple. si nous voulons remettre à jour les équations (3.85) et (3.9 1)' il suffit
& postmultipIier (3.97) et (3.98) par un vecteur, d'où
Nous avons aussi besoin de faire une remise à jour du produit scalaire de la forme I
(z, P y) . Nous obtenons en prémultipliant l'équation (3.99) et (3.100) par z .
qui représentent les deux équations de remise à jour complète sur l'ordre. Il nous reste à
déterminer la remise à jour temporelle de la matrice de projection pour terminer le principe
des algorithmes rapides.
B.1.4.2 Mise à jour temporelle des projecteurs orthogonaux
Pour la mise à jour temporelle, il s'agit d'utiliser les propriétés d'invariances par
décalage des vecteurs et d'espaces d'observation. L'outil de base est fourni par les relations
suivantes. Nous vérifions que
L I T En utilisant la projection sur x avec 1~ = [1, 0' . . . y O] H
Généralisée à des matrices
Nous débouchons sur
I I ( ~ p g {,} ') = (xp - I. P {*) 2-1 V)
Nous avons une matrice du type XO. p - (n) , alors la remise à jour temporelle de I
x ) d'après 17t5quation (3.10 1) est (XP4u*.} q
dors
ANNEXE C
ALGORITHME FTF ET SFTF
2 Algorithme FTF
Partie prédiction des trois filtres
Tableau C.1 Réswné de l'algorithme FTF
Remanlue: kN+ 1, N+ 1 (n) est le dernier dément du vecteur gain normaiisC KM + (n)
n y a sauvetage si y (n - I ) est n6gative => sauvegarde des iirN (n) comme nouvelles conditions initiales.
N
Tableau C.1 Résmé de l'algorithme FTF
Tableau C.2 Initialisution exacte de I'algo~thme ETF
Identification des équations entre l'algorithme proposé par TDM. Slock tableau
C.3 et Haykins tableau C. 1. Nous pouvons associer directement
(21) Cl avec (1) C3
(25) CI avec (3) C3
(27) Cl avec (8) C3
(22) C 1 avec (1 5) C3
(26) C 1 avec (1 6) C3
(23) C 1 avec (17) C3
(26) C 1 avec (1 5) C3
(30) Cl avec (1 8) C3
(33) C 1 avec (19) C3
(3 1) Cl avec (20) C3
(34) Cl avec (22) C3
(35) Cl avec (23) C3
(36) Cl avec (24) C3
Nous retrouvons l'équation (5) C3 pour l'erreur de prédiction à postériori.
L'équation (2) sert de calcul intermédiaire pour obtenir l'équation (3) C3. L'équation (7)
calcule un des éléments du coefficient de Kalman. Les équations (4) (6) (9) ( 1 0) (1 1 ) ( 1 2)
(1 3) (14) (2 1) viennent se rajouter à l'algorithme original pour permettre sa stabilisation.
Slock et Kailath proposent en plus de la variable de contrôle pour le calcul des er-
reurs de prédiction retour, une autre variable de contrôle pour le calcul de la variable de
vraisemblance
avec
où .,(a désigne une erreur de prédiction retour a-prion. La variable de vraisemblance pro-
pagée est
ANNEXE D
FICHIER DE CONFIGURATION
f l c h i t r d ' i n l t i a l i s r t l o n des t r a j e t s
i t e r a t l o n = 800 g s r d r f o u = 1ûuOûOO nombirs,trajets - 11
i n t e r p o l a t i o n - 200 In terpo la t ionCn) - on i n s t r e 3 v a l e u r s ~ I d / m e n s i o ~ f c h = O c ! i~ns ion<O> - ~ f ~ i h i e r l n t e ~ o 1 e < e d 1 ~ n s i o n f l 1 .
dimenrionCi) - f i c h i e r i n t e r p o l e de d i a e n r i on u a r i a b l e 1
u a r f r b l t I c o e f f i c i e n t I coefficient I coefficient I quadrat ique 1 1 i n e a i re I c o n s t a n t
I cd) I C ~ ) I cn I t 1
1 TAU 1
1 c o e f f i c l e n t I c o e f f i c i e n t I coefficient 1 I quadrat ique I l j n e a i r c I constant
l a I Cbl, I Cc) 1
t
cocf,coupu -0 coef-coupu r e l cot f ,coupu re2 coef,coupun3 coef,coupu re4 coef,coupu reO coef,coupu res coef,coupu re7 coef-caupu re8 coe~,coupu ma coef,coupu r t l o
I i n t e r r u p t i o n 1 i n t t r n r p t l o n I l r u a n t I a r r ï e r e 1 I Ccrv l I Ccrr) 1
t r a e t 8 t r a j e t 3 t r a e t 10 t r a j e t t r
t r a j e t 4 t r a j e t 2 t r a j e t 3 t r a j e t 4 t r a j e t 6 t r a j e t 6 t r a j e t 7 t r a j e t 8 t r a j e t 9 t r a j e t i o t r a j e t 1-l
t r a j e t 1 t r a j e t 2 t r a j e t 3 t r a ' t t 4 t r a j e t s trajer: s t r a j cr 7 t r a j e t 8 t r a f e t 9 t r a j c t IO r r a j e t .il
itération : nombres d'itération de la simulation
garde-fou: nombre maximal d' itération permise
Nombre-trajet: Nombre de trajets que I'utilisateur veut simuler. Les trajets sont composes du coefficient de retard (coef-tau0 pour le premier retard du premier tra- jet ) et du coefficient d'atthuation (coef-amplitude0 pour la première atténuation).
Le retard coef-tau0 et l'atténuation coef_amplinideO sont tous les deux fonctions cies équations respectivent d ittration + e - itération + f et 2
2 a - itération + b itération + c .
cav et car permettre de générer la rupture brusque aux itérations respectives avant et arrière.
interpolation: permet de maintenir le canal constant pendant un nombre d'itération donnée par cette variable.
APPLIED IMAGE. Inc fi 1653 East Main Street - -- - Rochester. NY 14609 USA
L -- , , Phone: 71 W482-0300 -- -- - - Faac 716i280-5989