40
ENIT 2009/2010 Projet de Fin d’Année Remerciements Notre projet de fin d’année participe à l’initialisation d’une collaboration entre l’Unité Signaux et Systèmes (U2S) de l’ENIT et la Cité des Sciences de Tunis. Beaucoup de personnes nous ont aidés pour pouvoir le réaliser et nous voulons ici exprimer notre reconnaissance et nos remerciements. Tous d’abord nous voulons exprimer nos sincères remerciements à M. Chiheb BOUDEN. Directeur de l’ENIT pour ses conseils et son encouragement pour réussir notre projet. Nos remerciements les plus sincères s’adressent à nos encadrants Mme Mériem JAIDANE Professeur à l’ENIT et chercheur à U2S et M.Riadh BOURGUIBA, Maître assistant à l’ENIT. Nous sommes heureux de leur exprimer nos sentiments de reconnaissance pour leur rigueur, pour nos conversations scientifiques, pour leurs conseils précieux et leurs encouragements quand nous commencions à baisser les bras. Notre profonde gratitude s’adresse à Mr Mohamed BEN AHMED Directeur de la Division Microcontrôleurs à STmicroelectronics pour son aide et ses conseils lors de la programmation du microcontrôleur STM32. Nous exprimons nos remerciements les plus chaleureux à l’équipe de l’U2S et surtout à M.Zied KOUBAA ingénieur de l’ENIT et étudiant en Mastère TI-CV ST/U2S ainsi que M.Taoufik MAJOUL doctorant ENIT et chercheur U2S pour leurs aides et leurs conseils pendant la réalisation de notre projet. Enfin nous remercions les élèves ingénieurs qui nous ont aidés à faire le protocole de mesure lors des expériences sur l’estimation du retard, ainsi que tout les élèves-ingénieurs en PFA qui travaillent sur la thématique de la « perception sonore altérée » pour leur esprit de groupe et l’ambiance qu’ils ont su créer au cours de nos réunions hebdomadaire et leurs encouragements. A.ACHOURI et M.MAHJOUBI Page 1

39359310-Rapport

Embed Size (px)

Citation preview

Page 1: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Remerciements

Notre projet de fin d’année participe à l’initialisation d’une collaboration entre l’Unité

Signaux et Systèmes (U2S) de l’ENIT et la Cité des Sciences de Tunis. Beaucoup de

personnes nous ont aidés pour pouvoir le réaliser et nous voulons ici exprimer notre

reconnaissance et nos remerciements.

Tous d’abord nous voulons exprimer nos sincères remerciements à M. Chiheb

BOUDEN. Directeur de l’ENIT pour ses conseils et son encouragement pour réussir

notre projet.

Nos remerciements les plus sincères s’adressent à nos encadrants Mme Mériem

JAIDANE Professeur à l’ENIT et chercheur à U2S et M.Riadh BOURGUIBA, Maître

assistant à l’ENIT. Nous sommes heureux de leur exprimer nos sentiments de reconnaissance

pour leur rigueur, pour nos conversations scientifiques, pour leurs conseils précieux et leurs

encouragements quand nous commencions à baisser les bras.

Notre profonde gratitude s’adresse à Mr Mohamed BEN AHMED Directeur de

la Division Microcontrôleurs à STmicroelectronics pour son aide et ses conseils lors de

la programmation du microcontrôleur STM32.

Nous exprimons nos remerciements les plus chaleureux à l’équipe de l’U2S et surtout

à M.Zied KOUBAA ingénieur de l’ENIT et étudiant en Mastère TI-CV ST/U2S ainsi que

M.Taoufik MAJOUL doctorant ENIT et chercheur U2S pour leurs aides et leurs conseils

pendant la réalisation de notre projet.

Enfin nous remercions les élèves ingénieurs qui nous ont aidés à faire le protocole

de mesure lors des expériences sur l’estimation du retard, ainsi que tout les élèves-ingénieurs

en PFA qui travaillent sur la thématique de la « perception sonore altérée » pour leur esprit

de groupe et l’ambiance qu’ils ont su créer au cours de nos réunions hebdomadaire

et leurs encouragements.

A.ACHOURI et M.MAHJOUBI Page 1

Page 2: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Sommaire

I. Introduction .............................................................................................................................. 5 II. Chapitre 1 ............................................................................................................................... 6

1.1 Principe de la coordination audio-visuelle lors de la production de la parole .................7i. Multi sensorialité de la parole .........................................................................................7ii. Lien entre la perception audio-visuelle et la production de la parole .............................................................................................................................................8

1.2 Réalisation de l’application « Effet retard » à travers Matlab/Simulink ..........................91.3 Principe du modèle .......................................................................................................9iii. Description du modèle crée à travers Matlab/simulink ...........................................................................................................................................10

1.4 Le protocole de mesure empirique du retard :................................................................13 3.1 Le principe du protocole :........................................................................................133.2 Les effets du retard sur les volontaires...........................................................................................................................................14

III. Chapitre 2 : ......................................................................................................................... 17 Réalisation de l’application sur le kit de développement IAR ...................... 17

1 Choix du Kit de développement pour la réalisation de l’application « Effet retard » ....182 Présentation du Kit de développement IAR system .........................................................193 Présentation des méthodes adoptées pour la réalisation de la Maquette : ........................21

I.2 Environnement de travail et l’évolution du signal audio de point de vue hardware ...........................................................................................................................24

IV. Chapitre 3 : .......................................................................................................................... 29 Travail de l’ingénierie pédagogique ........................................................................................ 29

1 Choix du matériel...............................................................................................................331.1 Choix du texte................................................................................................................33

1.2 Le microphone ...........................................................................................................341.3 Le casque audio..........................................................................................................34

2 Le story board ...................................................................................................................34V. Conclusion ............................................................................................................................ 36 VI. Netographie : ...................................................................................................................... 37 VII. Bibliographie ..................................................................................................................... 38 VIII. Annexes ........................................................................................................................ 39 ....................................... 39

A.ACHOURI et M.MAHJOUBI Page 2

Page 3: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Table des figures

Figure 1:Le pourcentage du décodage correct de l’information auditive ‘A’ et de

l’information audio-visuelle ‘AV’ en fonction du RSB (S /N) [2] __ Error: Reference source not

found

Figure 2:Modèle neurobiologique de la perception de la parole [2] __ Error: Reference source

not found

Figure 1:Le pourcentage du décodage correct de l’information auditive ‘A’ et de l’information audio-visuelle ‘AV’ en fonction du RSB (S /N) [2]............................................8Figure 2:Modèle neurobiologique de la perception de la parole [2]...........................................8Figure 3:Algorithme de fonctionnement du modèle « Effet retard »........................................10Figure 4:Schéma du Block From Audio Device[3]..................................................................10Figure 5:Fenêtre de paramétrage du Block « From Audio Device »[3]..............................................................................................11

Figure 6:Schéma Du Block To Audio Device[3]......................................................................12Figure 7:Fenêtre de paramétrage du bloc « To Audio Device »[3]..........................................12Figure 8:Le modèle complet implémenté sur Matlab/Simulink [3].........................................13Figure 9:Représentation des réactions des sujets au retard microphone/haut-parleur introduit...................................................................................................................................................16Figure 10:Kit à base STM32 Primer1.......................................................................................19Figure 11:Kit de développement IAR system.............................................................................................................19Figure 12:Architecture interne du STM32[4]...........................................................................21Figure 13:Cycle de fonctionnement de l’algorithme de traitement sur le Microcontrôleur..............................................................................22Figure 14:Interface de l’outil Keil Workbench........................................................................25Figure 15:La carte STM32-SK IAR starter kit.........................................................................26Figure 16:J-Link........................................................................................................................26Figure 17:Les outils de développement hardware....................................................................27Figure 18:Déroulement de l’application de point de vue hardware dans le microcontrôleur...28

A.ACHOURI et M.MAHJOUBI Page 3

Page 4: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Liste des tableaux

Tableau 1:Réaction des sujets pour différentes valeurs retard..................................................15 Tableau 2:les différentes fréquences d’échantillonnage du signal de parole..........23Tableau 3:Fiche thématique......................................................................................................32

A.ACHOURI et M.MAHJOUBI Page 4

Page 5: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

I. Introduction

L'ingénierie pédagogique renvoie à la gestion globale d'un dispositif relatif aux

pratiques d'éducation au sens large, avec comme finalité la conception d'un dispositif

pédagogique de formation adapté et optimisé [1].

Dans ce cadre entre notre projet qui est destiné à la Cité des Sciences de Tunis.

L'objectif est de réaliser une maquette TIC qui illustre des phénomènes sonores.

Nous avons choisi une maquette de la Cité des Sciences de La Villette de Paris pour

la refaire avec nos moyens et nos compétences. Cette maquette intitulée «Casque à effet

retard » illustre l'importance de la coordination audiovisuelle lors de la parole.

Dans le chapitre1 sera mis l’accent sur les phénomènes qui entrent en jeu dans

la coordination audio-visuelle. Nous présenterons également le paramétrage du retard

à travers une application Matlab et à travers un protocole de mesure que nous avons réalisé

au sein de L’ENIT.

Dans le chapitre2 seront présentées les différentes étapes et moyens nécessaires pour

la réalisation de la maquette. Ensuite on va présenter notre démarche que nous avons adaptée

lors de l’implémentation sur le microcontrôleur. On présentera ensuite le produit final obtenu.

Dans le dernier chapitre3 sera présenté le point de vue ingénierie pédagogique

de la maquette pour la Cité des Sciences de Tunis.

A.ACHOURI et M.MAHJOUBI Page 5

Page 6: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

II. Chapitre 1

Mise en évidence de la coordination audio-visuelle à travers une application Matlab et un protocole

expérimental pour le paramétrage de la Maquette «Casque à effet de retard »

A.ACHOURI et M.MAHJOUBI Page 6

Page 7: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Introduction Dans ce chapitre on va s’intéresser tout d’abord à l’explication scientifique du

phénomène de coordination audio-visuelle qui illustre notre maquette.

Nous nous intéresserons ensuite au paramétrage du retard implémenter sur la carte à base

microcontrôleur à travers un protocole empirique.

1.1Principe de la coordination audio-visuelle lors de la production de la parole

i. Multi sensorialité de la parole

La Perception de la parole peut se faire par voie audible, tactile et visuelle. Des études

réalisées à l’Institut de communication parlée (ICP à Grenoble) précisent [2] :“ Speech is

rather a set of movements made audible than a set of sounds produced by movements”.

La perception visuelle de la parole améliore donc l’intelligibilité de celle-ci surtout

dans les milieux bruités. La figure 1[2] montre l’intelligibilité de la parole dans le cas d’une

perception audio-visuelle et dans le cas d’une perception auditive pour des rapports

signal /bruit (S/N) différents.

Pour un ‘S/N’ le pourcentage de la perception d’une information correcte est plus

grande dans le cas audio-visuel (AV) que dans le cas visuel (V).

A.ACHOURI et M.MAHJOUBI Page 7

Page 8: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

ii. Lien entre la perception audio-visuelle et la production

de la parole

La perception de la parole est basée sur un phénomène d’interférence entre l’audio et

la vision. Ce phénomène est appelé effet Mc Gurk .

D’après les recherches de l’ICP il y a un fort lien entre la production de la parole et la

perception audio-visuelle. Ils suggèrent que ce lien est assuré dans le cerveau humain par les

neurones miroirs qui créent un mécanisme direct entre le locuteur et l’auditeur et permet ainsi

une compréhension directe. Le modèle neurobiologique de la perception de la parole proposé

par l’ICP est présenté figure2 :

La forte relation entre la perception et la production de la parole dans des situations

comme la lecture à voix haute et les conférences vidéo fait que toute perturbation du

fonctionnement de l’une perturbe l’autre.

A.ACHOURI et M.MAHJOUBI Page 8

A partir du modèle neurobiologique de la perception de la parole on peut constater que les parties production et perception audio-visuelle de la parole sont situées dans la même zone du cerveau humain ce qui explique l’influence de chacune sur l’autre.

Figure 1:Le pourcentage du décodage correct de l’information auditive ‘A’ et de l’information audio-visuelle

‘AV’ en fonction du RSB (S /N) [2]

Figure 2:Modèle neurobiologique de la perception de la parole [2]

Page 9: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Dans les conversations vidéo par exemple, le décalage entre le son et l’image est très

gênant. La particularité de notre application est que la perturbation provoquée par le retard

est intérieure à nous ce qui est plus gênant. Ceci peut s’expliquer par le fait que lors de

la production de la parole, le cerveau humain prédit en quelques sortes le retard entre l’entente

et la parole ce qui permet de lire facilement. En appliquant le décalage microphone-casque,

le cerveau humain n’arrive pas à s’adapter à ce retard ce qui se traduit par le bégaiement

des lecteurs lors de l’expérience.

1.2Réalisation de l’application « Effet retard » à travers Matlab/Simulink

Notre application consiste à prendre le signal de parole issu d’un microphone et de le

transmettre dans les écouteurs avec un certain retard.

Tout le déroulement de l’application se fait en temps réel, ce qui fait qu’il est

nécessaire d’avoir un moyen sur ordinateur qui peut traiter le signal de parole en temps

réel, pour pouvoir paramétrer expérimentalement le retard à implémenter sur la carte.

Matlab/Simulink peut répondre à ce besoin et on peut créer à travers certaines

commandes un modèle de test.

1.3Principe du modèle

Comme on a dit dans ce qui précède, notre système doit réaliser les tâches suivantes en temps

réel :

- Acquisition de signal de parole d’un microphone

- Traitement de ce signal en insérant un retard variable

- Emission du signal dans les écouteurs

Implicitement, notre modèle après avoir acquis le signal de parole il l’échantillonne à travers

la carte son de l’ordinateur puis il stocke les échantillons dans la mémoire pendant le retard

souhaité et enfin il reconstitue le signal à travers la carte son.

L’algorithme de fonctionnement du modèle est présenté sur la figure 3 :

A.ACHOURI et M.MAHJOUBI Page 9

Page 10: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 3:Algorithme de fonctionnement du modèle « Effet retard »

iii. Description du modèle crée à travers Matlab/simulink

Pour pouvoir réaliser les tâches déclarées précédemment nous avons trouvé que avec

Matlab/Simulink existe des blocs qui traitent les signaux audio en temps réel .Pour pouvoir

réaliser notre système il suffit de paramétrer deux blocs :

-le premier s’appelle « FROM AUDIO DEVICE » :

Figure 4:Schéma du Block From Audio Device[3]

A.ACHOURI et M.MAHJOUBI Page 10

Le block « FROM AUDIO DEVICE »

se compose de 3 éléments (physical device ,un

Buffer et un Queue). Ce block est responsable

sur l’acquisition du signal de parole.

Il prend le signal qui entre par le

microphone, l’échantillonne avec une

fréquence de 16 kHz puis il stocke les

échantillons dans un buffer.

Quand le buffer est rempli, Les

échantillons passent du buffer vers la queue qui

joue le rôle d’une file d’attente dont la durée

d’attente est le retard entre l’entrée du signal

par le microphone et sa sortie par les écouteurs.

Si la durée d’attente de la file ‘ queue ‘

est nulle.

Chaque fois qu’une donnée passe du haut de la

file vers Simulink le from audio device met une

nouvelle donnée (un tampon d’echantillon)

dans le bas de la queue.

Page 11: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Comme ce qui indiqué précédemment, il suffit de paramétrer ce bloc pour pouvoir

acquérir le signal de parole en temps réel et réaliser la moitie du retard en agissant sur

la durée de stockage de l’échantillon dans le Buffer et le passage vers la ‘queue’. La figure 5

présente les paramètres à régler.

Figure 5:Fenêtre de paramétrage du Block « From Audio Device »[3]

-Le deuxième bloc « TO AUDIO DEVICE » est présenté sur la figure 6 :

A.ACHOURI et M.MAHJOUBI Page 11

Ce bloc prend par défaut le microphone comme périphérique d’entrée.

Lors des simulations on a utilisé un micro-casque stéréo pour cela on a choisi deux canaux.

Le choix de la fréquence d’échantillonnage est justifié par le fait que le signal audio peut atteindre une fréquence maximale de 12 kHz, d’après le théorème de Shannon le choix du 24 kHz comme fréquence d’échantillonnage est un choix adéquat.

Mais on a vu que même avec une fréquence de 16KHz on peut échantillonner sans dégradation du signal donc pour des raisons d’optimisation de la mémoire on a choisit d’échantillonner avec 16 KHz.

Le retard appliqué sur le signal est en et fait la taille de la queue (la durée d’attente). Ce block sera directement attaché au bloc de sortie le bloc du ‘from audio device’ qui fait la restitution du signal.

Ce bloc transmet les données vers le

périphérique de sortie (les écouteurs).

Au début de la simulation, la file d'attente

(queue) est remplie de silence.

Le bloc to audio device ajoute les données depuis

sa queue, la durée d’attente est à paramétrer pour les

deux blocs et la somme des deux valeurs indiquées

représente le retard entre l’entrée du son dans le

microphone et sa sortie par les écouteurs.

A chaque pas de temps, le bloc envoie un

tampon d’échantillons de la tête de la file d’attente vers

le périphérique de sortie et reçoit un tampon

d’échantillons du bloc from audio device.

Page 12: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 6:Schéma Du Block To Audio Device[3]

La fenêtre de paramétrage du Block « To Audio Device » est présentée figure 7 :

Figure 7:Fenêtre de paramétrage du bloc « To Audio Device »[3]

Le modèle complet est présenté par la figure 8

A.ACHOURI et M.MAHJOUBI Page 12

Ce bloc prend le casque audio comme périphérique de sortie.

Il faut signaler que le système d’exploitation (windows 7) avec lequel on travaille n’est pas un système qui travaille en temps réel. Pour cela on a essayé de fermer les autres programmes lors de simulation.

Page 13: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 8:Le modèle complet implémenté sur Matlab/Simulink [3]

1.4Le protocole de mesure empirique du retard :

3.1 Le principe du protocole :

Le modèle créé avec Matlab/Simulink n’est qu’un moyen pour pouvoir paramétrer le

retard à implémenter après sur la maquette.

Pour fixer la plage du retard, on a défini un protocole de mesure dont les différents

éléments et résultat de ce protocole sont présentés ci-dessous.

L’expérience consiste à lire un texte en portant un micro-casque qui applique un

décalage ‘variable’, au son provenant du microphone.

- On a défini trois classes de perturbation :

A : Le lecteur s’adapte à la situation en ignorant le son décalé

B : Le lecteur peut lire le texte à voix haute mais avec une difficulté

C : Le lecteur est très gêné par le retard et il ne peut pas lire à voix haute

A.ACHOURI et M.MAHJOUBI Page 13

Page 14: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

- On change le texte pour chaque expérience.

- Lieu :les Amphis et les salles de cours

- Nombre de personnes : 14

- Age : entre 21et 23 ans

-Durée de simulation : 15 secondes

-Matériel utilisé : micro-casque, pc portable

Les résultats de l’expérience sont relevés dans un tableau qui montre la présence des classes

en fonction du retard.

3.2Les effets du retard sur les volontaires

On a commencé par relever les différents états de perturbation dans un tableau qui

montre la réaction de chaque volontaire pour des retards allant de 0.1’’ jusqu’au retard du

01’’.

A.ACHOURI et M.MAHJOUBI Page 14

Page 15: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Tableau 1:Réaction des sujets pour différentes valeurs retard

En remarquant que même dans la même classe les réactions des volontaires peuvent être

différentes on a attribué à chaque réaction une valeur de perturbation. Les réactions de classe

A sont dans le domaine [10 19], celles de la classe B [20 29] et les valeurs de la classe C

sont dans l’intervalle [30 39]. On a pu exploiter ces valeurs pour schématiser les niveaux de

perturbation par Matlab.

Dans la figure 9 on s’intéresse à l’existence des classe C pour déterminer le domaine

du retard le plus perturbant.

A.ACHOURI et M.MAHJOUBI Page 15

0.1 sec

0.2 sec

0.3 sec

0.4 sec

0.5 sec

0.6 sec

0.7 sec

0.8 sec

0.9 sec

1.0 sec

Sujet 01 A B C C C C B B A ASujet 02 A B B C C B B A A ASujet 03 B B C C C C B B A ASujet 04 A A B C B B A A A ASujet 05 A A B C B B A A A ASujet 06 A A B C B B A A A ASujet 07 A A B C C C B B A ASujet 08 A B B C C C B B A ASujet 09 A A B C C C B B A ASujet 10 A A B C B B B A A ASujet 11 B B C C C C C B A ASujet 12 A B B C C B B B A ASujet 13 A A A B B A A A A ASujet 14 A A A B B B A A A A

Page 16: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 9:Représentation des réactions des sujets au retard microphone/haut-parleur introduit

Lorsque la valeur du retard est inférieure à 0.3 seconde, le sujet arrive à s’adapter à la

situation et ignorer le son décalé.

Après la valeur 0.6 seconde, le sujet s’adapte aussi à la situation parce que le son qu’il

entend en retard est considéré comme un bruit externe.

Le sujet est très gêné lorsque la valeur du retard est dans l’intervalle [0.3 0.6]. Cette gêne

est maximale pour les valeurs 0.4 et 0.5 s.

On a choisi la valeur 0.4 sec pour la programmer dans notre carte puisque pratiquement

c’est la valeur la plus gênante.

Conclusion

Après avoir montré l’importance de la coordination audio-visuelle, on a conçu un système

temps réel sur Matlab qui nous à aidé - à travers un protocole expérimental -à choisir le retard

à implémenter sur notre carte.

La conception et les décisions à prendre pour la réalisation de la maquette sont présentées dans le chapitre2.

A.ACHOURI et M.MAHJOUBI Page 16

ABC

Le sujet est très gêné

Le sujet n’est pas gêné

Page 17: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

III. Chapitre 2 :

Réalisation de l’application sur le kit de développement IAR

A.ACHOURI et M.MAHJOUBI Page 17

Page 18: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Introduction :

Après avoir fait l’étude théorique et le protocole expérimental pour le choix du retard dans

le chapitre précédent, on va passer dans ce chapitre à l’implémentation de l’application sur la

carte.

Ce chapitre s’articule autour de quatre paragraphes. Dans le premier paragraphe on

présente nos besoins et notre critère de choix des moyens pour la réalisation de la maquette de

point de vue réception et émission de signal de parole en temps réel.

Dans le deuxième on présente notre choix final pour la réalisation. Ensuite dans le

paragraphe d’après on fait une description des principaux principes utilisés pour répondre à

ces besoins. Enfin on termine avec une présentation du produit fini de point de vue

fonctionnalités.

1 Choix du Kit de développement pour la réalisation de l’application « Effet retard »

Pour le traitement en temps réel du signal de parole on a choisi de travailler avec

un microcontrôleur de ST Microelectronics : un microcontrôleur 32Bits « STM32 » sous

deux formes différentes (figures 10 et 11):

A.ACHOURI et M.MAHJOUBI Page 18

La première forme est le primer 1(figure10), c’est un kit à base microcontrôleur STM32 sur lequel on trouve un afficheur LCD couleur, un joli design avec un capteur de mouvement. Ce kit est autoalimenté avec sa propre batterie chargeable. Cependant, les deux étages de réception et d’émission de signal audio sont inexistants. Pour pouvoir utiliser ce Kit il faudrait réaliser ces deux étages et les ajouter à la carte principale ce qui affaiblit la robustesse de la maquette et rendre le design médiocre et implique beaucoup de « bricolage ».

Page 19: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 10:Kit à base STM32 Primer1

Figure 11:Kit de développement IAR system

Après avoir étudié les deux kits on a choisi de travailler avec le kit de développement

IAR system parce qu’il répond à tous nos besoins de point de vue réception-émission du

signal de parole et de point de vue design et robustesse.

Notons que ce kit peut être utilisé dans d’autres projets de traitement du signal audio

qui peuvent être proposés dans le cadre de la collaboration avec la Cité des Sciences.

2 Présentation du Kit de développement IAR system

Le kit de développement IAR system choisi est ainsi, un kit à base microcontrôleur

STM32 « STM32F103 » microcontrôleurs basés sur le processeur Cortex-M3 d'ARM dont

la présentation [4] :

2.1Présentation générale du produit STM32

Le STM32 est un microcontrôleur 32 bits produit par STMicroelectronics.

A.ACHOURI et M.MAHJOUBI Page 19

La deuxième forme est le Kit de développement d’IAR system. C’est un kit à base microcontrôleur STM32 qui possède des ports d’émission et de réception du signal audio. Il peut être emboîté facilement et possède un afficheur LCD avec des boutons de contrôle. Il a beaucoup d’autres options qui ne rentrent pas dans le fonctionnement de notre maquette.

Page 20: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Il est fondé sur le cœur standard ARM Cortex™-M3. Ce cœur dispose de

fonctionnalités spécialement conçues pour les applications embarquées nécessitant à la fois

une performance élevée (1,25 MIPS/MHz), une consommation réduite et un coût faible. La

famille STM32 bénéficie de nombreuses améliorations architecturales du Cortex-M3 parmi

lesquelles :

-Le jeu d’instructions Thumb-2 qui améliore la performance tout en diminuant la densité du

code

-Un contrôleur d’interruptions vectorielles imbriquées (Nested Vectored Interrupt Controller)

qui accélère de façon significative la réaction aux interruptions

-Une consommation électrique à la pointe de l’industrie.

2.2Caractéristiques du STM32 :

La famille STM32 vient avec une prolifération assez importante couvrant les

différents besoins d’une application industrielle. Afin d’adresser différents secteurs applicatifs

et de s’aligner au marché industriel, les produits STM32 existent sous différentes dimensions

et familles :

- Dimensions (performance line et access line): « performance line » pour plus de

périphériques de communication, plus de canaux analogiques et plus de performance comparé

à « access line »;

- Familles (High, Medium et Low) : « High Density » pour plus de ressources en

mémoire (flash et RAM » comparé à la famille « Medium Density ».

A.ACHOURI et M.MAHJOUBI Page 20

Page 21: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 12:Architecture interne du STM32[4]La figure 12 présente l’architecture interne du STM32. Elle montre les performances du cœur

cortex-M3 en termes de jeu d’instructions et de consommation, il intègre un contrôleur

d’interruption lui permettant une réaction rapide aux événements externes et une gestion

flexible des priorités des interruptions.

Il offre un compteur appelé « Systick » généralement utilisé comme base de temps

pour la gestion des tâches d’un système opérationnel.

Une interface de débogage facilite l’interaction de l’utilisateur avec les codes

programmés en mémoire du STM32 et donne deux possibilités de ports de communication

suivant l’application : JTAG ou SWD.

La famille STM32 offre de différents types de mémoire : jusqu’à 512K octets de flash

et jusqu’à 64K octets de RAM ce qui est suffisant pour notre application car tous notre travail

est basé sur le stockage des échantillons.

3 Présentation des méthodes adoptées pour la réalisation de la Maquette :

3.1 Algorithme de fonctionnement :

Comme l’on a annoncé précédemment tout notre travail porte sur le traitement du

signal de parole donc pour pouvoir le traiter il faut tout d’abord le recevoir puis

l’échantillonner ensuite le traiter enfin l’émettre. Le schéma (figure 13) présente notre

A.ACHOURI et M.MAHJOUBI Page 21

Page 22: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

algorithme de fonctionnement et la méthodologie adoptée lors de l’écriture du code à

implémenter sur le microcontrôleur.

Figure 13:Cycle de fonctionnement de l’algorithme de traitement sur le Microcontrôleur

Notre chaine d’action commence par la réception du signal de parole à travers un

microphone[5] qui est un transducteur électroacoustique analogique.

Le fonctionnement du microphone rappelle celui de l'oreille humaine : il possède comme elle

une membrane, qui capte les variations de pression de l'air engendrées par le son, et produit

un flux électrique, tout comme les vibrations du tympan génèrent un influx nerveux.

Les vibrations de la membrane sont en effet transformées en signal électrique par un couple

électromagnétique, contenu dans le tube du microphone.

Ce signal électrique sera amplifié à travers l’étage d’entrée de la carte pour qu’il soit

adaptable avec le convertisseur analogique/numérique du microcontrôleur (ADC) qu’il va

échantillonner.

L’échantillonnage [6] consiste à transformer un signal analogique (continu) en signal

numérique (discret), en capturant des valeurs à intervalles de temps réguliers.

A.ACHOURI et M.MAHJOUBI Page 22

Page 23: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

C'est une étape nécessaire pour pouvoir enregistrer, analyser et traiter un signal par un

microcontrôleur, car celui-ci ne peut traiter que des nombres.

Ce qui concerne la fréquence d’échantillonnage on a choisi d’échantillonner le signal

avec la fréquence 16kHz pour plusieurs raisons :

- Les signaux doivent être échantillonnés à une fréquence fe> 2 fmax du signal selon la

règle de Shannon et puisque le spectre des signaux de parole: 20-12.000 Hz .

Pour avoir cette largeur de bande et ne pas avoir de dégradation au niveau sonore on a

choisi d’échantillonner avec la fréquence 16kHz. Le tableau 2 illustre les différentes qualités

avec les différentes fréquences d’échantillonnage.

Tableau 2:les différentes fréquences d’échantillonnage du signal de parole

Après l’échantillonnage, on récupère nos échantillons sur lesquels on insère le retard.

On réalise ensuite l’émission de signal avec la technique MLI[7] (modulation largeur

d’impulsion) car notre microcontrôleur ne possède pas un convertisseur

numérique/analogique. La MLI est une technique de création de signaux qui permet de

contrôler de l'analogique avec les sorties numériques d'un microcontrôleur. La commande en

MLI consiste en une succession rapide de signaux numériques et Le principe est de générer

un signal logique (valant 0 ou 1), à fréquence fixe mais dont le rapport cyclique est contrôlé

numériquement. La moyenne du signal de sortie est égale au rapport cyclique.

A.ACHOURI et M.MAHJOUBI Page 23

Largeur debande de

transmission Dénomination

Echantillonnage=nombre d’échantillons

codés Qualité perçue

20 – 22.000 Hz hi-fi (CD) 44.100 Hz pas de dégradation

20 – 12.000 Bande “parole” 24.000 hz pas de dégradation

20 - 8.000 bande large 16.000 Hz Pas de dégradation

300 - 3.400 bande téléphonique 8.000 Hz Dégradation

Page 24: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

I.2 Environnement de travail et l’évolution du signal audio de point de vue hardware

Il est utile de mentionner ici que la moitié du temps -lors de la réalisation- était consacré

pour l’étude du microcontrôleur et de sa bibliothèque. Ceci n’était pas évident pour une

première rencontre avec les microcontrôleurs en particulier ici avec la nouvelle génération

du microcontrôleur STM32.

Tout d’abord on va commencer par une présentation de l’outil de développement

et l’environnement hardware correspondant utilisés pendant le projet puis on va présenter

l’organigramme et les outils utilisés dans le code.

I.2.1 Environnement de travail

Le développement d’une application à base d’un microcontrôleur STM32 nécessite des

outils matériels et logiciels. Nous nous intéressons, dans ce projet, aux outils conçus par

la compagnie IAR SYSTEMS. Il y a une variété d’outils de développement qui permettent la

conception et la gestion de projets pour les applications embarquées et plus particulièrement

celles se basant sur le cœur CORTEX-M3. L’outil IAR Embedded Workbench et Kiel

Workbench, est celui utilisé pour le développement de notre projet. Il présente une interface

graphique et il intègre un compilateur C/C++, un assembleur, un linker, un simulateur et un

débogueur.

Le Simulateur : La fonction principale d’un simulateur est de simuler le fonctionnement

réel d’un microcontrôleur sans avoir besoin d’un circuit physique.

Le débogueur : Son rôle est de déboguer les applications en offrant à l’utilisateur les

possibilités suivantes:

-choisir le mode de débogage : le code source ou le code assembleur

-contrôler et visualiser le contenu des variables

-suivre l’évolution des différents registres du processeur en temps réel

-mettre des points d’arrêts d’exécution

-visualiser le contenu de la mémoire

-exécuter en différents modes (pas à pas ou en totalité).

A.ACHOURI et M.MAHJOUBI Page 24

Page 25: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Remarque : le travail a été réalisé au début avec l’environnement IAR Embedded

Workbench puis il a fallu migrer vers le Keil workbench et refaire tout le travail et l’adapter

avec le Keil à cause de J-Link que nous possèdions pourtant (nous ne savions pas au début

qu’il n’était pas adaptable avec l’environnement IAR Embedded Workbench ).

La figure 14 présente l’interface utilisateur de l’outil Keil Workbench lors du débogage :

Figure 14:Interface de l’outil Keil Workbench

I.2.2 Les outils hardware

L’environnement matériel est nécessaire pour permettre la communication entre

le microcontrôleur et l’outil software. Il est composé essentiellement de trois éléments.

Une carte de développement, à base du microcontrôleur STM32. Elle contient des

périphériques qui sont utilisés pour développer des applications mettant en valeur

le microcontrôleur STM32F10xx. La figure 33 représente la carte de développement du

STM32-SK_revB IAR starter kit, utilisée lors de ce projet.

A.ACHOURI et M.MAHJOUBI Page 25

Page 26: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 15:La carte STM32-SK IAR starter kit

Une interface J-link (figure 16) qui assure la connexion entre le microcontrôleur

et le débogueur. Du côté de la carte, la communication des informations se fait grâce au port

JTAG pour le J-link et du côté du PC, la communication se fait à travers le port USB.

Figure 16:J-Link

Un ordinateur présentant l’interface de développement Ces éléments ainsi que les connexions entre eux sont illustrés dans la figure 17:

A.ACHOURI et M.MAHJOUBI Page 26

Page 27: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Figure 17:Les outils de développement hardware

I.2.3 L’évolution du signal audio de point de vue hardware

A.ACHOURI et M.MAHJOUBI Page 27

Page 28: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Le schéma ci-dessous montre le passage du signal audio par les différents éléments hardware du Kit de développement IAR .

Figure 18:Déroulement de l’application de point de vue hardware dans le microcontrôleur

Conclusion

Après avoir fait l’étude théorique et la création du modèle de l’application à travers

Matlab pour le choix de retard à implémenté dans le microcontrôleur dans le chapitre1. Dans

le chapitre2 on a fait nos choix pour le microcontrôleur à utiliser.

On a programmé notre microcontrôleur et l’application fonctionne correctement.

Dans le chapitre 3 on va présenter notre travail de point de vue ingénierie pédagogique

et on va montrer notre travail sur le plan administratif pour faire avancer notre projet.

A.ACHOURI et M.MAHJOUBI Page 28

Page 29: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

IV. Chapitre 3 :

Travail de l’ingénierie pédagogique

A.ACHOURI et M.MAHJOUBI Page 29

Page 30: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Introduction

Après avoir réalisé l’application sur le Kit IAR dans le chapitre précédent, on passe ici à

l’étape qui met en valeur l’ingénierie pédagogique à travers la préparation d’une maquette

complète pour la Cité des Sciences de Tunis. Pour ce faire, une fiche thématique sera tout

d’abord conçue. Dans cette fiche, on explique le principe de la maquette, le phénomène

qu’elle illustre, les domaines auxquels elle sensibilise et le coût total de la maquette.

On présente le matériel utilisé dans cette maquette et on finit par le story board décrivant

le déroulement de l’expérience dans la Cité des Sciences de Tunis.

1. Fiche thématique de la maquette

La fiche thématique présente un petit peu le résumé du travail de l’ingénierie

pédagogique réalisé pendant ce projet. L’ingénierie pédagogique consiste à réaliser

une maquette dont l’objectif principal la mise en valeur d’un phénomène scientifique

par des moyens techniques. Dans la fiche on a présenté le phénomène scientifique illustré

par l’application « Effet retard », les domaines que cette application sensibilise, le principe

de l’expérience et les matériels et le coût de cette maquette. Elle est présentée sous forme d’un

tableau. Elle est en fait l’une des fichiers du dossier à présenter à la Cité des Sciences de

Tunis.

A.ACHOURI et M.MAHJOUBI Page 30

Page 31: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

A.ACHOURI et M.MAHJOUBI Page 31

Page 32: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Tableau 3:Fiche thématique

A.ACHOURI et M.MAHJOUBI Page 32

Maquette Casque à effet retard !!

Phénomène de perception sonore mis en jeu

La perception audio-visuelle et la production de la parole sont deux fonctionnalités très liées surtout lors d’une conversation ou lors de la lecture à voix haute. Toute perturbation de l’une perturbe l’autre. Cette maquette montre les difficultés que l’être humain peut rencontrer dans des situations similaires telles que celle d’entendre sa voix avec un décalage.

Domaines de sensibilisation

Ce projet peut sensibiliser dans de multiples domaines :

• la perception audio-visuelle

• le domaine orthophonique (une solution contre le bégaiement)

• le domaine musical

• les systèmes d’audio et de visioconférence

Principe de la maquette L’utilisateur est invité à suivre les instructions écrites dans la fiche qui se trouve près de la maquette.

Il doit mettre le casque audio et lire le texte mis sur la table à voix haute. Un retard est introduit entre le signal issu du microphone et celui qui arrive au casque audio. L’utilisateur trouvera alors l’explication de la difficulté rencontrée lors de sa lecture du texte (dans un poster).

Matériel nécessaire

et coût

de la maquette

• une table avec socle 800DT

• Un casque audio (16kHz) 500DT

• Microphone 350DT

• Kit de développement 800DT

• Ressources humaines

(ingénieurs + encadrement) 10.800DT

• Coût total : 13.250D

Page 33: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

1 Choix du matériel

Dans le choix du matériel on s’intéresse aux textes, au microphone et au casque audio.

On a mis dans les annexes des photos qui montrent la mise en place de la maquette

‘Casque à retard’ dans la Cité des Sciences de la Villette.

1.1 Choix du texte

Le texte est un élément important pour la réussite de notre maquette. Tout d’abord il est

indispensable d’avoir deux versions de texte, l’une écrite en arabe et l’autre en français,

vu qu’en général les visiteurs de la Cité des Sciences de Tunis parlent ces deux langues.

De plus il faut avoir un texte qui attire l’attention des lecteurs. Pour la version française

on est allé dans le sens de mettre un texte qui nécessite plus de concentration comme le texte

suivant :

« Grand doreur quand redoras-tu sûrement et d’un goût rare mes trente-trois ou trente-

quatre grandes cuillers d’or trop argentées ? Je redorerai sûrement et d’un goût rare les

trente-trois ou trente-quatre grandes cuillers d’or trop argentées, quand j’aurai redoré

sûrement et d’un goût rare les trente-trois ou trente-quatre autres grandes cuillers d’or trop

argentées ».

Avec ce texte on n’a pas pu savoir si la perturbation lors de la lecture résultait

d’un problème d’articulation ou si elle était provoquée par notre application. On a donc choisi

un autre texte :

Dans son activité courante, l'homme fait partie des systèmes qui l'englobent

une multitude de " personnages " agissant simultanément. La réalité est

fondamentalement " distribuée "; elle est la rencontre de plusieurs facteurs en

interaction. L'homme subit une pluralité d'influences simultanées, reçoit des

messages en parallèle, est souvent impliqué dans plusieurs processus à la fois, est

stimulé par plusieurs sources.

Ce choix n’est pas le choix final du texte, on cherche à avoir une version plus adéquate à notre

application.

A.ACHOURI et M.MAHJOUBI Page 33

Page 34: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Pour la version arabe, on a choisi le texte suivant :

إينشتاين وسائقه

هذه حكاية طريفة عن العالم ألبرت إينشتاين صاحب النظرية النسبية فقد سئم الرجل تقديم المحاضرات بعد أن تكاثرت

عليه الدعوات من الجامعات والجمعيات العلمية، وذات يوم وبينما كان في طريقه إلى محاضرة، قال له سائق سيارته:

اعلم يا سيدي أنك مللت تقديم المحاضرات وتلقي السئلة، فما قولك في أن أنوب عنك في محاضرة اليوم خاصة أن

شعري منكوش ومنتف مثل شعرك وبيني وبينك شبه ليس بالقليل، ولنني استمعت إلى العشرات من محاضراتك فإن لدي

فكرة ل بأس بها عن النظرية النسبية، فأعجب إينشتاين بالفكرة وتبادل الملبس، فوصل إلى قاعة المحاضرة حيث وقف

السائق على المنصة وجلس العالم العبقري الذي كان يرتدي زي السائق في الصفوف الخلفية، وسارت المحاضرة على

ما يرام إلى أن وقف بروفيسور متنطع وطرح سؤال من الوزن الثقيل وهو يشعر بأنه سيحرج به إينشتاين، هنا ابتسم

السائق وقال للبروفيسور: سؤالك هذا ساذج إلى درجة أنني سأكلف سائقي الذي يجلس في الصفوف الخلفية بالرد

عليه... وبالطبع فقد قدم (السائق- أينشتاين) ردًا جعل البروفيسور يتضاءل خجل

1.2Le microphone

Pour la réception et l’émission du son, soit un micro-casque soit un micro et un casque

séparés peuvent être utilisés. Ce microphone ne doit pas distordre le signal de parole. Sa

bande passante doit donc être supérieure à 12kHz. Il s’est avéré par la suite, que la position du

microphone peut poser des problèmes de saturation. Pour éviter ceci il est préférable de

séparer les deux. Le microphone sera donc encastré sur la table pour donner plus de confort au

visiteur et pour éviter la dégradation du matériel.

1.3 Le casque audio

C’est l’élément de réception du signal de parole. Le choix de ce casque est fait de façon à

restituer toutes les fréquences contenues dans la parole. A la Cité des Sciences de la Villette,

le casque choisi est le Sennheiseer HD457. Un choix de casque audio à performances

similaires a été choisi.

2 Le story board

A.ACHOURI et M.MAHJOUBI Page 34

Page 35: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Le story board présente une description du déroulement de « l’expérience » à la Cité

des Sciences de Tunis. Ce story board est destiné aux décideurs et techniciens de la Cité des

Sciences. Pédagogiquement, la procédure doit être « spontanée » pour l’utilisateur.

Le principe de la maquette est très simple, le visiteur met le casque et lit l’un des deux

textes devant lui et commence à lire le texte. L’explication de la perturbation qu’il a subie lors

de sa lecture du texte est expliquée sur une autre affiche.

Déroulement de l’expérience

Le casque audio et le texte sont mis sur une table

Un visiteur se présente devant la maquette

Le visiteur est invité à mettre le casque

Le visiteur est invité à lire à voix haute

Au début, le visiteur n’est pas gêné

Les copains commencent à rigoler à cause de son bégaiement

Conclusion Dans ce chapitre, l’esprit de l’ingénierie pédagogique de la maquette destinée à la Cité

des Sciences a été présenté. Pour ce faire, on a fait en sorte que notre maquette soit un produit

relativement fini, en préparant ce qui est indispensable pour sa mise en place dans le pavillon

sonore de la Cité des Sciences de Tunis.

A.ACHOURI et M.MAHJOUBI Page 35

Page 36: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

V. Conclusion

Dans ce projet la conception et la mise en œuvre complète d’une maquette pour la Cité

des Sciences de Tunis ont été réalisées. Cette maquette porte sur l’effet retard et son

implication dans la coordination audiovisuelle lors de la production de la parole on a réalisé

une application qui consiste à implémenter un programme dont le rôle est de retarder le son

en temps réel.

La réalisation de ce projet a nécessité la maîtrise de quelques commandes temps réel du

logiciel Matlab ce qui nous a permis de réaliser un protocole expérimental pour fixer le retard

à implémenter sur le Kit de développement IAR.

Nous avons travaillé avec le Kit de développement IAR qui est à base

de microcontrôleur STM32 exploité pour implémenter notre application. Celle-ci consiste à

faire l’acquisition du son qui entre par un microphone, lui appliquer un retard puis le faire

sortir à travers les écouteurs du casque audio.

Ce projet nous a permis d’exploiter non seulement nos compétences scientifiques et

techniques mais il a aussi mis en valeur notre esprit de « créativité » à travers le travail

d’ingénierie pédagogique.

Cette maquette n’est qu’un début pour un projet d’équipement du pavillon TIC de la

Cité des Sciences de Tunis par des maquettes audio. En particulier cette maquette peut être

complétée aisément par 2 retards différents sur les 2oreilles de manière à mettre en évidence

l’importance de la binauralité en localisation des sources sonores (réalité virtuelle,.. ;).

Il est utile de noter que ce type de maquette peut être produit en kit et vendu par la Cité des

Sciences aux visiteurs. Elle peut être également proposée dans les lycées (cours de Sciences

de la vie) pour illustrer ce phénomène de coordination audiovisuelle par le cerveau.

A.ACHOURI et M.MAHJOUBI Page 36

Page 37: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

VI. Netographie :

[1] http://fr.wikipedia.org/wiki/Ing%C3%A9nierie_p%C3%A9dagogique

[2 ] www.icp.inpg.fr

[3] Aide Matlab / www.mathwork.com

[4] http://www.st.com/stonline/stappl/cms/press/news/year2007/fra/p2184.htm

[5] http://www.jean-christian-michel.com/studio-microphone.html

[6] http://fr.wikipedia.org/wiki/Convertisseur_analogique-num%C3%A9rique

[7] http://fr.wikipedia.org/wiki/Modulation_de_largeur_d%27impulsion

A.ACHOURI et M.MAHJOUBI Page 37

Page 38: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

VII. Bibliographie

Insider's guide to STM32

STM32ReferenceManual_Dec2008

stm32f10x_stdperiph_lib_um

UM0427 User manual

The.Definitive.Guide.to.the.ARM.Cortex.M3.Aug.2007

tutorial SOC

A.ACHOURI et M.MAHJOUBI Page 38

Page 39: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

VIII. Annexes

A.ACHOURI et M.MAHJOUBI Page 39

Page 40: 39359310-Rapport

ENIT 2009/2010 Projet de Fin d’Année

Texte à lire dans la Villette

Vue globale de la maquette dans la Villette

A.ACHOURI et M.MAHJOUBI Page 40