32
Journées Jeunes Chercheurs en Acoustique, Audition et Signal Organisées en collaboration avec la Société Française d’Acoustique Partenaires accueillant l’évènement :

Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

Journées Jeunes Chercheurs en Acoustique, Audition et Signal

Organisées en collaboration avec la Société Française d’Acoustique

Partenaires accueillant l’évènement :

Page 2: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

1

Sommaire

Sommaire 1

Programme 2

Mercredi 23/11/2016 - Musée de la musique, Philharmonie de Paris-Cité de la Musique 2

Jeudi 24/11/2016 - Université Pierre et Marie Curie, site Jussieu 2

Vendredi 25/11/2016 - UPMC, site Jussieu & Ircam 2

Informations pratiques 3

Hébergement : St Christopher Inn’s 3

Remboursement des trajets A/R à destination de Paris 3

Journée du mercredi 23/11/2016. 4

Journée du jeudi 24/11/2016 5

Journée du vendredi 25/11/2016 6

Conférences 8

Conférence 1, mercredi 23/11/2016, 9:00 - 9:45 8

Conférence 2, mercredi 23/11/2016, 9:45 - 10:30 8

Conférence 3, mercredi 23/11/2016, 14:15 - 15:00 9

Conférence 4, jeudi 24/11/2016, 9:45 - 10:30 9

Conférence 5, jeudi 24/11/2016, 14:15 - 15:00 9

Conférence 6, jeudi 24/11/2016, 15:00 - 15:45 10

Visite du Musée de la musique, mercredi 23/11/2016, 18:00 - 19:00 11

Sessions posters 12

Session 1, mercredi 23/11/2016, 10:45 - 12:45 12

Session 2, mercredi 23/11/2016, 15:30 - 17:30 13

Session 3, jeudi 24/11/2016, 10:45 - 12:45 13

Session 4, jeudi 24/11/2016, 16:15 - 18:15 14

Résumés (par thème) 14

Acoustique des instruments de musique 14

Acoustique des salles 17

Design sonore 18

Informatique musicale 18

Perception et neurosciences 20

Production et perception de la parole 21

Psychoacoustique 22

Synthèse sonore 24

Traitement du signal audio 26

Partenaires 31

Page 3: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

2

Programme

Mercredi 23/11/2016 - Musée de la Musique, Cité de la Musique-Philharmonie de Paris

8 :30 – 8 :45 Accueil 8 :45 – 9 :00 Présentation et mot de bienvenue du comité d’organisation 9 :00 – 9 :45 Conférence 1 (Salle des colloques) : Adrien Mamou-Mani

D’une fascination pour la lutherie au projet SmartInstruments 9 :45 – 10 :30 Conférence 2 (Salle des colloques) : Stéphane Vaiedelich

Quelques réflexions sur la conservation et le bon usage des instruments hors d'âges ou hors d'usages du Musée de la musique

10 :30 –10 :45 Pause Café 10 :45 –12 :45 Session Poster 1 (Salle des colloques) :

Perception & Neurosciences - Informatique musicale 12 :45 – 14 :15 Repas (Restaurant L’Entrepôt) 14 :15 – 15 :00 Conférence 3 (Salle des colloques) : Claudia Fritz Stradivarius : la part du mythe 15 :00 – 15 :30 Pause café 15 :30 – 17 :30 Session Poster 2 (Salle des colloques) :

Psychoacoustique - Informatique musicale 17 :30 – 18 :00 Déplacement vers le Musée de la Musique. 18 :00 – 19 :00 Visite du Musée de la Musique, A. Houssay, S. Le Conte et S. Vaiedelich 19 :00 – 20 :00 Fermeture Musée

Jeudi 24/11/2016 - Université Pierre et Marie Curie, site Jussieu

9 :00 – 9 :30 Accueil 9 :30 – 9 :45 Présentation YAN (Amphi Durand) : Julian Palacino, Georges Roussel

Présentation des activités du Young Acoustician Network 9 :45 – 10 :30 Conférence 4 (Amphi Durand) : Bertrand David [Titre non disponible] 10 :30 –10 :45 Pause Café 10 :45 –12 :45 Session Poster 3 (Cave Esclangon) :

Traitement du signal sonore & Synthèse sonore, Acoustique des instruments de musique

12 :45 – 14 :15 Repas (Buffet) 14 :15 – 15 :00 Conférence 5 (Amphi Durand) : Shihab Shamma

On the Representation of Music in the Brain 15 :00 – 15 :45 Conférence 6 (Amphi Durand) : Stefano D’Angelo

Virtual Analog Modeling of Nonlinear Musical Circuits 15 :45 – 16 :15 Pause café 16 :15 – 18 :15 Session Poster 4 (Cave Esclangon) :

Traitement du signal sonore & Synthèse sonore, Acoustique des instruments de musique & Acoustique des salles

18 :15 – 18 :45 Résultats du concours de posters & Passage de flambeau 19:30 Événement social (Bar Le Marylin, 122 Rue Oberkampf, 75011 Paris)

Vendredi 25/11/2016 - UPMC, site Jussieu & Ircam

9:30 - 11:30 Visite de l’équipe LAM (Lutheries - Acoustique - Musique) - Institut d’Alembert 15:00 - 16:30 Visite de l’Ircam (Institut de Recherche et de Coordination Acoustique - Musique)

Page 4: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

3

Informations pratiques

Hébergement : St Christopher Inn’s

159 rue de Crimée, Paris, France, 75019 (cf. plan ci-dessous) Métro Ligne 5 arrêt Laumière, Ligne 7 arrêt Riquet Pour les personnes qui ont demandé un hébergement pour le mardi 22/11 au soir, veuillez prévenir Damien Bouvier ([email protected] ou 06 17 06 68 52) de votre horaire d’arrivée afin qu’il puisse vous fournir les clés.

Remboursement des trajets A/R à destination de Paris

Pour les participants ne venant pas de Paris et qui souhaiteraient se voir rembourser tout ou partie de leur trajet, veuillez envoyer les détails de votre trajet (facture, mail de confirmation de paiement et/ou de réservation, ...) à [email protected] (si ce n’est déjà fait). Nous essayerons de rembourser au maximum en fonction du budget restant et du nombre de billets à rembourser.

Page 5: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

4

Journée du Mercredi 23/11/2016.

- Musée de la Musique, Salle des Colloques 221 Avenue Jean Jaurès, 75019 Paris, cf. plan ci-dessous

Métro Ligne 5 arrêt Porte de Pantin – Tram T3b – Bus 75, 151, N13, N140 (ou à 15mn à pied de l’auberge de jeunesse)

Attention, pour des raisons de sécurité, l’accès à la Salles des Colloques sera uniquement ouvert entre 8h et 10h le matin et entre 13h45 et 15h l’après-midi. En cas de retard, se rendre à l’Entrée des Artistes (221, avenue Jean Jaurès, cf.plan) et contacter Henri Boutin (07 83 03 25 79).

- Déjeuner à l’Entrepôt Villette 216 Avenue Jean Jaurès, 75019 Paris, cf. plan ci-dessus.

- Visite du Musée de la musique 221 Avenue Jean Jaurès, 75019 Paris

Page 6: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

5

Journée du Jeudi 24/11/2016

- UPMC, site Jussieu, Bâtiment Esclangon 4 Place Jussieu, 75005 Paris, cf. plan ci-dessous Métro Lignes 7 ou 10 arrêt Jussieu

- Soirée des JJCAAS - Bar Le Marylin 122 Rue Oberkampf, 75011 Paris, cf. plan ci-dessous

Métro Ligne 3 arrêts Parmentier ou Rue Saint-Maur, Ligne 2 arrêt Ménilmontant

Page 7: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

6

Journée du Vendredi 25/11/2016

- Visite de l’équipe LAM - Institut d’Alembert UPMC, site Jussieu - Couloir 44-54 - 5ième étage 4 Place Jussieu, 75005 Paris, cf. plan ci-dessous Métro Lignes 7 ou 10 arrêt Jussieu

Page 8: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

7

- Visite de l’Ircam 1 place Igor Stravinsky, 75004 Paris, cf. plan ci-dessous Métro Ligne 1 arrêt Hôtel de Ville, Ligne 11 arrêts Rambuteau ou Châtelet

Page 9: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

8

Conférences

Conférence 1, Mercredi 23/11/2016, 9:00 - 9:45

D’une fascination pour la lutherie au projet SmartInstruments, par Adrien Mamou-Mani

(Koala)

Résumé : Presque douze ans depuis mes derniers JJCAAS. J'aimerais partager avec vous des moments clés (réussites mais aussi échecs), des rencontres déterminantes, des projets réalisés ou rêvés, qui ont jalonné ces années au service de ce qu’on pourrait appeler “la Technologie des instruments de musique”. Biographie : Adrien Mamou-Mani was the Head of the Instrumental Acoustics team at Ircam until 2016 when he founded Koala, a company manufacturing active controlled musical instruments. He is a professor in musical acoustics at Conservatoire National Supérieur de Musique et de Danse de Paris (CNSMDP). His research interests include acoustics, mechanics, active control of vibration, and their applications to musical instruments design. He has collaborated with number of instrument makers (mostly string and wind instruments), musicians, and composers, and likes combining traditional know-how with scientific knowledge and new technology. Adrien holds a PhD in mechanics and acoustics from UPMC (Paris) and was a postdoctoral researcher at the Musée de la musique in Paris and at the Open University (UK). Adrien was awarded a Newton Fellowship and a Singer Polignac grant for his research, and was the principal investigator of a French National Agency project (ANR IMAREV).

Conférence 2, Mercredi 23/11/2016, 9:45 - 10:30

Quelques réflexions sur la conservation et le bon usage des instruments hors d’âges ou hors d’usages du Musée de la musique,

par Stéphane Vaiedelich

(Musée de la musique, Cité de la musique-Philharmonie de Paris)

Résumé : Lorsqu’il s’agit du jeu de l’instrument et des questions qu’il soulève, quel acousticien ne percevrait pas immédiatement les liens que son art peut tisser avec ces problématiques ! Pour autant, lorsqu’elle s’exprime dans un cadre muséal, la question peut sembler moins triviale. Au sein d’une collection et particulièrement d’une collection publique, l’instrument de musique acquiert un statut patrimonial qui fait de lui le véhicule de nombreuses valeurs culturelles. Tout à la fois objet technique et objet d’art, porteur d’une fonctionnalité elle-même artistique, il est au carrefour de l’histoire de l’art et de l’histoire des techniques. Dans le cadre de sa conservation au sein d’un musée et de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut être urgent de ne pas le jouer afin qu’il puisse s’exprimer et inversement. Quel que soit l’objectif, sa mise en conservation, en présentation, son maintien en état de jeu, la politique de conservation et de

Page 10: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

9

restauration menée au Musée de la Musique fait largement appel à des résultats initiés par les recherches des sciences naturelles et de l’ingénieur, chimie, physique, biologie entre autres, dont on se propose de faire état, en amont de ces JJCAAS. Biographie : Responsable du Laboratoire de recherche et de restauration du Musée de la musique de la Cité de la musique-Philharmonie de Paris, Stéphane Vaiedelich commence sa carrière comme luthier et obtient plusieurs récompenses dans différentes compétitions. Parallèlement, il étudie l’acoustique musicale à l’Université Pierre et Marie Curie (UPMC). Titulaire d’un troisième cycle en sciences des matériaux (Université de Toulon et du Var), il possède également un Master en conservation-restauration des biens culturels de l’Université Paris 1 Panthéon-Sorbonne. Ses recherches abordent l’identité matérielle des instruments de musique en lien avec leurs fonctionnalités, leur conservation-restauration, tant d’un point de vue méthodologique qu’historique.

Conférence 3, Mercredi 23/11/2016, 14:15 - 15:00

Stradivarius : la part du mythe, par Claudia Fritz

(Chargée de recherche CNRS, LAM-d’Alembert - UPMC)

Résumé : Les vieux violons italiens du XVIIIe siècle sont si réputés que Stradivarius est entré dans le langage courant. Qui n’a jamais entendu parler de ce luthier crémonais et du prix astronomique qu’atteignent ses instruments lors de ventes aux enchères très médiatisées? Les musiciens sont intarissables à leur égard, et considèrent que la supériorité d’un grand nombre d’entre eux reste inégalée. Pourtant, de nombreux tests d’écoute en aveugle menés depuis le début du XXe siècle ont montré une préférence pour les violons neufs. Ces tests n’ont cependant souvent pas été pris au sérieux, car trop informels, pas assez rigoureux, et réalisés en situation d’écoute or qui peut mieux juger que les violonistes eux-mêmes ? Plusieurs expériences scientifiques impliquant des tests de jeu et d'écoute en aveugle ont donc été mises en place par une équipe de scientifiques, luthiers et musiciens. Il s'agissait de savoir si, alors que l’identité des violons n'était pas divulguée, les vieux violons étaient vraiment préférés et pouvaient être distingués de leurs homologues récents. Les résultats parlent d'eux-mêmes... Biographie : Claudia Fritz est chargée de recherche au CNRS, dans l’équipe Lutheries-Acoustique-Musique de l’Institut Jean le Rond d’Alembert à l’Université Pierre et Marie Curie (Paris). Elle s’intéresse à corréler le ressenti des violonistes avec des mesures vibro-acoustiques (mobilité au chevalet, son rayonné, ...) sur les instruments et des mesures des paramètres de contrôle des musiciens ( vitesse et pression d’archet, ...). Elle cherche à mieux comprendre comment les instrumentistes procèdent à l’évaluation de la qualité d’un violon/violoncelle (quels sont les critères pertinents, à quoi ils sont sensibles, …) et pourquoi leurs avis diffèrent autant. Ses travaux sont menés en collaboration avec des chercheurs de différentes disciplines ainsi qu’avec des luthiers et des musiciens. Ils ont été récompensés par la médaille de bronze du CNRS en 2016.

Page 11: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

10

Conférence 4, Jeudi 24/11/2016, 9:45 - 10:30

[Titre non disponible], par Bertrand David

(Maître de conférences, Traitement du Signal et des Images - Télécom ParisTech)

Résumé : [Non disponible] Biographie : [Non disponible]

Conférence 5, Jeudi 24/11/2016, 14:15 - 15:00

On the Representation of Music in the Brain, par Shihab Shamma

(Professeur ENS - Laboratoire des Systèmes Perceptifs)

Résumé : Music is an acoustic signal that is imbued with emotion and meaning. In this talk, I will describe some of the basic perceptual attributes of music that can readily be inferred from neuroscience data. But then I discuss the more complex higher-level attributes of structure and emotion that give music its special status. Of course, the question is: where is the line between the two? And can we push more of the "higher-level" functions into the "basic" category? Biographie : Dr. Shamma’s research focuses on the representation of the acoustic signal at various levels in mammalian auditory systems. His research ranges from theoretical models of auditory processing in early and central auditory stages, to neurophysiological investigations of the auditory cortex, to psychoacoustical experiments of human perception of acoustic spectral profiles. Shihab Shamma received his B.S. degree from Imperial College, in London, U.K. He received his M.S. and Ph.D. degrees in Electrical Engineering from Stanford University in 1977 and 1980, respectively.

Conférence 6, Jeudi 24/11/2016, 15:00 - 15:45

Virtual Analog Modeling of Nonlinear Musical Circuits, par Stefano D’Angelo

(DSP Research Engineer - Arturia)

Résumé : Recent advances in semiconductor technology eventually allowed for affordable and pragmatic implementations of sound processing algorithms based on physical laws, leading to considerable interest towards research in this area and vast amounts of literature being published in the last two decades. As of today, despite the efforts invested by the academic community and the music technology industry, new or better mathematical and computational tools are called for to efficiently cope with a relatively

Page 12: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

11

large subset of the investigated problem domain. This is especially true of those analog devices that inherently need to be studied by lumped nonlinear models. This presentation is intended to provide an introduction to the challenges involved in creating digital equivalents of analog musical circuits, as well as to the main techniques proposed as of today. Biographie : Stefano D'Angelo was born in Vallo della Lucania, Italy, in 1987. He received the M.S. degree in computer engineering from Politecnico di Torino, Turin, Italy, in 2010. In 2014 he received the Doctor of Science in Technology degree in electrical engineering from the Aalto University, Helsinki, Finland, after defending a thesis on virtual analog modeling. He is employed as DSP research engineer at Arturia, Grenoble, France, since April 2015. His main research interests are audio programming languages and digital emulation of electrical audio circuits.

Visite du Musée de la musique, Mercredi 23/11/2016, 18:00 - 19:00

Thème 1 : « Choix, traitement et circulation des bois pour la fabrication des instruments de musique au XVIIème siècle » A. Houssay, plateau 17ème.

Thème 2 : « Le jeu des instruments des collections. Apport des mesures physiques » S. Le Conte, plateau 18ème.

Thème 3: « L’instrumentarium du 20ème : la fée électricité » S. Vaiedelich, mezzanine 20ème.

Page 13: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

12

Sessions posters

Session 1, Mercredi 23/11/2016, 10:45 - 12:45

Perception & Neurosciences - Informatique musicale

P. Arias, Emotional mimicry induced by manipulated speech

K. Déguernel, Improvisation Musicale Multidimensionnelle dans le Paradigme OMax

T. Joubaud, Prédiction de la dégradation des performances de localisation sonore induite par des Systèmes Tactiques de Communication et Protection

V. Lostanlen, Ondelettes sur la spirale des hauteurs : analyse, classification, synthèse

N. Matos Rocha, Le Transfert de Xenakis : La pensée compositionnelle transdisciplinaire en tant que

processus de transfert inférentielle.

J. Palacino, Impact de la cohérence audiovisuelle dans le démasquage de sources

L. Rachman, Effects of speaker identity on emotion-related auditory change detection: An ERP study

Session 2, Mercredi 23/11/2016, 15:30 - 17:30

Psychoacoustique - Informatique musicale

G. Berthomieu, Influence des différences interaurales de temps sur le niveau sonore perçu

B. Bressolette, Apprentissage sonore pour la manipulation d�’un objet virtuel

A. Cohen-Hadria, Apprentissage de structure musicale par réseaux de neurones convolutifs

L. Crestel, Live orchestral piano : un système temps-réel pour l'orchestration

L. Gandemer, Influence du son sur la posture

V. Rosi, Mesure psychoacoustique de discrimination de l’intensité sonore : influence du contexte

A. Vidal, Optimisation d�’un système de son 3D léger en salle d’’ écoute usuelle

Session 3, Jeudi 24/11/2016, 10:45 - 12:45

Traitement du signal audio & Synthèse sonore Acoustique des instruments de musique

L. Ardaillon, Modèle de F0 multi-couches pour la synthèse de voix chantée basé sur l'utilisation de B-splines avec paramètres de contrôle intuitifs

M. Aussal, Simulation numérique et synthèse binaurale

A. Ramamonjy, Détection, localisation et identification de sources acoustiques avec un capteur compact

V. Bisot, Overlapping sound event detection with supervised nonnegative matrix factorization

T. Bordonné, Contrôle intuitif de la synthèse sonore par le signal vocal

H. Boutin, Dissipation acoustique dans des tuyaux en bois de différentes essences, utilisées en facture instrumentale

P-A. Broux, An active learning method for speaker identity annotation in audio recordings

K. Buys, Improving the stability of a hybrid wind instrument using two microphones

Page 14: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

13

S. Delalez, L'Exochanteur: système de contrôle rythmique et mélodique de voix préenregistrée

A. Ernoult, Transitoires d'attaques de flûtes à bec

V. Gautier, DYNAMMIA: L’’ étude viscoélastique du bois au service de la conservation des instruments du patrimoine.

C. Issanchou, Méthode modale mixte pour le contact corde / obstacle, application à la synthèse sonore

S. Karkar, SAMU (Smart Active MUte) : une sourdine active pour trombone

S. Leglaive, Multichannel audio source separation: variational inference of time-frequency sources from time-domain observations

F. Salmon, Optimisation du traitement binaural interactif pour le mixage orienté objet

Session 4, Jeudi 24/11/2016, 16:15 - 18:15

Traitement du signal audio & Synthèse sonore Acoustique des instruments de musique

Acoustique des salles A. Bourachot, Le langage des sons : synthèse sonore interactive pour la réalité virtuelle

D. Bouvier, Systèmes audios non-linéaires: Problèmes d'identification et Séries de Volterra

H. Caracalla, Synthèse de texture sonore par imposition de statistiques temps-fréquence

H. Demontis, Auralisation dynamique pour l’acoustique des salles

C. Desvages, Amortissements dans les cordes linéaires: modélisation dans le domaine temporel des pertes dépendantes en fréquence

H. Dujourdy, Diffusion acoustique dans les lieux de travail

A. Falaize, Un module Python pour la modélisation et la simulation à passivité garantie de systèmes multi-physiques

J-R. Gloaguen, Estimation du niveau sonore du trafic routier par mesures acoustiques : résultats préliminaires

C. Jacques, Probabilistic latent variable analysis for automatic music transcription

T. Lebrun, Correction d'un haut-parleur électrodynamique: Modélisation, Simulation et Mesures.

R. Muller, Approximations de trajectoires continues préservant le bilan de puissance dans le cadre des Systèmes Hamiltoniens à Ports

G. Roussel, Adaptive framework for personal sound-zone reproduction system

C. Vauthrin, Partenariat entre acousticiens, musicologues et un facteur de flûte pour la conception d’’ une flûte du 19ème siècle

T. Wofford, Caractérisation des interactions entre le musicien et le violoncelle

Page 15: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

14

Résumés (par thème)

Acoustique des instruments de musique

Dissipation acoustique dans des tuyaux en bois de différentes essences, utilisées en facture

instrumentale Henri Boutin

Mot-clés: Instruments à vent - Dissipation acoustique - Tuyau - Bois

Dans les collections du Musée de la Musique, Philharmonie de Paris, les instruments à vent en bois ne sont généralement pas en état de jeu, notamment à cause de l’état de surface de leur perce, non huilée et parfois fissurée ou fendue. Cette étude vise à quantifier l’influence du polissage et du huilage sur les résonances de la colonne d’air et donc sur le son de l’instrument. Nous considérons un corpus de cinq tuyaux cylindriques en bois de mêmes dimensions, de différentes essences utilisées en facture instrumentale (érable, buis, poirier et grenadille du Mozambique) et de différentes directions : parallèle à la fibre du bois ou de travers avec un angle de 60 degrés. Pour chaque tuyau, un bouchon étanche permet de fermer la perce et d’ajuster sa longueur. L’impédance d’entrée des tuyaux est mesurée pour deux longueurs de perce, l’une égale à la moitié de l’autre. Ces mesures sont effectuées avant et après polissage, puis après huilage. Nous proposons une méthode d’estimation du facteur d’atténuation à partir de ces mesures. Elle permet de comparer la dissipation acoustique dans les tuyaux selon les essences de bois et la direction de la coupe, de quantifier l’effet du polissage puis du huilage.

Improving the stability of a hybrid wind instrument using two microphones Kurijn Buys, David Sharp, Robin Laney

A hybrid wind instrument is constructed by putting a real-time computed excitation model (such as a physical model of a clarinet embouchure) in interaction with a real wind instrument resonator. In previous work, the successful construction of a hybrid wind instrument has been demonstrated, with the interaction facilitated by a loudspeaker and a single microphone placed at the entrance of a clarinet-like tube. Musically relevant results were obtained when the negative gradient of the nonlinear excitation function was limited to a certain threshold. In the present work, a study of the ``open-loop system'' reveals that this instability is caused by strong, high-frequency resonance peaks (resulting from non-planar air vibration modes in the small cavity in front of the loudspeaker) combined with an inverted phase response (due to phase lags such as the input-to-output latency of the computer,Delta_t). The former issue is avoided by repositioning the microphone at the centre of the loudspeaker cavity, while the latter is accounted for by introducing a second microphone a distance c.Delta_t along the tube. The excitation models are implemented on a new digital real-time audio platform, ``Bela''. A better stability is obtained and evaluation with a real clarinet gives musically relevant results.

Transitoires d'attaques de flûtes à bec Augustin Ernoult

Mot-clés: Instruments de type-flûte - Transitoire d'attaque - Contrôle instrumental - Acoustique

Les modélisations physiques actuelles des instruments de la famille des flûtes permettent de prédire correctement et d'interpréter leurs comportements quasi-stationnaires, c'est à dire les modifications du

Page 16: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

15

son induites par des variations lentes, par rapport au temps de réponse de l'instrument, des paramètres de contrôle . Le musicien fait cependant varier constamment ces paramètres pour articuler le discours musical. Au cours des transitoires d'attaques notamment, une variation brusque de la pression d'alimentation induit une mise en oscillation progressive de l'instrument. La naissance du son jouant un rôle important dans sa perception, la maîtrise de ces attaques est donc un point essentiel de l'apprentissage du jeu de la flûte et de la fabrication des instruments. Ce travail porte sur la caractérisation et l'interprétation physique des différents phénomènes ayant lieu au cours des transitoires d'attaque des flûtes à bec et des tuyaux d'orgue. Des attaques produites par des musiciens experts et novices sont étudiées dans le domaine spectral et temporel afin d'identifier et quantifier les mécanismes mis en jeu. La comparaison entre les différents musiciens permet de déterminer les phénomènes qu'ils contrôlent et ceux imposés par l'instrument.

DYNAMMIA: L’étude viscoélastique du bois au service de la conservation des instruments du patrimoine.

Vincent Gauthier

Mot-clés: Viscoélasticité - AMD - conservation - patrimoine

Les praticiens de la musique occidentale s’accordent à dire que les instruments à table d’harmonie s’améliorent lorsqu’ils sont joués. Parmi les raisons possibles de l’impact du jeu d’un musicien sur l’évolution des instruments se trouve le vieillissement le bois. Est-ce que l’application de vibrations de longues durées, semblables à celles que le musicien impose à son instrument, possède une influence sur la viscoélasticité du bois ? En s’inspirant de N. Sobue en 1995, ceci est étudié au travers du facteur de pertes η et du module d’élasticité E de poutres élancées en flexion. Après mise en place du moyen de mesure qui ne doit en aucun cas perturber la vibration des éprouvettes, deux expériences sont réalisées, une pour laquelle les poutres sont saturées en eau, une où les poutres sont mises en conditions quasi-anhydres. Dans tous les cas deux éprouvettes sont utilisées : une mise en vibration et un témoin pour différencier les évolutions de E et η dues à la vibration et celles dues à l’environnement. Entre autres résultats, en conditions saturées le facteur de pertes diminue de façon exponentielle avant d’atteindre un plateau, alors qu’il ne diminue que légèrement de façon linéaire pour le témoin.

SAMU (Smart Active MUte) : une sourdine active pour trombone Sami Karkar, Thach Pham Vu, Hervé Lissek

Mot-clés: acoustique musicale - contrôle actif d'impédance - électro-acoustique - trombone

Nous souhaitons développer une sourdine de trombone active, basée sur le principe des absorbeurs électro-acoustiques, c'est-à-dire sur le contrôle actif de l'impédance acoustique du diaphragme d'un haut-parleur, par le biais d'un shunt électrique ou d'un circuit de commande (avec ou sans capteurs). Sur le principe, la sourdine doit permettre une pratique silencieuse du trombone, sans pour autant modifier l'impédance d'entrée de l'instrument, de manière à ne pas perturber l'instrumentiste. A partir d'un relevé de la géométrie de l'instrument, on calcule son impédance d'entrée en utilisant le formalisme des matrices de transfert. Une synthèse sonore permet de confirmer la validité du modèle choisi. On vient ensuite modéliser une sourdine passive comme un élément localisé, à la manière de Backus. Enfin, par inversion de modèle, on remonte à l'impédance qu'il faudrait assigner à la paroi active de la sourdine pour réaliser une sourdine parfaite, au sens où elle ne perturberait pas l'impédance d'entrée et donc le jeu du musicien. Toutefois, la réalisation pratique de cette impédance cible peut se heurter à la faisabilité d'un tel contrôle...

Page 17: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

16

Correction d'un haut-parleur électrodynamique: Modélisation, Simulation et Mesures. Tristan Lebrun

Mot-clés: Haut-parleur - Non-linéarités - Planification de trajectoire - Systèmes Hamiltoniens à Ports

Les haut-parleurs sont des systèmes électro-acoustiques présentant des distorsions à fort niveau d'excitation,ce qui limite leur plage de fonctionnement en régime linéaire. L'objectif de cette étude est de compenser les non-linéarités responsables de ces distorsions. Pour cela, on établit un modèle physique non linéaire du transducteur, formulé par les Systèmes Hamiltoniens à Ports, qui garantissent la passivité du système. En parallèle, un banc de mesure est développé pour estimer les paramètres du modèle, puis une correction est élaborée par une méthode de planification de trajectoire appelée platitude. La correction fournit d'excellents résultats numériques, et son implantation sur le banc expérimental permet une réduction notable des distorsions observées.

Partenariat entre acousticiens, musicologues et un facteur de flûte pour la conception d’une flûte du 19ème siècle

Camille Vauthrin

Mot-clés: Acoustique musicale - Facture - Musicologie - Interdisciplinarité

Professional flute-players recently asked a Parisian flute maker to conceive a period Boehm flute with an open key system, similar to the one inaugurated in 1830. Jointly conducted by acousticians, musicologists and flute makers, the objective is to conceive such a nineteenth century flute. Our aim is to understand the historical and musical context of flute manufacture, the playing techniques developed by musicians, the acoustic responses of the instrument and the characteristics of the key mechanism. We will be using an interdisciplinary approach, combining musicology and acoustic studies. The former will be using historical documents and academic articles in order to establish a coherent overview of the flute making industry in France in nineteenth century; the latter will be using geometrical surveys, models of admittance and admittance measurements in order to determine the acoustic characteristics of the nineteenth century flute, to identify the elements of flute making specific to each flute maker and to understand the playing techniques developed by the musicians. Furthermore, the understanding of the specific playing techniques can be improved by the discussion with the professional flute players. Finally, regular discussions with the flute maker are necessary to understand the freedom or the limits of flute manufacture.

Caractérisation des interactions entre le musicien et le violoncelle Timothy Wofford, Claudia Fritz, Benoît Fabre, Jean-Marc Chouvel

Mot-clés: interaction musicien/instrument - violoncelle - capteur de mouvement - perception

La capture des mouvements des musiciens en situation de jeu a été développée jusqu'ici pour explorer leurs techniques de jeu, à des fins pédagogiques, ethno-musicologiques ou de création musicale (contrôle d'instruments électroniques). Nous nous proposons ici de l'appliquer à l'étude de la qualité des instruments, en particulier du violoncelle. En effet, jouer un violoncelle inconnu requiert pour un musicien des changements subtils dans sa technique de jeu afin de compenser les différences mécaniques avec son violoncelle habituel. Or ces changements peuvent certainement être reliés à l'évaluation perceptive du musicien de ce violoncelle inconnu et par conséquent pourraient faire le lien entre perception et lutherie, lien jusqu'ici difficile à établir puisque divers musiciens vont avoir diverses évaluations (souvent opposées) pour un instrument donné.

Page 18: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

17

A cet effet, nous enregistrons les mouvements relatifs de l'archet et du violoncelle avec un système de capture commercial ainsi que la vibration des cordes avec des capteurs piézoélectriques insérés dans le chevalet sous chaque corde. Ces mesures simultanées sont effectuées lors de l'évaluation par quelques musiciens de deux violoncelles différents. Toutes ces mesures seront ensuite mise en regard avec les évaluations perceptives de ces deux violoncelles.

Acoustique des salles

Auralisation dynamique pour l'acoustique des salles

Hugo Demontis, Barteld Postma, Brian Katz

Mot-clés: Auralisation - Réalité virtuelle - Acoustique des salles

Ce projet de recherche porte sur une adaptation de l’auralisation pour une écoute de salle au rendu sonore dynamique. La simulation varie en temps réel en fonction des modifications apportées à la source et par l’auditeur. Ces modifications peuvent être par exemple le changement d’orientation et de rayonnement acoustique de cette source. Il n’est plus nécessaire de procéder à de nouveaux calculs pour obtenir un nouveau rendu sonore dans la salle simulée. Un test perceptive est mise en place pour évaluer l’apport de ce procédé lors d’une écoute de salle. Les résultats montrent que la scène sonore est jugée plus naturelle que dans le cas d’une auralisation classique. La source est perçue plus large et plus enveloppante. La possibilité d’intégrer des sources présentant des directivités complexes, comme celle de la parole, lors d’une simulation sonore est envisageable.

Diffusion acoustique dans les lieux de travail Hugo Dujourdy, Thomas Toulemonde, Jean-Dominique Polack

Mot-clés: acoustique architecturale - acoustique des plateaux de bureaux - densité d'énergie - coefficient de diffusion

Suite à l'apparition de la normalisation de la mesure du coefficient de diffusion ISO et AES, la nécessité d'une meilleure prise en compte des phénomènes de dispersion sur les parois et le mobilier dans les logiciels de simulation d'acoustique des salles se fait de plus en plus sentir dans la communauté scientifique et industrielle. Dans ce contexte, le travail présenté définit un coefficient de diffusion à travers la théorie du tenseur énergie-impulsion présentée dans les années 50 par Morse et Feshback. Ce tenseur contient toutes les informations énergétiques concernant le champ acoustique local. Si l'on considère des espaces où une dimension est grande par rapport aux autres, comme dans les plateaux de bureaux, une simplification du problème permet d'intégrer dans une équation de propagation appliquée à l'énergie acoustique, les coefficients d'absorption et de diffusion acoustique. Une modélisation par la méthode des différences finies est effectuée permettant de retrouver les valeurs des coefficients à partir de mesures in situ.

Page 19: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

18

Design sonore

Le Transfert de Xenakis : La pensée compositionnelle transdisciplinaire en tant que

processus de transfert d’inférence Namur Matos

Mot-clés: Musique et Architecture - Xenakis - Transfert d'inférence - Cognition

Dans son livre « Revealing Architectural Design : Methods, Frameworks and Tools », Philip Plowright explique que toute connaissance provenant d'une discipline externe doit être décodée, déchiffrée ou traduit pour être utilisée comme un principe de conception dans une autre discipline. Ce décodage de connaissance est appelé transfert de domaine à domaine ou transfert d'inférence. Inférer ou faire une inférence est un processus qui consiste à extraire des conclusions logiques à partir de prémisses connues ou supposées vraies. En général, le transfert de domaine à domaine consiste à sélectionner un contenu dans un domaine source et à le déplacer vers un domaine visé, intermédié par une trame de transfert. D'autres termes plus communs pour cette activité sont : l'analogie, la métaphore, l'homologie ou la similarité. Comme on le sait, la composition architecturale et musicale sont basées sur une syntaxe interne qui intègre ses connaissances disciplinaires, mais elles également infèrent des connaissances externes. Ainsi, pour utiliser les connaissances extra-disciplinaires dans les syntaxes architecturales ou musicales, il est nécessaire en décoder par une opération de transfert d’inférence. Cet article propose une analyse du processus de composition de Xenakis à travers la méthodologie de transfert d'inférence.

Informatique musicale

Apprentissage de Structure Musicale par Réseaux de Neurones Convolutifs

Alice Cohen-Hadria, Geoffroy Peeters

Mot-clés: Deep learning - Structure Musicale - Réseaux de neurones - Matrice d'auto-similarité

Le travail présenté porte sur l’estimation de structure musicale. Ici, on se restreint à estimer, à partir d’un signal audio de musique, des frontières délimitant différentes parties du signal. Avec l’apparition d’ensembles de données grande échelle, la mise en œuvre d’algorithmes d’apprentissage supervisé est désormais possible. Plus particulièrement, on utilise ici un modèle de réseaux de neurones convolutionnels (ConvNet). La contribution principale de ce travail est l’utilisation de la profondeur de la couche d’entrée des réseaux et de représentations en matrice d’auto-similarité pour les ConvNets.

Live orchestral piano : un système temps-réel pour l'orchestration Léopold Crestel, Philippe Esling

Mot-clés: Orchestration automatique - Modèle génératif - Apprentissage statistique - Temps-réel

L'orchestration est l'art d'écrire de la musique pour un orchestre. Chaque instrument possède un large intervalle de fréquences et d'intensités. On entrevoit l'immense diversité sonore qu'offre un orchestre symphonique et la complexité de la discipline souvent référée comme l'art de composer les timbres. Jusqu'au début du XXe siècle, l'orchestration était fréquemment abordée comme la projection d’une oeuvre pour piano sur une formation orchestrale. Le timbre structure l'évolution mélodique, rythmique et

Page 20: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

19

harmonique de la pièce. Notre objectif est de construire un système qui génère automatiquement une partition pour orchestre à partir d'une partition pour piano. Il paraît ambitieux de vouloir composer le timbre, souvent caractérisé comme l'évolution jointe de plusieurs descripteurs spectraux, à partir d'une information purement symbolique. Nous faisons l'hypothèse que l'observation d'un grand nombre d'exemples de projections orchestrales réalisées par des compositeurs de renom, permettrait l'inférence de règles symboliques (probablement très nombreuses) qui encapsuleraient la connaissance timbrale des compositeurs. Ainsi, nous proposons une approche du problème par apprentissage statistique sur une base de données. Nous détaillons plusieurs modèles inspirés des conditional Restricted Boltzmann Machine, leur entraînement sur une base de partition pour piano et leur orchestration, un cadre d'évaluation quantitatif et une implémentation temps-réel des modèles entraînés..

Improvisation Musicale Multidimensionnelle dans le Paradigme OMax Ken Déguernel, Emmanuel Vincent, Gérard Assayag

Mot-clés: improvisation - oracle des facteurs - apprentissage - modèles probabilistes

Les systèmes d'improvisation automatique issus du paradigme OMax utilisent un apprentissage sur des séquences musicales unidimensionnelles pour générer de nouvelles improvisations. Nous proposons un système créant des improvisations d'une manière plus proche de celle de l'humain où l'intuition sur le contexte est enrichie par des connaissances de ses expériences musicales. Ce système combine des modèles probabilistes entraînés sur des séquences multidimensionnelles prenant en compte les liens entre les différentes dimensions musicales avec des oracles des facteurs permettant de représenter le contexte local de ce qui est en train d'être joué. Chaque oracle représente une dimension ou un musicien différent. Lors de la génération, la communication entre oracles s'effectue par passage de messages à travers un graphe de clusters.

Ondelettes sur la spirale des hauteurs : analyse, classification, synthèse Vincent Lostanlen

Mot-clés: scattering - ondelettes - spirale - texture

Tandis que la gestuelle musicienne est restreinte par des contraintes physiques, les sons générés par ordinateur ne souffrent d'aucune limitation technique. Cet article envisage un "retour au geste" par le biais d'une décomposition du spectrogramme en une combinaison d'ondelettes spectrotemporelles, à de multiples échelles. L'outil mathématique associé, nommé transformée en scattering multivariable, peut être étudié dans un cadre temps-fréquence. Son architecture informatique dénote une ressemblance avec les réseaux profonds à convolutions. Dans le domaine transformé, on voit apparaître des éléments expressifs typiques, tels que le vibrato, le trémolo, ou le sforzando. Il reste toutefois à résoudre l'ambiguïté entre paradoxes de hauteur tonale (chromatismes) et paradoxes de hauteur spectrale (arpèges). Pour ce faire, nous présentons une transformée en scattering sur la spirale des hauteurs de Shepard-Risset, qui fait un tour à chaque nouvelle octave, de sorte que les puissances de deux de chaque partiel sont alignées. D'une part, nous utilisons la transformée en scattering comme un descripteur audio pour la classification supervisée de sons, et obtenons des résultats probants en reconnaissance d'instruments. D'autre part, nous re-synthétisons approximativement un son à partir d'une cible dans le domaine transformé. Un partenariat art-science avec le compositeur Florian Hecker est en cours.

Page 21: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

20

Perception et neurosciences

Emotional mimicry induced by manipulated speech

Pablo Arias

Mot-clés:

Emotional mimicry, the implicit imitation of a facial emotional expression is an essential mechanism mobilised to judge emotions in humans. In this work we present supporting information that this mechanism is mobilised also when judging speech. Here we study the correlations of the Zygomatic major and Corugator supercili activity to the voice spectral cues to understand if emotional mimicry covaries with valence, proposing that the mechanism is a high level cognitive judgement, or with low level acoustical features, making it an implicit motor imitation of the sound.

Prédiction de la dégradation des performances de localisation sonore induite par des Systèmes Tactiques de Communication et Protection

Thomas Joubaud

Mot-clés: Protection auditive - Localisation sonore - HRTF - ITD, ILD

Les Systèmes Tactiques de Communication et Protection (TCAPS) sont des protections auditives efficaces et préservant l'intelligibilité, facilitant ainsi la communication dans le bruit. Cependant, des études ont montré que les TCAPS détériorent la capacité des auditeurs à percevoir et interpréter leur environnement acoustique, particulièrement leurs performances de localisation sonore. Dans le cadre du développement de nouveaux TCAPS ou de l'étude de produits existants, une méthode objective de prédiction de la dégradation des performances de localisation serait plus adaptée que d'interminables expériences subjectives. Dans ce contexte, deux méthodes basées sur des fonctions de transfert de tête (HRTF) mesurées avec six TCAPS sont étudiées: un processus d'appariement spectral et un réseau de neurones à trois couches. Ils renvoient des probabilités de bonne localisation, d'erreur avant-arrière et des précisions de localisation cohérentes avec les performances humaines de localisation sonore. Les prédictions des deux méthodes sont comparées aux résultats d'une expérience subjective de localisation conduite avec des auditeurs portant les mêmes TCAPS que ceux utilisés pour les mesures d'HRTF. La comparaison est quantifiée par la vraisemblance des observations subjectives pour les deux modèles. Cette métrique montre que le réseau de neurones prédit des performances de localisation plus réalistes que la méthode d'appariement.

Impact de la cohérence audiovisuelle dans de démasquage de sources Julian Palacino, Mathieu Paquier

Mot-clés: WFS - son 3D - démasquage

L’influence de la cohérence audiovisuelle spatiale a été évaluée dans le contexte de l’enregistrement vidéo des concerts de musique. Habituellement, pour démasquer les différents instruments dans un mix stéréophonique, les ingénieurs de son appliquent une balance spectrale aux sources sonores dans le but de les rendre intelligibles au sein du mix. Par opposition, les ingénieurs de son se servant de techniques de spatialisation sonore ont reporté que le traitement spectrale n’est pas nécessaire lorsque les sources sonores sont placées à la même position que les instruments de musique. Les effets de la cohérence audiovisuelle et de la spatialisation sonore ont été évalués par des sujets experts en comparant deux mix dans les modalités audio et audiovisuelle selon différents attributs liées au rendu sonore spatialisé. Les

Page 22: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

21

stimuli audiovisuels issus des enregistrements de concerts ont été projetés en vidéo stéréoscopique 3D et audio a été diffusé sur un système WFS.

Effects of speaker identity on emotion-related auditory change detection: An ERP study Laura Rachman

Mot-clés: EEG - voice - emotion - self

The detection of emotional cues in speech is an important ability for social interactions. However, in some cases it may be more important to accurately extract affective information depending on the social relevance. Very few studies have investigated the processing of self-generated speech and whether emotional vocal cues are processed differently on the self-voice versus a non-self voice. In this study, event-related potentials were recorded from 25 female participants who heard prerecorded self-generated and non-self utterances while watching a silent subtitled movie. Emotional speech transformations were applied to the voice stimuli to investigate whether these were treated differently depending on the speaker's identity. Both behavioral and ERP results provide interesting perspectives on the processing of emotion-related acoustic cues in one's own voice.

Production et perception de la parole

Modèle de F0 multi-couches pour la synthèse de voix chantée basé sur l'utilisation de B-splines avec

paramètres de contrôle intuitifs Luc Ardaillon, Axel Roebel

Mot-clés: synthèse de voix chantée - modèle de F0 - synthèse concaténative

Dans le chant, la fréquence fondamentale (F0) porte non seulement la mélodie, mais aussi le style vocal, et d’autres caractéristiques spécifiques au mécanisme de production de la voix. La modélisation de la F0 est donc critique pour produire une synthèse qui sonne à la fois naturelle et expressive. De plus, pour des applications artistiques, un compositeur doit avoir un contrôle sur les variations expressives de la F0, qui manque dans la plupart des approches actuelles. Nous présentons donc ici un nouveau modèle paramétrique de F0 pour la synthèse de voix chantée, offrant un contrôle intuitif des paramètres expressifs. L’approche proposée décompose la F0 en plusieurs couches séparées, modélisées de façon indépendantes, et utilise des B-splines afin de générer la couche mélodique. Ce modèle a été implémenté dans un système de synthèse de voix chantée par concaténation d’unités, et a été évalué à l’aide d’un test d’écoute. La validité de chacune des couches du modèle a tout d’abord été évaluée de façon indépendante, et le modèle complet est ensuite comparé à des courbes réelles extraites d’enregistrements de chanteurs professionnels. Les paramètres du modèle pourront ensuite être appris à partir d’enregistrements afin de modéliser différents styles de chant.

Page 23: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

22

Psychoacoustique

Influence des Différences Interaurales de Temps sur le Niveau Sonore Perçu.

Gauthier Berthomieu

Mot-clés: sonie - ITD - localisation

La sonie est une grandeur sensorielle caractérisant la sensation de force sonore induite par un son. Elle dépend de nombreuses caractéristiques physiques du son telles que le niveau de pression, la fréquence ou encore la largeur de bande. Des études récentes ont également montré que la sonie était liée à la localisation (sonie directionnelle). Dans ce dernier cas, des études ont prouvé que l'évolution de la sonie en fonction de la localisation d'une source était due aux indices de localisation (différences interaurales de temps en basses fréquences, différences interaurales de niveau en hautes fréquences, respectivement abrégées ITD et ILD) et non à la sensation de localisation créée par ces indices. Cette étude avait pour but de définir précisément la relation entre ces différences de temps et la sonie afin d'alimenter les modèles de sonie établissant un parallèle entre grandeurs physiques mesurables (angle, niveau de pression, fréquence...) et la sonie. Il a ainsi été prouvé que pour des sons purs de faibles niveaux et en basses fréquences, un son perçu avec une ITD non nulle provoquera une sensation de sonie supérieure à son homologue diotique.

Apprentissage sonore pour la manipulation d’un objet virtuel Benjamin Bressolette, Sebastien Denjean, Vincent Roussarie, Mitsuko Aramaki, Sølvi Ystad, Richard

Kronland-Martinet

Mot-clés: Sonification - IHMs - Relation son/geste

De nouvelles interfaces font leur apparition dans le domaine automobile, portées par de nouveaux capteurs qui redéfinissent le dialogue avec le système central du véhicule. Le geste est une nouvelle modalité d’interaction qui peut être utilisée en situation de conduite. Il ne requiert par le canal visuel pour être utilisé contrairement au tactile, mais manque d’un retour d’information efficace. Un feedback sonore est alors une option intéressante pour donner un retour au conducteur sur sa manipulation de l’interface. Nous avons fait l’hypothèse d’utiliser un objet virtuel, pour sonifier les conséquences d’un geste plutôt que le geste lui-même. Il est alors essentiel de s’interroger sur le son à apporter pour maximiser le retour d’information, ainsi que du paramètre de l’objet virtuel à sonifier. Une expérience consistant à effectuer une manipulation de l’objet virtuel en aveugle a été mise en place, où plusieurs stratégies de sonification ont été testées. Cette expérience a permis de montrer que le son apporte un bénéfice dans l’exécution du geste, permettant de meilleures performances ou un meilleur apprentissage comparé avec une situation sans feedback sonore.

Influence du son sur la posture Lennie Gandemer, Gaëtan Parseihian, Christophe Bourdin, Richard Kronland-Martinet

Mot-clés: Posture - Equilibre - Perception auditive - Son spatialisé

Le maintien de la stabilité posturale en station debout est généralement décrit dans la littérature comme le résultat de l’intégration par le système nerveux central de plusieurs modalités sensorielles : vision, proprioception, tactile plantaire et système vestibulaire, toutes ces informations permettant la génération

Page 24: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

23

de réponses musculaires adaptées au maintien de l’équilibre. Dans ce poster, nous présentons les résultats d’une thèse qui s’est intéressée à montrer que l’audition peut aussi jouer un rôle dans les processus posturaux. À travers un ensemble de tests posturaux dans lesquels les sujets étaient soumis à divers types de stimulations sonores spatialisées, statiques et dynamiques, nous avons montré un effet stabilisant du son sur les oscillations posturales. Nous proposons deux interprétations complémentaires pour expliquer cette stabilisation : d’une part, l’information spatiale fournie par les sources sonores permet aux auditeurs de se former une représentation mentale de l’espace acoustique qui les entoure, représentation par rapport à laquelle ils peuvent se stabiliser. D’autre part, il semblerait que des phénomènes d’intégration multi-sensorielle plus complexes entrent en jeu, qui se traduisent par une potentialisation des autres modalités impliquées dans le contrôle postural.

Mesure Psychoacoustique de Discrimination de l'Intensité Sonore : Influence du Contexte Victor Rosi, Olivier Macherey

Mot-clés: Perception auditive - Psychoacoustique - Dynamic Range Problem - Codage de l'intensité sonore

Des études précédentes ont observées une adaptation de la gamme dynamique de la fonction Entrée/Sortie des neurones du système auditif chez des petits mammifères (Dean et al.(2005); Wen et al. (2009)). Ce mécanisme adapte le système auditif à un niveau sonore moyen ce qui pourrait améliorer la précision de la perception et être une explication au Dynamic range problem. L'objectif était de mettre en évidence cette adaptation du système auditif à l'aide d'un test psychoacoustique. Une première expérience proposait une tâche de détection de modulation sur un son pur précédé d'un son précurseur (un bruit à bande-étroite). Nous avons mesuré l'influence du niveau sonore du précurseur et de sa position relative à la cible sur les performances du sujet. Cette expérience n'a pas délivré de résultats permettant de conclure. Dans une seconde expérience nous proposions un stimulus composé de plusieurs sons purs (200 ms) concaténés à fréquence fixe. Le niveau sonore d'un stimulus variait au fil des sons purs suivant différentes distributions. Une modulation était à détecter sur un des sons purs. Nous avons observé un effet de l'adaptation classique des neurones à un niveau sonore moyen qui est différent de l'adaptation de la gamme dynamique rapportée par Dean (2005).

Optimisation d’un système de son 3D léger en salle d’écoute usuelle Adrien Vidal, Philippe Herzog, Christophe Lambourg

Mot-clés: Son 3D - Transaural - HRTF

La diffusion de son spatialisé trouve de nombreuses applications industrielles (simulateur de réalité virtuelle, évaluation de la qualité d’un produit, visioconférence, etc.) et pour le grand public (jeux vidéo par exemple). L’objectif de ces travaux est la réalisation d’un dispositif de restitution sonore avec quelques haut-parleurs en salle usuelle et fidèle à la réalité. La fidélité de la restitution concerne la conservation du timbre (pas de « coloration » du rendu) ainsi que la spatialisation du son, ce dernier aspect étant jugé moins prioritaire dans notre approche. Pour limiter la coloration introduite par la salle d’écoute, nous proposons de placer les sources à proximité de l’auditeur, maximisant le rapport champ direct sur champ diffus. Ce placement inhabituel peut avoir des effets sur plusieurs aspects, parmi lesquels trois sont étudiés. Le premier concerne la diffraction d’une onde incidente par l’auditeur (les HRTF), et des mesures ont été réalisées à deux distances pour 4 mannequins et une sphère. Le deuxième concerne l’effet de salle en fonction de la distance d’écoute, ainsi que son égalisation. Enfin, le dernier concerne la robustesse au mauvais placement de l’auditeur. Des tests perceptifs ont été menés pour évaluer les effets de ces deux derniers aspects.

Page 25: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

24

Synthèse sonore

Contrôle intuitif de la synthèse sonore par le signal vocal

Thomas Bordonné

Mot-clés: Synthèse sonore - Imitation Vocale - Perception

La synthèse numérique des sons a connu ces dernières années une évolution qui permet aujourd'hui de reproduire des percepts sonores complexes et réalistes. Les enjeux actuels de la synthèse sonore se situent maintenant au niveau du contrôle intuitif de ces percepts et de la prise en compte du ressenti de l'utilisateur dans les processus de synthèse. Dans ce contexte, la vocalisation peut devenir un moyen puissant pour mettre en relief des caractéristiques sonores complexes. Elle permet à la fois d’interroger directement la perception de l’utilisateur, de mettre en avant les éléments utiles pour la reconnaissance d’un son, et de faire face à un éventuel manque de vocabulaire lorsqu’il s’agit de décrire un son. Ainsi, au cours de cette thèse, nous proposons une nouvelle méthodologie pour l’étude de la perception sonore, se basant sur l’imitation vocale. Dans le but de valider la méthode, nous avons expérimentalement mis en parallèle des reproductions vocales et gestuelles de sons de mouvements. De plus, afin de permettre l’exploitation des vocalisations, un outil d’analyse de la voix a été développé. Nous espérons pouvoir par la suite utiliser la vocalisation sur des sons plus complexes, et ainsi développer un nouvel outil de synthèse sonore intuitif.

Le langage des sons : synthèse sonore interactive pour la réalité virtuelle Antoine Bourachot

Mot-clés: Acoustique - Synthèse Sonore - Perception sonore - Traitement du signal audio

La synthèse sonore numérique a connu un développement considérable depuis son apparition dans les années 50. Aujourd’hui, les modèles et méthodes dont nous disposons sont capables de générer des sons d’un grand réalisme. Un des défis actuels dans ce domaine concerne le contrôle perceptif de la synthèse. Le LMA (Laboratoire de Mécanique et d'Acoustique - Marseille) a développé un synthétiseur de sons d'environnements reposant sur un paradigme « action-objet » proposant qu’un son perçu peut être décrit comme la résultante d’une action sur un objet. Ce paradigme nous conduit à faire l'hypothèse de l'existence d'invariants morphologiques sonores responsables des évocations induites. Ce synthétiseur offre ainsi à l'utilisateur une interface intuitive basée sur la description sémantique des attributs perceptifs associés à la source sonore. Mon projet de thèse fait suite à une première étude, menée lors de mon stage de fin de master, portant sur l'évaluation perceptive des espaces de contrôles du synthétiseur. Les principales recherches de la thèse porteront sur la recherche de nouveaux invariants, la détermination des espaces sonores engendrés et la mise en œuvre de méthodologies de navigation au sein de ces espaces, en cohérence avec la perception et le ressenti.

Synthèse de texture sonore par imposition de statistiques temps-fréquence Hugo Caracalla

Mot-clés: synthèse sonore - texture - statistiques

L'algorithme présenté est un algorithme de synthèse de texture sonore nouveau : parce qu'il a été montré que seul un nombre restreint de statistiques (corrélations et moments) des enveloppes des sous-bandes

Page 26: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

25

en fréquence d'un signal audio permettait de l'identifier comme texture, il se base sur l'imposition de ces statistiques sur un bruit blanc pour synthétiser un signal identifiable comme appartenant à la même catégorie que la texture analysée. Comme une imposition trop forte résulte en un signal synthétisé identique au signal analysé, un travail a été effectué autours du développement d'une méthode permettant de sélectionner les corrélations nécessaires à imposer et l'erreur que la phase d'imposition par descente de gradient devait cibler : cela a notamment été fait par l'établissement d'un score de corrélation, la mise en place de l'écart-type des statistiques comme erreur cible et l'utilisation de la distance d'Itakura-Saito.

L'Exochanteur: Système de Contrôle Rythmique et Mélodique de Voix Préenregistrée Samuel Delalez

Mot-clés: Synthèse - Chant - IHM

L’exochanteur est un système permettant de modifier en temps réel des signaux de voix pré-enregistrés, en en contrôlant le rythme, la hauteur mélodique et l’effort vocal. Il est composé d’un logiciel, nommé Vocalive, et de diverses interfaces permettant de contrôler les différents paramètres cités. Ainsi, par l’action simultanée de différentes parties du corps, l’utilisateur sera en mesure de chanter sans faire usage de ses articulateurs ou de ses plis vocaux.

Amortissements dans les Cordes Linéaires: Modélisation dans le Domaine Temporel des Pertes dépendantes en fréquence

Charlotte Desvages

Mot-clés: modélisation physique - synthèse sonore - différences finies - systèmes passifs

Des études expérimentales ont montré la complexe dépendance en fréquence des temps de décroissance des modes transversaux de la corde raide linéaire, et l'ont confirmée en modélisant en détail les mécanismes de dissipation d'énergie. Les pertes à une fréquence donnée peuvent s'exprimer en fonction des paramètres physiques définissant le système; la viscosité de l'air prédomine aux basses fréquences, tandis que la friction interne prévaut pour les hautes fréquences. Une telle caractérisation dans le domaine de la fréquence est adaptée aux méthodes de simulation basées, par exemple, sur la décomposition modale. Cependant, un modèle de corde plus généralisé peut inclure des phénomènes difficiles à traiter avec ces méthodes, en particulier non-linéaires. Il est donc utile d'aborder la modélisation directement dans le domaine du temps. Cette étude concerne l'adaptation de la dépendance en fréquence de l'amortissement dans la corde vers une représentation en système d'équations différentielles partielles. Un tel système peut constituer le point de départ d'un algorithme à pas de temps; une contrainte importante pour assurer la stabilité numérique est ainsi celle de la passivité du système. Les termes de perte candidats sont caractérisés en termes de fonctions positives-réelles, initiant une procédure d'optimisation. Des simulations sont présentées pour quelques cordes.

Un module Python pour la modélisation et la simulation à passivité garantie de systèmes multi-physiques

Antoine Falaize

Mot-clés: Simulation - Passivité - Système Hamiltonien à Port - Multi-physique

Les systèmes audios incluent les instruments de musique traditionnels (percussions, cordes, vents, voix) et les systèmes électro-acoustiques (amplificateurs de guitares, pédales d’effets, synthétiseurs analogiques). Ces systèmes multi-physiques possèdent une propriété commune : hors des sources d’excitation (les générateurs), ils sont tous passifs. Nous présentons un ensemble de méthodes

Page 27: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

26

automatiques dédiées à leur modélisation, leur simulation et leur contrôle, qui garantissent explicitement et exploitent la passivité du système original. Pour cela, nous utilisons le formalisme des systèmes hamiltoniens à ports (SHP), introduits en automatique et théorie des systèmes au début des années 1990. Pour la modélisation, on exploite le fait que la connexion de systèmes décrits dans ce formalisme préserve explicitement la dynamique de la puissance dissipée de l'ensemble, pour développer une méthode automatique de modélisation d'instruments complets à partir de modèles élémentaires rassemblés dans un dictionnaire. Pour la simulation, une méthode numérique qui préserve la structure passive des SHP à temps discret a été développée, garantissant ainsi la stabilité des simulations (pour lesquelles le code C++ est généré automatiquement). Concernant le contrôle, on exploite la structure d'interconnexion afin de déterminer automatiquement une forme découplée (sous-systèmes hiérarchisés) pour une certaine classe de SHP. Les systèmes de cette classe sont dits systèmes hamiltonien à ports plats, au sens de la propriété de platitude différentielle, à partir de laquelle une loi de commande en boucle ouverte exacte sur le modèle est générée.

Méthode modale mixte pour le contact corde / obstacle, application à la synthèse sonore Clara Issanchou, Stefan Bilbao, Jean-Loïc Le Carrou, Cyril Touzé, Olivier Doaré

Mot-clés: Modèle numérique - Contact unilatéral - Synthèse sonore

Le contact corde/obstacle intervient dans de nombreux instruments de musique tels que la basse électrique, la tampoura, le sitar etc. Celui-ci modifie le comportement de la corde vibrante et caractérise la sonorité résultante. Dans ces travaux, une nouvelle méthode numérique, permettant de simuler une corde vibrante raide et amortie en présence d’un obstacle unilatéral de forme quelconque, est présentée. Bien qu’opérant dans le domaine spatial, le modèle s’appuie sur une représentation modale du système, ce qui permet de prendre en compte des fréquences et amortissements ajustables mode par mode. En particulier, des mesures peuvent être employées pour ajuster la simulation et obtenir des sons plus réalistes. La force de contact est régularisée, et le schéma obtenu est conservatif et inconditionnellement stable. Les résultats numériques sont confrontés à des résultats expérimentaux dans le cas d’un obstacle correspondant au chevalet d’une tampoura ou aux frettes d’une basse électrique.

Traitement du signal audio

Simulation numérique et synthèse binaurale

Matthieu Aussal, François Alouges

Mot-clés: Binaural - HRTF - BEM - SCSD-FMM-HMatrix

Au même titre que le système visuel humain permet de discerner le relief, l'audition humaine peut localiser l'origine spatiale d'une source sonore. Cette acuité, que développe le cerveau depuis la naissance, permet de restituer à l'auditeur une perception volumique du son. Les phénomènes sous-jacents sont relativement complexes. Physiquement, la diffraction de l'onde sonore par l'auditeur lui-même, et plus particulièrement sa tête et le pavillon de ses oreilles, fournit des indices qui permettent de caractériser l'origine spatiale d'une source sonore. A cela s'ajoute la réverbération de la pièce dans laquelle il se trouve, l'adaptation en temps réel en fonction de la position et de l'orientation de sa tête, etc. Afin de recréer virtuellement l'expérience physique, nous avons développé une chaîne de calcul numérique permettant de résoudre des problèmes de diffraction acoustique, jusqu'au rendu final binaural sur casque audio. La simulation numérique utilise un moteur de calcul par équations intégrales novateur (MyBEM), accéléré par une nouvelle méthode de convolution rapide (SCSD). Le rendu binaural

Page 28: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

27

est lui effectué par un autre moteur, MyBino. Ces deux logiciels, entièrement codé en Matlab, affichent des performances étonnantes. La contribution contiendra une explication complète de la méthodologie, et sera accompagnée d'une démonstration effective du dispositif.

Overlapping sound event detection with supervised nonnegative matrix factorization Victor Bisot, Slim Essid, Gaël Richard

In this paper we propose a supervised Nonnegative Matrix Factorization (NMF) model for overlapping sound event detection in real life audio. We start by highlighting the usefulness of non-euclidean NMF to learn representations for detecting and classifying acoustic events in a multi-label setting. Then, we propose to learn a classifier and the NMF decomposition in a joint optimization problem. This is done with a general $\beta$-divergence version of the nonnegative task-driven dictionary learning model. An experimental evaluation is performed on the development set of the DCASE 2016 task3 challenge. The proposed supervised NMF-based system improves performance over the baseline and the submitted systems.

Systèmes audios non-linéaires: Problèmes d'identification et Séries de Volterra Damien Bouvier, Thomas Hélie, David Roze

Mot-clés: Système non-linéaire - Identification - Séries de Volterra - Synthèse sonore

La synthèse temps-réel d'instruments de musique est un domaine en plein essor, mais qui se heurte au compromis à faire entre le réalisme souhaité du modèle et le temps de calcul qu'induit sa complexité. Dans ce cadre, une approche possible est de penser l'instrument comme un système entrée-sortie, et d'identifier la relation entrée-sortie sur des bases de données audios. Pour le cas des systèmes audios, nous avons décidé d'utiliser le formalisme des Séries de Volterra. Ce dernier permet en effet de représenter tout systèmes non linéaire à mémoire dont la non-linéarité est développable en série entière (c'est-à-dire ne comprend pas d'effets d'hystérésis ni de chaos); il est de plus possible d'en dériver des algorithmes de simulation temps-réel. Dans ces travaux, nous présentons nos avancées pour la conception d'une méthode d'identification des noyaux de Volterra. L'extension des propriétés connues pour les systèmes linéaires aux cas non linéaires est tout d'abord abordée; puis, afin de simplifier le problème de l'identification, une méthode de séparation des ordres homogènes de non-linéarité est développée.

An active learning method for speaker identity annotation in audio recordings Pierre-Alexandre Broux, David Doukhan, Simon Petitrenaud, Sylvain Meignier, Jean Carrive

Mot-clés: active-learning - diarization

Les travaux suivants sont liés à la thèse « Reconnaissance de locuteurs à large échelle dans des documents audiovisuels, en interaction avec des annotateurs humains ». La navigation et l’indexation des archives nécessitent de reconnaître les locuteurs présents. Pour cela, on utilise la diarization et des méthodes d’identification de locuteur. La diarization détermine le nombre de locuteurs, leurs interventions et extrait des segments de parole homogène suffisamment longs utile à l’identification. Cependant ces technologies doivent être améliorées pour une efficacité optimale. La solution proposée est de concevoir des outils d’aide à la documentation, interagissant avec un humain. L’annotation manuelle d’un document audio est un processus coûteux en temps. Récemment, des travaux ont montré que la correction de la sortie d’un système automatique permet d’accélérer l’annotation. Nous proposons d’étendre ces travaux à la diarization, où les corrections humaines effectuées sur une sortie d’un système automatique seront prises en considération par un autre processus qui réaffectera en conséquence certains segments de l’annotation. Ce processus se fonde sur une approche d’active-

Page 29: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

28

learning (un algorithme d’apprentissage requêtant un utilisateur pour obtenir des informations sur de nouvelles données). Cette expérience a prouvé que la prise en considération des actions humaines peut alléger la tâche de l’annotateur.

Estimation du niveau sonore du trafic routier par mesures acoustiques : résultats préliminaires Jean-Rémy Gloaguen, Arnaud Can, Mathieu Lagrange, Jean-François Petiot

Mot-clés: Factorisation en matrices non négatives - cartographie du bruit du trafic routier - acoustique urbaine

La norme européenne 2002/49/EC impose aux villes de plus de 100 000 habitants la réalisation de cartes de bruit, dans le but de prévenir et réduire les effets nuisibles de l’exposition au bruit dans l’environnement. Dans le cas du trafic routier, ces cartes sont réalisées à partir de l’estimation du trafic sur les axes principaux et d’un calcul de propagation dans les rues adjacentes. Le déploiement actuel de réseaux de capteurs en ville est l’opportunité d’améliorer ces cartes à l’aide de mesures acoustiques. Toutefois, ces mesures sont composées d’un ensemble de sources sonores qui n’appartiennent pas au trafic (voix, aboiements…) rendant difficile la confrontation entre mesures et modèles. Pour pallier à cette difficulté, un système de séparation de sources sonores est mis en place par factorisation en matrices non négatives supervisée permettant d’isoler le trafic routier des autres sources. Cette technique présente notamment l’avantage, contrairement aux méthodes de l’état de l’art, de pouvoir prendre en compte le recouvrement entre les différentes sources composant les mixtures sonores. Un ensemble de scènes sonores simulées est créé où la présence et le niveau des sources sont contrôlés. Cette étude détaille le protocole mis en place ainsi que les premiers résultats obtenus.

Probabilistic Latent Variable Analysis for Automatic Music Transcription Céline Jacques

Mot-clés: Music transcription - PLCA

La transcription automatique de la musique consiste à décrire un morceau de musique avec suffisamment d'informations pour que celui-ci puisse être rejoué. De nombreux algorithmes permettent de résoudre certaines sous-tâches de la transcription telles que la détection d'onset ou l'estimation de fréquences. Par ailleurs, de récents résultats impliquant une vision probabiliste de la décomposition en matrices non-négatives laissent à penser que les résultats peuvent être améliorés grâce à l'incorporation de connaissances a priori. Ces connaissances pourraient alors améliorer la transcription et notamment nous permettre d'ajouter des informations à propos des instruments. L'idée de la thèse est donc d'utiliser la PLCA (Probabilistic Latent Component Analysis) afin d'obtenir les informations sur les onsets, les fréquences et les instruments. En ajoutant des connaissances a priori, le but est de renforcer la fiabilité et l'efficacité de cet outil.

Multichannel Audio Source Separation: Variational Inference of Time-Frequency Sources from Time-Domain Observations

Simon Leglaive, Roland Badeau, Gaël Richard

Mot-clés: Multichannel audio source separation - time-domain convolutive model - time-frequency source model - variational EM algorithm

A great number of methods for multichannel audio source separation are based on probabilistic approaches in which the sources are modeled as latent random variables in a Time-Frequency (TF) domain. For reverberant mixtures, it is common to approximate the time-domain convolutive mixing

Page 30: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

29

process as being instantaneous in the short-term Fourier transform domain, under a short mixing filters assumption. The TF latent sources are then inferred from the TF mixture observations. In this paper we propose to infer the TF latent sources from the time-domain observations. This approach allows us to exactly model the convolutive mixing process. The inference procedure relies on a variational expectation-maximization algorithm. In significant reverberation conditions, our approach leads to a signal-to-distortion ratio improvement of 5.5 dB compared with the usual TF approximation of the convolutive mixing process.

Approximations de trajectoires continues préservant le bilan de puissance dans le cadre des Systèmes Hamiltoniens à Ports

Rémy Muller

Mot-clés: SHP - Bezier - ODE

L’approche proposée vise à développer de nouveaux intégrateurs et schémas numériques dédiés pour la résolution des Systèmes Hamiltoniens à Ports (SHP). On s'intéresse d'une part à des représentations paramétriques par morceaux des trajectoires à temps continu, contraintes par une régularité d'ordre adapté, d'autre part à un rejet du repliement spectral par filtrage passe­-bas puis ré-échantillonnage de ces trajectoires. L'objet de ce travail concerne les aspects de modélisation. On cherche à obtenir les propriétés suivantes:

- contrôle de l'ordre de consistance du schéma numérique, - contrôle de l'ordre de régularité des trajectoires à temps continu, - satisfaction exacte du bilan de puissance pour la trajectoire approchée

Nous avons principalement étudié la classe des trajectoires polynomiales et plus particulièrement le formalisme des splines de Bézier qui offre un cadre particulièrement bien adapté pour la génération de méthodes consistantes et régulières d'ordre contrôlable. La satisfaction du bilan de puissance reste difficile dans le cas général (résolution itérative), voire impossible suivant le modèle de trajectoire. Plusieurs résultats intermédiaires encourageants sont présentés pour des sous-classes de problèmes et/ou en relâchant certaines propriétés, et des perspectives sont présentées.

Détection, localisation et identification de sources acoustiques avec un capteur compact Aro Ramamonjy, Eric Bavu, Alexandre Garcia, Sébastien Hengy

Mot-clés: Localisation - Classification - Capteur - Acoustique

La détection multimodale (audio et vidéo) et multi-capteurs est étudiée au Laboratoire de Mécanique des Structures et des Systèmes Couplés (LMSSC-Cnam) et à l'Institut Franco-Allemand de Recherches de Saint-Louis (ISL). Le présent travail de thèse est consacré au développement d’une antenne microphonique miniature qui sera déployée en réseau pour former le sous-système acoustique du système global. Cette antenne, intelligente et autonome, pourra effectuer des tâches de détection, localisation, réduction de bruit et d'identification de sources acoustiques sur une zone de couverture pouvant atteindre plusieurs centaines de mètres. Un système de fusion de données sera utilisé pour permettre un suivi de trajectoire et une identification plus précise à partir des descriptions audio et vidéo fournies par les différents capteurs. La localisation avec l'antenne compacte développée est basée sur une estimation large bande de la vitesse particulaire en un point avec 13 microphones MEMS numériques sensibles à la pression acoustique uniquement. De la réduction de bruit par filtrage spatial est effectuée en amont des tâches de détection et d’identification. Ces dernières tâches sont effectuées par apprentissage automatique à partir d’une base de données de signatures acoustique, qui dépendra de l'application visée.

Page 31: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

30

Adaptive Framework for Personal Sound-Zone Reproduction System Georges Roussel, Rozenn Nicol, Guy Plantier, Laurent Simon

Mot-clés: Sound Zone - Personal audio - Adaptive signal processing - Spatial audio

Spatial audio reproduction of complex sound-fields is made possible by using different reproduction techniques mainly based on Huygens principle or sound field decomposition such as High Order Ambisonics (HOA) in the spherical harmonics domain or Spectral Decomposition Method (SDM) in the Fourier domain. This framework can be used to reproduce spatially separated audio zones with the same loudspeaker array. Each zone can deliver different contents in order to share the same space without sharing the same sound-space. To do so, optimization algorithms are used to maximize audio content in one zone while minimizing in the other zone. Most of current research mainly focus on non adaptive optimization of physical attributes of the sound field which cannot take into account variation of the environment such as moving listeners. An adaptive optimization framework is presented and different optimization criteria are proposed.

Optimisation du traitement binaural interactif pour le mixage orienté objet François Salmon, Matthieu Aussal, Jean-Christophe Messonnier, Laurent Millot

Mot-clés: Binaural - Monitoring - Mixage orienté-objet

Le mixage orienté objet offre la possibilité de fournir un encodage spatial permettant de s’adapter à la multiplication des dispositifs de diffusion. Cette exigence de versatilité peut nécessiter l’usage de plusieurs dispositifs de contrôle pour assurer la compatibilité d’un mixage. Le rendu binaural interactif (assisté d’un head-tracker) pourrait constituer une aide utile pour les professionnels et un nouveau support d’écoute pour les particuliers étant donné son coût et sa facilité de mise en œuvre. Or, cette technologie présente des colorations spectrales notables dues à la reproduction d’indices spatiaux et pâtit de sa comparaison courante avec la stéréophonie au casque. Il a donc été entrepris de mettre en place des méthodes d’optimisation du traitement binaural afin de réaliser un meilleur compromis entre la sensation d’espace et la fidélité du timbre. Dans le but d’évaluer la pertinence des traitements réalisés et d’identifier des axes de développement futurs, des tests perceptifs en lien avec la capacité d'externalisation et la perception du timbre sont présentés, ainsi qu'un outil de traitement temps-réel servant de démonstrateur.

Page 32: Journées Jeunes Chercheurs en Acoustique, Audition et Signal · de sa présentation au public, entendre ce qu'il a à nous dire peut parfois révéler des surprises. Ainsi, il peut

31

Partenaires