86
Con s e r vat oi r e N at i onal S u r ie u r de M u s i qu e et de D an s e de Par i s A n n é e s col ai r e 2006 - 2007 Bases S on « Th e Ja zz Sin ger » d’ Al an R. Cr oss l and, 1927 Ch r on omé gaph one G aum ont , 1911  Pierr e -An toine S ignor e t  [email protected]  

Bases Son Cours 2006

Embed Size (px)

Citation preview

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 1/86

Conservatoire National Supérieur deMusique et de Danse de Paris

Année scolai re 2006 - 2007

Bases Son

«The Jazz Singer » d’ Alan R. Crossland, 1927

Chronomégaphone Gaumont, 1911

Pierre-An toine Signoret [email protected]

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 2/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

2

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 3/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

3

Sommaire

Cours

Le phénomène sonor e Page 9

Psychoacoustique - perception Page 9Décibels Page 10Dynamique sonore Page 10Seuils dif férentiels Page 11Fatigue auditive Page 11Oreil le anatomique Page 12Localisation Page 12Démasquage Page 13

Effet «cocktai l par ty » Page 13Acousmatique Page 13Effet de masque / effet de précédence Page 14Équi l ibre et oreil le vestibulair e Page 14Représentati ons graphiques du son Page 15Structure d’ un son / extérieur , intérieur Page 15Distance cri tique Page 15Temps de réverbération Page 15Acoustique des lieux d’ enregistrement Page 15Cabine LEDE / Cabine mul ticanale Page 16

Structure générale d’ une chaîne de production audio Page 17

Captati on / Pr ise de son Page 17M icrophone Page 17M icrophones électrodynamiques Page 18M icrophones électrostatiques Page 18M icrophones àélectret Page 18Quelques éléments techniques Page 19L iaisons audio : asymétr ique / symétr ique Page 19

Al imentation fantôme Page 19Les niveaux de travail et indicateur s de niveau Page 19VU-mètr e, Peak-mètr e Page 20Saturation analogique / saturation numérique Page 20Problèmes éventuels de dynamique àla pr ise de son Page 20

Pr incipes de la pr ise de son stéréophonique Page 21

Système d’écoute stéréophonique Page 21Pr ise de son Page 22

Les couples coïncidents - uti l isation du ∆ I Page 23Les couples de microphones directi fs légèrement espacés - uti l isation des∆ T et ∆ I Page 23Les couples de microphones omnidirectionnels - uti li sation du ∆ T Page 23Têtes arti f iciell es Page 23

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 4/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

4

Techniques transaurales Page 23Écoute au casque Page 24Enregistrement dir ect / enregistrement mult ipiste Page 24

Numérisation du signal Page 25

Échanti llonnage Page 25Quantif ication / résolution Page 26Débi ts et capaci tés de stockage Page 27Numérisation linéaire, jitter, dither ing, noise shaping, sigma delta Page 28Dynamique audio / dynamique de calcul Page 28F il trage numérique Page 28Copies numériques Page 28I nterfaces audionumériques, AES, SPDI F , MADI , TDIF , ADAT, SDI F -2 Page 29Enregistreurs audionumériques Page 29

Conversion de fréquence d’échanti l lonnage Page 30Synchroni sation audionumérique Page 30

Post-production, montage, mixage, traitements Page 33

Les outi ls informatiques Page 33Post-production Page 34Traitements fréquentiels, f i l tres Page 34Tr aitements dynamiques Page 34Traitements temporels Page 34

Contrôle du niveau Page 35Périphériques Page 35Remarque sur le M IDI Page 35

Son et multimédia Page 37

Capaci tédes lignes de tr ansmission Page 37Compression audio Page 38Codages percepti fs Page 38Remarque sur le MPEG 4 Page 39Codecs et applications Page 39

Formats son pour l’ informatique Page 41

Les encapsul eur s audio Page 41Pr incipaux formats linéaires Page 42Pr incipaux formats compressés Page 42

Rapport image / son Page 43

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 5/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

5

Synchronisation image / son Page 47

Time code Page 47

Formats son pour le cinéma Page 49

Dolby Stéréo Page 49Dolby Sur round, Dolby Pro Logic I et I I , Home THX Page 51Dolby SRD, Dolby AC3, DTS Page 52Exemple d’ un système d’ encodage 5.1 en temps réel Page 53Tableau récapi tu lati f de l’ histor ique des formats son au cinéma Page 55

Audio Mul ticanal - Systèmes 5.1 Page 57

Dispositi f d’écoute 5.1 Page 57Pr ise de son 5.1 Page 58Post-production 5.1 Page 59Acoustique des cabines de mixage 5.1 Page 59Niveau d’écoute en 5.1 Page 59Bass Management Page 61Supports 5.1 Page 62Environnements mul ticanaux Page 62

Annexes nouveaux supports Page 65

DVD Vidéo Page 65Super Audio CD (SACD) Page 67DVD Audio Page 69Super Vidéo CD (SVCD) Page 73Comparatif Vidéo CD / Super Vidéo CD Page 74

Annexes informatiques Page 75

SCCI parallèle Page 75Règles générales d’ uti l isation Page 77Connecteurs Page 78IEEE 1394 / F ire Wire Page 79F iber Channel Page 79RAIDS Page 81Réseaux et bus informati ques Page 83Quelques supports d’ archivage informatiques Page 85

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 6/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

6

Figures

Psychoacoustique : Perception Page 87

Champ auditi f , seui l de perception, seui l de douleur Page 89Diagramme de Fletcher et Munson - Courbes d’ isosonie Page 89Normes internationales du champ d’audibilité Page 90Tessitures musicales et fréquences Page 91Décibels acoustiques Page 92Courbes de pondération pour la mesur e du brui t Page 93Audiogramme tonal Page 93Fonction de transfert du conduit auditi f Page 94 Presbyacousie Page 94 Sensation de hauteur et d’ intensité Page 95Dif férence d’ intensitéjuste percepti ble Page 96

Dif férence d’ intensitéen foncti on de la fréquence Page 96Discr imination fréquenti elle des sons pur s Page 97Discriminati on fréquentielle du bru it Page 98L ’ oreil le anatomique humaine Page 99L ’ oreil le externe, moyenne, interne Page 100La cochlée Page 101

Psychoacoustique : localisation Page 103

Localisation d’ une source dans l ’ espace Page 105Expérience des bandes di rectives Page 105Localisation dans le plan hor izontal et le plan médian Page 106Dif férences de temps et d’ intensité Page 107Head Relative Transfer Functions (HRTFs) Page 109

Psychoacoustique : effets de masque / fatigue audi ti ve Page 111

Masquage d’un son pur par un son pur Page 113Masquage d’un son pur par un bruit Page 113Var iation d’ intensitéliminai re d’ un son masqué Page 114Seui ls d’ effet de masque Page 115Masquage d’un son pur par un bruit blanc Page 115Masquage d’ une conversation Page 116Bandes critiques le long de la membrane basilair e Page 117Localisation des fréquences sur la membrane basilaire Page 118Masquage temporel proacti f Page 118Fatigue auditive Page 119Fatigue auditi ve / récupération Page 119Fatigue auditi ve / adaptati on et récupération Page 120Espace de présence Page 121

L ’ oreil le fi ltr e directionnel Page 121Démasquage et identi f ication Page 122

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 7/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

7

Représentations graphiques du son Page 123

Notation musicale Page 125Plan dynamique, plan spectral, plan mélodique Page 125Phase d’un signal Page 127

Représentation sonographique - typol ogie Page 128Représentation sonographique - exemples Page 129Représentation sonographique - voix Page 131Étendue dynamique de quelques instruments Page 132

Acoustique des salles Page 133

Phénomènes physi ques Page 135Phénomènes physiques / défini tions Page 136Pr incipe de l’écho Page 137

Écho tonal Page 138F lutter écho Page 138Modes propres d’ une sall e Page 139Champ direct, premières réflexions, champ réverbéré Page 141Échogramme réel Page 141Croissance et décroissance du son dans une sall e Page 142Distance cri tique Page 142F il tr e en peigne dû àune réflexion Page 143Temps de réverbérati on optimum d’ une salle Page 143

M icrophones Page 145

Directivi tés des mi crophones Page 147Directi vi tés et courbes de réponse Page 148Directivi tés et uti l isations Page 149Schémas de pr incipe Page 150Câblage asymétrique / symétrique Page 152Al imentation fantôme Page 152Câblage - Connecteurs usuels Page 153Quelques exemples de microphones Page 155DPA Série 4000 (ex mi cros Bruel & Kjaër) Page 155Neumann TLM 170 R Page 157Neumann U87 Ai Page 159Série Schoeps MK2, MK2S, MK21, MK4, MK41, MK8 Page 161Neumann Série KM 100 Page 164M icrophones électrodynamiques Beyerdynamic Page 166

Pr incipes de la pr ise de son stéréophonique Page 167

Couple de microphones Page 169

Système d’écoute stéréophonique Page 169Stéréophonie de temps Page 170Stéréophonie mixte (temps, intensité) Page 170Stéréophonie d’ intensité Page 171

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 8/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

8

Techniques binaurales et transaurales Page 172Angles de prise de son et contraintes opérationnel les Page 173Courbes de compensation ∆ T / ∆ I Page 176

Post-production Page 177

F il tre Baxendall Page 179F il tre paramétr ique Page 179F il tres passe haut et passe bas Page 181F il tre àplateau Page 181F il tre réjecteur Page 182F il tre passe bande Page 182F il tre coupe bande Page 183F il tre RIAA Page 183Dynamiques et enveloppe sonor e Page 184

Compresseur de dynamique Page 185L imiteur Page 186Extenseur de dynamique Page 186Noise gate et chaîne latérale Page 187F il tre passe tout Page 188F il tre en peigne Page 189Phasing Page 189Panoramique d’i ntensité Page 190Diagramme des niveaux d’ une console Page 191

Audionumérique Page 193

Alignement des niveaux en analogique et en numérique Page 195Échanti llonnage Page 196Quanti f ication Page 197Ef fets du Ji tter Page 199Reconstruction analogique d’ un signal numérique Page 201Ef fets du Di ther Page 202I nterpolation Page 204Décimation Page 206

Suréchanti llonnage Page 207Noise Shaping Page 208

Codecs Page 211

Effet de masque àdi fférentes fréquences Page 213

Structure d’un codeur perceptif Page 213

Bibli ographi e d'ouvrages en français Page 215

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 9/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

9

Le phénomène sonore

En vrac

- Omniprésent- Premier sens développé et dernier perdu (l’audition s’éveille à partir du quatrième mois de la vie

fœtale)- Physiologie - Surdités- Phénomène physique - Mécanique des fluides- Perception - Attention - Psychoacoustique - Cognition- Espace sonore - Environnement sonore - Intérieur - Extérieur - Chambre sourde (anéchoïque)- Acoustique des salles - Acoustique architecturale- Définition du bruit - Facteur d’éveil, de stress ou de détente

-

Indices sonores - Alertes - Danger - Nature - Société- Son concret - Son musical - Son parlé- Son électroacoustique - Synthèse - Transformations - Sons inouïs- Illusions acoustiques- Culture du son - Culture musicale - Langage- Caractères innés ou acquis (localisation, développement de l’écoute)- Rapport vue / ouïe - Rapport image / son - Synesthésie- Vocabulaire sonore, description d’une sensation- Objets sonores - Matériaux sonores- Ouïr - Entendre - Ecouter - Comprendre- Mémoire des sons

Psychoacoustique - Perception

Le son est une vibration qui se propage dans les milieux élastiques (air, eau, matériaux…).La propagation sonore est un retour à un état d’équilibre après une perturbation locale.Le son se propage dans l’air à 340 m.s -1 à15°C soit 1224 Km.h -1 .

Les sources sonores sont directives (direction d’émission privilégiée).

L’oreille est un transducteur complexe, capable de transformer l’énergie sonore en message auditif.

La vibration sonore est aussi perçue comme une sensation tactile par conduction osseuse (infra basses).

L’oreille peut percevoir des vibrations sonores entre 20 Hz (vibrations par seconde) et 20 000 Hz , soitenvi ron 10 octaves . Elle n’est pas sensible de la même façon sur tout le spectre audible (cf. courbesd’ isosonie de F letcher et Munson ). Son extraordinaire efficacité nous permet de déceler, dans la zone la

plus sensible (vers 3,7 kH z ), et au seuil d’audition, des déplacements du tympan de l’ordre du centièmedu diamètre d’une molécule d’hydrogène…

Tous les signaux d’alerte de proximité se situent dans la zone la plus sensible de l’oreille (alarmes, sirènes

de pompier, sifflet de l’agent de police, sonneries de téléphone, klaxon de voiture, cris de bébé...)

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 10/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

10

En raison du large spectre de l’audition humaine (du grave à l’aigu), on représente souvent les fréquencesen échelle logarithmique. L’écartement entre 10 Hz et 100 Hz est le même qu’entre 100 Hz et 1000 Hz ou1 000 et 10 000 Hz dans ce genre de notations. La distance est doublée à chaque ordre de grandeur.

Décibels

On parle en général de niveau sonore en décibels en raison de la large plage dynamique de l’ oreil le . Elles’étend de 20 micro Pascals - seuil de l’audition à 1 kHz, à 20 Pascals - seuil de douleur : soit sept ordresde grandeur en pression acoustique . Le seuil d’audition en puissance acoustique est de 10 -12 Watts .

La dynamique sonore se situe entre le seui l d’audition et le seui l de douleur .

Les décibels (dB) sont des unités logar ithmiques relat ives , qui permettent de représenter une largeéchelle sans alourdir les notations. Ils ont la particularité de transformer les multiplications en additions.

Leur expression mathématique habituellement utilisée en audio est :

( ) Référence

MesuréeQuantité Log dB N 20=

Différents types de décibels sont définis selon la référence utilisée :

- dB SPL (Sound Pressure Level ) : référence 20 µ Pascals (seui l moyen de l’ audition à1 kHz ) pour lesniveaux de pression acoustique.

- dBm : référence 0,775 Vol ts (dissipation d’1 mW dans 600 Ohms) pour les niveaux électriques audio.

-

dBu : référence 0,775 Volts (sans impédance de référence) pour les niveaux électriques audio.- dBv : référence 1 Volt dans certains ouvrages d’électronique.- dBFS : pour les systèmes numériques. Le 0 dB Full Scale est la pleine échelle du système.- dB sans unité : pour rendre compte d’un rapport (gain, mesures relatives...).

Certaines valeurs particulières sont utiles à connaître :

+ 6 dB est équivalent à une multiplication par 2, + 20 dB par 10…

Ainsi, un gain d’amplification de 60 dB (20 + 20 + 20) représente un rapport d’amplification de 1000(10 x 10 x 10). Un gain de - 40 dB, une division par 100…

La sensation d’intensité sonore (Sonie ou Loudness mesurée en Phones ) dépend de la f réquence et suitune loi non linéaire (un son deux fois plus intense physiquement n’est pas perçu comme tel).

Une sonie de 50 Phones signi f ie que la sensation d’ intensitéest la même que cel le qui serait produi tepar un signal de 1 kH z à50 dB SPL .

Pour les écarts d’intensité subjectifs, on a défini l’échelle des Sones . Un Sone est l ’ intensitésubjectived’ un son de 1 kHz à40 Phones . À 1 kHz, l’intensité subjective d’un son est doublée lorsque sa sonie croit de 10 Phones (au-dessus de 40 dB SPL)... Autrement dit, on double l’intensité subjective d’un sonde 1 kHz en ajoutant 10 dB...

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 11/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

11

Pour la mesure de bruit, des pondérations dépendantes de la plage dynamique dans laquelle le niveau estmesuré, sont souvent utilisées. Elles suivent globalement les courbes d’isosonie :

- dB (A) : pour les niveaux de bruit entre 0 et 55 dB SPL (courbe 40 Phones).- dB (B) : pour les niveaux de bruit entre 55 et 85 dB SPL (courbe 70 Phones).

-

dB (C) : pour les niveaux de bruit entre 85 et 130 dB SPL (courbe 100 Phones).- dB (D) : pour les niveaux de bruit induits par les avions.

La couleur des sons , leur timbre , dépend de leur composition spectrale (contenu fréquentiel ) et de leurstructure temporelle .

Seuils dif férentiels

L’oreille est extrêmement performante en termes de sensibilité aux écarts de niveau. Elle est capable dedéceler des écarts de : 2 dB à15 dB SPL , 1 dB à30 dB SPL , 0,5 dB à60 et 70 dB SPL . Elle est plus

sensible aux bosses qu’aux creux de niveau.

Elle est aussi très performante en terme de discrimination fréquentielle : environ 2 Hz jusqu’à1kHz ,pui s de 0,2 à0,5 % de la largeur de bande au-delà . Parmi les échelles de hauteur musicale (tonie, pitch ),on peut découper le demi-ton tempéré en 25 Savarts ou 100 Cents .

Le jugement des hauteurs n’ est précis qu’ entre 100 Hz et 5 kHz et dépend du niveau d’écoute.

Le jugement de la hauteur d’un son n’étant pas linéaire, il existe une échell e de hauteur subjective ,l’échelle des Mels . La référence est de 1000 Mels pour la hauteur d’ un son de 1 kH z à40 dB SPL .L’échelle physiologique des Barks , avec 1 Bark = 100 Mels est utilisée en physiologie auditi ve .

Au-delàde 1 kHz, i l f aut plus que doubler la fréquence pour donner la sensation d’ octave…

La défini ti on tempor ell e de l’oreille est de l’ordre de 2 ou 3 mi l l isecondes selon les études les pluscourantes sur le temps de fusion (experience selon laquelle deux clics distincts sont perçus comme unseul son). Certains auteurs pensent qu’elle est bien inférieure à ces valeurs dans les domaines de lalocalisation et de la sensation d’ espace .

Fatigue auditi ve

Le phénomène de fatigue auditi ve est essentiellement cumulatif. Sorte « d’éblouissement » acoustique,l’oreille a besoin de temps, après une exposition à un son fort, pour retrouver ses performances normales(effet de masque pro-acti f ).

L’oreil le fatiguée perçoit les sons d’ intensitémoyenne plus for ts qu’ i ls ne sont en réalité . C’est le phénomène de recrutement (la Sonie croît plus vite que le niveau sonore). Néanmoins, l’oreille estcapable de récupérer très vite après une agression bénigne. Une demi-seconde suffit à retrouver un seuild’audition normal après l’exposition à un stimulus court de 115 dB SPL.

Attenti on, l e dépassement des valeurs limi tes, ou les temps d’ exposition longs àde for ts ni veaux

entraînent des dommages physiologiques irréversibles (acouphènes, destr uction des cellules ci l iées...) .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 12/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

12

Oreil le anatomique

L’oreille capte le son par le pavillon (oreil le externe ). Le conduit auditi f (long de 27 mm en moyenne)guide les vibrations sonores vers le tympan . Les vibrations aériennes sont alors transformées envibrations mécaniques dans l’oreil le moyenne à l’aide des trois osselets (marteau, enclume et étrier). Ces

vibrations mécaniques sont ensuite transmises à l’oreil le interne (cochlée / membrane basil aire / organede Corti ) où le message sonore est transformé en influx nerveux par des cellules cil iées spécialisées. Lenerf auditif transmet alors ces informations aux lobes du cerveau concernés.

L ’ orei l le externe est aérienne , la moyenne osseuse , l’ interne liquide .

Le codage nerveux de l’information sonore est très économique en terme de débit d’informations auregard des performances de l’oreille.

Néanmoins, on ne sait actuellement que peu de choses sur la mécanique auditive, son fonctionnement précis ainsi que sur son interprétation cognitive.

I l n ’ y a pas de relation simple entre les paramètres physiques du son et les sensations qu’ i ls produisent.

Localisation

La localisation des événements sonores est très restreinte en écoute monaurale .

En champ libre , on repère la distance de la source par le détimbr age effectué par la distance (en particulier l’atténuation des aigus et les réflexions sur le sol) et sa localisation par le filtrage du pavillonde l’oreille externe.

En revanche, la localisation en écoute binaurale est extrêmement précise dans le plan horizontal. Elleoffre la possibilité d’isoler, dans la totalité de l’espace, une zone en dehors de laquelle le phénomènesonore, toujours perçu, ne trouble pas l’attention. Selon la terminologie de Von Bekesy , cette zoned’écoute focalisée est « l ’ espace de présence » .

La localisation met en jeu trois phénomènes principaux :

- Les indices temporels (∆ T : différence d’arrivée des sons à chaque oreille - différence de marche).- Les indices d’ in tensité (∆ I : différence d’intensité de ceux-ci). Masque de la tête et du corps.

-

Les indices spectraux (HRTF - Head Related Transfer Functions ) qui rendent compte du filtragedirectif effectué par le pavillon de l’oreille externe. Ces fonctions sont très différentes selon lesindividus, et aussi uniques que les empreintes digitales ! L’utilisation des indices spectraux estacquise avec l’expérience auditive.

• En écoute naturelle , une latéralisation totale est obtenue pour un ∆ T de 0,65 ms , ou bien un∆ I d’environ 7 dB.

• En écoute stéréophonique , une latéralisation totale est obtenue pour un ∆ T de 0,9 à1,12 ms , ou bien un ∆ I de 15 à17 dB .

En écoute au casque , ces valeurs passent à 0,7 ms pour le ∆ T ou bien de 8 à10 dB pour le ∆ I .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 13/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

13

Le pouvoir séparateur dans le plan hor izontal est d’environ 2 degrés .

Dans le pl an médian (plan vertical séparant la tête en deux), la précision de localisation est moindre, caril n’existe plus de différences interaurales de temps ou d’intensité (envi ron 10 degrés ).

Certains auteurs insistent sur la localisation à l’aide de l ’ enveloppe dynamique de sons . Les transitoires (riches en hautes fréquences) en sont des facteurs importants.

Les mouvements de la tête et les réflexions sur le torse ont aussi un rôle clef dans le processus dynamiquede localisation. Ils remplacent, chez l’homme, les mouvements de l’oreille externe chez certains animaux.

Les indices temporels sont prépondérants en basse fréquence, puis les indicesde ni veau prennent l e relais en moyenne et haute fréquence (àparti r de 2 kH z envi ron).

Les sons graves sont moins bien localisés que les sons médium ou aigus. La différence de temps seule ne permet pas de lever beaucoup d’ambiguïtés. En revanche ils se propagent loin.

Démasquage

L’effet dit « cocktai l party » met en évidence la sélectivi téde l’écoute naturelle . En cas d’environnement bruyant, un convive autour d’une table est capable de concentrer son attention et de ne suivre qu’uneconversation. L’appareil auditif focalise et identifie . Les sons d’ambiance qui ne sont pas dans la zone deprésence sont inhibés (noise gate physiologique), là où un couple de microphones n’enregistrerait qu’un

brouhaha incompréhensible.

Ce phénomène montre les facultés de démasquage de l ’écoute naturelle . Certains auteurs parlent d’uncône de présence frontal . Seule la motivation nous permet d’entendre un signal dont le niveau est

inférieur à celui de son environnement s’il nous fait face... Cette attention est néanmoins consommatricede vigilance et entraîne donc de la fatigue.

Dans les systèmes de reproduction des sons, cette aptitude à démasquer est d’autant mieux rendue que lenombre de canaux cohérents diffusés est grand.

Le démasquage n’est pas possible en écoute monaurale ni en monophonie . Il est relativement restreinten resti tution stéréophonique . Le mixeur de multicanal gagne en lisibilité et en espace par rapport à sonalter ego stéréophonique.

Le cerveau asservi t le système auditi f . L’oreille n’a de cesse que de s’adapter au contexte dynamique du paysage sonore.

Les nuances musical es ne peuvent être que relat ives...

La localisation auditive s’aide d’indices visuels et cognit ifs (sources sonores vues, reconnues, prédictiondu trajet des sources, reconnaissance du langage par rapport au fond sonore...). L’exemple du moustiqueinlocalisable de Claude Bail blé en est une très bonne illustration...

Il est d’usage de définir comme écoute acousmati que une écoute dissociée de la vision des sourcessonores.

L ’ ouïe déborde le sens visuel en formant de l’ espaceenvironnant une représentation omnidirectionnelle et simultanée.

Néanmoins, le mouvement des globes oculaires asservit la focalisation auditive.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 14/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

14

Ef fet de masque

Une deuxième propriété de l’audition tient au fait qu’un son fort puisse masquer un son de fréquence proche et d’intensité inférieure. « Le son fort cache le son faible ».

On définit en psychophysiologie les bandes critiques comme la largeur de bande fréquenti ell eminimale, susceptible de masquer un son pur . Cette largeur est variable et dépend de la hauteurconsidérée.

La membrane basil aire de l’ oreil le interne est alors vue comme un ensemble de 24 f i l tres , chacun ayantune largeur caractéristique notée en Barks (théorie de la localisation fréquentielle).

Un son masquant masque plus fortement les sons de fréquences supérieures qu’ inférieures (inertiemécanique de la membrane basilaire).

Cet effet essenti ell ement monaural dépend for tement de l’ intensitédu masqueur .

Cette propriété de l’audition est àla base de tous les principes de réduction de débit en audionumérique .On considère alors qu’il n’est pas utile de coder ce qui n’est pas entendu. Tous les algorithmes deréduction de débit reposent sur un modèle psychoacoustique englobant l ’ ef fet de masque . Dans cessystèmes, le découpage du spectre audio est très souvent effectué en 32 sous bandes pour des raisonsinformatiques.

Effet de précédence - effet H aas

Une loi empirique dite « ef fet de précédence » ou « eff et Haas » stipule que l’oreille localise une sourcesonore du côtédu premier front d’ onde qui lui parvient , sans tenir compte des réflexions parasites quil’accompagnent. Cet effet se situe essentiellement dans les 50 premières mi ll isecondes du son (zone dutemps de fusion) .

Au cinéma, les canaux arrière sont retardés pour que les spectateurs ne soient pas tentés de localiser lessons derrière eux...

Équil ibre et oreil le vestibul aire

Il faut garder à l’esprit que l ’ oreil le moyenne est aussi le siège de l ’équil ibre et de la sensati on dedéplacement (organes de l’ oreil le vestibulaire) . Le phénomène de réaf férence vestibulai re (stabilisationapparente) explique qu’un paysage sonore ne semble pas bouger pour un auditeur se déplaçant outournant la tête.

Enfin, l’oreille, comme l’œil, peut se faire prendre par des il lusions auditi ves.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 15/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

15

Représentati ons graphiques du son

- Représentation temporelle (amplitude - temps)- Représentation spectrale (amplitude - fréquence / amplitude - phase)- Espaces de représentations (transformées de Fourrier , en ondelettes, en Z…) - Limites causales - Pas

de notion de temps dans le domaine fréquentiel. Transitoires et bande passante.- Représentation sous forme de sonogrammes (amplitude - temps - fréquence)

Une description classique d’un son est celle de son enveloppe dynamique temporelle : attaque,relâchement, tenue, extinction. C’est l’ enveloppe ADSR : Attack - Decay - Sustain - Release dessynthétiseurs classiques).

Structure d’un son / extérieur , intérieur

En plein air , un son se propage selon la directivité de la source. Les hautes fréquences s’atténuent avant

les basses fréquences par viscosité aérienne. Le niveau diminue en r aison du car réde la distance ;l ’ intensitésonore est divisée par deux quand on double la distance (-6 dB) .

Le son direct est alors accompagné de ses seules premières réflexions (sol, obstacles...).

Les sirènes de bateau, toujours graves, iront loin dans la brume pour éviter les collisions. Leurstransitoires, eux, serviront d’ indices de localisation .

Si la source est en mouvement rapide, alors l’ eff et Doppler vient aider à sa caractérisation. Le spectreglobal de la source mobile descend avec son éloignement. Les circuits de Formule 1 en sont un bonexemple.

Dans une salle , on distingue le son direct , les premières réflexions (sol, plafond, murs, scène…), et laréverbération tar di ve (résonance de la salle). Divers phénomènes physiques complexes sont mis en jeu :réflexions, réfraction, diffusion, diffraction, absorption, transmission, dissipation, dispersion, couplagesacoustiques…

Une salle est caractérisée par sa couleur, le diagramme de ses réflexions (échogr amme ) et son temps deréverbération . Les modes propres (fréquence de résonance de la sal le ) dépendent directement de sagéométrie.

La distance cri tique est définie comme la distance àla sour ce sonore pour laquelle l’ intensitédu sondi rect est égale àcel le du champ réverbéré .

Le temps de réver bérat ion est défini comme le temps que met l ’énergie d’ un son àdécroîtr e de60 dB (TR60 , soit à tomber à 1/1 000 ème de sa valeur initiale).

Remarque sur l’ acoustique des l ieux d’ enregistrement

Chaque lieu a sa propre couleur, son propre temps et sa propre courbe de réverbération. Ceux-ci

dépendent essentiellement du volume, de la géométrie de la salle, ainsi que des matériaux la constituant. Néanmoins l’acoustique d’une salle réelle est un phénomène extrêmement complexe. L’utilisation polyvalente d’un lieu est souvent délicate voire inenvisageable. Seuls les lieux à acoustique variable permettent de s’adapter, dans une certaine mesure, à différents types de projets sonores.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 16/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

16

L’acoustique d’un studio d’enregistrement est souvent étudiée pour être la plus neutre possible, de façon à pouvoir utiliser les enregistrements effectués dans tout type de contextes. Les divers périphériques, ainsique les unités de réverbération artificielle, permettront, ensuite, de recréer l’espace voulu au mixage.

Au vu des connaissances actuelles en matière de perception, il est encore impossible de tromper un

auditeur attentif très longtemps.

Le choix du l ieu d’ enregistrement reste crucial en pri se de son acoustique.

Les cabines d’ enregistrement pour la stéréophonie sont souvent conçues selon le principe LEDE (L iveEnd, Dead End) . Le principe est d’amortir le local du côté des enceintes (dead end ) et de laisser l’arrière

plus diffusant (live end ). Cela permet de garant ir que l ’ ingénieur du son écoute bien ce qu’ i l a sur sesbandes et non pas l’ acoustique de sa cabine...

Pour les cabines mul ticanales , bien que de nombreux débats soient encore en cours, il semble que la

présence de hauts parleurs devant et derrière l’ingénieur du son impose une cabine plus amortieglobalement qu’ en stéréophonie .

La conception de cabines d’enregistrement, de studios, ou de salles de concert s’aide actuellementd’outils informatiques d’ acoustique prévisionnel le (CATT Acoustics par exemple…). Le plus grand soinest apporté au traitement des premières réflexions.

Enregistrement sonore

Mise en mémoire, support, archivage, diffusion radio ou télévision, design sonore, dramatique radio,

son au cinéma (indices et réalité), installations, illustration sonore, bruitage, habillage, musique, bornesinteractives, bases de données audio, banques de son…

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 17/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

17

Structure générale d’ une chaîne de production audio

Captation / pr ise de son

Captation analogique d’un phénomène sonore.

- Prise de son en intérieur- Prise de son en extérieur- Bruitage- Prise de son de voix- Prise de son stéréophonique- Prise de son musicale

L’outil de captation sonore est le microphone .

Le microphone est un transducteur analogi que mécano - électr ique . Il délivre une tension électriquealternative analogue au mouvement de sa membrane entraînée par les vibrations des molécules d’air. Il secaractérise par sa sensibi l i té (donnée en millivolts par Pascal ), sa courbe de réponse en f réquence , et sadirectivité .

Les di rectivi tés sont les réponses angulaires des microphones (sensibilité en fonction de l’incidence duson capté). Les plus courantes sont :

Omnidirectionnelle , Hypo ou I nfra Cardioïde , Cardioïde , Hyper Cardi oïde , Bidirectionnelle .

Les di rectivi tés des microphones influent sur leur réponse en fréquence . Plus un micro est directif etmoins bonne est sa réponse en basse fréquence.

Un eff et de proximi téexiste pour tous les microphones dir ectifs . Il se caractérise par un renforcementdes basses fréquences quand le son est pris de très près. Il s’explique physiquement par le passage desondes sphériques en ondes planes. En se déployant dans l’espace, le front d’onde acoustique s’aplatit avecla distance. Cet effet est exploité par les speakers radio. Certains constructeurs en tiennent compte dans

les caractéristiques de leurs microphones directifs.

Les micros omnidirectionnels deviennent dir ecti fs en haute fréquence en raison de la perturbation qu'ilsinduisent eux-mêmes dans le champ acoustique. Plus un micro est gros, et plus cet effet est important(M 149 et TLM 50 Neumann par exemple).

Les micros canons (tube à interférence) sont conçus pour êtres très directifs (hyper car dioïdes ).

Certains micros permettent de choisir plusieurs directivités.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 18/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

18

Deux technologies différentes de microphones existent en prise de son : les microphonesélectr odynamiques et les microphones électrostati ques .

Électrodynamiques : peu sensibles (de l’ordre de 2 mV/Pa ), fiables, peu chers (100 - 400 Euros), peu

sensibles à la manipulation (micros mains, de perche, d’interview, de sonorisation), ne nécessitent pasd’alimentation, bande passante plus restreinte que les micros électrostatiques, peu sensibles aux variationsde température, d’humidité, à la poussière, à la fumée de tabac…

Exemples : Shure SM 57, SM 58, Beta 58 ; Beyerdynamic M 69, M 88, M 160 ; Sennheiser MD 421, MD441, Electovoice RE20 ; AKG D112, LEM DO21…

Électrostati ques : très sensibles (de l’ordre de 10 - 50 mV/Pa ), très bonnes courbes de réponse,nécessitent une alimentation 48V (fantôme), « préamplificateur » intégré dans le corps du microphone

pour adapter la liaison, sensibles à la manipulation, au vent, fragiles, relativement chers

(400 - 4 000 Euros), sensibles aux variations de température et d’humidité, à la poussière, à la fumée detabac…

Ils sont très utilisés en prise de son musicale.

Exemples : Neumann U47, U67, U87, U 89, M149, TLM 50, TLM 170, série KM 100, KM 84, KMR 81;Schoeps série MK (2, 2H, 2S, 21, 4, 4V, 5…), couple ORTF ; DPA (ex Bruel et Kjaer) 4003, 4004, 4006,4007, 4041 ; AKG C414, Audio Technica AT 4041…

Les microphones àélectr et sont une catégorie particulière de microphones électrostatiques à capsule pré-

polarisée. Ils sont un peu moins chers en général.…

Les signaux issus des microphones sont très faibles (quelques millivolts). Les chaînes de travail audiofonctionnent autour du Volt. Les signaux microphoniques devront donc êtres pré-ampli f iés . Les facteursd’amplification (gain ) nécessaires dépendent de la sensibilité du micro.

Grossièrement, pour un micro électrodynamique le préamplificateur micro devra avoir un gain d’environ60 dB (multiplication par 1 000) et pour un électr ostatique un gain de 40 dB (multiplication par 100).

La qualité des préamplificateurs micro (en raison du fort gain demandé) est un paramètre sensible de laqualité de la chaîne audio. Le bruit est amplifié comme le signal utile...

L ’ art de la prise de son repose sur le choix et le placement des microphones, selon le type et la directivitéde la source sonore, le jeu musical et le répertoire interprété, l’esthétique recherchée, l’acoustique de lasalle, l’espace souhaité...

Chaque microphone a son propre timbre.

Les microphones sont l e meil leur égaliseur du preneur de son…

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 19/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

19

Quelques éléments techniques

L iaisons audio : asymétr ique / symétr ique

Plus le niveau véhiculé dans un câble est faible, plus il faudra s’assurer de la qualité de la liaison et de sa

protection face aux parasites (ronflette, bruits, buzz, rayonnements divers…). En parti culier pour lali aison microphonique .

La dynamique d’ un système électroacoustique est définie entre le bruit de fond du système et sa limi tede saturation .

L’audio utilise deux méthodes de câblages. La l iaison asymétr ique (deux points : point chaud - masse) pour les niveaux lignes (autour du Volt) ou la hi-fi, et la l iaison symétr ique ou différenti ell e (trois points : point chaud - point froid - masse) pour assurer le câblage des signaux de quelques millivolts (parexemple issus des microphones).

Toute l’électronique audio foncti onne en asymétr ique à l’intérieur des appareils.

Le principe d’une liaison symétrique est de véhiculer le signal utile en double, et en opposition de phase,sur deux conducteurs entourés par un blindage. Le blindage assure le rôle d’une cage de Faraday . À laréception, une différence entre les deux signaux utiles est faite (désymétrisation ), afin de pouvoircontinuer le traitement du signal sonore. Les parasites de mode communs (parasites indui ts sur les deuxconducteurs uti les) sont éliminés par cette astuce .

La liaison symétrique permet l’utilisation d’une alimentation continue 48 Volts dite fantôme pour lesmicrophones électrostatiques . Dans ce cas, les deux conducteurs actifs servent à transmettre lamodulation microphonique et l’alimentation continue du micro.

Cette alimentation sert à polariser le condensateur du capteur électrostatique et à alimenter le« pré-ampli » adaptateur d’ impédance logé dans le corps du microphone. Pour les microphones àélectret, le condensateur étant pré-polarisé, l’alimentation ne sert qu’à l’électronique d’adaptationd’ impédance .

Une liaison symétrique analogique peut être désymétrisée « basiquement » en raccordant le point froid àla masse. Dans ce cas, le niveau utile chute de moitié soit - 6 dB .

Attention de ne pas le faire sur des câbles micros ayant besoin d’une alimentation

au risque de les endommager définitivement.

Les niveaux de travail et indicateur s de niveau

Pour des raisons historiques, la référence de travail a été fixée à 1,23 Vol ts (+ 4 dBm) .

Le niveau standardisé des équipements grand public (hi-fi par exemple) est fixé en dessous de ce niveaude référence pour des raisons économiques : 0,32 Vol ts (- 10 dBv) .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 20/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

20

Les indicateurs de niveau les plus courants sont de deux types : VU-MÈTRE (Volume Uni t) et PEAK- MÈTRE (indicateur de crête) .

- Le VU-MÈTRE est calibré selon la règle : 0 Vu = + 4 dBm (1,23 Volts) .

-

Le PEAK-MÈTRE est calibré 8 dB au-dessus : 0 Peak = + 12 dBm (3,09 Volts) .

Cet écart de 8 dB tend à compenser statistiquement l’inertie de montée du VU-MÈTRE (signaux à fortsfacteurs de crête ) et éviter la saturation de la chaîne audio. En général les appareils analogiques

professionnels acceptent une réserve au-dessus des + 12 dBm .

Le 0 VU indique donc une tension de + 4 dBm pour un signal stationnaire , et une tension de + 12 dBm pour un signal en régime dynamique .

Un VU-MÈTRE normalisé est gradué de -20 dB à+3 dB , et de 0 à100 %. Le 100 % étant aligné sur le

0 VU . Sa constante de temps (temps d’ intégration) est de 300 ms en montée / descente.

Un PEAK-MÈTRE est souvent gradué de -50 dB à+ 5dB . Le 0 PEAK correspondant à +12 dBm . Sontemps de montée est de 10 ms. Son temps de descente est d’ une seconde et demie.

La saturation analogique étant pr ogressive , il est possible de dépasser les niveaux donnés et de jouersur la couleur apportée par la distorsion . Celle-ci peut être intéressante suivant les appareils(compression « naturelle » des magnétophones à bande magnétique, amplificateurs à lampes pour bassesélectriques ou guitares…). Actuellement, beaucoup de grands studios dans le monde utilisent encore desconsoles et magnétophones analogiques en enregistrement de variété, rock, jazz...

Dans les studi os audi onumériques, le niveau de travail est souvent standardisé à 0 VU = - 18 dBFS ou- 20 dBFS (Full Scale - pleine échelle).

Les PEAK-MÈTRES audionumériques sont souvent gradués de - 90 à0 dB FS .

La valeur de 0 dB FS (pleine échell e du convert isseur analogique numérique ) ne peut pas être dépasséesans artefacts audibles gênants. Le numérique n’ a donc pas de réserve dynamique au-dessus du0 dB FS . De ce fait, les indicateurs de niveau sur les systèmes audionumériques sont des indicateurs decrête, et les magnétophones mémorisent la valeur maximale atteinte (margin sur les DAT - Digital AudioTape par exemple). Les utilisateurs surveillent leur marge...

Le jeu consiste alors à moduler le plus possible sans jamais atteindre le 0 dB FS ...

Problèmes éventuels de dynamique àla pr ise de son

Certaines sources sonores en champ proche ont plus de dynamique que le système d’ enr egistrement (unevoix prise de près par exemple). Il peut être utile de rédui re la dynamique de la sour ce pour l’ adapter à la chaîne d’ enregistrement àl’ aide d’ un compresseur .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 21/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

21

Pr incipes de la pr ise de son stéréophonique

L’idée de spatialisation du son suit de près l’invention du téléphone (1876 ) et du phonographe (1877 ).C’est le pionnier de l’aviation et inventeur Clément Ader qui lance le mouvement avec son théâtrophone en 1881 . Une rampe de dix téléphones fut installée à l’Opéra Garnier pour une retransmission en directau Palais de l’Industrie...

Système d’écoute stéréophonique (de stéréos - solide)

La reproduction se fait sur deux hauts parleurs (H.P.) identiques . L’auditeur est censé se placer ausommet du triangle dont la base est matérialisée par les deux haut-parleurs. Dans sa conf igur ationoptimale, ce tr iangle est équilatéral (60°) . L’auditeur perçoit alors le signal émis par chaque enceinte sur

chacune de ses oreilles.

Le champ stéréophonique est un espace qui permet àl’ audi teur de local iser les sons enregistrés entreles enceintes ainsi que de distinguer différents plans de prise de son en profondeur derr ière le plan deshauts parleurs.

Chaque signal émis par un haut-parleur est capté par les deux oreilles moyennant une différencetemporelle ∆ T due à la différence de marche de l’onde sonore arrivant à chacune de celles-ci.

La tête et le corps de l’auditeur induisent un filtrage (différence d’intensité ∆ I ) des signaux croisés. De

plus le pavillon de l’oreille filtre le son arrivant suivant son incidence (HRTF - H ead Related TransferFunctions ).

Si les deux H.P. diffusent un signal identique, l’auditeur perçoit une source unique localisée entre lesdeux enceintes. Cette source étant immatérielle et en dehors de la direction des enceintes, on parlesouvent de sour ce fantôme ou de source vir tuelle .

Les trajets croisés (H.P. de gauche sur l’oreille droite et inversement) sont tolérés dans les techniquesstéréos conventionnelles bien que cette diaphonie acoustique perturbe la perception des di fférencesinteraurales de temps et d’ intensité . Ce phénomène fixe l’ image sonore entr e les enceintes . Dans lestechniques dites transaurales , on cherchera à s’en affranchir.

La localisation peut être relativement précise entre les enceintes . De grandes différences de restitu tionspatiale peuvent êtres constatées en f onction des systèmes de pr ise de son employés .

Si l’on s’écarte de la ligne médiane du triangle d’écoute, la localisation bascule rapidement du côté del’enceinte la plus proche.

Comme le fait remarquer Rozenn Nikol dans sa thèse, « I l faut bien comprendr e que l’écoutestéréophonique n’ a aucun équival ent en termes de situation d’écoute réelle, puisqu’ en présence dedeux sources réelles (les H .P. dans ce cas), l ’ auditeur perçoit une source unique local isée en un pointqui ne correspond àaucune des positions des sources. En fait, i l semble que l’ appareil auditi f ef fectue

un tr avai l de fusion des sons en provenance des deux hauts par leurs en écoute stéréophonique. Cettesituation ne se rencontr e jamais dans la nature. Certains auteurs suggèrent d’ ail leurs que l’écoutestéréophonique ne serait qu ’ un artefact de la perception… »

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 22/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

22

Prise de son

On distingue la stéréophonie artificielle (monophonie di r igée au moyen du potentiomètre panoramiqued’intensité de la console), des techniques de prise de son stéréophoniques dites cohérentes .

La prise de son cohérente se fait en jouant sur les ∆ T (écar tement des capteurs) et / ou ∆ I (directivi tésdes capteurs) de mi crophones identi ques uti l isés en couple .

On définit l’angle de prise de son comme l’angle des sources à enregistrer par rapport à l’axe du couplequi seront reproduites entre les enceintes du triangle d’écoute. Les sources en dehors de cet angle neseront reproduites que sur une des deux enceintes.

Le couple de prise de son stéréo détermine donc une focale audio (plan de prise de son) lors del’enregistrement . La position du couple détermine, outre la focale audio , le rapport du son direct et duson réverbéré (distance de pr ise de son - position de l ’ auditeur idéal ).

La perspective rendue en stéréophonie est assez dif férente de l’ espace réel.

La captation sonore déforme la scène sonor e (di stor sion géométrique) . Pour tenir compte de cesdéformations, le preneur de son est assez souvent amené à déplacer les musiciens ou les instruments lorsdes séances d’enregistrement. On trouve souvent dans la littérature le terme d’effet de loupe pourcaractériser un des aspect de cette distorsion d’espace.

Du point de vue de la profondeur , l ’ enregistr ement stéréophonique a toujours tendance à«aplati r » lascène sonore que l’ on désire capter et donc àfausser l es rappor ts de dynamique naturels entre lesinstruments . Il est très courant de demander à des musiciens de «creuser » les nuances enenregistrement.

Pour que ses intentions musicales restent lisibles, l’interprète est souvent obligé d’ exagérer ses gestesmusicaux .

La plupart des prises de son en acoustique natur elle actuelles reposent sur l’utilisation de systèmesprincipaux (couples ou rampes de microphones) que l’on complète par des microphones d’appoint

placés près des instruments là où on le juge nécessaire.

Les microphones d’ appoint (qui permettent d’ apporter un peu de «grain » àl’ enregistrement) sontalors mélangés avec le système principal en monophonie dir igée à l’ aide du potentiomètre

panoramique, de l ’ uti l isation de retards (compensation de la proximi tédu microphone d’ appoint parrapport au coupl e principal) et / ou de rajout de réverbération ar ti f icielle (compensation du rapportentre le son di rect et le son réverbéré) .

Il est aussi possible d’utiliser plusieurs couples de prise de son lorsque l’on désire obtenir différents plansde prise de son (le couple d’appoint des « bois » dans un orchestre par exemple...). Néanmoins un dessystèmes est toujours considéré comme le « couple principal ».

Chaque enregistrement est une aventure où le preneur de son tente de résoudr e un grand nombre deproblèmes simultanément dans le temps de balance qui lui est impar ti .

La prise de son est une discipline dans laquelle il n’ y a pas de recettes toutes faites... et où le preneurde son est souvent amenéàadapter ses outi ls. I l procède alor s par approximations successives enfoncti on du lieu (acoustique de la sal le), du style musical enregistré, de l’ esthétique recherchée, descontrain tes de la production (temps, position des musiciens...) et bien sûr de l ’ intenti on des art istes.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 23/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

23

Parmi les techniques de pr ise de son stéréophoniques , on peut citer :

- Les couples coïncidents - uti l isation du ∆ I seulement :

-

XY : deux capsules cardioïdes coïncidentes placées à 90 degrés. Angle de pr ise de son de 180 ° .- Stéréosonic (A.D. Blumlein ) : deux capsules bidirective à 90 °. Angle de pr ise de son de 70 ° .- MS ( Mitte / Seite) : une capsule S bidirectionnelle pour les côtés, une capsule cardioïde vers l’avant

de la scène sonore. Système matricé. Décodage : G = M+S et D = M-S permettant de faire varier lalargeur de l’espace stéréophonique au mixage. Ce Système est assez souvent utilisé an cinéma pourses qualités de post-production (angle de pri se de son var iable et modif iable après enr egistrement ).

Les couples coïncidents ont une bonne compatibilité monophonique.

- Les couples de microphones directi fs légèrement espacés - uti l isation des∆ T et ∆ I :

- AB type ORTF : deux microphones cardioïdes séparés de 17 cm et 110° entre les capsules.Angle de prise de son de 100 ° .

- NOS (Neder landse Omroep Stichti ng) : deux capsules cardioïdes séparées de 30 cm et 90°.Angle de prise de son de 80 ° .

- Les couples de microphones omnidirectionnels - util isation du ∆ T seul ement :

- Typiquement 50 ou 40 cm :Angle de prise de son 100 - 160°

Certains preneurs de son introduisent un ∆ I physique dans les systèmes en ∆ T àl’ aide d’un baff le placé entr e des capteur s omnidir ectionnels (système Charlin , têtes art if icielles …).

Le compromis se fait entre le rendu en timbre et en espace (omnis) et la précision de local isation (cardios).

Les techniques utilisant des têtes art if icielles et leurs dérivés sont des cas particuliers de prise de sonoptimisées pour l’écoute au casque (écoute binaurale ). Dans ce cas, le système de prise de son joue aussien ∆ I et ∆ T mais il n’y a plus de mélange des signaux diffusés à la restitution. Le système de prise de son

peut intégrer les effets du pavillon et du conduit de l’oreille externe.

Les techniques dites transaurales permettent de diffuser ces enregistrements sur des haut-parleurs enannul ant les trajets croisés dûs àla dif fusion, en adaptant les HRTFs selon l ’ audi teur , et en tenantcompte éventuellement des mouvements de la tête.

Ces procédés permettent d’élargi r le champ stéréo au-delàdes enceintes de resti tution (extra-stéréo...).

Pour le son stéréo àl’ image , l’ajout d’un canal central permet de résoudre les difficultés posées par lerapport dialogues / langage cinématographique (l’exemple du champ / contre champ est un des plusclassique).

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 24/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

24

Remarque sur l’écoute binaurale - Ecoute au casque

Dans le cas de l ’écoute au casque, les sources sont local isées àl’ intérieur de la tête . Seuls les systèmestransauraux adaptés à l’écoute au casque peuvent permettre de les externaliser. Des études perceptives

montrent que les différences interaur ales sont inférieures à celles de la stéréophonie. L’écoute au casquea donc tendance à élargir la scène sonore par rapport à une écoute sur enceintes. Un enregistrement bienéquilibré spatialement au casque sera souvent trop « étroit » une fois passé sur des hauts parleurs.

Le système BRS (Binaural Room Scanning de G. Theil e de l’ IRT en Al lemagne ) permet de simuler uneécoute stéréophonique ou 5.1 au casque. Les sources sont dans ce cas externalisées par :

- synthèse des trajets croisés,- prise en compte des indices spectraux selon l’auditeur,- suivi des mouvements de la tête par un système de head tracking adaptant les corrections nécessaires.

Les résultats obtenus sont assez stupéfiants et pourraient trouver de nombreuses applications dans lessimulations d’ espaces sonores vir tuels , et notamment la simulation de conditions d’écoutes spécifiques(cabines d’enregistrement stéréo ou 5.1 par exemple, téléconférence, jeu vidéo…).

Les systèmes de captation pour le multi canal (plus de deux canaux ! ) changent actuellement la manièred’appréhender la géométrie étrange de la stéréophonie.

Enregistrement en dir ect / enregistrement multipiste

L’enregistrement peut se faire soit en direct , et dans ce cas, le mixage est fait à la prise de son au formatdu support souhaité ; soit en séparant les microphones sur di f férentes pistes indépendantes et dans cedernier cas, c’est au mixage que le résultat sera construit à partir des éléments enregistrés et des

périphériques choisis.

Le multipiste permet d’envisager des mixages différents selon les possibilités des supports envisagés(CD, radio, DVD, cinéma...) mais coûte évidemment plus cher en raison des heures de studio à effectueraprès la prise de son.

Le re-recording est une technique d’enregistrement multipiste qui consiste à enregistrer les instruments par couche séquentiellement. Basse + batterie, guitares rythmiques, guitare lead , claviers, voix...

Les musiciens utilisent, dans ce cas, des casques pour entendre leurs collègues...

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 25/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

25

Numérisation du signal

La numérisation du signal se fait en vue du stockage et du traitement informatique de l’information( Digital Signal Processing - DSP ).

Dans la plus grande majorité des cas, la numérisation du signal audio se fait au niveau ligne. Néanmoins,certains systèmes spécifiques numérisent les signaux au niveau microphonique (Neumann Solution D,Pré-amplis Stagetec Cantus par exemple).

La numérisation du signal s’opère en deux étapes : l’échanti l lonnage le discrétise temporellement, et laquantification discrétise son amplitude.

Un signal numérique est un signal échanti l lonnéet quanti f ié .

Les paramètres de numérisation sont donc la fréquence d’échanti l lonnage (Fe ) et la résoluti on dequantification . La fréquence d’échantillonnage détermine la bande passante du signal numérisé et laquantification sa dynamique .

Échanti ll onnage

La fréquence d’échanti l lonnage sera choisie au-dessus de deux fois la fréquence maximale àéchantillonner en accord avec le cr itère de Shannon / Nyquist / Koteln ikov à savoir Fe ≥ 2 x Fmax.

Sachant que les fréquences audibles sont compr ises entre 20 Hz et 20 kHz, on aura donc uneFe≥ 40 kH z pour un échanti l lonnage de tout le spectre audible.

La fréquence d’échanti l lonnage choisie fi xe la bande passante du système audionumérique.

F réquences d’échanti l lonnage habi tuell es :

On rencontre usuellement les cadences d’échanti l lonnage suivantes en audio :

- 8 kHz pour le téléphone (bande passante limitée à 3,4 kHz)- 16 kHz pour la diffusion de commentaires (bande passante limitée à 7 kHz)- 18,9 kHz pour le CD-I de niveau C- 31,25 kHz en vidéo 8 m/m (bande passante limitée à 14,5 kHz)- 32 kHz pour la diffusion (bande passante limitée à 15 kHz)- 37,8 kHz pour le CD-I niveau A et B diffusion (bande passante limitée à 18 kHz)- 44,1 kHz pour le CD audio- 48 kHz pour la production et le travail à l’image- 88,2 kHz, 96 kHz, 176,4 kHz, 192 kHz, 384 kHz pour les systèmes de hautes résolutions

Des sous-multiples de ces valeurs sont utilisés en multimédia, par exemple 22,050 kHz ou 11,025 kHz.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 26/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

26

Quantification

La quantification désigne l’étape de discrétisation en amplitude. L’informatique fonctionnant en puissance de deux et en octets (23 = 8), on choisit en général des résolutions de 8 , 16 ou 24 bits , soitrespectivement des découpages en 256 , 65 536 , 16 777 216 pas de quanti f ication (Q) . Les échantillons

sont quantifiés à la valeur du pas le plus proche (erreur maximale de Q/2 ).

Cette approximation est la sour ce de la distorsion de quanti f ication.

Plus la quanti f ication est fi ne et plus l’ erreur de quantif ication en ampli tude(et donc le seui l de bruit du système) est f aible .

La quanti f ication fixe la dynamique du signal numérique.

La relation simplifiée donnant la dynamique d’un système numérique en fonction de la résolution (n ) est :

( ) 26/ += ndB Bruit Signal Rapport

où n est le nombre de bits utilisés par le quantificateur.

n (bits) 6n + 2 (dB) Uti li sation8 50 Vieux Multimédia ! ! !

12 74 Téléphone14 86 Diffusion / Transmission

16 98 CD Audio20 122 Production24 146 Hautes Résolutions / Interfaçage - Traitements

32, 40, 56, 64, 96 > 194 Traitements / Calculs DSP

En réalité ce calcul est surestimé et les convertisseurs actuels ne suivent plus cette relation. Néanmoinselle donne un ordre d’idée indicatif.

Pour ce qui est de la dynamique de calcul des processeurs spécialisés, ils se divisent en représentations àvirgule fixe ou à virgule fl ottante .

À l’heure actuelle, les convertisseurs audio analogiques - numériques les plus performants du marchéatteignent les 28 bits dans des systèmes numériques exceptionnels (technologie TrueMatch de chezStagetec, microphone Neumann Solution D).

Des études perceptives récentes montrent que la numérisation « totale » d’un signal audio demanderaitune fréquence d’échanti l lonnage de 55 kHz et une résolution de 22 bits (Stuart ). Ces paramètres

permettraient d’encoder, sans différence audible, tout le message sonore.

Pour des raisons techniques, les systèmes actuels préfèrent les multiples simples des fréquences

d’échanti l lonnage usuelles et les puissances de deux .

Le 96 kHz / 24 bits peut remplir ces conditions.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 27/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

27

Débi ts et capaci tés de stockage

On peut calculer simplement le débit d’ un f lux audionumérique en fonction de sa fréquenced’échanti l lonnage , de la résolution utilisée et du nombre de canaux .

Règles de calcul

Les règles de calcul sont simples :

- 1 bit (binary digit ) = une information binaire : 0 ou 1

- 1 octet = 8 bi ts = 1 Byte (appellation anglaise)

- 8 = 2 3 1024 = 2 10

- 1 Ko = 1 KB = 1024 octets 1 Mo = 1 MB = 1024 Ko 1 Go = 1GB = 1024 Mo…

En général, les débits sont donnés en base décimale (i.e. 100 Mbps = 100 x 10 6 bits ) et les capacités destockage en base 2 (1 Go = 1024 Mo = 1024 x 1024 Ko = 1024 x 1024 x 1024 octets = 1024 x 1024 x1024 x 8 bits ).

Exemple pour un CD Audio

Pour un CD Audio : Fe = 44,1 kHz, 16 bits, 2 canaux .

Le débit en Méga-bits par secondes (Mbps) est donc de : 44100 x 16 x 2 = 1,4112 Mbps.

Ainsi 10 minutes de musique occupent : Mo9,100102410248

216441006010 =××

××××

Le tableau suivant donne quelques exemples des capaci tés de stockage requises, pour une minute ou uneheure de son, à différentes fréquences d’échanti l lonnage et résolutions :

Fréquence F e(Hz)

Résolution(bits)

Débit Mono / Stéréo(kbps)

Capaci tépar minuteMono / Stéréo (Mo)

Capaci tépour uneheure de Stéréo

11 025 8 88,2 / 176,4 0,63 / 1,26 75,7 Mo

11 025 16 176,4 / 352,8 1,26 / 2,52 151,4 Mo11 025 24 264, 6 / 529,2 1,89 / 3,79 227,1 Mo22 050 8 176,4 / 352,8 1,26 / 2,52 151,4 Mo22 050 16 352,8 / 705,6 2,52 / 5,06 302,81 Mo22 050 24 529,2 / 1 058,4 3,79 / 7,57 454,2 Mo44 100 8 352,8 / 705,6 2,52 / 5,06 302,8 Mo44 100 16 705,6, / 1 411,2 5,05 / 10,09 605,6 Mo44 100 24 1 058,4 / 2 116,8 7,57 / 15,14 908,4 Mo48 000 8 384 / 768 2,75 / 5,49 329,6 Mo48 000 16 768 / 1 536 5,49 / 10,99 659,2 Mo48 000 24 1 152 / 2 304 8,24 / 16, 48 988,8 Mo96 000 8 768 / 1 536 5,49 / 10,99 659,2 Mo96 000 16 1 536 / 3 072 10,99 / 21,97 1,29 Go96 000 24 2 304 / 4 608 16,48 / 32,96 1,93 Go

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 28/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

28

Les débits et capacités de stockage de l ’ audio l inéaire sont impor tants . Les techniques de réduction dedébit utilisant des codages percepti fs permettent de les minimiser, en engendrant une perte de qual i té irréversible . Ces codages permettent l’intégration du son dans le monde du multimédia et de la diffusionen numérique .

Un des points sensibles de la numérisation l inéaire est la précision de l’ hor loge d’échanti l lonnage . Une petite erreur temporelle peut vite engendrer une erreur de l’ordre de grandeur de celle de laquantificationqui reste la plus grosse erreur de la numérisation. Il est important de noter que cette erreur est corrélée ausignal à numériser, et que cette corrélation induit une distorsion de quanti fi cation dépendante du signal.Ce phénomène est désigné sous le nom de gigue d’horloge ou ji tter .

Dans la mesure où l ’ oreil le est plus sensible àla distorsion qu’ au brui t , il est d’usage de noyer dans un bruit la distorsion de quantif ication , au prix d’une légère détérioration de la dynamique du système. Cestechniques sont connues sous l’appellation de dithering . Il est aussi possible de rejeter ce bruit dans leshautes fréquences par filtrage. On parle alors de noise shaping .

Ces techniques trouvent leur application à chaque fois qu’un système numérique effectue unerequantification (troncature de 24 vers 16 bits par exemple) ou qu’une station de travail effectue untraitement quelconque (calculs, cross fades de montage, gain, filtres, effets…). Dans les systèmessuréchanti l lonnés , le bruit est moyenné (et donc réduit) lors du retour au format de travail.

Les convertisseurs actuels reposent sur un principe différent qui englobe naturellement les principes dudithering et du noise shaping . Ces technologies sont issues des travaux d’Inose et Yasuda et portent lenom de Sigma Delta ( Σ∆ ) .

Dynamique audio / dynamique de calcul

Attention de ne pas confondre la dynamique d’acquisiti on audio (dynamique de numérisation ) et ladynamique de calcul . Les convertisseurs actuels numérisent en 16 , 20 ou 24 bits. Les DSP (calcul ateur sspécial isés pour le trai tement numérique du signal ) devraient avoi r des résoluti ons de calcul trèssupérieur es àcelle du signal traitépour assur er une qualitéoptimale de traitement et permettred’ effectuer des opérations successives (erreur de calcul << erreur de quanti f ication) .

Le f i l tr age numérique (en numérique, tout traitement est f i l tr age ) consiste en des additions etmultiplications nombreuses, souvent itératives, des échantillons par des coefficients. Dans la mesure où

l’ addition de deux mots de n bits tient en n+1 bits et la mul tipl ication en 2n bi ts , le calculateur aura à

effectuer un arr ondi (r equanti f ication sur l a dynamique de calcul) àun moment ou un autre .

Cascader les tr ai tements numériques dégrade donc la qual itédu signal .

La copie numérique correctement effectuée, elle, est totalement transparente.I l n’ y a aucune perte àchaque nouvelle génération de copie.

La qual itéd’ un système de trai tement audio dépend de ses capaci tés de calcul

et de l ’ ut i l isation des techniques de dither ing et de noise shaping appropriées.

Actuellement, les calculateurs audio utilisent des arithmétiques en 32 , 40 , 56 , 64 ou 96 bits .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 29/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

29

I nterf aces audionumériques

Parmi les nombreux formats audionumériques , on distingue principalement le format de travail audioprofessionnel AES / EBU ( Audio Engineering Societ y / European Broadcasting Union) et le formatgrand public SPDIF (Sony Philips Digital Interface). Ces formats deux pistes sont assez proches du

point de vue des données audio transmises, néanmoins leurs niveaux électriques et leur type de liaisondiffèrent.

AES / EBU : Une l iaison symétr ique adaptée en 110 Ohms. I nter face deux canaux. 6,144 Mbps.I nterf ace auto-synchronisante. 24 bits audio. Signal entre 2 et 7 Volts.Longueur maximale de connexion 50 m. Connecteur XLR trois broches.

Certaines versions haut-débit (high speed ) de l’ AES / EBU doublent ou quadruplent la fréquenced’échantillonnage et permettent de transmettre une stéréo en 96 kHz, 192 kHz, 384 kHz , 24 bits sur uneseule connexion.

SPDI F : Une l iaison asymétr ique adaptée en 75 Ohms. I nterface deux canaux. 6,144 Mbps.I nterf ace auto-synchronisante. 24 bits audio. Signal de 0,5 Volts± 20 %.Distances de câblage courtes tel les que celles des install ations hi -f i . Connecteur Cinch.

Avantages des interf aces numériques :

- pas d’inversions gauche / droite- pas d’inversion de phase- pas d’alignement de niveaux

I nconvénients :

- même fréquence d’échanti l lonnage pour toute l’installation- un seul maître de synchronisation au sens de l’échanti llon - pas de Y possibles- attention aux transformations AES ⇔ SPDIF (passage de 100 en 75 Ohms ).

Une version multipiste de l’AES / EBU est le MADI ( Multichannel Audio Digital Interface) qui permetde transmettre 56 / 64 canaux sur un câble coaxial 75 Ohms ou une fibre optique (débit de 125 Mbps) .

Les autres interfaces usuellement rencontrées en audionumérique sont : le TDIF (Tascam Digital Interface - 8 canaux - un connecteur db 25), l’ADAT (8 canaux en fibre optique), le SDIF-2 (Sony Digital

Interface 2 - 2 canaux - 3 connecteurs) et le Y2 (Yamaha Digital Interface - 2 canaux -1 connecteur 8 points)…

Enr egistreur s audionumériques

Actuellement, les enregistreurs audionumériques stéréo les plus répandus sont les DAT ( Digital Audio

Tape - 16 bits , 32 kHz , 44,1 kHz , 48 kHz ) Sony ou Tascam et les multipistes Tascam (8 pistes) auxformats DTRS (16 bits , 44,1 kHz ou 48 kHz ) / DTRS-HR (16 ou 24 bits, 44,1 kH z , 48 kHz , 88,2 kHz , 96

kH z , 188,2 kHz , 192 kHz ). De plus en plus d’enregistreurs à bande sont actuellement remplacés par dessystèmes informatiques de stockage (disques durs, carte flash…).

Le CD audio, lu i, est normal iséen 16 bits, 44,1 kHz.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 30/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

30

Conversion de fréquence d’échanti l lonnage

En général, on s’assurera àl’ enregistrement de bien acquérir tous les éléments d’ un projet àla mêmefréquence d’échanti l lonnage si l ’ on souhaite effectuer une post-pr oducti on en numérique .

Les techniques de conversion de fréquence d’échanti l lonnage sont assez complexes et dégradent plus oumoins le signal audio selon leur implémentation. Elles sont néanmoins la meilleure solution si l’on estamené à traiter des sources de fréquences différentes.

Exemple :

On illustrera ici le cas ou une fréquence à convertir F1 a un rapport simple avec une fréquence dedestination F2 :

Pour passer d’une fréquence F1 à une fréquence F2, le principe de base est de sur -échanti l lonner F1 àson plus peti t commun multi ple (PPCM) avec F2 (phase d’interpolation ), puis de diviser la fréquence

obtenue pour obtenir F2 (phase de décimation ).

Ces deux phases supposent des capacités de f i l trage numérique évoluées .

F1 x C = F2 x D = PPCM (I nterpolation)(F1 x C) / D = F 2 et (F 2 x D) / C = F1 (Décimation)

Ainsi pour passer de F1 = 48 kHz à F2 = 32 kHz, on aura 48 000 x 2 = 32 000 x 3 = 96 000 Hz

Il est évident que cette méthode suppose qu’il soit possible de sur-échantillonner au PPCM des deuxfréquences… Pour un passage 48 kHz, 44,1 kHz, par exemple, le PPCM est de

48 000 x 147 = 44 100 x 160 = 7,056 GHz, ce qui n’est pas technologiquement évident. Enfin pour uneconversion 32 kHz, 44,1 kHz, le problème est encore pire avec44 100 x 320 = 32 000 x 441 = 14 112 000…

Les constructeurs rivalisent d’astuce et tentent parfois de minimiser la perte de qualité…

Synchroni sation audionumérique

L ’ audionumérique est un monde synchrone au sens de l ’échanti l lon. En général, tout le studiofoncti onne àla même fréquence d’échanti l lonnage pour un projet donné. L a transmission de donnéesaudionumériques impose que le récepteur et l’émetteur soient synchronisés pour communiquercorr ectement entr e eux (DAT station de travail , sources audio console de mixage par exemple).

Deux méthodes de synchroni sation au sens de l ’échanti l lon sont possibles suivant les tailles desinstallations :

Méthode maître - escl ave : La machine enregistreuse se synchronise sur le signal numérique entrant( Digital Input ). La machine lectrice est en synchro interne. L ’ inter face uti l isée est autosynchr oni sante.

Méthode académique : Une source d’horloge est distribuée en étoile à tous les équipements numériques

du studio. Toutes les machines sont en synchro externe.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 31/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

31

La deuxième méthode est évidemment la meilleure pour des installations à plus de deux ou trois machines; la première, plus une astuce de home studio où l’on doit sans cesse changer les sources de synchro.

Dans le cas de synchronisation en étoile c’est, en général, un signal carré à la fréquence d’échantillonnage

qui est distribué (Word Clock , TTL, connectique en BNC). Cette référence de synchronisati onaudionumérique, au sens de l ’échanti l lon, peut elle-même être synchronisée sur une référence vidéoen cas de travail àl’ image.

Les machines tournantes sont synchronisées par une référence vidéo de façon à asservir leur vitesse.

Si les équipements ne sont pas synchrones au sens de l’échanti l lon,i l y a alors appari tion de clics numériques aléatoires dans le signal uti le.

Qui dit traitement numérique du signal di t retard de traitement…

Il peut être salutaire de re-synchroniser un signal audio après passage dans un périphérique de traitement pour éviter les effets de filtre en peigne (plugs in Pro Tools TDM par exemple…).

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 32/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

32

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 33/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

33

Post-productionMontage - mixage - traitements

Les outi ls inf ormatiques

Parmi les outils informatiques pour l’audio, existent deux grands types de systèmes. Les systèmescomposés d’une carte basique d’entrée / sortie son et dont les opérations de calcul sont effectuées parl’ordinateur hébergeant la carte son (systèmes logi ciels ) et les systèmes à cartes de traitement ajoutées,qui permettent d’effectuer les calculs audio par des processeurs spécialisés (systèmes hardware ).

Les systèmes logi ciels ont, en général, des performances temps réel faibles. Leur puissance estdirectement fixée par celle de l’ordinateur les hébergeant. Pour des opérations complexes, ils ont besoin

de temps pour effectuer les calculs nécessaires (crossfades , calculs de gain , filtrages, plugs in). On parle,dans ce cas, de systèmes hors temps réel (cas des plugs in Audio Suite par exemple…).

Les plates formes informatiques évoluant, il est possible d’effectuer de plus en plus d’opérations en tempsréel, sans ajout de DSP supplémentaires ( plugs in Real Time Audio Suite - RTAS -, Wave, VST …).

Néanmoins les systèmes logiciels sont souvent tr op l imi tés (nombre de pistes, résoluti ons de tr avai l), outrop lents (temps de calcul ), pour une uti li sation en production .

Parmi les logiciels courants, on peut citer Peak , Deck , Sound Edit 16 , Cool Edit Pro, Sequoïa, Sound

Forge, Sonic Worx, Logic Audio, Pro Tools Free…

Les systèmes àcartes de DSP ajoutées sont les plus répandus dans les studios. Ils ont des capacités decalcul suffisantes pour effectuer de nombreux traitements en temps réel (systèmes propriétaires, systèmesTDM , …). Leurs performances sont fixées par celle de la capacité de calcul des cartes ajoutées. Ils sontévidemment plus onéreux…

Parmi les stations de travail hardware : Pro Tools TDM , Pyramix, Sonic Solution, SADIE …

D’autres logiciels existent à but de synthèse ou d’analyse ( Audiosculpt , Modalys, logiciels desynthétiseurs divers…), de mesure de signal audio (Spectra Foo…), des logiciels de conversion de

fichiers son (SoundApps, Barbabatch, Wave Convert Pro…), des logiciels spécialisés (environnement Max - MSP ...)

Le stockage audio se fait sur des disques SCSI paral lèle ou série (Small Computer System I nterface )1.

1 Cf. les annexes informatiques.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 34/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

34

Post-production:

Les opérations de post-production se composent principalement des étapes de montage et de mixage .

Le montage est actuellement fait quasi exclusivement sur des stations informatiques, qui permettent de

travailler de manière non destructive et de pouvoir comparer différentes versions d’un même montage facilement.

Les di fférences entr e les systèmes résident principalement dans le nombre de pistes disponibles, lesfréquences et les résoluti ons de travai l, la précision du montage, la qual itéde trai tement audio, leuruti l isation possible àl’ image, leur intégration dans un environnement de post-production et, bien sûr,l ’ ergonomie des interfaces util isateur .

Les opérations de mixage se font, la plupart du temps, avec des moyens classiques (consolesautomatisées et périphériques ). Néanmoins, dans certains secteurs de l’audio, de plus en plus de stationsde travail sont utilisées. Dans ce dernier cas, des télécommandes spécialisées permettent de les piloter

manuellement ( Pro Control Digidesign ou HUI Mackie pour le Pro Tools TDM ...).

Les stations de travail sont utilisées comme enregistreurs direct to disk, pour gérer les sourcesélectroniques (MIDI et Audio ), pour le montage , comme périphériques de trai tement (plug ins et effetsdivers), ou comme système de mixage .

Tous les systèmes de mixage proposent des modules de traitement du signal . Parmi les plus courants, ondistingue les modules de tr aitements fréquentiels , les modules de traitement dynamique , les modulesagissant sur la structure temporelle du signal , et les modules agissant sur le niveau .

Parmi les filtres , on retrouve les types suivants :

- Correcteur élémentaire de type Baxendall- Filtres paramétriques (réglage de la fréquence, du gain et de la sélectivité du filtre)- Filtres passe haut et passe bas (réglage de la fréquence de coupure et de l’ordre du filtre)- Filtres à plateau (réglage de la fréquence de coupure, du gain et de l’ordre du filtre)- Filtres réjecteurs (réglage de la fréquence)- Filtres passe bande (réglages des fréquences de coupure et de l’ordre du filtre)- Filtres coupe bande (réglages des fréquences de coupure et de l’ordre du filtre)- Filtres pour le disque vinyle dit RIAA (contraintes du support)

Les traitements de la dynamique sont effectués par :

- Les limiteurs- Les compresseurs- Les expandeurs- Les noise gates avec déclenchement à seuil ou à chaîne latérale

Les traitements temporels par :

- Les déphaseurs (chorus, flangeur…)- Les retards (délais, échos, accumulateurs, filtres en peigne…)- Les unités de réverbération artificielles

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 35/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

35

Pour le contrôle du niveau , on retrouve les faders habituels, les pré-ampl is micro ou ligne, et lespanoramiques d’intensité.

Les périphériques ou logiciels de traitement spécialisés (plugs in ) habituels font partie de ces catégories.

Remarque sur l e M IDI (Musical I nstrument Digital I nter face)

Le MIDI est un pr otocol e de télécommande conçu, au départ, pour contrôler les synthétiseurs. Il estquantifié en 8 bits (de 0 à127 ), à l’exception du Pitch bend qui est quantifié en 14 bits . Il définit desmessages de type note on , note off , n°de note , durée de la note …

Le MIDI fonctionne à 31,5 kbps . Connecteurs DI N 5 broches .

L ’ in terface midi ne transmet pas d’audio.

Les logiciels d’enregistrement des informations MIDI sont les séquenceurs .

Certaines stations de travail sont télécommandables en M IDI (Contrôleurs JL Cooper , Interface HUI Mackie pour Pro Tools...)

Dans les ordinateurs, le MIDI est souvent géré par l’intermédiaire de l’Open M usic System (OMS) de lasociété Opcode Systems.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 36/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

36

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 37/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

37

Son et multimédia

Les applications multimédia englobent naturellement le son. Néanmoins, vu les contraintes des supportsde stockage et la bande passante des lignes de transmission, il est très souvent impossible de l ’ uti l isersous forme l inéaire (non compressé) .

Des formats de compression de données ont donc été mis au point pour permettre l’utilisation des imageset des sons sur les supports multimédia et les nouvelles technologies de l’information. Parmi celles-ci, lesordinateurs individuels, les réseaux (in ter / in tra nets ), les bouquets numériques câble ou satellite , laradio numérique, les bornes interactives , ou les nouveaux supports (DVD , SVCD , CD Roms ...).

La pr oducti on et la post-producti on s’eff ectuent sous forme l inéaire. L ’étape de réduction de débitn’ intervient qu’ en f in de chaîne, pour les étapes «d’ author ing » multimédia, ou pour la di f fusion .

Les capacités des lignes de transmission ou des supports actuels sont données dans le tableau ci-dessous(à remettre à jour périodiquement...) :

Type de l igne Débit possible Appl icati on

CA-Net Canarie-Bell Canada 40 Gbps Internet optiqueInternet 2 US new national backbone 9,6 Gbps Réseau National US

Gigabit Ethernet / 1000 base T 1 Gbps Intranet / ExtranetATM OC-12 622 Mbps Intranet / Extranet

ATM OC-3 155 Mbps Intranet / ExtranetFDDI 100 Mbps Intranet / Extranet

100 base T / Ethernet 100 Mbps Intranet / ExtranetT3 43 Mbps Intranet / Extranet

10 base T / Ethernet 10 Mbps Intranet / ExtranetT1 1,544 Mbps Intranet / Extranet

TVHD numérique 40 – 60 Mbps TVHD Nouvelle génération de DVD ( Blue Laser ) 23 Mbps DVD

DVD Vidéo / DVD Audio / DVD Rom 9,8 Mbps DVD

TV Numérique 6 –10 Mbps TVCD – DA 1,4112 Mbps CD Audio

Téléphone 64 kbps TélécomGSM 9,6 kbps Téléphones portables

Modem Téléphonique 14,4 – 56 kbps InternetModem Câble 50 – 200 kbps Internet

RNIS 64 – 128 kbps InternetRNIS 4 lignes couplées 512 kbps Radio Numérique, Internet

ADSL (upload ) 16 – 640 kbps InternetADSL (download ) 1,5 – 9 Mbps Internet

VDSL (upload ) 1,5 – 2,3 Mbps InternetVDSL (download ) 13 – 52 Mbps Internet

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 38/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

38

On distingue deux grands groupes de compression de données audio : les systèmes sans pertes (nondestructifs 1 - codages entropiques) et les systèmes destructifs (àpertes - codages percepti fs) .

Un système sans pertes est capable de restituer le signal audio or iginal dans son intégralité .

Un système àper tes détériore définitivement la qual i tédu signal audio .

Les codeur s perceptifs reposent sur des modèles psychoacoustiques exploitant les eff ets de masquestemporels et f réquentiels de l’ oreil le ainsi que les astuces du traitement numérique des signaux. I l estnécessair e de mélanger différentes techniques pour obteni r des facteur s de compr ession importants .

Les techniques de réduction de débit sont complexes et parfois assez différentes les unes des autres :ASPEC – MUSICAM – TDAC – MDCT – MDST – SB/ADPCM – AT&T PAC – MPAC – MAC –PXFM – APT-X100...

Le Meridian Losseless Packing (MLP) de Peter Cr aven et Michael Gerzon développé par la société

anglaise Meri dian Audio est utilisé pour le DVD Audio . I l permet un gain moyen d’environ 50 % parrapport au f lux linéaire. Les performances de son alter ego Sony-Philips sont équivalentes pour le DirectStream Transfer (DST) utilisé par le Super Audio CD (SACD) . Les performances de ces systèmesentropiques dépendent étroitement du message audio à coder.

Les systèmes de codages percepti fs ( àpertes ) les plus courants sont :

- Les I SO / MPEG 2 1, 2, 4 Audio - Les Dolby Digital Audio Coding 2 (AC2) et Audio Coding 3 (AC3) - L’APTX - 100 du DTS ( Digital Theatre Sound )- L’ATRAC du SDDS (Sony Dynamic Digital Sound ) et du Mini Disc

-

Le PASC de la DCC

Le couple codeur / décodeur pour les codages perceptifs est souvent abrégé par l’appellation Codec .

Dans le monde du multimédia et des bas débits, des compresseurs sont proposés par le consortiumMPEG (les célèbres MP3, et MP4 ), RealNetworks (Real Audio) , Macromedia (Shockwave F lash) ,Q Design M usic …

Ces codecs, parfois très destructifs, ont essenti ellement étéconçus pour de la di f fusion àtr aversI nternet (streaming) ou le téléchargement rapide de fichiers audio.

Chaque codec peut être utilisé à différents taux de compression dans une certaine gamme. Le choix dufacteur de compression, et du codec utilisé, est fonction du canal de diffusion envisagé.

De nouveaux codecs apparaissent régulièrement...

1 D’après la terminologie d’ Acoustic Renaissance for Audio : Losslessly compressed ou packed par opposition à lossy.2 Moving Picture Expert Group

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 39/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

39

Remarque sur le MPEG 4

Le MPEG 4 utilise pour le codage audio les outils définis pour le MPEG 2 AAC (Advanced AudioCoding) . Le consortium MPEG s’est donné comme cahier des charges de définir un nouvel algorithme deréduction de débit audio qui permette d’obtenir une grande qualité audio à 384 kbps pour 5.1 canaux . Il

est aussi prévu pour pouvoir englober plus de six canaux audio. Selon les applications envisagées, il a étédéfini différents profils : le Main Profile de grande qualité, le Low Complexity Profil e de qualitémoyenne, et le Sample Rate Scalable Profi le pour les applications à bas débit. Des tests perceptifs menés

par la BBC et la NHK en 1996 ont montré que le MPEG 2 AAC à320 kbps était bien supérieur en qualitéau MPEG 2 BC à640 kbps …

I l devrait rester quelques temps le codec audio des applications futures.

Le tableau ci-dessous donne les caractéristiques de quelques codecs et leurs champs d’application :

Type de CodecDébi ts / nombre de

pistesApplications

Gain decompression

MPEG 1 Layer I 32 – 448 kbps / 2 Digital Compact Cassette (DCC) 1/4

MPEG 1 Layer I I 32 – 384 kbps / 7.1 CDI, DVD, Radio Numérique (DAB) 1/6 – 1/8

MPEG 1 Layer I I I 32 – 320 kbps / 2 Internet, Radio Satellite 1/10 – 1/12

MPEG 2 Layer I I BC 1 912 kbps / 7.1 DVD Vidéo 1/5

MPEG 2 AAC 2 2 – 384 kbps / > 5.1 Applications du MPEG 4 1/3 – 1/20

Dolby AC2 128 – 192 kbps / 2 Câble, point à point 1/6

Dolby AC3 32 – 640 kbps / 5.1 DVD Vidéo, Câble, HDTV, Cinéma 1/12

ATRAC 140 kbps / 2 Mini Disc (MD) 1/5

DTS 1,50925 Mbps / 5 DVD Vidéo, Cinéma 1/4

DTS «1/2» 754,625 kbps / 5 DVD Vidéo 1/8

SDDS 1280 kbps / 7.1 DVD Vidéo, Cinéma 1/3,6

Real Audio 5 – 128 kbps / 2 Internet, Streaming 1/20 – 1/100

Q Design M usic 8 – 128 kbps / 2 Internet, Streaming 1/20 – 1/100Shockwave 10 – 128 kbps /2 Internet, Streaming 1/20 – 1/100

I l est évident que plus le facteur de compression est for t, plus le signal audio est dégradé.

Attention :

Le cascadage d’étapes d’encodage / décodage àpertes est redoutablement destructif .

La post-production en format l inéaire est donc très très vivement consei l lée.

1 BC : Backward Compatible2 AAC : Advanced Audio Coding

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 40/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

40

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 41/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

41

Formats son pour l’ in formatique

L’audiovisuel est un monde dont les interfaces sont normalisées (AES , ITU-BR-601 …). L’échanged’informations audio ou vidéo pose relativement peu de problèmes dans les industries du disque, ducinéma ou de la télévision.

L’informatique, en revanche, souffre de la concurrence entre constructeurs et développeurs et a vuapparaître une myr iade de formats audio incompatibles …

Les rares tentatives de mise en accord inter stations de travail (Open M edia Framework - OMF ) ont fini par plus amuser les utilisateurs que leur simplifier la vie…

Les techniques actuelles obligent le plus souvent les utilisateurs à jongler avec de nombreux formats(l inéai res ou compressés ) et à transcoder ou ré-encapsuler des fichiers à l’aide de logiciels spécialisés( Media Cleaner Pro, Barbabatch, SoundApps…)

La tendance audio-informatique est néanmoins de trouver un terrain d’entente par le biais desWBF (Wave Broadcast format ) et du MPEG 4 qui tendent à mettre tout le monde d’accord.

En général , l e système d’ exploi tation et l es extensions instal lées(plug in des lecteurs multimedia) décident des formats uti l isables simplement.

Certains formats permettent d’encapsuler des fichiers audio de natures très différentes : l inéai res à di fférentes résolutions ou fréquences d’échanti l lonnage, compressés avec différents codecs...

Les principaux encapsuleurs de formats sont :

- Wave : format Microsoft / IBM (.wav). En linéaire, le multicanal est possible mais rare ; en compresséil peut encapsuler de nombreux types de codecs .

- BWF : Broadcast Wave Format en train de se standardiser.- Quicktime : format multimédia Apple (.qt) lisible par les applications Macromedia et Adobe.

Linéaire s’il n’y a pas d’extensions particulières ; en compressé, il peut encapsuler de nombreuxcodecs :IMA 4.1, Qualcomm, µ law, a law, MACE 3.1, MACE 6.1, MP3, Real Audio, Qdesign,Macromedia…

- Sound Edi t : format Apple acceptant l’ AI FF , (8, 12, 16, 24, 32 li n, 32 et 64 fl oat) et l’ AI FF-C avecles lois de compressions MACE 3, MACE 6, IMA 4.1, log- µ G721. Il accepte aussi les protocoles

Quicktime .- Sun / NeXt / Dec : format audio utilisé par les stations Sun / NeXt / Dec (.au, .snd). En linéaire le

multicanal est possible ; en compressé il peut encapsuler de nombreux types de codecs .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 42/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

42

Les principaux formats linéaires que l’on peut rencontrer :

- Raw : format non encapsulé lisible par beaucoup d’applications.- AI FF : Apple Audio I nterchange Fi le Format (.aif, .aiff), utilisé aussi par les stations SGI

(multicanal possible).- SDI : format Digidesign Sound disigner I ( Pro Tools – mono – 1 Canal).- SDII : format Digidesign Sound disigner II ( Pro Tools – stéréo – 2 canaux).- Sonic AI FF : format audio utilisé par les stations de travail Sonic Solutions.- Dawn AIFF : Pour les stations de travail Dawn. - Ensoniq Pari s F il es : format Ensoniq (supporte le 24 bits). Mono ou stéréo.- IRCAM : format développé par l’ IRCAM (.sf). Mono ou stéréo.- AVR : Format audio Atari, mono ou stéréo, 8 ou 16 bits.- PAT : Format audio utilisé par les appareils de chez EMU-Systems.- VOC : Format Creative Labs 8 bits.- VOC 16 bits : Format Creative Labs 16 bits.

-

System 7 : sons du système d’exploitation Apple (sons d’alerte…).

Les principaux formats compressés :

- AIFF-C : AIFF compressé (8, 12, 16, 24, 32 l in , 32 et 64 float) et les lois de compressions MACE3.1, MACE 6.1, IMA 4.1, log- µ G721, ADPCM. Il accepte aussi les protocoles Quicktime .

- MPEG Audio : formats MPEG Audio (.mp, .mp2, .mp3, mp4 .m1a, .m2a, .mpg, .mpeg).- Real Audio : format RealNetworks (.ra).- Q Design : format Q Design Music.

-

Shockwave : format Macromedia Shockwave (.swa)- Microsoft IMA ADPCM 4.1 : format compressé Microsoft , compatible Windows 95.- DVI ADPCM : format compressé Intel (.adpcm). 16 bits, compression 4.1.- Dialogic ADPCM , a-law, µ law, PCM : formats son utilisés pour les applications téléphoniques

(32 –64 kbps) - .AP8, .AP6, .UL 8, UL6, .AL8, .AL6, .PCM (8 bits, 8 kHz). Extension .vox.

Les fichiers informatiques contenant plus d’un canal sont dits entrelacés ou multiplexés .

La plupart des lecteurs multimédias actuels permettent des fonctions d’exportation capables de changer letype des fichiers audio, voire de les encoder à différents formats compressés.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 43/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

43

Rapport I mage / Son

Le son au cinéma apparaît à la fin des années 1920 par le biais de la musique. Les premiers films sonoressont des films essentiellement musicaux d’Alan R. Crossland . Le premier est l’opéra de Mozart « Don

Juan » en 1926 . Ensuite, le célèbre « Jazz Singer » avec Al Jolson en 1927 va marquer le début ducinéma parlant avec une minute et vingt secondes de paroles synchrones...

« Cinéma muet, le mal nommé ? Oui si l’on considère le tapage qui escortait le cinéma primitif des trente premières années. Accompagnée par des dispositifs sonores issus du théâtre, du cirque ou du music-hall,la projection d’images muettes se déroulait souvent dans la plus grande animation. Les chansons filméesde Georges Lordier, les bruitages en tout genre, les extrapolations des bonimenteurs commentant l’actionou la sonorisation en direct des ciné-déclamateurs cachés derrière l’écran nous rappellent qu’à ses débutsle cinéma était avant tout un spectacle de foire, populaire et vivant. »1

Depuis, le son au cinéma a gagné en dynamique , définition et spatialisation au fil des évolutionstechniques.

La bande sonore d’un film peut utiliser le son direct (captation synchrone pendant le tournage image )ou les techniques les plus répandues de la post-synchronisation (bruitage, doublage…). Lestraditionnelles bandes perforées (voix, musique, bruitages...), sont aujourd’hui remplacées par les

possibilités des enregistreurs multipistes et la souplesse des mixages automatisés.

Après les controverses concernant le son direct (Renoir , Rohmer , Visconti , Straub , Huillet …), face auxtechniques de post-synchronisation (Welles , Bergmann , Fellini , Bresson, Tati …), la tendance est, à

présent, d’adapter les techniques utilisées aux projets. Le débat son di rect / son post synchronisé estquelque peu démodé dans la mesure où les tournages sont passés du studio à l’extérieur et ou le niveau de

bruit ambiant de la société moderne a terriblement augmenté…

Actuellement, une « bande son » de film est un matériau le plus souvent composite , pouvant aller dans lesens du réalisme, contrepointer la narration visuelle, être un facteur de relief de l’image…

Le son à l’image est rarement réaliste. La réalité sonore est souvent trop dense pour des microphones.Trop de détails peuvent nuire à la lisibilité de la bande son. Le son à l’image repose souvent surl’utilisation d’indices … Quelques bruits aquatiques, un son mat et filtré et des échos de sonar réguliers,nous conduisent directement dans un sous-marin atomique…

L ’ espace sonore au cinéma est l ogiquement délimitépar le cadr e de l ’écran. Néanmoins, les techniquesde spatialisation ou d’enveloppement du public (Dolby , multicanal …) permettent de dépasser le cadreimage et de jouer sur le relief sonore.

1 Mathi lde Bl ottière dans le Télérama n° 2839 du 9 juin 2004.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 44/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

44

Physiologiquement, la vue pr ime sur l’ audi tion en asservissant l’écoute aux mouvements des globesoculaires . L’exemple usuel du haut-parleur de télévision montre, de façon évidente, que l’auditeur n’auraaucun mal à associer les sources sonores là ou il est logique qu’elles se trouvent à l’écran. Cetteaimantation spatiale des sons est efficace tant que le haut-parleur n’est pas trop éloigné de l’image.

De plus, le pouvoi r séparateur temporel de l’oreille dépasse largement celui de l’œil (24 images parseconde au cinéma). Les scènes d’actions rapides sont, pour cette raison, très souvent largement bruitées pour renforcer l’effet dynamique visuel.

La bande son à l’image se compose principalement de :

- Voix, dialogues, commentaires (langage parlé → signifiant)- Musique - musique de fosse - ponctuation - leitmotiv- Ambiances (cadre général)- Effets (en général bruitages - ponctuation…)

Ceux-ci en relation ou non avec ce qui se passe à l’écran :

- Son associé à l’image visible - Son IN- Source non visible, mais en rapport avec l’image - Son Hors Champ - Autre espace / temps, musique, voix de commentaire, voix off - Son OFF

Il reste que cette classification est quelque peu simpliste. Où ranger, par exemple, la voix off d’une penséed’acteur en gros plan à l’image ?

Le langage du montage image est assez différent du déroulement temporel imposé par le son. L’unitéimage qu’est le plan n’a pas d’équivalent sonore.

Le son a fixé le temps de l’image (« La Jetée » de Chris Marker - 1962) et la durée des séances de projection...

En général, la musique ou les effets servent de plaques tournantes ou de liants spatio-temporels (autretemps, autres lieux).

Certains auteurs refusent le concept de « bande son » à l’image dans la mesure où l’écoute du son seuln’a pas de sens. Le rapport des images et des sons est en général complexe. Ils convergent à l’occasiondes points de synchr onisation .

Pour ce qui est de la musique, elle peut être à loisir explicite (isomorphisme du son et du mouvement -mickeymousing ou underscoring du dessin animé - Scott Bradley chez Tex Avery dans les années 1940),

ponctuation syntaxique de l’image (virgules musicales, leitmotiv…), agent de la narration visuelle ouannonciatrice dramatique (Bernard Herrmann chez Welles et Hitchcock ), structurante (Erick Satie etRenéClai r , Ar thur Honneger et Abel Gance …).

Pasolini , dans Accatone – 1961, ou Mamma Roma - 1962, utilise, lui, de la musique classique dans

l’univers du sous-prolétariat en vue de « contamination stylistique ». Les classes défavorisées ontdésormais droit à l’art...

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 45/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

45

La musique peut aussi avoir un rôle à part entière dans la comédie musicale, voire être liée à l’intrigue.Mélodies codées dans « Agent X27 » de Joseph von Steinberg - 1931, et « A lady vanishes » d’Hitchcock - 1938, identification de tortionnaire avec « La jeune fille et la Mort » de Schubert chez Polanski - 1994.

Le design sonore d’une bande son de film est un exercice de composition à part entière. Les exemples desfilms de Jacques Tati , de Jean-L uc Godard ou d’Alain Resnais en sont les plus célèbres modèles dans lecinéma français (cf. les écrits de Claude Bail blé et de Michel Chion ).

Le métier de mi xeur pour le cinéma est une discipline très particulière des métiers du son et unespécialité à part entière. Il n’arrive que très rarement que la même personne puisse assurer toutes lesétapes de la chaîne son à l’image en raison des différentes spécialités requises : prise de son plateau, prisede son en extérieur, prise de son musicale, bruitage, post synchronisation, montage son pour l’image,illustration sonore, mixage, transferts divers, codages pour la diffusion, formats de l’écoute cinéma et dela télévision…

Ce découpage des tâches sans coordination spécifique (coordonnateur , concepteur ou designer son ) estsouvent source de problèmes. Il est parfois difficile de garantir quoi que ce soit…

Les mixages pour le cinéma sont réalisés en tenant compte des conditions de dif fusion en sall e et desformats employés (Dolby stéréo , Dolby Digital , DTS , SDDS …). La diffusion sonore au cinéma pose les

problèmes de la sonorisation de grandes salles : intelligibilité, localisation pour tous, homogénéité decouverture.

Un des seuls secteurs à ingénieur du son unique par défaut est celui du court-métrage, où faute demoyens, ou à but pédagogique dans les écoles, la même personne est amenée à tout effectuer seule.

Le cinéma a le pouvoir extraordinaire (contrairement à la vidéo) d’enfermer des spectateurs attentifs etfixes dans une salle noire. Comme le fait remarquer M. Chion : « Ecouter des sons non musicaux en nefaisant rien d’autre, est une chose dont on a si peu l’habitude ».

La télévision est souvent analysée en termes de radio illustrée : cadre relatif (image vue dans un lieuéclairé), mobilité des spectateurs, attention variable…

Une retransmission télévisée de sport d’équipe est un cas, assez rare, de dissociation image / son : uncommentateur meuble auditivement une image active et ne la rencontre qu’à l’occasion des points desynchronisation imposés par le jeu (buts, actions spécifiques…). Le tennis, ou les sports singuliers, fontexception à cette analyse (le « ploc » régulier de la balle, cris des joueur…).

L’analyse sonore à l’image est un vaste domaine mélangeant à peu près tous les domaines sensibles etculturels d’une bande son. Il est facile de couper le son d’un film pour se rendre compte de ce que le sonapporte inconsciemment…

On pourrait résumer la complexité d’un univers sonore à l’image en dissociant les constituants et lesdifférentes écoutes qui en découlent : écoute musicale, écoute causale, écoute sémantique, écouteculturelle, écoute indicielle, écoute réaliste, écoute contextuelle, écoute dynamique, écoute narrative,écoute réduite…

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 46/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

46

Le multimédia, et les nouveaux supports tels que le DVD Vidéo , envisagent une écoute domestique quis’affranchit des problèmes de la sonorisation pour de larges audiences. Ils permettent l’utilisation denouvelles techniques de réalisation sonore (prise de son et mixage notamment) et ouvrent la voie tantattendue du multipiste grand public…

Des utilisations un petit peu à part du son à l’image sont celles des instal lations vidéo , de la musiquemixte à l’image, multi projections et musique… Beaucoup de compositeurs ont été intéressés par leshorizons ouverts par l’utilisation de musiques concrètes ou contemporaines à l’image ou à la scène. Parmiceux-ci, on trouve : K. Stockhausen , M. Kagel , P. Henry , F. Bayle , A. Savouret …

La scénographie actuelle est de plus en plus demandeuse d’image et de son.

D’un point de vue plus technique, le son à l’image pose les problèmes épineux de la synchronisation .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 47/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

47

Synchronisation image / son

Dès 1901, Léon Gaumont remarquait en déposant le brevet de son système de synchronisationimage / son : « En principe, la vitesse du cinématographe, ou pour mieux dire le nombre d’imagestransmises par seconde, n’est pas absolu, notre œil pouvant supporter des écarts de vitesse sans êtrechoqué, tandis que l’oreille ne permet pas au phonographe la moindre variation de vitesse, car il en résultenon seulement un changement dans les hauteurs des sons mais aussi dans leurs rapports… ».

Michel Chion ajoute : « C’est le son synchrone qui a obligé le cinéma à fixer et à stabiliser demanière intangible à 24 images par secondes (25 en vidéo ) la vitesse d’enregistrement et de défilementdes images ; alors que l’on tournait auparavant en vitesse variable, entre 16 et 20 images environ, et qu’àla projection, on se donnait une certaine latitude d’accélérer ou de ralentir le défilement selon laconvenance des programmateurs et la durée que l’on voulait donner à la séance… ».

Les problèmes de synchronisation image / son se posent dès que l’ image et le sonsont enregi strés simultanément sur des suppor ts séparés.

Après avoir utilisé des myriades de procédés plus astucieux les uns que les autres (la référence secteur, les perforations sur les supports, les signaux pilotes de tous types, le biphase, des appareils complexesd’asservissement des cinématiques pour les machines tournantes, le « clap » de début de plan…), l’usages’est actuellement standardisé par l’utilisation d’un code temporel inscrit sur la bande image et le supportson.

Ce code normalisé par l’EBU ( European Broadcasting Union) et la SMPTE américaine (Society of

Motion Picture and TV engineers) en 1972 est le Time Code SMPTE / EBU .

La synchronisation ne sous-entend jamais une référence absolue commune, mais une capacité à varier defaçon identique dans une fourchette de tolérance donnée. Un décalage image / son, même minime, peutêtre gênant. Un professionnel, ou un spectateur attentif, peut déceler des décalages de moins d’une image(soit moins d’1/25 de seconde en vidéo).

Le Time Code SMPTE - EBU est essentiellement un code temporel que l’on distribue aux différents

équipements lors du tournage pour assurer leur synchronisation. Il est défini pour différentes cadences :24, 25, 29,97, 30 images par secondes, et se compose d’indications temporelles enheures/minutes/secondes/images. Sa résolution maximale est au 80ème d’image, et le code repasse à00h:00mn:00s:00im:00 après 23h:59mn:59s:24im:79 en 25 images par seconde.

En Eur ope , les cadences de travail sont de 25 images par seconde pour la vidéo , de 24 pour le cinéma .

La f réquence d’échanti l lonnage audio uti l isée est le 48 kHz(1920 échanti l lons par image en 25 images par seconde).

Il est aussi possible d’enregistrer des informations utilisateurs (user bits) à l’intérieur de ce code (date,numéro de bobine…)

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 48/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

48

Le Time Code existe sous deux formes :

- LTC ( Longitudinal Time Code) : code enregistré sur une piste de type audio analogique. Permet lalecture du code à vitesse rapide, mais pas à l’arrêt.

-

VITC (Vertical interval Time Code) : en vidéo, le time code peut être enregistré dans le signal vidéolui-même pour permettre sa lecture en arrêt sur image. Le VITC n’est pas lisible en rembobinagerapide. Les machines vidéo commutent automatiquement sur leur piste LTC dans ce cas et reviennentau VITC à vitesse lente.

Les équipements audiovisuels ont en général horreur du « passage à zéro » et les machines asservies ont besoin de temps pour se caler.

Il est donc d’usage d’utiliser ce code au moins à partir de 2 minutes (un preroll de machines esttypiquement de 10 à 15 secondes) et de ne pas traverser la frontière des 24:59:59:24:79 en 25 images par

secondes.

Le Time Code est normalisé sous forme de connexion symétrique en prise XLR . Il est insensible auxinversions de phase et peut être lu en marche arrière. Certaines machines vidéo utilisent des connectiquesBNC (asymétriques).

Pour éviter les problèmes de dérive, le Time Code est remis en forme à chaque génération (copies…).

En règle générale, la machine image est maîtresse, et les équipements audio sont asservis sur le code issude celle-ci. Une des raisons de cet usage est l’incapacité d’une machine vidéo à changer de vitesse en

cours de lecture (varispeed ). On dit en général qu’un magnétophone est en mode de poursui te de lamachine image ou en chase dans ce cas.

L’utilisation des technologies audionumériques avec Time Code suppose des précautions. Il faudradisposer de références d’asservissement de vitesse (référence vidéo par exemple) et de références desynchronisation audionumériques au sens de l’échantillon (typiquement la fréquence d’échantillonnageaudio sous forme de Word Clock ) avant de pouvoir s’échanger du Time Code de façon fiable.

Très souvent, lors des tournages, c’est l’audio qui fournit le Time Code .

I l est bien évident que toutes ces références doivent impérativement être synchronisées entre elles.

Pour ce qui est de l’informatique, le problème de synchronisation de fichiers audio et vidéo nonmultiplexés est souvent source d’ennuis. L’encapsulage du Time Code dans un fichier informatique est

bien sûr possible, mais n’est pas encore normalisé. Les supports à bande sont pour le moment les seuls àgarantir la mobilité des productions audiovisuelles entre les studios.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 49/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

49

Formats son pour le cinéma

Les systèmes Dolby Stéréo ont été développés pour le cinéma. Ils utilisent un grand nombre de haut- parleurs afin de couvrir de grandes surfaces et d’entourer le spectateur. Ils ont tenté de résoudre lesdilemmes de la sonorisation de vastes audiences : intell igibi li té, homogénéitéde couverture etlocalisation pour tous .

L’idée n’est pas vraiment nouvelle. Le cinéma découvre la stéréo dans les années 1950 en même tempsque les grands écrans de projection. L’arrivée de la télévision en est, sans doute, un déclencheurdéterminant. Avec les grands écrans arrivent le CinémaScope et les grands formats tels que le 70 m/m . Leson suit évidemment la tendance. On innove pour convaincre de plus en plus le spectateur de sortir versles salles obscures.

Le 70 m/m offre six pistes magnétiques, le 35 m/m , deux optiques. Certaines salles n’ont pas hésité àsynchroniser des défileurs son supplémentaires avec le projecteur.

En général un canal de bande passante limitée était réservé pour entourer la salle… Cette piste au départnommée canal d’ eff et est l’ancêtre du canal surround .

Les grands écrans demandent un grand nombre de H.P. pour couvrir leur surface. Les salless’agrandissent avec. Cinq canaux derrière l’écran et un surround distribué autour de la salle ont étéutilisés pour le 70 m/m .

Parmi les précurseurs dans l’utilisation de ces systèmes, on trouve le Fantasia deDisney

- 1940, produiten quatre pistes optiques. Un lecteur audio adapté a été développé par RCA pour le « Fantasound »…

Le Dolby Stéréo Surround 70 m/m utilise toujours les six pistes magnétiques en 1979. Les canaux serépartissent, au choix, en frontaux, surround et sub-woofers.

Le premier film à utiliser deux canaux surround séparés fut Apocalypse Now de Coppola - 1979. Depuis,Dolby a intégré l’option dans ses systèmes.

L’utilisation de sub-bass (piste dédiée ou non) est courante depuis les années 1975.

L’âge d’or de la production cinématographique s’essoufflant dans les années 1960 / 1970, les prix de production sont revus à la baisse. Le magnétique coûte cher…

Les laboratoires Dolby développent le Dolby Stéréo en 1976 . C’ est un système de matr içage /dématr içage analogique des canaux son, permettant de stocker 4 canaux sur les 2 pistes opti ques dufi lm 35 m/m . Le dématriçage s’effectue en salle. Le signal Dolby Stéréo (Lt/Rt ) est le résultat dumatriçage sur les deux pistes du support. C’est un dérivé proche du procédé CBS SQ issu de la r echerchesur la quadr iphon ie dans les années 1970 .

Ces systèmes reflètent la recherche d’un meilleur rendu que celui de la stéréo. Ils se sont heurtés de façoncommune à la nécessité de s’adapter aux supports et aux moyens de diffusion bipistes.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 50/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

50

Le Dolby Stéréo répartit ses canaux en gauche , centre , droite et surround . Typiquement le cinéma utilisetrois H.P. derrière l’écran et une piste diffusée sur un grand nombre de H.P. entourant le spectateur. Undécodage optionnel du sub-bass (sans piste dédiée) est aussi proposé.

Lors du dématriçage, une adaptation à la salle (égaliseurs, retards...) est effectuée pour permettre de

restituer les messages sonores en fonction de leur rôle. Le canal surround, par exemple, est retardé de 15 à 25 ms pour éviter les inversions avant / arrière dues à l’ef fet de précédence (effet Hass ). Il n’apportequ’une ambiance et n’est pas facteur de localisation.

En général, la répartition est la suivante : centre = dialogues ; gauche, droite = musiques, bruitages, effetsstéréophoniques ; surround = ambiances.

Exemple du Dolby Stéréo :

Encodage :

Les deux canaux enregistrés sur le support sont appelés Gt et Dt (Gauche totale et Droite totale / LtRt ).

On a :

2

iS

2

C GGt ++=

2

iS

2

C D Dt −+=

avec G le canal de gauche, D le canal de droite, C le canal central, et S le canal surround.

Le canal S subit préalablement :

• un f i l trage passe bande entre 100 Hz et 7 kHz • une réduction de bruit de type Dolby B modifiée (-5 dB au lieu de -10 pour les K7 ).

La division par 2 indique une réduction de gain de 3 dB .La multiplication par ± i un déphasage de ± 90° .

Décodage :

Le procédé est inverse : le canal surround est filtré passe-bande entre 100 Hz et 7 kHz . Il passe ensuite parun décodeur Dolby B puis il est retardé de 15 à25 ms selon la salle. S’il n’y a pas de haut-parleur central,

la source fantôme est recréée par les haut-parleurs frontaux.

Le système reste compatible mono par annulation des composantes surround par simple sommation. Néanmoins, il n’est pas possible de remonter aux signaux originaux car on a :

2

iS C GGt *G +

+== 2

iS C D Dt * D −

+== C 2

DG

2

Dt Gt *C +

+=

+=

et

iS 2

DG

2

Dt Gt *S +

−=

−=

Le symbole * marque les signaux restitués.

La séparation (diaphonie) entre les canaux adjacents n’ est que de 3 dB .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 51/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

51

En 1982 , Dolby a mis sur le marché de l’écoute domestique un système dérivé duDolby Stéréo : le DolbySurround . Les 4 canaux étaient alors disponibles à la maison. Très souvent le canal central était recréé ensource fantôme par les H.P. frontaux.

Le système Dolby Pro Logic vers 1987 décode le canal central de façon indépendante. Il ajoute, de plus,divers traitements actifs de séparation des canaux. Il est utilisé aussi bien pour le cinéma que les systèmesdomestiques. Les deux H.P. surround sont toujours alimentés par le même canal. Le Pro Logic I I permetde décoder les voies arrière en pseudo stéréo.

Le procédé de la Lucasfi lm H ome THX est une évolution du système Pro Logic . Il ajoute unedécorrélation gauche droite du canal surround (genre de pitch shift ), une égalisation des H.P. frontaux etun équilibrage des canaux avant et arrière.

Remarque : le Home THX n’a rien à voir avec le THX cinéma qui est un procédé de diffusion. Le THXCinéma impose aux exploitants l’égalisation du signal, la position et les caractéristiques des H.P., descritères d’acoustique des salles (temps de réverbération imposé ...), le réglage de la chaîne de diffusion,l’amplification et le filtrage des H.P.

Le logo THX sur des supports de diffusion signifie que le mixage du film s’est fait dans une salle certifiéeTHX .

Dolby, de même, impose certaines caractéristiques quant à l’emplacement, le type des haut-parleurs et lesamplificateurs à utiliser.

Il est important de remarquer qu’aucun de ces systèmes n’utilise quatre canaux discrets. Tous subissentun encodage / décodage et sont stockés sur deux pistes. On dénomme souvent ces procédés comme 4.2.4.Certains auteurs sceptiques n’hésitent pas à parler de systèmes 4.2.2,5.

Ce matriçage analogique des signaux est l’alter ego de la compression audionumérique actuelle

Les systèmes Dolby sont compatibles mono et stéréo .

En 1988 apparaît le format IMAX qui permet 6 pistes audionumériques linéaires. Ce format deviendral’IM AX 3D (version 10 pistes) en 1993 . Son utilisation est réservée à des applications de projectionshémisphériques (Géode, Dôme…).

En 1990 , Eeastman Kodak invente le système audionumérique Cinema Digital Sound (CDS) . Lesinformations sonores audionumériques compressées sont enregistrées à la place des deux pistes optiquesanalogiques. Ce système cèdera sa place au Dolby SRD car celui-ci permet de garder les pistes DolbyStéréo optiques en cas de problème.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 52/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

52

En 1992 , Dolby lance le Dolby SRD (Dolby Spectral Recording Digi tal) , appelé aussi Dolby StéréoDigital , au cinéma. Les interstices entre les perforations du film 35 m/m sont alors utilisés pour stockerl’information sonore sous forme numérique. Le système se compose de six canaux discrets dont 5 pleinebande (3 - 20 300 Hz ) et un sub-bass (3 - 121 Hz ). On parle alors de systèmes 5.1 . Les systèmesdomestiques (home theatre / cinema) prennent l’appellation Dolby Surround Digital .

D’autres systèmes multicanaux discrets stockent l’information sonore sur des supports informatiques(CDRoms, disques magnéto-optiques). Les lecteurs sont alors synchronisés sur le projecteur. En cas de

problème (perforations abîmées), le système bascule sur les pistes optiques matricées au format DolbyStéréo . Le système LC Concept , français de conception, a été le pionnier de ce type, dont les idées sontactuellement exploitées commercialement par la firme DTS .

Les canaux sont répartis comme gauche, centre, droite, arrière gauche, arrière droite et sub-bass.

Les dif férences avec les systèmes précédents sont : une indépendance totale des canaux

(pas de diaphonie, surround stéréo possibl e...) et un canal supplémentaire optionnel pour les basses .

Le problème du matr içage anal ogique bipiste disparaît au profi tdes formats audionumériques compressés.

On différencie souvent les systèmes par la répartition de leurs canaux. Les appellations de systèmes 2/0 ,3/1 , 3/2 reflètent le rapport des pistes avant / arrière. Le 3/2 , par exemple, est un système à trois pistesfrontales (gauche, centre, droite) et deux surrounds séparés (arrière gauche et arrière droit).

L’encodage de ces 5.1 pistes a été rendu possible par le développement du Dolby Audio Coding 3 (AC3 maintenant appelé Dolby Digital ) permettant de ramener les débits sonores entre 32 et 640 Kilo bits

par seconde (kbps) selon le nombre de canaux. Au départ Dolby cherchait un débit de 320 kbps pour pouvoir stocker les informations sonores entre les perforations du film 35 m/m .

Actuellement, les débits typiquement utilisés sont le 384 kbps pour le Dolby Surround AC3 5.1 , et le192 kbps pour la distribution stéréo. Les fourchettes données par la documentation Dolby sont :32-96 kbps pour un signal mono , 192-256 kbps pour un signal stéréo et 320-448 kbps pour le 5.1. Lessources peuvent être aux fréquences d’échantillonnage de 32 , 44,1 , ou 48 kHz , et avoir une résolution de16 , 18 , 20 ou 24 bits.

Dans le cas d’utilisation des 5.1 canaux, le décodeur AC3 est capable de fournir un mixage mono , stéréo ,ou surround . Les différents paramètres de mixage sont prévus lors de l’encodage (coefficients dedownmix).

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 53/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

53

Exemple d’ un système d’ encodage 5.1 temps réel (Sonic Soluti ons).

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 54/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

54

Le Dolby Digital est un système de compression de données à pertes comme le sont le DTS ( Digital

Theatre Sound ), le SDDS (Sony Dynamic Digital Sound ), les MPEG1 1, 2, 4 audio, l’ATRAC, le

PASC...

L’AC3 succède aux algorithmes AC1 (220-325 kbps) et AC2 (129-192 kbps). Ces codages, concurrents

des couches I SO / MPEG , ont été utilisés pour la transmission par satellite, l’échange par réseaux oul’archivage de données audio.

Différents systèmes discrets 5.1 ou 7.1 sont en concurrence actuellement : le MPEG 2 , l’AC3 , le DTS etle SDDS . Certains sont inclus dans la norme DVD 2 Vidéo .

Actuellement, Dolby , DTS et THX proposent des formats étendus. Le Dolby EX , le DTS ES permettentd’ajouter un canal central arrière. On passe alors au 6.1 .

Remarque : Dolby a aussi développé des réducteurs de bruit tels que le Dolby A, Dolby SR pour lecinéma, les Dolby B et C , S , pour les K7 Philips. Le SR est aussi utilisé pour l’enregistrement analogique

professionnel sur bande magnétique… Le Dolby HXPro est un système de pré-magnétisation variable pour l’enregistrement magnétique.

Les systèmes Dolby n’ont pas d’autre prétention que de baigner le spectateur de cinéma dans uneambiance sonore tout en garantissant l’intelligibilité et la stabilité des dialogues. Ils n’ont pas étédéveloppés pour améliorer les possibilités de localisation proprement dites mais plutôt d’enveloppement.De plus ils s’adressent à de larges audiences et posent les problèmes complexes de la sonorisation.

Le mixage Dolby Stéréo est une opération délicate de répartition et d’équilibrage des sources entre lesdifférents canaux de diffusion. Ces sources sont en général mono ou stéréo. Il s’agit donc de fabriquer une

mosaïque sonore profitant de l’espace de diffusion proposé par la salle de cinéma. Le mixage tel qu’il est pratiqué actuellement n’utilise que les différences de niveaux pour la localisation (panpots d’intensité…).Capable de puissants effets sonores, le système seul ne permet pas de rendre plus transparent le systèmede reproduction.

Les systèmes Dolby n’envisagent pour le moment que les étapes de mixage , transmission et diffusion . Iln’existe pas de procédé de prise de son spécifiquement adapté au Dolby .

Les systèmes multicanaux en conjonction avec les nouveaux supports (DVD , autoroutes del’information...) permettent l’utilisation de nouvelles techniques de prise de son adaptées aux différentschamps d’applications des techniques du son (cinéma, productions musicales, sonorisation…). Leurapplication domestique permet de s’affranchir des difficultés de la sonorisation.

En dehors des essais quadriphoniques des années 1960/70 peu de systèmes réellement multicanaux ontété envisagés dans le sens de la transparence de la chaîne de restitution. Actuellement trois « écoles » sedisputent le secteur, l’holophonie (Wave F ield Synthesis) , les techniques transaurales et le format B(Ambisonic) .

Face à ces approches théoriques, les praticiens proposent souvent des systèmes empiriques basés sur desextensions de systèmes stéréophoniques existants (tr iangle Decca , MS étendu ...).

1 Moving Picture Expert Group2 Digital Versatile Disc

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 55/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

55

Tableau récapi tulati f de l’ histor ique des formats son au cinéma

Son Cinéma Son Grand Publi c

Avant 1910 Cinéma muet 1958 Long Play Stéréo

1910 Débuts du cinéma sonore (Biophone de Messter ) 1961 FM stéréo

1926 « Don Juan » de Crossland chez Warner 1968 Dolby B

1930 la piste optique mono se standardise 1972 Vidéo K7 mono

1953 sur le 35 m/m 2 pistes optiques, ou 4 magnétiques 1978 Vidéo K7 stéréo

1970 Réduction de bruit Dolby A 1980 Laser Disc

1976 Dolby Stéréo 35 m/m, 2 pistes optiques 1986 TV stéréo

1978 Dolby Stéréo Surround 70 m/m, 6 pistes magnétiques 1987 Dolby Pro Logic

1982 Premier film en THX 1992 Dolby Digital 5.1

1987 Dolby Stéréo SR 2001 Dolby Pro Logic II

1988 format IMAX, 6 pistes numériques linéaires 1992 Dolby SR-D 5.1

1993 DTS / SDDS – IMAX 3D

1999 Dolby EX, DTS ES

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 56/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

56

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 57/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

57

Audio multi canal - Systèmes 5.1

L’évolution des techniques audionumériques compressées (au sens de la réduction de débit), les usages duson au cinéma, ainsi que l’arrivée de nouveaux supports audiovisuels (DVD-V , DVD-A, SACD …) ontconduit au nouveau standard de travail 5.1 .

Dispositi f d’écoute :

Par 5.1 , il est entendu un système de diffusion à six canaux discrets répartis autour de l’auditeur. Cinqcanaux englobent toute la largeur de bande audio (20 - 20 000 Hz), le dernier étant un canal à bande

passante réduite réservé à la diffusion des infra basses (20 - 200 Hz soit 10% de la bande passante audio).

Les canaux se répartissent comme gauche , centre , droite , arr ière gauche , arr ière droite , et sub basse .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 58/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

58

Haut-parleur Angle horizontal par rapport au

centre (degrés)

Hauteur

(m)

Inclinaison

(degrés)

Centre 0 1,2 0Gauche / Droite 30 1,2 0

Arrières 100 - 120 1,2 0 - 15 ° vers le bas

Avec : H : hauteur de l’écran, B : largeur de la base du triangle d’écoute, D : distance d’écoute, Ecrann°1 : HDTV - distance de référence 3H ( 1= 33°), Ecran n°2 : Ecran de projection (2 = 48°)

Tous les haut-par leurs sont pl acés àla même distance de l’ auditeur .Les haut-par leurs frontaux sont idéalement àla même hauteur

Ce nouveau standard permet de baigner le spectateur dans un champ sonore horizontal sur 360°. Ilsurpasse la stéréophonie en terme de nombre de canaux, mais aussi en terme de possibilités delocalisation, démasquage, enveloppement, réalisme, confort d’écoute…

La disposition du système d’écoute 5.1 reste compatible avec la stéréophonie dans la mesure ou les haut-

parleurs gauche et droite frontaux respectent la même disposition en triangle équilatéral avec l’auditeur.

Prise de son :

Conçu comme un système de diffusion, de nombreux débats se posent actuellement, quant aux techniquesde prise de son compatibles avec ce nouveau standard.

Parmi elles, on trouve les systèmes issus des théories physiques de reconstruction du champ acoustiquecomme la synthèse de fr ont d’ onde (Wave Field Synthesis ). Ce procédé repose sur le principe deHuygens , base théorique de l’ holographie acoustique .

Les techniques dites ambisoniques et le format B découlent des travaux de M. Gerzon et P. Fel lgett effectués dans les centres de recherche de la BBC dans les années 1970. Cette décomposition du champacoustique en harmoniques sphériques est un cas particulier WFS (Nikol, Emmeri t ). Ces recherches ontentraîné le développement du microphone Mark V par la société anglaise Soundfield . Ce système permetla manipulation du champ périphonique (haut, bas, 360°) lors de la post-production. Ces principes ont été

partiellement repris par la société française Tr innov Audio ces dernières années.

Les systèmes dits transauraux basés sur l’utilisation d’une tête arti f iciel le à la prise de son et destraitements appropriés pour une écoute sur haut-parleurs, ont aussi été beaucoup étudiés. Ils reposent sur

un principe perceptif simple : il devrait être possible de recréer l’illusion acoustique perçue par unauditeur au moyen de capteurs placés à la place de ses tympans. Originellement développés pour uneécoute au casque (techniques binaurales ), les traitements transauraux permettent de diffuser cesenregistrements sur des haut-parleurs.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 59/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

59

Différents systèmes empiriques sont aussi proposés par les constructeurs et les praticiens de la prise deson. Parmi ceux-ci, le système Schoeps constitué de la sphère KFM360 , de deux microphones

bidirectionnels ainsi que du module de traitement DSP-4 KFM ; le système OCT ; la croix IRT de G.Theile constituée de 4 microphones cardioïdes en carré pour la prise de son d’ambiance ; les techniquesdérivées du triangle Decca ; les différents systèmes reposant sur l’utilisation de 5 microphones et la

généralisation du concept stéréophonique d’angle de prise de son tels que le Microphone Ar ray de M.Williams & G. Le Dû , les INA-5 dont le système Brauner ASM-5 , le TSRS ; le Fakuda Tree ; leHamasaki Square de la NHK ; le système Holophone H2-Pro constitué de 7 microphonesomnidirectionnels sur un profil elliptique…

Certains de ces systèmes sont complexes à mettre en œuvre ou à optimiser. Ils requièrent parfois undécodage ou un traitement approprié. Ils sont, de plus, relativement coûteux.

Les ingénieurs du son mélangent souvent différentes techniques de prise de son. Il est assez simple etrapide de mettre en place, par exemple, un micro Soundfield , une tête arti f iciel le , des micros arr ière (ailes ou carré…) conjointement à une microphonie stéréophonique classique pour un enregistrement en

acoustique naturelle.

Post-production :

L’étape de post-production est décisive en 5.1. Les outils habituels se déclinent en version multicanale :consoles de mixages automatisées possédant des « pan pots 5.1 », unités de réverbération artificiellesmulticanales ( M6000 TC Electronics, Lexicon 960…), plugs ins 5.1 , les modules Max du spatialisateurSPAT de l’IRCAM …et le mixage peut avoir lieu dans des cabines optimisées pour ce format.

Libre à l’utilisateur de traiter les canaux un par un (monophonie dirigée), par paire (avant / arrière) ou

d’avoir une vision plus globale des choses…

Acoustique des cabines de mixage :

Du fait de la présence de six haut-parleurs dans toutes les directions de la pièce, les acoustiques descabines de post-production 5.1 sont relativement plus mates et symétriques que celle conçues pour lastéréophonie. Outre les critères habituels (pas de murs parallèles, pas de résonance particulière…), desrecommandations sont publiées. Je reprends, ici, les tableaux proposés par Dolby :

Niveau d’écoute pour n haut-parleur s : Lp / hp = 85 - 10log (n) ± 0,25 dBC SPL

Pour n = 5 hp, Lp / hp = 78 dBC SPL

Les mesures de niveau acoustique sont effectuées avec un sonomètre utilisant une constante de tempsd’intégration longue et une courbe de pondération C . La mesure de niveau se fait à l’aide de bruit roseenceinte par enceinte. Toutes les enceintes sont réglées au même niveau à 0,5 dB près.

Le niveau d’écoute obtenu avec les 5 enceintes est de 85 dBC SPL .

C’est le niveau d’écoute dit « académique »

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 60/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

60

Dimensions géométr iques de la cabine :

Gesti on des réflexi ons précoces et valeur moyenne du temps de réverbération :

Tolérances pour le temps de réverbération :

La courbe en pointillés est issue des recommandations de l’ Audio Engineeri ng Society

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 61/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

61

Brui t de fond de la cabine :

Tous ces paramètres sont difficiles à respecter. Des compromis sont souvent faits. Les enceintes arrièresont souvent plus petites que celles de l’avant et les courbes de bruit de fond sont quasi impossibles àatteindre en milieu urbain…

Bass management :

Pour la gestion du canal de basse, un système de « bass management » fonctionne comme l’indique lafigure ci-dessous :

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 62/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

62

Le haut-parleur de Sub Woofer (ici SW ) diffuse ce qui est prévu dans le canal dit LFE (Low FrequencyEffect - le .1 du 5.1 ) et prend éventuellement en charge la gestion des graves des cinq autres haut-

parleurs. Il est, en général, possible de régler la fréquence de coupure à 80 Hz ou 120 Hz . Le 80 Hz sestandardise actuellement…

Le gain de 10 dB ajouté au canal de LFE s’explique pour des raisons historiques. Le canal de LFE est, eneffet, enregistré 10 dB sous les autres pour éviter les problèmes de distorsion en analogique. Cettedifférence de niveau est alors compensée à l’écoute.

Les décodeurs DTS et Dolby Digital ajoutent ces 10 dB lors de l’étape de décodage, de même que leslecteurs de DVD-Audio et de SACD .

Supports 5.1 :

Les supports usuels du 5.1 sont les DVD Vidéo , DVD audio et le SACD . Les nouveaux standards du

multimédia tel que le MPEG-4 audio englobent naturellement le son multicanal.

Selon le support utilisé et les contraintes de la ligne de transmission, le son peut être sous forme linéaireou compressé.

Seuls les DVD Audio et le SACD permettent de stocker du son l inéaire en 5.1après une compression sans pertes.

D’autre formats étendus, tels que les 6.1, 7.1, 8.1… 100.1…sont, en général, destinés à des applications particulières : cinéma panoramique ou sphérique, salles de multidiffusion, projections ou installations

expérimentales…

Environnements mul ticanaux habituels

Dolby Surround pour le cinéma

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 63/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

63

Dolby Surround pour le home cinéma

Dolby Digital pour le cinéma

Dolby Di gital pour le home cinéma

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 64/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

64

Configur ation pour une écoute musicale

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 65/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

65

Annexes - Nouveaux supports

DVD Vidéo : formats et débi ts

Débit utile maximum : 9,8 Mbits/s

9 flux vidéo, 8 flux audio, 32 sous-titresEn multi-angles, débit max. entre 6,8 et 7,8 Mbps selon le nombre d’angles

Sous-titres : 0,052 - 0,064 Mbps / (codage bitmap)

Encodage vidéo MPEG 1/2 (CBR/VBR)

Encodage Audio (PCM, MPEG 1/2, AC3, DTS, SDDS)

Capacités : 4,70 Go (simple face, simple couche)8,54 Go (simple face, double couche)9,40 Go (double face, simple couche)(17,08 Go (double face, double couche))

DVD Authoring Pioneer : 4,38 Go (DVR-S201) et 3,95 Go (DVR-S101)

Support de pré-mastering : bande informatique DLT ( Digital Linear Tape)

Format : Disc Description Protocol 2.0 (DDP)

Possibilité de format CMF (Cutting Master Format sur le DVR-S201)

Audio Seul PCM Dolby AC3 MPEG 1 MPEG 2 DTS (opt) SDDS (opt)

Fréquence 48 / 96 kHz 48 kHz 48 kHz 48 kHz 48 kHz 48 kHz

Résolution 16 / 20 / 24 Compressé Compressé Compressé Compressé Compressé

Débit max. 6,144 Mbps 448 kbps 384 kbps 912 kbps 1536 kbps 1280 kbps

Nbre de pistes 8 max. 5.1 max. 2 max. 7.1 max. 5.1 max. 7.1 max.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 66/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

66

DVD Vidéo : débits audio

Audio seulMin.

Mbps

Max.

Mbps

Moyen

Mbps

Nombre de

pistes

Durée mono

(4,7 Go)

PCM 16/44,1 Mono / Stéréo 0,7056 / 1,4112 Hors norme Hors norme

PCM 16/48 Mono / Stéréo 6,144 0,768 / 1,536 8 13h35min

PCM 20/48 Mono / Stéréo 6,144 0,960 / 1,920 6 10h52min

PCM 24/48 Mono / Stéréo 6,144 1,152 / 2,304 5 9h03min

PCM 16/96 Mono / Stéréo 6,144 1,536 / 3,072 4 6h47min

PCM 20/96 Mono / Stéréo 6,144 1,920 / 3,840 3 5h26min

PCM 24/96 Mono / Stéréo 6,144 2,304 / 4,608 2 4h31min

AC3 Stéréo / 48 kHz 0,064 0,448 0,192 2 54h23min

AC3 5.1 / 48 kHz 0,064 0,448 0,384 5.1 27h11min

MPEG 1 Mono / 48 kHz 0,064 0,192 0,192 1 54h23min

MPEG 1 Stéréo / 48 kHz 0,064 0,384 0,384 2 27h11min

MPEG 2 Main Stéréo + Ext.Streams / 48 kHz

0,064 0,384 +0,528 = 0,912

0,912 7.1 11h27min

DTS 1,536 5.1 6h47min

SDDS 1,280 7.1 8h09min

Remarque :

Pour le DVD , les capacités sont données en puissances de 10. 4,7 Go est donc équivalent à :4,7 x 109 x 8 bits. La capacité informatique équivalente (qui raisonne en 210 = 1024) est de :4,38 / 7,96 / 8,75 et 15,91 Go pour les quatre formats de DVD vi déo .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 67/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

67

Super Audio CD (SACD)

Sony et Philips proposent un autre format concurrent au DVD Audio , le Super Audio CD (SACD ).

Le Super Audio CD est un format multicouche englobant une couche CD DA compatible Red Book etune couche haute densité encodée en Direct Stream Digital (DSD ). Le DSD est une appellationcommerciale désignant une modulation sigma delta conventionnelle. Un disque double couche estcommunément appelé un SACD Hybri de .

Le SACD utilise un flux one bit à 2,8224 Mbps (64 x 44,1 kHz). Les caractéristiques annoncées sont de

plus de 120 dB de dynamique et plus de 100 kHz de bande passante. La couche haute densité peut secomposer d’une zone stéréo et d’une zone multicanale.

La couche haute densité utilise un algorithme de compression sans perte élaboré par les laboratoiresPhilips : le DST ( Direct Stream Transfer ). Il permet un gain variable de 40 à 60 % selon les données.

Il est possible de mettre simultanément 74 mn d’audio stéréo haute résolution et 74 mn de 5.1 sur lacouche haute densité.

La couche haute densité est analogue à celle d’un DVD bien que le format des données soit différent. Lesupport de pré-mastering adopté est l’

AI T .

La structure logique du SACD est une extension de celle d’un CD DA. Une Master TOC adressera uneTOC stéréo et une TOC multicanale. Les flux annexes (texte, codes ISRC…) seront ajoutés dans une zonedédiée du disque de la même façon que sur un CD Extra. Il est possible de mettre 8 flux de texte.

Le SACD englobe une série de protection contre la copie illégale : encryption des TOCs, SACD Mark ,Watermarking…

Remarque : 64 x 44100 > 24 x 96000

Pour ce qui est de la compatibilité DVD Audio / SACD, Sony et Philips annoncent que leurs lecteursSACD liront les DVD Audio. Les lecteurs de DVD Audio ont donc tout intérêt à lire les SACD…

Ce format semble actuellement avoir remporté la guerre commerciale sur le DVD Audio .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 68/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

68

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 69/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

69

DVD Audio

La norme DVD Audio différencie deux types de disques : Les DVD Audio et les DVD AudioV . Dans lecas du DVD AudioV , les éléments vidéo sont de même nature que ceux du DVD Vidéo avec quelques

restrictions (pas de contrôle parental, de codage régional, ni de multi-angle).

La norme DVD Audio inclut deux familles de fréquences d’échantillonnage : 44,1 / 88,2 / 176,4 kHz et48 / 96 / 192 kHz aux résolutions de 16 , 20 , ou 24 bits . Il est permis d’utiliser 6 pistes par f lux sauf dansle cas des hautes résolutions (176,4 et 192 kH z ) où le nombre de canaux est limité à deux. Quasiment toutle débit disponible peut être utilisé par les flux audio (9,6 Mbps au lieu de 6,144 Mbps pour les flux sonen DVD Vidéo ).

Il est possible de séparer les canaux en deux groupes, par exemple pour donner des caractéristiquesdifférentes aux canaux frontaux et arrière comme suit :

Groupe 1 (f rontaux) Groupe 2 (arr ière)

Nombre decanaux

1 – 4 0 - 3

Fréquenced’échanti l lonnage

(kHz)

44.148

88.2

96176.4 (2 canaux max)192 (2 canaux max)

44.148

88.2 ou 44.1

96 ou 48XX

Résoluti on (bits)16

20

24

16

16 ou 20

16, 20 ou 24

Le DVD audio intègre, de plus, la Losseless Compression (MLP) de Peter Craven et Michael Gerzon implantée par la société anglaise Meridian Audio . Celle-ci permet un gain moyen d’environ 50 % parrapport au flux linéaire. Un flux PCM linéaire ou Losslessly compressed est obligatoire. Un deuxièmeflux est possible sous forme compressée (Dolby Digital , DTS …).

Le DSD 1 est envisagé comme option.

Pour assurer la compatibilité stéréo, le standard inclut jusqu’à 16 matrices 6 x 2 (une maximum par titre).Les coefficients de gain sont codés sur 8 bits ; la phase sur un. Le système de downmixing est appeléSMART (System Managed Audio Resource Technique).

Enfin, le standard intègre l’utilisation de menus (images fixes encodées en MPEG 2 ), 8 flux de

subpictures pour le texte, et des possibilités d’accès internet (l iens URL ). Les menus sont stockés enRAM par le lecteur pour ne pas interrompre la lecture audio.

1 Direct Stream Digital : modulation sigma delta (1 bit, 2,8224 MHz)

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 70/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

70

Audio seul Min.Mbps

Max.Mbps

Moyen / Max.Mbps

Nombrede pistes

Durée mono(4,7 Go)

PCM 16/44,1 Mono / Stéréo 9,6 0,7056 / 1,4112 6 14h48min

PCM 20/44,1 Mono / Stéréo 9,6 0,8820 / 1,7640 6 11h50min

PCM 24/44,1 Mono / Stéréo 9,6 1,0584 / 2,1168 6 9h52min

PCM 16/48 Mono / Stéréo 9,6 0,7680 / 1,5360 6 13h35min

PCM 20/48 Mono / Stéréo 9,6 0,9600 / 1,9200 6 10h52min

PCM 24/48 Mono / Stéréo 9,6 1,1520 / 2,3040 6 9h03min

PCM 16/88,2 Mono / Stéréo 9,6 1,4112 / 2,8224 6 7h24min

PCM 20/88,2 Mono / Stéréo 9,6 1,7640 / 3,5280 5 / 6* 5h55min

PCM 24/88,2 Mono / Stéréo 9,6 2,1168 / 4,2336 4 / 6* 4h56min

PCM 16/96 Mono / Stéréo 9,6 1,5360 / 3,0720 6 6h47min

PCM 20/96 Mono / Stéréo 9,6 1,9200 / 3,8400 5 / 6* 5h26min

PCM 24/96 Mono / Stéréo 9,6 2,3040/ 4,6080 4 / 6* 4h31min

PCM 16/176,4 Mono / Stéréo 9,6 2,8224 / 5,6448 2 3h42min

PCM 20/176,4 Mono / Stéréo 9,6 3,5280 / 7,0560 2 2h57min

PCM 24/176,4 Mono / Stéréo 9,6 4,2336 / 8,4672 2 2h28min

PCM 16/196 Mono / Stéréo 9,6 3,0720 / 6,1440 2 3h23min

PCM 20/196 Mono / Stéréo 9,6 3,8400 / 7,6800 2 2h43min

PCM 24/196 Mono / Stéréo 9,6 4,7040 / 9,4080 2 2h13min

AC3 Stéréo / 48 kHz 0,64 0,448 0,1920 2 54h23min

AC3 5.1 / 48 kHz 0,64 0,448 0,384 5.1 27h11min

MPEG 1 Mono / 48 kHz 0,64 0,192 0,192 1 54h23min

MPEG 1 Stéréo / 48 kHz 0,64 0,384 0,384 2 27h11min

MPEG 2 Main Stéréo + Ext.

Streams / 48 kHz0,64 0,912 0,912 7.1 (?) 11h27min

DTS 1,536 5.1 6h47min

SDDS 1,280 7.1 8h09min

* la deuxième valeur est donnée avec utilisation de la Losseless Compression .

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 71/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

71

Dans l’immédiat (premières générations de lecteurs DVD Audio ), il n’est pas prévu de sortie numériquehaute résolution pour des raisons de copyright. Néanmoins, certains lecteurs multiformats commencent àen proposer.

• Choix de la production :

- choix des formats utilisés (hybri de CD-DA / DVD , SACD …)- utilisation d’un canal central- utilisation de fréquences d’échantillonnage différentes avant/arrière- mixage stéréo séparé ou downmixé - utilisation de la MLP et/ou de PCM linéaire , flux annexe en Dolby Digital ou DTS - ajout de textes, URL ’s, images fixes, vidéos…

• Obli gation des lecteur s :

- système SMART - lecture des CD-DA - lecture d’au moins 2 canaux PCM linéaires avec sorties analogiques- lecture des hybrides 1 couche CD-DA / 1 couche DVD

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 72/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

72

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 73/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

73

SVCD - Super Vidéo CD 1.0

Débit utile maximum : 2,8224 Mbps (CD 2X)

1 flux vidéo, 2 flux audio stéréo ou 1 flux multicanal (5.1 / 7.1),4 flux OGT (Overlay Graphic & Text - 4 couleurs, 4 contrastes)

Encodage vidéo MPEG 2 (CBR/VBR)4/3 - 16/9

Encodage Audio : MPEG 1/2

Capacité : 580 Mo Vidéo / Audio / Images fixes par CD

Format logique : CD-ROM XA

98 plages vidéo possibles99 choix par menu

99 chapitres par titre500 points d’accès par disque

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 74/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

74

Tableau comparatif VCD / SVCD

SVCD 1.0 VCD2.0

Plages CD Audio Hors norme Optionnelles

Répertoire CDI Non utilisé Obligatoire

Vidéo

Débit

Résolution PAL

Résolution NTSC

MPEG 2 (MP@ML)

2,6 Mbps max (CD 2X)

480 x 576

480 x 480

MPEG 1

1,4112 Mbps (CD 1X)

352 x 288

325 x 240

Images Fixes

Résolution PAL

Résolution NTSC

MPEG 2

704 x 576 - 480 x 576

704 x 480 - 480 x 480

MPEG 1

704 x 576 - 352 x 288

704 x 480 - 352 x 240

Audio

Débit

Canaux

Surround

Fréq. d’échantillonnage

MPEG 1 Layer II

de 32 à 384 kbps

2 stéréo ou 4 mono

MPEG 2 BC Extension Streams (7.1)

44,1 kHz

MPEG 1 Layer II

fixe 224 kbps

1 Stéréo ou 2 mono

Stéréo Lt / Rt seulement

44,1 kHz

Overlay Graphics & Text

Nombre de flux

Codage

4 max

4 couleurs, 2 bit/pixel

Non utilisé

Non utilisé

Non utilisé

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 75/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

75

Annexes I nformatiques

SCSI - Small Computer System Inter face

Le format SCSI a été développé pour interconnecter des périphériques informatiques. C'est une interfaceoriginellement parallèle normalisée en 1986. Elle se caractérise par sa résolution d'adressage et sa vitessede transfert. Le nombre de périphériques que l’on peut connecter est égal (contrôleur compris) à larésolution d’adressage (8 - narrow, 16 - wide ou 32 très rarement utilisé). L’index le plus élévé esttoujours prioritaire.

SCSI Paral lèle :

Le premier protocole (SCSI 1 ) utilisait un adressage sur 8 bits. Il était divisé en deux modes : synchroneou asynchrone. En mode synchrone, il permettait une vitesse de transfert de 5 MHz -5 Méga octets parseconde1- (3MHz / 3Mops en asynchrone). Il permettait de brancher 7 périphériques.

En général, les connecteurs utilisés sont de type Centr onics 50 et la longueur de connexion ≅ 6m max(connexions interne des boîtiers incluses).

Le SCSI 1 Wide utilise un adressage 16 bits et une vitesse de 5 MHz (10 Mops). Il permet de brancher 15 périphériques.

Le SCSI 2 , normalisé en 1993 ajoute la possibilité de connecter de nouveaux périphériques (CD-Roms etmachines à bande). Les terminaisons deviennent actives. Parmi les formats SCSI 2 , on a :

• Le Fast SCSI 2 :adressage 8 bits, 10 MHz (10 Mops).Les connecteurs évoluent vers les prises HD 50.Permet de brancher 7 périphériques.

• Le Wide SCSI 2 (ou Fast Wide) :adressage 16 bits, 10 MHz (20 Mops).Les HD 68 points apparaissent.Permet de brancher 15 périphériques.

Longueur de connexion ≅ 6m max (I C 496 & 497), 3m max (I C498 2 ).

1 •1 octet = 1 Byte (appellation anglaise) = 8 bits. • 8 = 23 • 1024 = 210 • 1 Ko = 1 KB = 1024 octets. • 1 Mo = 1 MB = 1024 Ko. • 1 Go = 1GB = 1024 Mo.En général, les débits sont donnés en base décimale (ie 100 Mops=100x10 6x8 bits) et les capacités en base 2.2 IC 496, IC 497 : Narrow SCSI IC 498 : Wide SCSI

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 76/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

76

Le SCSI 3 :

• Ul tra SCSI 3 (ou Fast - 20 SCSI ) :adressage 8 bits, 20 MHz (20 Mops).Permet de brancher 7 périphériques.

• Ul tra Wide SCSI 3 (ou Fast - 20 Wide SCSI ) :adressage 16 bits, 20 MHz (40 Mops).Permet de brancher 15 périphériques

Longueur de connexion ≅ 3m max (IC 496 & 497), 1,5m max (IC498).

Les longueurs de câblage devenant faibles, les technologies utilisées passent en différentiel (SCSIsymétrique ). L’implémentation asymétrique est aussi appelée Single Ended.

Il existe deux types de bus différentiels, ceux à basse tension ( Low Voltage Differential - 3,3 Volts) etceux à « haute » tension ( High Voltage Differential - 5 Volts). Ces technologies permettent d'étendre lalongueur du bus à 25 mètres avec le HVD, et à 12 mètres avec le LVD.

• Wide Ul tra 2 SCSI 3 :Adressage 16 bits, 40 MHz (80 Mops)Bus SCSI différentiel. Longueur de connexion point à point max de 12 m ;6 m pour 15 périphériques branchésPermet de brancher 15 périphériques

• Wide Ul tra 3 SCSI 3 :Adressage 16 bits, 80 MHz (160 Mops)Bus SCSI différentielConnecteurs ultra micro db 68Permet de brancher 15 périphériques

• Wide Ul tra 4 SCSI 3 :Adressage 16 bits, 160 MHz (320 Mops)Bus SCSI différentielConnecteurs ultra micro db 68Permet de brancher 15 périphériques

La SCSI Trade Association laisse entendre que l’on pourrait monter à 640 Mops…

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 77/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

77

Règles générales d'uti l isation SCSI paral lèle :

Les éléments d’une chaîne SCSI se branchent en série. La longueur de liaison ne doit pas dépasser 25, 12ou 6 m en différentiel, 6, 3, ou 1,5 mètres en standard (connexions internes des boîtiers comprises). Il est

possible d’utiliser des boîtiers actifs pour prolonger la distance maximale.

L’interface SCSI est adaptée en puissance et requiert donc une terminaison en chacune de ses extrémitésainsi qu’un câble adapté. En général, la terminaison du côté ordinateur est faite par le constructeur ,l’utilisateur doit donc veiller à terminer l’autre extrémité à l’aide d’un bouchon SCSI suivant soninstallation.

Différents types de terminaisons sont disponibles sur le marché. La norme SCSI 1 préconisait l’emploi de bouchons passifs en 132 Ω. Les débits proposés par les SCSI 2 et 3 entraînent l’utilisation determinaisons actives en 110 Ω.

Sur certaines machines, nous avons constaté de grosses différences d’impédance de terminaison. Parexemple du SCSI Mac adapté en 65 Ω; et du SCSI PC, en 93 Ω.

Des index (de 0 à 7, 0 à 15, 0 à 32…) permettent à l’unité de gestion des transactions SCSI (unité centraleou carte spécialisée) d’assigner des priorités pour faire dialoguer les éléments constitutifs de la chaîne.Deux éléments SCSI ne peuvent évidemment pas partager un même index. L’index le plus élevé esttoujours prioritaire.

Les câbles SCSI sont fragiles, il est déconseillé de les manipuler trop souvent

(branchement/débranchement) . Il est recommandé d’utiliser des câbles blindés. En cas de besoinfréquent de changement de configuration des périphériques, l’utilisation de tiroirs extractibles est unesolution pour éviter les erreurs de câblage (index) et minimiser les risques d’endommagement des câbles

par leur manipulation.

Les anciennes générations de macs (jusqu’au 9600) fonctionnaient en SCSI. Les index utilisés étaient le 7 pour la carte mère (contrôleur SCSI interne) , le 0 pour le disque dur système, le 3 pour le CD-Rom, le 5 pour le Jaz éventuel. Ces numéros ne pouvaient donc pas servir pour d’autres unités de la chaîne SCSIinterne. Certains modèles possédaient deux chaînes SCSI; une interne fast et une externe narrow (9500 /9600 par exemple).

Les nouvelles générations de machines (depuis les G3 gris) ont des bus internes en EIDE / Ultra ATA quifonctionnent en maître - esclave (2 chaînes, 2 périphériques par chaîne).

Les G3 gris possédaient une chaîne SCSI externe narrow. Les dernières générations de machines (G3Blue &White, G4 ; G5) n’ont plus de chaîne SCSI parallèle externe, mais 2 ports SCSI série IEEE 1394.

Les applications audio-visuelles requièrent, en général, l’ajout de cartes accélératrices SCSI. Celles-ci permettent de connecter plusieurs formats dans la même machine.

Néanmoins, connecter des chaînes standards et différentielles ensemble demande quelques précautions.

Actuellement, la tendance évolue vers les technologies du fiber channel pour la gestion des serveurs, et leSCSI série Fire Wire pour les volumes de stockage, le contrôle des machines d’archivage ou de gravure.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 78/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

78

Connecteur s SCSI paral lèles :

Les terminologies varient en fonction des constructeurs :

Terminologie Adaptec Noms UsuelsLow density 50-pin Centronics 50High density 50-pin Micro DB 50, Mini DB50, HD50High density 68-pin Micro DB 68, Mini DB68, HD68

Very High Density Condensed 68-pin Ultra Micro DB68

Outre le SPI (SCSI Parallel I nter face), la norme SCSI3 englobe les implémentati ons (de

technologie différente) I EEE 1394 et FC-AL1

1 FC-AL : Fibre Channel Arbitrated Loop

ggg

Very High Density conden sed 68 pin

HDI 30

Mini IBM 60 Mini IBM 68

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 79/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

79

SCSI Série

IEEE 1394 / Fi re Wire

Pour le moment, les débits normalisés sont :

- le S100 (98,304 Mbps) - le S200 (196,608 Mbps) - le S400 (393,216 Mbps) - le S800 (786,432 Mbps) .

Les 1200 Mbps ou plus sont envisagés.

63 périphériques par bus, 1023 bus possibles, plus de 64000 périphériques…

La bande passante peut être garantie (possibilité isochrone).

Différents câbles possibles, cuivre ou fibre.Longueur de connexion fonction du type de câble utilisé :28 AWG : 4,5 m ; 24 AWG : 14 m. Fibre plastique : 100m entre les nœuds.

Branchement & débranchement des périphériques à chaud possible.

Deux connecteurs pour le S100 , S200 , S400 : normal et type photo.Un pour le

S800 .

F iber Channel :

Le Fiber Channel est une famille de standards créée en 1998 pour pouvoir transférer de gros volumes dedonnées entre différentes stations de travail et périphériques. Au départ, cette interface devait résoudre les

problèmes de transferts vidéo. Les connexions Fibre Channel peuvent acheminer des informations issues

de protocoles réseaux divers (ATM, FDDI, Ethernet, SCSI, IP…).

Trois topologies principales sont définies : Pont to Poin t , Arbitrated Loop (FC-AL) et Switched Fabric (FC-SW).

La topologie point à point est tout simplement la liaison de deux machines, ordinateurs ou périphériques.

La topologie Arbitrated loop permet la gestion de 127 adresses. Si l’on désire relier plusieurs topologiesFC-AL, il faut alors passer en topologie Switched Fabric.

La topologie Switched Fabric permet de gérer 16 millions d’adresses. C’est un fonctionnement de typestandard téléphonique permettant des connexions point à point multiples entre des machines ou desarbitrated loops…

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 80/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

80

Débits :

Les spécifications actuelles du Fiber Channel sont 133 Mbps , 256 Mbps , 532 Mbps , et 1,0625 Gbps .

Un débit maximum de 100 Mops est possible en tenant compte des marges fonctionnelles.

Des travaux en cours envisagent les 4 Gbps …

Distances de câblage :

Connexions électriques :

Coax, Twinax ECL :

- 1,0625 Gbps : 24 m

- 266 Mbps : 47 m

Connexions optiques :

Fibres monomodes : 1, 0625 Gbps : 10 Km

Fibres multimodes : 1, 0625 Gbps : 300 m

Les distances sont données pour chaque segment du réseau.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 81/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

81

RAI DS : Redundent Arrays of I nexpensive Disks

Les RAIDS sont des réseaux de disques durs vus comme une seule unité logique par les contrôleurs de périphériques. Différentes architectures ont été spécifiées selon le mode de fonctionnement et les

performances recherchées (compromis vitesse / sécurité).

Le principe repose sur le striping , méthode pour concaténer différents disques durs en une unité logique.Les espaces disques sont découpés en tranches allant d’un secteur (typiquement 512 octets) à plusieursMo selon les applications envisagées, puis sont organisés de façon à pouvoir utiliser l’espace défini partoutes les tranches du réseau de disques. Les disques d’un RAID sont synchronisés.

Les RAIDS sont contrôlés par hardware ou software. Il est évident que le choix hardware est plusadéquat pour les applications de serveurs de média (audio, vidéo …).

Pour optimiser les performances d’un RAID, il est conseillé d’utiliser des disques de même modèle et de

même version de firmware.

Les RAIDS ont été conçus par Patterson , Chen , Gibson & Katz de l’université de Berkeley en 1987.

Les niveaux de RAID les plus courants :

RAID 0 : Striping simple

Avantages : Hauts débits, temps de lecture, écriture, accès optimisé. Grandes capacités. Inconvénients : Si un disque du RAID est endommagé, alors tout le RAID est inutilisable.

Le RAID 0 demande des sauvegardes régulières car les informations sont stockées sans redondance.2 disques minimum.

RAID 1 : Disques mir oirs ou duplex

L’espace disque dur est organisé en une partie visible et son miroir invisible. Les données sont inscritesen parallèle sur les deux parties et sont synchronisées. La vitesse d’écriture est celle du disque le plus lentdu RAID, mais en revanche, la vitesse de lecture est optimisée (lecture simultanée, fonctionnement detype RAID 0).

Avantages : sécurité des données (redondance de 100 %), lecture optimisée.Inconvénients : vitesse d’écriture plus lente, l’espace disque est divisé par deux par rapport à un RAID deniveau 0.

Les disques miroirs utilisent un même canal SCSI ; les disques en duplex, des chaînes différentes.Le duplex est plus rapide que le miroir.2 disques minimum.L’optimisation des systèmes passe par un mélange des raids de niveau 0 et 1 (disques stripés en duplex

par exemple). On parle alors de RAID 0+1 ou RAID 10. Bien que coûteux en disques (4 au minimum pour une double capacité seulement), ce mode est le plus sûr parmi les niveaux définis (de 0 à 7).

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 82/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

82

RAID 5 : Str iping avec paritérépar tie sur tous les disques

Les données sont traitées en RAID 0 ( striping ), mais une information redondante de parité (calculée parsérie de stripes) est dispersée au sein des disques pour permettre la détection et la correction d’erreurs. Ceniveau de RAID est un bon compromis rapidité / sécurité, mais n’est pas aussi sûr qu’un RAID 10.

Néanmoins, il est couramment utilisé actuellement.

Le RAID 5 a les mêmes performances que le RAID0 en lecture mais les opérations d’écriture sont pluslentes en raison de l’écriture des données redondantes.3 disques minimum.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 83/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

83

Réseaux et bus informatiques

• Ethernet :

- 10 base 2 : Débit théorique de 10 Mbps, connectique AUI / BNCLongueur max de 185 m par segment. Terminé en 100 Ohms

- 10 base 5 : Débit théorique de 10 Mbps, connectique BNC / AUILongueur max de 500 m par segment. Terminé en 100 Ohms

- 10 base T : Débit théorique de 10 Mbps, connectique RJ45Longueur max de 100 m par segment. Terminé en 100 Ohms

- 100 base TX : Débit théorique de 100 Mbps, connectique RJ45Longueur max de 100 m par segment. Terminé en 100 Ohms

- 100 base FX : Débit théorique de 100 Mbps, connectique fibreLongueur max de 2 km par segment en fibre multimode, 20 km en monomode

- 1000 Base T : Débit théorique de 1000 Mbps connectique RJ 45Longueur max de 100 m par segment

- 1000 Base S/L X : Débit théorique de 1000 Mbps connectique fibreLongueur man de 550 m par segment en fibre multimode, 5 km en monomode

• FDDI (Fiber Distributed Data Interface) :

- Débit théorique de 100 Mbps, connectique fibre optique ou cuivre (CDDI)

• ATM (Asynchonous Transfer Mode) :

- OC3 : Débit théorique de 155 Mbps- OC-12 : Débit théorique de 622 Mbps

• RNIS (Réseau Numérique à Intégration de Services) :

Connexion téléphonique spécialisée (en anglais ISDN)

Débit théorique de 64 kbps utiles par canal B + Canal de commande D à 16 kbps1 ligne = 2 canaux B + 1 canal D ie 128 kbps utilesMulti-liaisons possibles jusqu’à 512 kbps (4 lignes)

• ADSL (Asymetric Digital Subscriber Line)

Connexion téléphonique classique (ne perturbe pas la ligne téléphone / fax existante)Débit dépendant de la longueur de connexion et des conditions techniques de la ligne.Entre 1,5 Mbps et 9 Mbps en download ; 16 kbps et 640 kbps en upload

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 84/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

84

• VDSL (Very hight data rate Asymetric Digital Subscriber Line)

Connexion téléphonique classique (ne perturbe pas la ligne téléphone / fax existante)Débit dépendant de la longueur de connexion et des conditions techniques de la ligne.Entre 13 Mbps et 52 Mbps en download , 1,5 Mbps et 2,3 Mbps en upload

• Bus PCI (Peripheral Component Interconnect) :

Bus interne des ordinateurs permettant l’ajout de cartes spécialisées.Vitesse du Bus actuellement 33 ou 66 MHzAdressage 32 bits, débit théorique de 132 Mops en 33 MHz, 264 Mops en 66 MHzAdressage 64 bits, débit théorique de 264 Mops en 33 MHz, 528 Mops en 66 MHz

• USB (Universal Serial Bus) :

Bus de communication entre l’ordinateur et les périphériques. 127 adresses possibles.Débit nominal de 12 Mbps (1,5 Mops) en USB 1.1, 480 Mbps (60 Mops) en USB 2.0.Longueur de connexion maximale de 5m. Le bus alimente les périphériques.Branchement et débranchement à chaud possible. La bande passante peut être garantie.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 85/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006

85

Quelques Supports I nformatiques d’Ar chivage

Type Constructeur Modèle Support(en m)

DébitSec / Min / H r

Capacité lin.

(en Go)8 m/m Exabyte 8500 54, 112 500 Ko / 30 Mo / 1,8 Go 58 m/m Exabyte 8505 54, 112 500 Ko / 30 Mo / 1,8 Go 58 m/m Exabyte 8505 XLE 54, 112 500 Ko / 30 Mo / 1,8 Go 78 m/m Exabyte 8700 LT 54, 112 500 Ko / 30 Mo / 1,8 Go 58 m/m Exabyte Eliant 820 54, 112, 160 1 Mo / 60 Mo / 3,6 Go 78 m/m Exabyte Mammoth LT 125 2 Mo / 120 Mo / 7 Go 14

8 m/m Exabyte 8900 Mammoth 170 3 Mo / 180 Mo / 10,8 Go 208 m/m Exabyte Mammoth - 2 75, 150, 225 12 Mo / 720 Mo / 42 Go 20, 40, 60

AIT 1 Sony SDX-300 C 170 3 Mo / 180 Mo / 10,8 Go 25AIT 1 Seagate Sidewinder 50 170 3 Mo / 180 Mo / 10,8 Go 25AIT 1 Seagate Sidewinder 70 170 , 230 3 Mo / 180 Mo / 10,8 Go 25, 35AIT 2 Sony SDX-500 C 170, 230 6 Mo / 360 Mo / 21 Go -> 50

ADR OnStream ADR 50 ADR 50 2 Mo / 123 Mo /7,2 Go 25

DLT Quantum DLT 2000 XT 1,25 Mo / 75 Mo / 4,4 Go 15

DLT Quantum DLT 4000 1,5 Mo / 90 Mo / 5,3 Go 20DLT Quantum DLT1 3 Mo / 180 Mo / 10,5 Go 40DLT Quantum DLT 7000 5 Mo / 300 Mo /17,6 Go 35DLT Quantum DLT 8000 6 Mo / 360 Mo / 21 Go 40

VXA Ecrix VXA-1 62, 107, 170 3 Mo / 180 Mo / 10,5 Go 12, 20, 33

DTF Sony GY-2120 WS 241, 732 6,8 Mo / 407 Mo / 24,4 Go 12, 42

Types de bandes DLT

• Type I I I : Cartouche grise. Capacité de 10 Go ou 20 Go en compressé – 1100 pieds

Nombre de lectures garanties : 500 000 nombre d’années garanties : 20 • Type I I I xt : Cartouche blanche. Capacité de 15 Go ou 30 Go en compressé – 1800 pieds

Nombre de lectures garanties : 1 000 000 nombre d’années garanties : 30

• Type IV : Cartouche noire. Capacité de 20/35/40 Go ou 40/70/80 Go en compressé

Nombre de lectures garanties : 1 000 000 nombre d’années garanties : 30

Une machine acceptant les cartouches de type IV peut aussi utiliser des type IIIxt ou III…

La compatibilité est descendante. Le DLT utilise une bande demi pouce.

7/23/2019 Bases Son Cours 2006

http://slidepdf.com/reader/full/bases-son-cours-2006 86/86

Pierre-Antoine Signoret CNSMDP Bases Son – Octobre 2006