Approche Théorique 15
CHAPITRE 2. Approche Théorique
2.1 Introduction
Dans ce chapitre nous présenterons un rappel des principes fondamentaux des
différents composants intervenant dans la gestion du contrôle de l’ambiance intérieure
(confort thermique, confort visuel, systèmes et stratégies de contrôle d’un bâtiment).
En plus, nous consacrerons une partie de ce chapitre à l’influence des vitrages sur le
bilan énergétique des bâtiments, puisque le système de contrôle à développer
concerne un vitrage électrochromique. Enfin, nous présenterons les stratégies de
contrôle que nous envisageons d’utiliser.
La découverte du verre a eu une influence considérable sur l’évolution des
fenêtres. Le verre a permis à la lumière de pénétrer dans l’espace alors que, en même
temps, il offrait à un certain degré, une isolation des conditions climatiques
extérieures. La fenêtre est une ouverture sur la surface verticale bâtiment, qui permet
l’interaction de l’environnement intérieur et extérieur. La fenêtre permet une
alternance ‘visuelle’, thermique et auditive ainsi que la ventilation naturelle et la vue.
Une fenêtre est caractérisée par le type, la taille, la forme, la place et l’orientation.
L’éclairage naturel, la vue extérieure, la ventilation naturelle et les apports solaires
sont les critères qui délimitent la place de la fenêtre. Le meilleur choix de placement
et de taille de la fenêtre peut être obtenu si on tient compte du fonctionnement
souhaitable de la fenêtre. Si la fonction la plus importante de la fenêtre est de
dispenser/procurer l’éclairage, la fenêtre est, d’habitude, placée en hauteur et sa taille
doit permettre l’entrée de la plus grande quantité de lumière naturelle possible. Mais,
dans le cas ou l’on souhaiterait la ventilation, la place de la fenêtre joue un rôle plus
important que celui de la taille. On doit aussi se montrer particulièrement attentif en
ce qui concerne la taille de la fenêtre et à sa distance du plancher. Ensuite, le type de
la fenêtre peut être défini selon les matériaux de construction, le style etc.
A ce point, il est important de distinguer la notion de la fenêtre de celle du
vitrage. La première concerne la surface absolue des fenêtres, qui influence les
possibilités de vue et de ventilation. La seconde est une valeur de pourcentage qui
Approche Théorique 16
exprime la surface totale des fenêtres par rapport à la surface éclairée de la pièce. Le
vitrage est responsable de la quantité et de la distribution de la lumière.
En général, une petite fenêtre limite la vue vers l’environnement extérieur et
peut être considérée comme responsable de la création d’éblouissement.
Le vitrage peut être caractérisé comme très bas, bas, moyen, élevé et très
élevé. Le vitrage élevé et très élevé peut causer des problèmes de confort thermique et
d’éblouissement, sauf si un système de contrôle est introduit. Il est possible de
produire de bas niveaux d’éclairage en raison d’un vitrage bas et très bas.
L’existence d’une fenêtre très grande ou de plusieurs petites, ayant la même
surface totale, influence la distribution de la lumière, la vue et la ventilation, au
moment ou la même quantité de lumière pénètre. Par conséquent, si une grande
fenêtre est divisée en plusieurs petites, on peut obtenir une plus grande distribution de
la lumière et un renforcement de la ventilation naturelle. Cependant, cela peut mener à
une diminution de la vue vers l’espace extérieur.
Bilan énergétique
On doit tenir compte des pertes de chaleur par transmission, des gains solaires
et de l’imperméabilité. Un vitrage multiple fournit une meilleure isolation en
réduisant les pertes thermiques.
Pourtant, pour remplacer le vitrage triple, qui peut conduire à une diminution non
souhaitable des gains directs, des fenêtres avec une lame d’air entre les vitrages, ainsi
qu’un traitement spécial des surfaces, sont largement répandus.
Le cadre de la fenêtre est souvent à l’origine du phénomène du pont
thermique.
Quant aux gains solaires, la procédure est basée sur le phénomène de l’effet de
serre. L’objectif principal du système direct est l’accumulation de la quantité
souhaitable d’énergie solaire pendant l’hiver (aux températures les plus basses) et en
même temps la réduction au minimum des gains solaires en été.
Enfin, un flux d’air accru à travers les fenêtres et les joints réduit le danger de
développement de moisissure et de dégâts, alors qu’il augmente, à la fois, le danger de
gaspillage d’énergie.
La fuite de chaleur par les fenêtres se fait en trois étapes :
1. Des surfaces intérieures vers la surface de verre intérieure de la fenêtre.
2. Par conduction à travers le verre.
Approche Théorique 17
3. De la surface extérieure du verre vers l’environnement selon les conditions
extérieures de l’environnement (rayonnement et convection).
Les pertes thermiques sont caractérisées par la valeur d’un coefficient de
déperdition énergétique U mesuré en Wm-2K-1. Le coefficient U exprime le flux de
pertes de chaleur, dans des conditions thermiques permanentes, pour une différence
de température intérieure - extérieur égale à 1 Kelvin.
Les pertes thermiques dans le cas d’un vitrage simple sont particulièrement
augmentées à cause de la conductivité thermique du verre. On pourrait obtenir une
augmentation efficace de la résistance thermique en utilisant le vitrage double, c’est à
dire un deuxième verre, séparé du premier par une couche d’air. Cet intervalle assure
une résistance thermique supplémentaire à cause de la conductivité relativement basse
de l’air (par rapport à celle du verre), le deuxième verre offrant une diminution
supplémentaire des pertes thermiques. La figure 2.1 montre, de façon schématique le
mécanisme des pertes thermiques pour une fenêtre à double vitrage.
Echange de rayonnement (grande longueur d’onde)
Echange de rayonnement (grande longueur d’onde) avec les surfaces intérieures
Transmission
Conduction et transmission
Echange de rayonnement (grande longueur d’onde) avec l’environnement
Transmission, vent et pluie
Extérieure Intérieure
1er verre 2eme verre
Figure 2.1 Le mécanisme des pertes thermiques pour un vitrage double
La résistance thermique des vitrages doubles peut être augmentée :
1. En augmentant la largeur de la couche d’air : on peut améliorer la résistance
thermique jusqu’à une limite supérieure (environ 15 mm a 16 mm).
2. En se servant de revêtements à basse émissivité (faible – e) : l’usage de tels
revêtements peut diminuer efficacement la transmission de la chaleur par
Approche Théorique 18
rayonnement entre les deux verres. La quantité de chaleur transmise par
rayonnement est considérable et atteinte 60% de la chaleur totale transmise par
la couche d’air. Le revêtement à basse émissivité peut diminuer jusqu’à 75%
les pertes thermiques par rayonnement, en diminuant aussi, de cette façon,
efficacement la valeur du facteur U (1.8 Wm2 K4).
3. En remplissant l’espace entre les deux vitres avec un gaz de faible
conductivité thermique par rapport à celle de l’air, l’utilisation des gaz surtout
monoatomiques (argon), et de masse atomique plus lourde que l’oxygène ou
l’azote constituant l’air, peut mener à une diminution encore plus grande du
facteur U (1.5 Wm-2 K-1).
4. En utilisant la couche sous basse pression dans ce cas les pertes sont réduites à
cause de la conduction et de la transmission (facteur U~0.9 Wm-2 K-1). Des
telles solutions sont encore considérées comme non pratiques et
particulièrement coûteuses.
5. En associant les techniques ci-dessus (facteur U ~ 0.8 Wm-2 K-1).
Aux mécanismes mentionnés ci-dessus de diminution des pertes thermiques, il
faut ajouter l’utilisation de vitrages triples pour les fenêtres. L’association des vitrages
triples avec les techniques mentionnées ci-dessus peut donner des valeurs du facteur
U qui pourraient rapprocher la valeur d’un mur avec une isolation de 5 cm. Dans le
tableau 2.1 et le graphe 2.2 on voit les valeurs du facteur U pour diverses types de
vitrage (simple, double et triple) avec l’usage simultané de membrane de faible
émissivité et de gaz inertes.
Vitrage Gaz de Remplissage
τv gn Valeur U (Wm-2K-1)
Simple - 0.90 0.86 6.4 Double (DGU) Air 0.81 0.76 2.9 Double, low-e Air 0.74-0.78 0.62-0.71 1.8 - 2.2 Double, low-e pyrolytic heat mirror
Argon 0.75 0.72 1.9
Double, low-e sputtered noble metal heat mirror
Argon 0.75 0.58 1.1
Double, low-e sputtered noble metal heat mirror
Xenon 0.76 0.58 0.9
Double, low-e sputtered solar control
Argon 0.66 0.34 1.2
Approche Théorique 19
Triple, 2 low-e Argon 0.62-0.67 0.49-0.58 0.8-1.1 Triple, 2 low-e Krypton 0.63 0.55 0.7
Tableau 2.1. La performance thermique des vitrages isolants en utilisant des revêtements de
basse émissivité (τv = transmittance visible suivant une incidence proche de la normale; gn =
transmittance d’énergie totale suivant une incidence proche de la normale) (Platzer and
Robinson, 1995)
5.4
5.1
2.8
1.8
1.5
0.9
1.9
0.8
0.5
0
1
2
3
4
5
6
vitrage simple vitrage simpleavec faible-e
vitrage double vitrage doubleavec faible-e
vitrage doubleavec faible-e et
argon
vitrage doubleavec faible-e et
vide
vitrage triple vitrage tripleavec 2 faible-e
et 2 argon
mur avecisolation 5cm
vale
ur U
(Wm
-2K
-1)
1. Vitrage Electrochromique Simple, Valeur U = 1.1 W/m2K 2. Vitrage Electrochromique avec vide Valeur U = 0.6 W/m2K
Figure 2.2. Valeur du coefficient U pour des différents types de vitrage
2.2 L’influence des vitrages sur le bilan énergétique du bâtiment
Les vitrages sont souvent un maillon critique dans le système d’énergie d’un
bâtiment. Les coefficients de pertes thermiques (U) des vitrages supérieurs à ceux des
parties opaques avec des niveaux de transmission solaire élevés, créent souvent des
problèmes concernant le chauffage, le refroidissement ou les aspects du confort du
bâtiment.
Les fenêtres influencent le confort thermique des occupants par le gain ou les
pertes thermiques à travers le vitrage et aussi par les échanges radiatifs entre
l’occupant et la vitre et les autres éléments qu’il entoure.
Le coefficient total des pertes thermiques d’une fenêtre est la quantité du flux
de chaleur à travers un composant situé entre deux espaces (intérieur et extérieur) à
Approche Théorique 20
des températures différentes. Il consiste en trois composants chacun tenant compte du
vitrage, du cadre et de milieu entre vitrages, respectivement.
ftr
spspfftrtrw AA
lAUAUU
+⋅Ψ+⋅+⋅
= (2.1)
Où
Uf est le facteur U pour le cadre (W/m2K)
Utr est le facteur U au centre du verre (W/m2K)
Ψsp est la transmittance linéaire thermique introduit par l’effet du pont thermique entre
le cadre, le verre et le milieu intermédiaire.
Atr est la surface visible du verre (m2)
Af est la surface du cadre projetée (m2)
Lsp est la longueur visible totale du vitrage (m)
Le flux de chaleur à travers une fenêtre ou un vitrage est l’effet combiné de
conduction, rayonnement thermique et convection (forcé et/ou libre).
La conduction peut être vue comme le transfert d’énergie des particules les
plus énergétiques aux particules moins énergétiques d’une substance à cause des
interactions entre les particules. Plus spécifiquement, l'écoulement de la chaleur sur le
contact direct par un solide ou d'un matériel à l'autre dans un ensemble tel qu'une
fenêtre.
Le transfert de chaleur par convection est l'écoulement de la chaleur par un
gaz ou un liquide de circulation. Ce mouvement de circulation résulte de la différence
de la température et de l'action de la pesanteur. Le transfert thermique de convection
peut être classifié selon la nature de l'écoulement. La convection forcée se produit
quand l'écoulement est provoqué par des moyens externes, tels qu’un ventilateur, une
pompe ou les vents atmosphériques. En contraire, la convection libre (ou naturelle) est
induite par des forces de poussie, qui résultent des différences de densité provoquées
par des variations de la température dans le fluide.
Le rayonnement est le processus direct du transfert de la chaleur dans
l'espace au moyen d'ondes électromagnétiques. L'énergie est transférée à partir d’un
corps chaud à un corps froid, sans chauffer l'air intermédiaire. Tandis que le transfert
de l'énergie par la conduction ou la convection exige la présence d'un moyen matériel,
le rayonnement pas. En fait, le transfert par rayonnement se produit le plus
efficacement dans un vide.
Approche Théorique 21
Les demandes de chauffage et de refroidissement d’un bâtiment changent de
façon saisonnière et, par définition, dépendent fortement du climat. De plus les
priorités relatives pour les besoins de gestion d’énergie des bâtiments résidentiels et
commerciaux sont différentes. Les solutions de vitrage seront différentes suivent les
climats. La meilleure performance est réalisée si le vitrage a une valeur du coefficient
U faible. Dans des climats tempérés et chauds, une grande quantité des apports
solaires thermiques doit être évitée, particulièrement dans les bâtiments non
résidentiels.
Le paramètre U est important dans des climats plus froids, partout où le
confort de 24 heures est important et où la condensation doit être évitée. Il est
également critique pour le confort de l’occupant. Durant l’hiver, n’importe qui près
d’un vitrage simple avec du coefficient U élevée, avec une sensation froid,
indépendamment de la température ambiante, due à la perte de chaleur du corps
humain par rayonnement vers cette surface de verre froide. De plus, l’air dans
l’espace se refroidit par le contact avec le verre froid. L’air refroidi coule vers le bas
de la fenêtre, créant ainsi un courrant froid. Finalement, de la condensation se forme
plus facilement sur les surfaces froides que sur les surfaces chaudes.
Un autre facteur influençant le comportement thermique des fenêtres est le
facteur d’utilisation solaire (SHGC) qui établit une comparaison entre l’énergie
solaire transmise totale et celle mesurée à l’extérieur de la fenêtre. Une partie de
l’énergie solaire est directement transmise, une autre partie est réfléchie et une partie
est absorbée. L’énergie absorbée chauffe le vitrage, qui rayonne cette énergie dans le
bâtiment et à l’extérieure. Le facteur d’utilisation solaire inclut l’énergie solaire
directement transmise de même que la partie absorbée qui est émise vers l’intérieur.
w
trtrw A
Agg ⋅= (2.2)
Où
gtr est la valeur g de la partie transparente
Atr est la surface du vitrage
Aw est la surface du mur
Due aux conditions solaires différentes et aux variations saisonnières et
journalières, la performance des fenêtres dépend du matériel de la vitre, de
l’orientation et des dispositifs d’ombrage. Quelques fois la demande d’éclairage
naturel est en conflit avec la conception du contrôle de chaleur, particulièrement dans
Approche Théorique 22
des climats chauds. Le comportement optique du vitrage dépend sur les facteurs
suivants :
La transmissivité visible (Tvis) qui est une mesure de la transmissivité du
vitrage pour la lumière visible. La réflectivité visible est la quantité de la lumière
visible réfléchie. La transmissivité visible élevée peut créer de l’éblouissement et la
réflectivité élevée peut avoir des conséquences environnementales.
Les vitrages ayant une transmissivité visible élevée assurent une bonne
interaction avec l’extérieur, en admettant en même temps la lumière du jour utile qui
peut réduire le besoin d’éclairage artificiel et engendrer des économies d’énergie
significatives. Cependant, il est possible de créer de problème d’éblouissement. Les
vitrages avec une transmissivité faible, tout en réduisant l’éblouissement, créent des
intérieurs ‘sombre’ et diminuent la vue. Le confort visuel peut être réalisé en utilisant
des vitrages avec une transmissivité élevée et des surfaces intérieures légèrement
colorées, des stores du vitrage amovible et des cloisons diffusants.
2.3 Confort
a. Confort Thermique
On dit qu’un bâtiment ‘fournit’ des conditions de confort thermique quand la
majorité des habitants, la plupart du temps, ne désirent pas se trouver dans un
environnement plus chaud ou plus froid. Mais, malgré la simplicité de cette définition,
le confort thermique constitue une question complexe, qui subit l’influence de
différents facteurs d’environnement ainsi que ‘personnels’, comme la température de
l’air, l’humidité relative, la température émise, la vitesse de l’air, la métabolisme et
l’habillement.
La stratégie la plus simple pour l’amélioration du confort quand la température
intérieure, dans des conditions de calme, se montre assez élevée, c’est la ventilation
qui offre du confort, au moyen de plus grandes vitesses d’air intérieur et de plus
grandes pertes thermiques du corps humain.
La ventilation peut être, d’abord, considérée comme le flux d’air à travers des
ouvertures qui se trouvent dans l’enveloppe extérieure et le mouvement de l’air dans
l’espace intérieur.
Approche Théorique 23
Des études ont montré que l’application de techniques de ventilation naturelle
et nocturne peuvent réduire la consommation d’énergie des systèmes de climatisation
(Santamouris et Assimakopoulos,1996), alors que, en même temps, ils améliorent le
confort thermique et la qualité de l’air intérieur. Des systèmes divers de contrôle sont
développés.
Les grandeurs physiques et les indicateurs représentatifs du confort
hygrothermiques sont rappelés en annexe A-1.
b. Confort visuel
Le confort visuel est lie à la disponibilité d’un niveau de luminance suffisante
tandis que, parallèlement à la diminution, du plus grand nombre possible d’autres
stimulus provenant de l’environnement. Dans un environnement non-confortable, du
point de vue visuel, le phénomène de l’éblouissement est introduit. Il y a deux sortes
d’éblouissement: un éblouissement de non confort/incommodité et un éblouissement
d’incapacité. Le premier est du à l’existence d’objets extrêmement brillants dans le
champ visuel. Mais l’éblouissement du non-confort ne dégrade pas forcement la vue
des objets.
L’éblouissement d’incapacité provoque une diminution de la capacité de
distinction d’objets mais sans provoquer, forcement, du malaise de confort
(incommodité).
c. Qualité de l’air intérieur
La qualité de l’air intérieur est le confort observé en raison des conditions
physiques et psychologiques auxquelles sont exposés les habitants des bâtiments
(Lugg et al.1997). En fait la qualité de l'air intérieur joue un rôle important en
développant le confort des individus. Ces dernières années l’attention est donnée dans
le développement d'un environnement sain en utilisant principalement des techniques
de ventilation (Geros et al., 1999). Dans les bâtiments on identifie un grand nombre
de polluants qui créent dans beaucoup de cas, un environnement intérieur plus pollué
que la situation extérieure.
Approche Théorique 24
d. Performance énergétique
Etant donnée l’exigence de consommation énergétique et environnemental
(Lugg et al. 1997), la consommation énergétique ne peut pas être examinée sans tenir
compte du confort des habitants.
Dans des certains climats, comme de la région méditerranée, des bâtiments
aérés de façon naturelle, ont, formellement, un coût plus bas de fonctionnement
énergétique, par rapport à un système de ventilation mécanique. De plus, l’utilisation
de la lumière du jour peut réduit significativement la nécessite d’allumer
artificiellement un espace.
En contraire, en climats plus froids la ventilation mécanique permet de
récupérer la chaleur de l’air évacué, ce qui réduit fortement la consommation
d’énergie du bâtiment.
2.3.1 Confort Visuel
Le confort visuel est relatif à l’usage de la vue pour s’informer sur son
environnement visuel. Aux actions de l’ambiance ‘visuelle’ d’un local sur l’occupant,
il correspond des réactions de l’occupant d’ordre :
Physiologique : perception de lumières
Psychosociologique : sensations qui dépendent du fait qu’on veut plus ou
moins voir des objets et des lumières.
En conséquence, l’occupant juge l’ambiance visuelle satisfaisante ou
insatisfaisante. Il en résulte une exigence de confort visuel consistante très
généralement à d’une part voir certains objets et certaines lumières (naturelles ou
artificielles) sans être ébloui, et d’autre part avoir une ambiance lumineuse
satisfaisante quantitativement en termes de luminances (flux lumineux émis dans une
direction donnée par unité de surface apparente d’une source lumineuse ou d’une
surface réfléchissante) et qualitativement en termes de couleurs.
Si une ambiance visuelle est éblouissante ou nécessite des ajustements de l’œil
de manière durable, il en résulte un problème de santé.
Il n’y a pas de norme sur les conditions de confort visuel. Il y a en revanche
des obligations en matière d’éclairage des lieux de travail. Pour les logements, le
Approche Théorique 25
règlement indique que l’éclairage naturel au centre des pièces principales ou des
chambres isolées doit être suffisant pour permettre, par temps clair, l’exercice des
activités normales de l’habitation sans le recours de la lumière artificielle.
On peut cependant dire que la réalisation des conditions de confort visuel consiste à
assurer :
Une relation visuelle satisfaisante avec l’extérieur (vue).
On souhaite, particulièrement dans l’habitat, d’un côté bien voir l’extérieur depuis
l’intérieur (vues dégagées et agréables), et d’un autre côté ne pas être vu depuis
l’extérieur (protection de la vie privée). Pour cela, on positionne et dimensionne
les parois vitrées afin de satisfaire cet objectif relativement contradictoire.
L’utilisation d’occultations mobiles peut permettre d’optimiser la relation visuelle
avec l’extérieur.
Un éclairage naturel optimal en termes de confort et dépenses énergétiques.
Afin de profiter au mieux de la lumière naturelle, la plus satisfaisante pour l’œil, il
faut d’un côté que les locaux des bâtiments soient clairs. Mais il faut d’un autre
côté éviter l’éblouissement. En conséquence, il faut optimiser les parois vitrées, en
termes de confort visuel, en traitant leur positionnement, dimensionnement et
protection solaire.
Afin d’économiser l’électricité il faut que l’éclairage naturel soit l’éclairage de
base. Mais dans le même temps, il faut que la chaleur d’ensoleillement transmise
par les parois vitrées, qui doit être aussi importante que possible en période froide,
ne provoque ni inconfort hygrothermique ni dépense énergétique excessive pour le
refroidissement en période chaude. En conséquence, il faut optimiser les parois
vitrées en termes de dépenses énergétiques et de confort hygrothermique, en
traitant leur positionnement, dimensionnement et protection solaire.
Un éclairage artificiel satisfaisant et en appoint de l’éclairage naturel.
L’éclairage artificiel doit d’une part être satisfaisant en l’absence d’éclairage
naturel, et d’une autre part n’être qu’un appoint à l’éclairage naturel tant que
celui-ci soit disponible afin d’économiser l’électricité.
Pour cela :
o Les points d’éclairage artificiel doivent être prévus pour pouvoir
éclairer correctement les différents espaces intérieurs.
o La commande des points d’éclairage de chaque local doit permettre de
n’utiliser l’éclairage artificiel qu’en appoint. Pour que cette commande
Approche Théorique 26
soit efficace, elle doit être adaptée à l’usage des locaux, sachant que les
différents types d’interrupteurs sont :
Les interrupteurs manuels : les interrupteurs classiques
(marche/arrêt), les interrupteurs–variateurs pour les locaux
ouverts sur l’extérieur afin de pouvoir utiliser l’éclairage
artificiel en strict appoint de l’éclairage naturel.
Les interrupteurs automatiques par détection de présence par
exemple.
Comme mentionné précédemment, le confort visuel dépend du niveau
d’éclairement dans une espace, du type des tâches effectuées, de l’usager et du niveau
d’éblouissement.
2.3.1.1 Eclairage naturel
La qualité de l’éclairage est caractérisée par des facteurs incluant la quantité,
le contenu et le contraste. Elle dépend de la taille des fenêtres, de la construction et
des propriétés de transmission, les finitions appliquées aux murs, les plafonds et les
planchers, l'aspect de la construction, le site et l'architecture, et finalement doit être
adaptée aux tâches et au confort des occupants du bâtiment. Weir (1998) a entrepris
un examen approfondi de ces facteurs ci-dessus et a tiré un certain nombre de
conclusions. Celles-ci sont récapitulées ci-dessous :
Les individus préfèrent des environnements avec des fenêtres et des conditions
de jour (Wyon et Wilson, 1998 ; Collins, 1975), et peuvent récupérer sur le
plan de la santé plus rapidement dans les environnements qui sont éclairées
par la lumière du jour et permettre une vue extérieure (Loe et Davidson,
1996).
La personne moyenne recevant plus de 1000 lux de la lumière naturelle pour
moins d'une heure par jour, ne reçoit pas les niveaux suffisants pour maintenir
une ambiance optimale. Un employé de bureau pourrait passer 50% ou plus de
leur temps dans les environnements de 0.1-100 lux (Espiritu 1994). Ceci a pu
être amélioré en repensant l'environnement de bureau, et la construction de
bâtiments.
Approche Théorique 27
Les bâtiments avec des facteurs de lumière du jour faible créent des
environnements avec éclairage homogène, avec peu de contraste et tandis que
ceux avec des facteurs du jour élevés transmettent plus de lumière du jour,
créant des conditions comparables à l’éclairement extérieure, maintenant des
conditions optimales d'ambiances (Cawthorne, 1991).
Une approche holistique à la conception d'éclairage est exigée pour fournir les
environnements qui satisfont l’œil, qui sont confortables pour l'occupant, et
qui ne limitent pas la productivité de travail (Loe et Davidson, 1996).
Un aspect indésirable à la présence des fenêtres est la génération de
l'éblouissement perturbateur et de l'éblouissement gênant. L'impact de ces
derniers peut être réduit au minimum par de dimensionnement propre des
surfaces vitrées dans la façade, évitant des proportions de fenêtre de 40-55%
(Bouberki et Boyer, 1992). L'éblouissement gênant se produit, cependant,
quand les champs contrastants de l'éclat et de l'obscurité existent. L'utilisation
de grands secteurs de fenêtre évite ceci.
Selon le rapport de fenêtre/mur, Christoffersen (1995) a constaté que les
rapports très supérieurs à 25% réduisent considérablement l’énergie nette pour
des bâtiments, mais que les rapports de fenêtre/mur autour de 25% ont permis
à la lumière du jour d'être transmise, en maintenant le potentiel pour des
économies d’énergie globale plus grandes dû à des charges d’éclairage
réduites.
Les améliorations de la pénétration de la lumière du jour à l'environnement
intérieur peuvent diminuer de manière significative la consommation d'énergie
sur les systèmes d'éclairage artificiels (Zeguers et Jacobs, 1997).
Eblouissement
Le contraste excessif entre le premier plan et le fond peut déranger la capacité
de l’œil de distinguer des objets de leur fond et de percevoir le détail. L’œil humain
peut fonctionner tout à fait bien sur un éventail d'environnements lumineux, mais il ne
peut pas fonctionner correctement si les niveaux extrêmes de la luminance sont
présents dans le champ visuel en même temps.
En général, les fenêtres sont orientées vers une vue intéressante telle que la
neige, l’eau ou le sable. Les réflexions de la lumière du jour sur de telles surfaces
Approche Théorique 28
intensifient le problème de l’éblouissement, particulièrement si la fenêtre fait face à
l’est ou à l’ouest.
Des fenêtres peuvent provoquer l’éblouissement. La source principale de
l’éblouissement est liée à la vision d’éléments extérieurs de luminance élevée (ciel,
façade, etc.) en contraste avec des surfaces intérieures de luminance plus faible.
L’éblouissement est maximum pour les occupants regardant en direction de la fenêtre.
Une autre source de l’éblouissement est le soleil. Le ciel lumineux peut causer des
réflexions sur des surfaces de travail, par exemple écrans. La lumière du soleil peut
briller directement ou par réflexion pour créer l’éblouissement.
L’éblouissement est un phénomène subjectif et il est difficilement de le
mesurer. Une forme généralisée de quantification de l’éblouissement peut être dérivée
en étudiant la réponse moyenne d'un grand nombre de personnes à la même situation
d’éblouissement. L’éblouissement peut être classifié dans deux types : éblouissement
gênant et éblouissement perturbateur.
Eblouissement gênant : défini comme l’éblouissement qui cause l’inconfort
visuel sans altérer nécessairement la vision.
Eblouissement perturbateur : défini comme l’éblouissement qui altère la
capacité de voir des détails sans causer nécessairement d’inconfort visuel. Son
effet peut être exprimé par un décalage au niveau d'adaptation de l’œil.
L’évaluation de l’éblouissement gênant de la lumière du jour dans des
chambres d’essais avec des vitrages simulés sera difficiles puisqu’une telle fenêtre est
une source de lumière artificielle grande et uniforme. Dans des espaces éclairés réels
beaucoup de types de stimulus d’éclairage se produisent simultanément. Par
conséquent, il est difficile d’appliquer la formule de l’indice d’éblouissement obtenue
à partir des expériences de laboratoire directement à l’éblouissement gênant de
lumière du jour, ou de comparer des résultats des chambres d’essais et des espaces
éclairés. Cependant, les équations de Hopkinson et de Chauvel et tous les indices
d’éblouissement existants sont basés sur des expériences avec des sources lumineuses
uniformes et donc elles ne devraient pas être appliquées quand l’éblouissement gênant
est provoqué par des sources lumineuses non-uniformes. En outre, employant la
lumière électrique dans la chambre pendant les mesures d’éblouissement de lumière
du jour, rend difficile l’évaluation de l’éblouissement provoqué par des fenêtres.
Approche Théorique 29
L'éclairage réussi et la conception ergonomique des lieux de travail, exige une
méthode et un processus appropriés pour prévoir l’éblouissement. L’utilisation de la
lumière du jour est une difficulté en raison des conditions de ciel, d’intensité et de
distribution de la lumière, des couleurs et de l’énergie radiante varient avec le temps.
Le but principal de ce travail était de développer une méthode d'évaluation
d’éblouissement nouvelle et mathématique valide pour que la lumière du soleil directe
définisse avec facilité et exactitude raisonnable le niveau d’éblouissement causé par
des fenêtres dans un espace sous forme d'indice d’éblouissement de lumière du jour,
et pour aider le choix des systèmes utilisant la lumière du jour.
La méthode est basée sur la modification par Chauvel de la formule
d’éblouissement de grande source de Cornell, pour calculer les indices
d’éblouissement de lumière du jour. La formule de Cornell Hopkinson prend en
compte la luminance de source et la luminance de fond. Les paramètres dans la
version modifiée par Chauvel sont la luminance de source, la luminance de fenêtre et
la luminance de fond.
∑ ××+Ω×
=Sb
S
LLLG 5.0
8.06.1
07.0478.0
ω (2.12)
où LS est la luminance de source (cdm-2) ; Lb est la luminance de fond (cdm-2) ; ω est
l’angle solide entre la source et l’œil (sr) ; Ω est l’angle solide dont on voit la source
modifiée par l’effet de la position de ses éléments dans différentes parties du champ
visuel.
∑ ××+Ω×
=Wb
S
LLLG 5.0
8.06.1
07.0478.0
ω (2.13)
où LS est la luminance de source : la luminance de la parcelle du ciel, des obstructions
et de la terre vue par la fenêtre (cdm-2) ; Lb est la luminance de fond : la luminance
des surfaces intérieures (cdm-2) ; LW est la luminance de fenêtre (cdm-2) ; ω est l’angle
solide entre la source et l’œil (sr) ; Ω est l’angle solide dont on voit la source modifiée
par l’effet de la position de ses éléments dans différentes parties du champ visuel.
Nazzal [Nazzal, 2001] a amélioré encore cette méthode en ajoutant de
nouveaux éléments. D’après Nazzal, le degré de l’éblouissement gênant est représenté
par un constante d’éblouissement, GN, et l’indice d’éblouissement de lumière du jour,
DGIN.
Approche Théorique 30
( )windowNadaptation
pNexteriorN LL
LG
××+
Ω×= 5.0
8.06.1
07.0478.0
ω (2.14)
L’indice d’éblouissement de lumière du jour, DGIN, peut être calculé comme suit :
NN GDGI 10log10= (2.15)
Les trois paramètres inclus dans l’équation de GN sont calculés comme suit :
πφ ×=
i
shieldedvwindow
EL
2,3 (2.17)
où Lwindow est la luminance protégée verticale moyenne de la fenêtre (cdm-2) ;
Ev3,shielded est l’éclairement protégé vertical moyen de la fenêtre (lux).
πunshieldedv
adaptation
EL ,2= (2.18)
où Ladaptation est la luminance non protégée verticale moyenne de l’environnement
(cdm-2) ; Ev2,unshielded est l’éclairement non protégé vertical moyen de l’environnement
(lux).
( )12,1
−=
πunshieldedv
exterior
EL (2.19)
où Lexterior est la luminance non protégée verticale moyenne de l’extérieur (cdm-2) ;
Ev2,unshielded est l’éclairement non protégé vertical moyen de l’extérieur (lux).
Le comportement des occupants peut en effet être motivé à certaines heures,
par leur réaction vis-à-vis de situation d’éblouissement incompatible avec l’exercice
normal de leurs activités. Il y a des techniques qui permettent de supprimer cette
source d’éblouissement comme le déroulement de stores, la fermeture des volets
roulants ou des rideaux. Une autre manière pour traiter ce problème est d’utiliser des
vitrages teintés.
Les techniques mentionnées ci-dessus conduisent à des inconvénients majeurs sur le
plan énergétique tels que :
Réduction significative des apports solaires gratuits en hiver.
Nécessité d’employer davantage l’éclairage électrique au détriment de la
pénétration de la lumière naturelle.
La détermination des éclairements lumineux à l’intérieur d’un local dus à la lumière
du jour se base le plus souvent sur des données d’irradiation transmises par une
ouverture en prenant compte les paramètres suivants :
Orientation de la paroi vitrée.
Approche Théorique 31
Inclinaison de la paroi vitrée.
Facteur de transmission.
Masques proches.
Masques lointains.
Facteurs de dépréciation liés à la dégradation des propriétés optiques du
matériau de l’ouverture (du à la pollution).
Afin de réduire les risques d’éblouissement, on pourrait utiliser des moyens tels que :
Augmentation des luminances des parois internes périphériques aux fenêtres,
en traitant leurs surfaces de la manière la plus claire possible.
Emploi de protections solaires externes de type brise-soleil dont les surfaces
inférieures soient les plus claires possibles.
Dimensionnement et positionnement approprié des ouvertures relativement au
plan d’occupation du bâtiment.
Traitement approprié des bandeaux extérieurs et en général des surfaces
périphériques aux fenêtres, afin d’augmenter la luminance des surfaces
intérieures avoisinant les parois vitrées.
Facteur de lumière du jour
Afin de caractériser la manière dont l’éclairage naturel pénètre un bâtiment il
est utile d’examiner la distribution de la luminance intérieure en fonction des
conditions lumineuses extérieures. Ceci est connu comme la distribution de facteur de
jour et est effectuée avec un ciel obscurci
Le facteur de lumière du jour (DF) est la somme de trois composantes :
o La composante directe (SC = sky component)
o La composante réfléchie externe (ERC = external reflected component)
o La composante réfléchie interne (IRC = internal reflected component)
DF = SC + ERC +IRC (2.20)
Pour plus de 80% de la surface de plancher dans la plupart des bâtiments, le
facteur de lumière de jour varie entre 0 et 5%. Cependant, près des parois vitrées il
peut atteindre 10-15%. Donc les valeurs du facteur de lumière du jour fournissent un
guide pour la répartition lumineuse dans une chambre (ou partie d’une salle) pour le
Approche Théorique 32
lumière du jour. Une classification des zones de bâtiment sur la base des facteurs de
lumière du jour est donnée le dans tableau 2.2.
Figure 2.3. Abaque permettant d’évaluer la disponibilité de niveaux d’éclairement donnés
suivant la latitude du lieu. L’axe vertical correspond aux éclairements extérieurs horizontaux dus
au ciel seul (Agence Française d’Eclairage, 1977)
Approche Théorique 33
Zone Facteur de lumière du jour
(DF)
Contribution de lumière du
jour
Lumineuse >6% Très grande
Moyenne 3-6% Bon
Foncée 1-3% Juste
Très foncée 0-1% Pauvre
Tableau 2.2. Correspondance de facteur de lumière du jour et de la luminosité d’une zone
Le facteur de lumière du jour dépend sur la latitude du site. Le pourcentage
d’heures entre 9h00 et 17h00 ou le niveau d’éclairement disponible ou dépassé est
illustré dans la figure 2.3. L’axe vertical correspond aux éclairements extérieurs
horizontaux dus au ciel (Agence Française d’Eclairage, 1977).
2.3.1.2 Eclairage Electrique
Il est bien connu qu’un bon éclairage est indispensable pour satisfaire des
exigences de confort comme pour permettre d’effectuer certaines tâches dans de
bonnes conditions.
On rencontre deux types d'éblouissements pour l’éclairage électrique :
1. L'éblouissement direct par les sources lumineuses
• si la luminance est élevée (ex. spot basse tension)
• s'il n'y a pas de grille sur le luminaire ( tube fluo à nu )
• si les dimensions sont grandes
• si le fond sur lequel il se détache est plus sombre.
2.L'éblouissement indirect
La réflexion des sources de lumière par des surfaces brillantes réduit la
perception visuelle et peut être une cause importante d'inconfort et de fatigue visuelle
( le meilleur exemple est l'écran cathodique des ordinateurs ). Il est toujours
recommandé d'utiliser des surfaces mates, à l'endroit de la tâche visuelle et même
pour les sols et les parois.
Approche Théorique 34
Pour l’éclairage électrique, les exigences de confort imposent de réduire
l’éblouissement dû aux luminaires, en faisant en sorte que leur luminance soit aussi
faible que possible pour un observateur regardant suivant une direction comprise entre
0 et 45 degrés à partir de l’horizontale.
Température de couleur
La température de couleur est la couleur apparente de la lumière fournie par
une lampe et elle est exprimée en Kelvin ; elle permet de classer les lampes en :
• blanc " teinte chaude " TK < 3300 K
• blanc " intermédiaire " TK entre 3300 ° et 5000 K
• blanc " teinte froide " TK > 5000 K
Aux niveaux d’éclairements souhaités sur le plan utile correspondent des
plages de température de couleur à respecter afin d’éviter des sensations désagréables.
C’est particulièrement la raison pour laquelle les lampes à incandescence (Tc = 2800
K) ne sont pas recommandées pour des éclairements supérieurs à 500 lux (ambiance
rougeâtre énervante).
Plus la température de couleur est élevée, plus le niveau d'éclairement doit être
élevé.
Indice de rendu des couleurs L'indice de rendu des couleurs, désigné par IRC ou Ra, indique les aptitudes de
la lumière émise par la source à restituer l'aspect coloré de l'objet éclairé. La
Commission Internationale de l'Eclairage ( C.I.E.) a défini un indice général de rendu
des couleurs Ra dont la valeur est comprise entre 1 et 100. Ra = 100 correspond à un
rendu des couleurs parfait, tel que celui qui est obtenu avec la lumière naturelle ou des
lampes à incandescence. L'indice de rendu des couleurs satisfaisant est supérieur à 80,
un indice inférieur à 60 ne pouvant convenir qu'à des activités ne nécessitant aucune
exigence de rendu des couleurs.
Approche Théorique 35
Uniformité de l'éclairement
Autre facteur intervenant dans le confort visuel : le nombre, la répartition et le
choix des luminaires doivent assurer une uniformité de l'éclairement. Pour cela, aucun
endroit du local ne doit avoir un niveau d'éclairement inférieur à 70 - 80 % du niveau
de l'endroit le plus éclairé.
Ce rapport doit être compris entre 1 et 5 en maximum. Ainsi, dans un local où
l'éclairement des postes de travail est de 1000 lux, l'éclairement moyen général ne doit
pas être inférieur à 200 lux.
Un certain équilibre des luminances doit être recherché afin de diminuer les
risques de fatigue visuelle liés au passage répété à l’observation de surfaces de
luminances variées. Par exemple, il est recommandé que les luminances des parois et
du plafond soient plus faibles que celles du plan utile dans une proportion bien
définie, sans pourtant être très sombres.
Niveaux d’éclairements nécessaires
La fonction des bâtiments conduit à la définition d’un cahier des charges
définissant des niveaux d’éclairement recommandés sur des plans particuliers : sol ou
plan utile par exemple.
Le tableau 2.3 montre un extrait concernant les éclairements à respecter sur le
plan utile, pour diverses applications.
Type de local Eclairement Recommandé (lux)
Bureaux et Travaux généraux 500
Salle de classe 300
Bibliothèque 500
Salle de dessin 1000
Bureaux paysagés 750 à 1000
Tableau 2.3. Exemples d’éclairements recommandés sur le plan utile (Agence Française
d’Eclairage)
Ces éclairements doivent pouvoir être assuré à tout instant, aussi pendant la
nuit, c’est à dire que l’éclairage électrique doit être capable de fournir les niveaux
Approche Théorique 36
d’éclairement suffisants à tous les endroits d’activités sans lumière naturelle. Les
niveaux d’éclairement des halls et circulations peuvent être inférieures.
2.4 Contrôle
2.4.1 Introduction
Actuellement, la difficulté pour les ingénieurs des systèmes de contrôle
consiste à modéliser et à contrôler des systèmes modernes complexes, comme des
systèmes de contrôle de la circulation, des processus chimiques et des systèmes
robotiques.
La mécanique de contrôle moderne s’appuie sur la création d’une théorie de la
rétroaction et de l’analyse de systèmes linéaires ainsi que d’idées complexes
concernant la théorie des circuits et de la communication. Par conséquent, la
mécanique de contrôle ne se limite pas à une vision précise des choses mais elle est
appliquée de façon équivalente à l’aéronautique, la micromécanique,
l’environnement, l’électronique et à beaucoup d’autres cas.
Un système de contrôle est l’interconnexion de plusieurs éléments qui
composent un système pour assurer des fonctions précises. L’analyse d’un système
s’appuie sur la théorie de systèmes linéaires qui considère une relation entre la cause
et la conséquence pour toutes les parties du système. Par conséquent, une partie de
système ou un processus que vous souhaitez contrôler doit être représenté par un bloc-
diagramme. Un système de contrôle de type ouvert (boucle ouverte) emploie un
contrôleur ou un actionneur dans le but d’obtenir le résultat souhaitable, comme il est
représenté dans la figure 2.4.
Actionneur Procès Sortie
RéponseSortie désirée
Figure 2.4. Système de contrôle de boucle ouverte
Approche Théorique 37
A contre-pied d’un système de boucle ouverte, un système de type fermé
(boucle fermée) compte et compare sa sortie avec une valeur désirée qu’il met en
valeur pour régler sa fonction. Ce signe s’appelle signe de rétroaction. Un système de
contrôle de type simple avec rétroaction est représenté sur la figure 2.5.
Figure 2.5. Système de contrôle de boucle fermée
Dans un gra nforcer le signe de
rétroac
Figure 2.6. Système de contrôle de paramètres multiples
2.4.2.Conception d’un système de contrôle
constitue un travail spécifique dans le
omaine de la mécanique. La première étape exige la détermination des objectifs du
systèm
nd nombre de cas, il est nécessaire de re
tion de manière qu’il soit utilise de la meilleure façon possible pour la
régulation finale exigée à l’entrée du système de contrôle. Ces dernières années, des
systèmes de contrôle complexes de ce type ont été développés mettant en valeur un
nombre considérable de paramètres. Un bloc-diagramme qui illustre un système de
paramètres multiples est représenté sur la figure 2.6.
La conception d’un système de contrôle
d
e. Comme exemple on mentionne le contrôle de la vitesse d’un moteur. La
deuxième étape, consiste à reconnaître toutes les variables qu’on désire contrôler
(p.ex. la vitesse d’un moteur). Une troisième étape, porte sur l’écriture des normes
Comparaiso n Procès
Réponse Sortie sortie
Contrôleur désirée
Mesure
Procès Réponse sortie Contrôleur
Mesure
désirée
Approche Théorique 38
techniques de la précision qu’on désire atteindre. Cette précision de contrôle
souhaitable définit aussi les normes techniques du capteur qui va mesurer les
paramètres contrôlées.
Un cas typique de système est illustre sur la figure 2.7 qui comporte le capteur,
la procédure qui sera contrôlée, l’actionneur et le contrôleur.
nt le fonctionnement du
systèm
Figure 2.7. Un bloc-diagramme d’un système de rétroaction négatif dépeignant un système de
contrôle de boucle fermée
Sortie Actuelle
Bien sur, le choix des éléments mentionnés tout à l’heure exige une attention
particulière et une estimation de tous les paramètres concerna
e de contrôle, dans leur ensemble. Une étape suivante qu’on devra réaliser est
le choix du contrôleur et, ensuite, la régulation des paramètres qui, finalement,
détermineront la performance du système. Si cela ne devient pas possible, après avoir
suivi les étapes précédentes, on devra choisir des capteurs différents et éventuellement
des actionneurs. Dans ce cas, on répétera de nouveau les étapes mentionnées de
manière que l’élaboration du système de contrôle soit définitif. La procédure du
système de contrôle décrite tout à l’heure, est illustrée sur le bloc-diagramme de la
figure 2.8.
Contrôleur Procès
Réponse sortiedésirée Actionneur
Capteur
-
erreur +
Approche Théorique 39
1. Etablissement des buts de contrôle
3. Ecriture des spécifications des variables
4. Etablissement de la configuration du système et identification de l’actionneur
2. Identification des variables à contrôler
5. Obtention d’un modèle pour le procès, l’actionneur et le capteur
6. Description du contrôleur et sélection des paramètres à contrôler
7. Optimisation des paramètres et analyse de la performance
Si la performance n’est pas atteinte les spécifications réitèrent la configuration et l’actionneur
Si la performance est atteinte les spécifications conduisent à la conception
Figure 2.8. Organigramme d’un système de contrôle
Ces dernières années, la procédure de conception est influencée par l’entrée
d’ordinateurs puissants ou de coût peu élevé ainsi que d’algorithmes spécifiques.
2.5 Choix de Types de Contrôle
Dans cette section on présente les systèmes de contrôle utilisés dans la thèse. Il
est important de noter que le choix des systèmes de contrôle a été fait selon
l’expérience précédente, la disponibilité des outils ainsi que la pratique internationale
pour le type d’application qui intéresse la thèse.
2.5.1 Contrôle Tout ou Rien
Une technique de contrôle traditionnelle utilisée est celle de la commande
Tout ou Rien. Ce type de contrôle est le contrôleur le plus simple. En effet, il consiste
Approche Théorique 40
à basculer les états du vitrage entre deux positions (état blanchi ou état coloré) (figure
2.9). Une bande morte est introduite afin de réduire les instabilités. L’état de
l’actionneur est maintenu inchangé à l’intérieur de cette bande indépendamment des
fluctuations de la valeur réglée.
actionneur
Grandeur réglée
Etat P5
Etat P1
Bande morte
Figure 2.9. Le contrôle Tout ou Rien
La définition de la bande morte dépend de la dynamique du système de
contrôle et nécessite l’expertise du concepteur de ce type de contrôleur afin d’établir
le meilleur compris entre la stabilité et la qualité de contrôle.
Le contrôle Tout ou Rien présente l’inconvénient de ne prendre en compte
qu’un nombre restreint de possibilités de contrôle. Cette technique a été utilisée pour
le contrôle de l’environnement intérieur.
2.5.2 Le contrôleur PID
Une forme de contrôle largement répandue dans la commande de processus
industriel s'appelle contrôle en trois termes ou contrôleur PID. Ce contrôleur a une
fonction de transfert.
sKs
KKsG DI
pC ++=)( (2.21)
Approche Théorique 41
Le contrôleur fournit un terme proportionnel, un terme intégral et un terme dérivatif.
L’équation pour la sortie dans le domaine temporel est
dttdeKdtteKteKtu DIP)()()()( ++= ∫ (2.22)
L’action proportionnelle KP : Dans ce mode, il existe une relation linéaire entre
l’erreur par rapport à la consigne et la position de l’actionneur. Le terme proportionnel
permet un retour rapide à la consigne mais risque d’induire des oscillations.
L’action intégrale KI : Elle annule automatiquement l’écart dû à l’action
proportionnelle et permet un ajustement plus précis mais plus lent.
L’action dérivée KD : Cette action permet de prendre en compte la vitesse de variation
de la grandeur contrôlée. Elle permet ainsi de rattraper et d’anticiper les variations
autour de la consigne.
De fait la fonction transfert du terme dérivatif est
1)(
+=
ssKsG
s
Dd τ
(2.23)
mais habituellement le terme τs est beaucoup plus petit que les constantes de temps du
procès elle-même et ainsi il peut être négligé.
Si on met KD=0, alors on a le contrôleur proportionnel intégral (PI)
sKKsG I
Pc +=)( (2.24)
Quand KI = 0, on a
sKKsG DPc +=)( (2.25)
ce qui s’appelle contrôleur proportionnel dérivatif (PD).
Beaucoup de process industriels sont contrôlés en utilisant des contrôleurs
proportionnel – intégral - dérivatif (PID).
La popularité des contrôleurs PID peut être attribuée en partie à leur bonne
performance dans un éventail de conditions de fonctionnement et en partie à leur
simplicité fonctionnelle, qui permet à des ingénieurs de les actionner d'une façon
simple et précise. Pour réaliser un tel contrôleur, trois paramètres doivent être
Approche Théorique 42
déterminés pour le process donné : le gain proportionnel, le gain intégral et le gain
dérivatif.
On considère le contrôleur PID :
sKsKsKsK
sKKsGc
212
33
21)( ++=++=
( ) ( )( )s
zszsKs
bassK 2132
3 ++=++= (2.26)
oú a=K1/K3 et b=K2/K3. Donc un contrôleur PID présente une fonction de transfert
avec un pôle sur l’origine et deux zéros qui peuvent être situées n’importe oú.
2.5.3 Logique Floue
Dans la décennie suivant la publication de Zadeh sur les ensembles flous
[Zadeh,1965], beaucoup de développements théoriques dans la logique floue ont eu
lieu aux Etats Unis, à l’Europe et au Japon. Les applications nombreuses de la logique
floue ont émergé en couvrant un éventail de secteurs pratiques, et beaucoup de
produits ‘software’ et ‘hardware’ de contrôle flou [Schwartz et Klir, 1992]ont été
commercialisés pendant les dernières années. Une pléthore de littérature sur la logique
floue existe. Quelques papiers inclusifs [Mamdani 1977, 1993 ; Tong 1984, 1985 ;
Sugeno 1985 ; Maiers et Sherif 1985 ; Efstathiou 1989 ; Lee 1990] sont utiles pour un
accès rapide à ce champ. La logique floue est largement appliquée dans le domaine
industriel ces dernières années. Ils existent des systèmes de climatisation flous, des
voitures avec des systèmes de freins flous, des appareils ménagers flous etc. Dans le
domaine du contrôle des ambiances, le contrôle flou est de plus en plus utilisé. Entre
autres, il a été utilisé par Egilegor [Egilegor et al., 1997] pour le développement d’un
système de contrôle neuro-flou pour maintenir le confort thermique d’un bâtiment. De
plus Fraisse [Fraisse et al., 1997] a comparé les performances d’un système de
contrôle flou à un système du contrôle classique. En 1996 Bruant [Bruant, 1996] a
simulé la performance d’un contrôleur floue pour contrôler la qualité d’air dans un
bâtiment naturellement ventilé.
Approche Théorique 43
2.5.3.1 Logique classique et logique floue
Dans la logique classique, un élément appartient ou pas à un ensemble. La
formulation mathématique est basée sur la fonction d’appartenance µ, qui est définie
comme :
( ) 1=xAµ
si x est un élément de A et
( ) 0=xAµ
si x n’est pas un élément de A.
Un ensemble classique peut être exprimé comme :
6| >= xxA
L’ensemble flou est une prolongation de l’ensemble classique. Si X est l’univers de
discours et ses éléments sont dénotés par x, alors l’ensemble flou A dans l’X est défini
comme un ensemble de paires.
( ) XxxxA A ∈= |, µ (2.27)
µA est la fonction d’appartenance de x dans A.
L’inconvénient d’une approche classique est qu’elle est très précise. Par
exemple, on considère deux températures comme 19.8 et 20.2 °C, qui correspond à
deux ensembles différents : chaud et froid (figure 2.10). En réalité, la frontière entre
ces deux ensembles n’est pas bien définie. La théorie des ensembles flous permet de
passer sans interruption d'un sous-ensemble à l’autre grâce à la définition d'une
fonction d'appartenance qui varie entre 0 et 1. Par exemple, la température de 20.5 °C
appartient aux ensembles chaud et froid. Les valeurs de son degré d’appartenance sont
0.7 et 0.3, respectivement, en indiquant qu’elle appartient plus à l’ensemble chaud
qu’à l’ensemble froid (figure 2.11).
L’avantage de la logique floue se trouve dans sa capacité de manipuler des
quantités imprécises impliquées dans la logique humaine, ou obtenues à partir des
instruments de mesure. L’application principale de la logique floue est dans le
contrôle flou, qui vise à reproduire le comportement des opérateurs humains.
Approche Théorique 44
FROID
20
1
Ta (°C)
µ
CHAUD
20
1
Ta (°C)
µ
Figure 2.10. Deux ensembles classiques, chaud et froid
Figure 2.11. Deux ensembles flous, chaud et froid
20 2119 20.5
FROID CHA1
UD
0 0.
0.
Ta (°C)
µ
Règles floues
Le contrôle flou est basé sur l’usage des règles linguistiques comme celles
utilisées par un opérateur humain. Une règle a la formulation suivante :
SI x1 est A1 ET x2 est A2 ALORS y est B
La prémisse de la règle est constituée par x1 et x2, qui sont les variables
d’observation du contrôleur, tandis que A1 et A2 sont des étiquettes linguistiques. La
Approche Théorique 45
conclusion de la règle, y, représente la variable de contrôle et B est une étiquette
linguistique.
2.5.3.2 Contrôle flou
La structure de base d’un contrôleur flou repose sur trois notions
fondamentales (figure 2.12).
Fuzzification Système
d’Inférence Flou
Defuzzification
x1 x2
xn
y1 y2
yn
Variables d’entrée numériques
Variables de sortie numériques
Figure 2.12. Principe de contrôle flou
Fuzzification
La fuzzification est le processus de la traduction des variables d’entrée strictes en
entrées floues. La première étape consiste à déterminer le degré auquel les entrées
appartiennent à chacun des ensembles flous appropriés par l'intermédiaire des
fonctions d'appartenance. La fuzzification peut donc être définie comme le
mécanisme qui représente l’interface entre le domaine numérique et le domaine
sémantique.
Système d’Inférence Flou
L’inférence floue est le processus de la formulation de la projection d'une entrée
donnée à une sortie en utilisant la logique floue. La projection fournit une base à partir
de laquelle des décisions peuvent être prises ou des modèles discernés. Le procès
d’inférence implique les fonctions d’appartenance, les opérateurs de logique floue et
les règles linguistiques.
Approche Théorique 46
Agrégation des règles floues
La plupart de systèmes basés sur des règles impliquent plus d’une règle. Le processus
par d'obtenir le conséquent global (conclusion) des différents conséquents a défini par
chaque règle dans la base des règles est connu comme agrégation des règles. En
déterminant une stratégie d’agrégation, deux cas extrêmes simple existent [Vadiee,
1993] :
a. Système conjonctif des règles. Dans le cas d'un système qui doit conjointement
être satisfait, les règles sont reliées par 'ET' des liaisons. Dans ce cas-ci, la
sortie agrégée (conséquent) est trouvée par l'intersection floue de tous les
différents conséquents de règle, yi, où i = 1, 2, …r, as ryyyy ∩∩∩= ...21 (2.28)
qui est défini par des fonctions d’appartenance :
( ) ( ) ( ) ( )( )yyyy ryyyy µµµµ ,...,,min 21= pour (2.29) Yy ∈
b. Système disjonctif des règles. Pour le cas d'un système disjonctif des règles où
la satisfaction d’au moins d'une règle est exigée, les règles sont reliées par 'ou'
des liaisons. Dans ce cas-ci, le rendement agrégé est trouvé par l'union floue
de toutes les différentes contributions de règle, comme : ryyyy ∪∪∪= ...21
qui est défini par des fonctions d’appartenance :
( ) ( ) ( ) ( )( )yyyy ryyyy µµµµ ,...,,max 21= pour (2.30) Yy ∈
Defuzzification
La defuzzification est la conversion d’une quantité floue en quantité précise,
justement comme la fuzzification est la conversion d’une quantité précise en quantité
floue. La sortie d’un processus flou peut être l’union booléenne de deux ou plusieurs
fonctions d’appartenance, définies sur l’univers de discours de la variable sortie.
Ils existent au moins sept méthodes populaires de defuzzification des fonctions
d’appartenance qui sont proposées par des chercheurs (Hellendoorn et Thomas, 1993).
On va en présenter seulement deux qui sont utilisées aux systèmes d’inférence de
Mamdani et Sugeno.
Approche Théorique 47
1. Méthode de centroid : Cette procédure (également appelée le centre de
gravité) est la plus répandue de toutes les méthodes de defuzzification. Elle est
donnée par l’expression algébrique :
( )( )∫
∫⋅
⋅=
¬
¬
dzz
zdzzz
C
C
µ
µ* (2.31)
où ∫ dénote l’intégration algébrique.
2. Méthode de moyenne pondérée : Cette méthode est seulement valable pour de
fonctions d’appartenance de sortie symétrique. Elle est donné par l’expression
algébrique :
( )( )∑
∑
¬
¬⋅
=z
zzz
C
C
µ
µ* (2.32)
où ∑ dénote la somme algébrique. Cette méthode est formée par la pondération
de chacune des fonctions d’appartenance à la sortie par sa valeur maximale
respective.
La logique floue (LF) est une méthodologie de solution de problèmes de
contrôle qui est soutenue par des sous-systèmes commençant par des simples micro-
systèmes de calcul dans de grands réseaux ou des systèmes d’ordinateur personnel de
multiples chaînes ou dans des stations de contrôle et des systèmes d’enregistrement de
données. Cette méthodologie est soutenue, d’habitude, par un équipement
électronique ou algorithmes ou leur association. La méthodologie de la LF assure une
manière d’aboutir à des conclusions finales appuyées sur une grande variété de
données qui peuvent comporter des nombres exacts, du bruit, des résultats incertains
et, dans certains cas, des données insuffisantes. On pourrait dire que la méthodologie
de la LF est parallèle à la procédure qu’une personne va suivre pour aboutir à certains
résultats mais avec une très grande vitesse de réponse. La méthodologie LF exige
certains paramètres numériques de sorte qu’elle fonctionne ayant des erreurs
relativement limitées. D’habitude, on ne demande pas une haute précision aux valeurs
de ces paramètres à l’exception de certaines applications. Pour beaucoup d’autres cas,
même une approche expérimentale est possible. Plus précisément, on pourrait citer les
caractéristiques suivantes :
1) La LF n’exige pas de données de méthode numériques de haute qualité ou
des données expérimentales sans problème de bruit, tandis que, parallèlement elle
Approche Théorique 48
peut être programmée, même pour le cas ou le capteur de rétroaction sera abîmé.
D’habitude, la sortie finale du système de contrôle est régulière, malgré le fait qu’il
pourra y avoir un grand changement des données de sortie.
2) La méthodologie LF est appuyée sur des règles de fonctionnement choisies
selon les besoins de l’usager, elles peuvent cependant être modifiées de sorte qu’elles
améliorent le fonctionnement et les performances du système. En plus, les capteurs
peuvent être compris dans le système avec la création de nouvelles règles de
fonctionnement indispensables.
3) Pratiquement, toutes les sorties et les données qui résultent des capteurs
connectés peuvent être mises en valeur avec de très bons résultats. De cette manière,
les capteurs relatifs peuvent avoir un coût peu élevé et pas d’une très grande
précision, élément qui aboutit à la réduction du coût du système et à leur flexibilité.
4) En raison du fonctionnement du système, appuyé sur des règles précises, un
nombre d’entrées raisonnable peut être traite (1-8 ou davantage) et un nombre des
sorties peut être crée (1-4 ou davantage). Pour le cas de constructions plus complexes,
on peut fractionner le système de contrôle, lesquels fractionneront, évidemment, leurs
fonctions aussi.
5) Un système LF peut contrôler des systèmes non linéaires dont la description
serait difficile ou, dans plusieurs cas, impossible par un modèle mathématique. Cette
possibilité ouvre de nouveaux chemins à des systèmes de contrôle qui ne pourraient
pas être utilisés pour l’automatisation ou pour d’autres applications.
Un système LF suit, d’habitude, les étapes suivantes :
1. Définition des objectifs et des critères p.ex. le système à contrôler, le
type de fonctionnement, la définition de types possibles d’échec du système.
2. Définition des rapports d’entrée et de sortie et de choix d’un nombre
minime de variables qui seront utilisées à l’entrée du système LF.
3. Officialisation de la structure du système LF qui comporte les règles
élémentaires de fonctionnement. Ce travail comprend aussi la division du
problème du contrôle à un nombre de règles qui finissent par définir le
comportement souhaitable de la sortie du système pour des entrées données.
Le nombre et la complexité des règles dépendent du nombre des paramètres
d’entrée qui sont élaborées et du nombre des variables floues liées à chaque
paramètre, s’il y a la possibilité d’utiliser au moins une variable et sa dérivée
temporelle.
Approche Théorique 49
4. Création des fonctions d’appartenance du système LF qui définit les
valeurs d’entrée et de sortie du système.
5. Création des routines indispensables avant et après l’élaboration de
la LF si elle est appliquée sur un logiciel ou des programmes et des règles si
elle est appliquée sur un système LF hardware .
6. Essais du système, évaluation des résultats, règlement final des
règles et des fonctions d’appartenance et nouveau contrôle jusqu’à obtenir des
résultats satisfaisants.
En résumant, le système LF est une meilleure méthode pour le choix et la mise
en valeur de données puisque, en réalité, elle imite la logique humaine. Elle utilise un
langage de communication non exact mais très descriptif de sorte qu’elle puisse
utiliser des données d’entrée comme, à peu près, un opérateur humain.
2.5.4 Contrôle Neuro-Flou Multivariable
Il est important de mentionner que le système de contrôle doit être optimisé
parce que, dans aucun autre cas il peut être caractérisé défectueux ou imprécis. Pour
parvenir à un comportement optimisé d’un système, on peut utiliser de réseaux de
neurones. Plus précisément, le choix d’un système LF d’inférence et sa régulation
avec un algorithme qu’on appelle ‘back-propagation’ est appuyé sur le choix de
certaines données d’entrée et sortie. Cela permet au système LF d’apprendre.
L’approche d’inférence floue que nous avons mentionné est, jusqu’à présent, connue
comme la méthode d’inférence floue de Mamdani (Mamdani, 1977). La méthode du
type Mamdani attend la sortie des fonctions d’appartenance d’être sets flous. Apres la
procédure d’addition, il y a un set flou pour lequel, les paramètres de sortie exigent la
defuzzification. Il est possible, d’une manière plus rentable dans beaucoup de cas,
d’utiliser de simples points comme une sortie des fonctions d’appartenance plutôt
qu’un set flou distribué. Ce ci est connue comme une fonction d’appartenance
‘singleton’ et peut être considérée comme un set flou pre-defuzzified. Elle augmente
la performance de la procédure de la defuzzification parce qu’elle simplifie les calculs
exigés. Plus précisément, au lieu d’intégrer dans le sens de la longueur d’une forme
changeante bidimensionnelle, il est possible qu’elle trouve tout simplement la
Approche Théorique 50
moyenne pondérée (weighted average) de certaines données. La méthode de Sugeno
(Sugeno, 1985) soutient ce type de comportement.
Pour la thèse, la méthode de Sugeno a été choisie parce qu’elle a une meilleure
capacité de calcul ainsi que la capacité d’être mieux appliquée dans des cas
d’optimisation et de techniques de contrôle évoluées.