Upload
bouiche-hachemi
View
2.258
Download
7
Embed Size (px)
Citation preview
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Université A.Mira Bejaia
Faculté de Technologie
Département d’Electronique
Mini projet
Thème
Présenté par : Promoteur :
OURTEMACHE Hacene Dr W.GUENOUNOU
BENHAMOUCHE Mourad
Année universitaire 2009/2010
Introduction générale
1
Introduction générale
Les réseaux de neurones artificiels présente une alternative prometteuse pour de
nombreux domaines ; à savoir la reconnaissance de formes, le traitement d’images, le control
industriel et l’identification [1]. S’inspirant des règles de la génétique, les techniques
neuronales interviennent dans un contexte où les outils courants ont atteint leurs limites.
Grace à leurs propriétés d’approximation universelle, les réseaux de neurones on vu
leur champ d’application s’étaler à de nouvelles classe de problèmes, réputés de complexe
avec succès. Les études antérieures ont montré qu’avec un réseau neuronal à une seule couche
cachée et un nombre suffisant de neurones cachés on peut identifier n’importe quel système
avec n’importe quelle précision [2].
Dans ce travail, les réseaux de neurones sont utilisés pour la modélisation d’une
machine asynchrone commandée en tension.
Le mémoire est organisé en trois chapitres :
Le premier chapitre est consacré à la présentation du modèle neuronal, l’architecture du
réseau et au processus d’apprentissage effectué par celui-ci.
Le deuxième chapitre traite la mise en équation de la machine en présentant la transformation
de Park, et la simulation en boucle ouverte.
Le troisième chapitre est consacré à l’application des réseaux de neurones à la machine
asynchrone, en simulant la sortie du réseau neuronal et la sortie de la machine.
Une conclusion générale clôture le mémoire.
Chapitre I Réseaux de neurones
2
I.1 Introduction
Les réseaux de neurones, fabriqués de structures cellulaires artificielles, constituent
une approche permettant d’aborder sous des angles nouveaux les problèmes de perception, de
mémoire, d’apprentissage et de raisonnement. Grâce à leur traitement parallèle de
l’information et à leurs mécanismes inspirés des cellules nerveuses (neurones), ils infèrent des
propriétés émergentes permettant de solutionner des problèmes complexes.
I.2 Histoire
La première application concrète des réseaux de neurones artificiels est survenue vers
la fin des années 1950 avec l’invention du réseau dit «perceptron» par Frank Rosenblatt.
Rosenblatt et ses collègues ont construit un réseau et démontré ses habilités à reconnaitre des
formes. Vers la fin des années 1960, un livre publié par Marvin Minsky et Seymour Papert sur
les réseaux de neurones. Ces deux auteurs ont démontré les limitations des réseaux
développés par Rosenblatt et Widrow-Hoff. Dans les années 1980, ils ont inventés
l’algorithme de rétropropagation des erreurs. C’est ce nouveau développement, généralement
attribué à David Rumelhart et James McClelland, mais aussi découvert plus ou moins en
même temps par Paul Werbos et par Yann LeCun, qui a littéralement ressuscité le domaine
des réseaux de neurones. Depuis ce temps, c’est un domaine où bouillonne constamment de
nouvelles théories, de nouvelles structures et de nouveaux algorithmes.
I.3 Application
Les réseaux de neurones servent aujourd’hui à toutes sortes d’applications dans divers
domaines. Par exemple, on a développé un autopilote pour avion, ou encore un système de
guidage pour automobile, on a conçu des systèmes de lecture automatique de chèques
bancaires et d’adresses postales, on produit des systèmes de traitement du signal pour
différentes applications militaires, un système pour la synthèse de la parole, des réseaux sont
aussi utilisés pour bâtir des systèmes de vision par ordinateur, pour faire des prévisions sur les
marchés monétaires, pour évaluer le risque financier ou en assurance, pour différents
processus manufacturiers, pour le diagnostic médical, pour l’exploration pétrolière ou gazière,
en robotique, en télécommunication etc...
I.4 Modèle de neurone et réseau
I.4.1 Modèle d’un neurone
Le modèle mathématique d’un neurone artificiel est illustré à la figure 1. Un neurone
est essentiellement constitué d’un intégrateur qui effectue la somme pondérée de ses entrées.
Le résultat 𝑛 de cette somme est ensuite transformé par une fonction de transfert 𝑓 qui produit
la sortie 𝑎 du neurone. Les 𝑅 entrées du neurone correspond au vecteur p = [𝑝1𝑝2 …𝑝𝑅]𝑇 ,
alors que w = [𝑤1,1𝑤1,2 …𝑤1,𝑅]𝑇 représente le vecteur des poids du neurone. La sortie 𝑛 de
l’intégrateur est donnée par l’équation suivante :
𝑛 = 𝑤1,𝑗 𝑝𝑗𝑅𝑗=1 − 𝑏 (1.1)
Que l’on peut aussi écrire sous forme matricielle :
Chapitre I Réseaux de neurones
3
𝑛 = wT p – 𝑏 (1.2)
Cette sortie correspond à une somme pondérée des poids et des entrées moins le biais 𝑏 du
neurone. Le biais 𝑏 s’appelle aussi le seuil d’activation. Lorsque le niveau d’activation atteint
ou dépasse le seuil, alors l’argument de 𝑓 devient positif (ou nul). Sinon, il est négatif.
Figure 1.1. Modèle d’un neurone artificiel.
On peut faire un parallèle entre ce modèle mathématique et certaines informations que
l’on connait à propos du neurone biologique. Ce dernier possède trois principales
composantes : les dendrites, le corps cellulaire et l’axone (figure 2). Les dendrites forment un
maillage de récepteurs nerveux qui permettent d’acheminer vers le corps du neurone des
signaux électriques en provenance d’autres neurones. Celui-ci agit comme une espèce
d’intégrateur en accumulant des charges électriques. Lorsque le neurone devient suffisamment
excité (lorsque la charge accumulée dépasse un certain seuil), par un processus
électrochimique, il engendre un potentiel électrique qui se propage à travers son axone pour
éventuellement venir exciter d’autres neurones. Le point de contact entre l’axone d’un
neurone et la dendrite d’un autre neurone s’appelle la synapse.
Figure 1.2. Schéma d’un neurone biologique.
Un autre facteur limitatif dans le modèle que nous nous sommes donnés concerne son
caractère discret. En effet, pour pouvoir simuler un réseau de neurones, nous allons rendre le
temps discret dans nos équations. Autrement dit, nous allons supposer que tous les neurones
Chapitre I Réseaux de neurones
4
sont synchrones, c’est-à-dire qu’à chaque temps 𝑡, ils vont simultanément calculer leur
somme pondérée et produire une sortie 𝑎 𝑡 = 𝑓 𝑛 𝑡 .
On ajoutant la fonction d’activation 𝑓 pour obtenir la sortie du neurone :
𝑎 = 𝑓 𝑛 = 𝑓(wT p – 𝑏) (1.3)
En remplaçant wT
par une matrice W = wT d’une seule ligne, on obtient une forme générale
𝑎 = 𝑓(W p−𝑏) (1.4)
L’équation 4.4 nous amène à introduire un schéma de notre modèle plus compact que celui
de la figure 4.1. La figure 4.3 illustre celui-ci. On y représente les 𝑅 entrées comme un
rectangle. De ce rectangle sort le vecteur p. Ce vecteur est multiplié par une matrice W qui
contient les poids synaptique. Finalement, la sortie du neurone est calculée par la fonction
d’activation 𝑓.
Figure 1.3. Représentation matricielle du modèle d’un neurone artificiel.
I.4.2 Fonction de transfert
Différentes fonctions de transfert pouvant être utilisées comme fonction d’activation
du neurone sont énumérées au tableau ci-dessous. Les trois les plus utilisées sont les fonctions
« seuil », « linéaire », et « sigmoïde ».
Chapitre I Réseaux de neurones
5
Nom de la fonction Relation d’entrée/sortie Icône Nom Matlab
seuil 𝑎 = 0 𝑠𝑖 𝑛 < 0
𝑎 = 1 𝑠𝑖 𝑛 ≥ 0
hardlim
Seuil symétrique 𝑎 = −1 𝑠𝑖 𝑛 < 0
𝑎 = 1 𝑠𝑖 𝑛 ≥ 0
hardlims
linéaire 𝑎 = 𝑛
purelin
Sigmoïde 𝑎 =
1
1 + 𝑒𝑥𝑝−𝑛
Logsig
Tableau 1.1. Fonctions de transfert 𝑎 = 𝑓 𝑛 .
La figure 4.4 illustre ces fonctions :
(a) (b) (c)
Figure 1.4. Fonction de transfert : (a) du neurone « seuil » ; (b) du neurone « linéaire » ; (c)
du neurone « sigmoïde ».
I.4.3- Architecture de réseau
Un réseau de neurones est un maillage de plusieurs neurones, généralement organisé
en couches. Pour construire une couche de 𝑆 neurones, il s’agit simplement de les assembler
comme à la figure 4.5. Les 𝑆 neurones d’une même couche sont tous branchés aux 𝑅 entrées.
L’ensemble des poids d’une couche forme une matrice W de dimension 𝑆 ∗ 𝑅 :
𝑤1,1 ⋯ 𝑤1,𝑅
⋮ ⋱ ⋮𝑤𝑆,1 ⋯ 𝑤𝑆,𝑅
Chapitre I Réseaux de neurones
6
Figure 1.5. Couche de 𝑆 neurones.
Pour construire un réseau il ne suffit plus que de combiner des couches comme à la
figure 1.6. Cet exemple comporte 𝑅 entrées et trois couches de neurones. Chaque couche
possède sa propre matrice de poids Wk , où k est l’indice de couche. Les vecteurs b
k, n
k et a
k
sont associés à la couche k.
Les réseaux multicouches sont beaucoup plus puissants que les réseaux simples à une
seule couche. En utilisant deux couches (une couche cachée et une couche de sortie), à
condition d’employer une fonction d’activation sigmoïde sur la couche cachée, on peut
entrainer un réseau à produire une approximation de la plupart des fonctions, avec une
précision arbitraire (cela peut cependant requérir un grand nombre de neurones sur la couche
cachée). Sauf dans de rares cas, les réseaux de neurones artificiels exploitent deux ou trois
couches.
Figure 1.6. Représentation matricielle d’un réseau de trois couches.
Chapitre I Réseaux de neurones
7
I.5 processus d’apprentissage
Parmi les propriétés désirables pour un réseau de neurones, la plus fondamentale est
surement la capacité d’apprendre de son environnement, d’améliorer sa performance à travers
un processus d’apprentissage. Mais qu’est-ce donc que l’apprentissage ?
L’apprentissage est un processus dynamique et itératif permettant de modifier les paramètres
d’un réseau en réaction avec les stimuli qu’il reçoit de son environnement.
Le type d’apprentissage est déterminé par la manière dont les changements de paramètre
surviennent.
Cette définition implique qu’un réseau se doit d’être stimulé par un environnement,
qu’il subisse des changements en réaction avec cette stimulation, et que ceux-ci provoquent
dans le futur une réponse nouvelle vis-à-vis de l’environnement. Ainsi, le réseau peut
s’améliorer avec le temps.
L’apprentissage se traduit par une modification de l’efficacité synaptique, c’est-à-dire
par un changement dans la valeur des poids qui relient les neurones d’une couche à l’autre.
Soit le poids 𝑤𝑖 ,𝑗 reliant le neurone 𝑖 à son entrée 𝑗.Au temps 𝑡, un changement ∆𝑤𝑖,𝑗 (𝑡) peut
s’exprimer par :
∆𝑤𝑖,𝑗 𝑡 = 𝑤𝑖 ,𝑗 𝑡 + 1 − 𝑤𝑖,𝑗 𝑡 (1.5)
Nous allons voir un apprentissage utilisé pour effectuer des taches d’apprentissage tel que
l’approximation des fonctions et la commande appelé apprentissage « supervisé ». Ce type
d’apprentissage est basé sur la correction de l’erreur.
I.5.1 Correction de l’erreur
Soit 𝑎𝑖(𝑡) la sortie que l’on obtient pour le neurone 𝑖 au temps 𝑡. Cette sortie résulte
d’un stimulus 𝑝(𝑡) que l’on applique aux entrées du réseau dont un des neurones correspond
au neurone 𝑖. Soit 𝑑𝑖(𝑡) la sortie que l’on désire obtenir pour ce même neurone 𝑖 au temps 𝑡.
Alors, 𝑎𝑖(𝑡) et 𝑑𝑖(𝑡) seront généralement différents et il est naturel de calculer l’erreur 𝑒𝑖(𝑡) entre ce qu’on obtient et ce qu’on voudrait obtenir :
𝑒𝑖 𝑡 = 𝑑𝑖 𝑡 − 𝑎𝑖 𝑡 (1.6)
et de chercher un moyen de réduire autant que possible cette erreur. Sous forme vectorielle,
on obtient :
𝑒 𝑡 = 𝑑 𝑡 − 𝑎(𝑡) (1.7)
Avec 𝑒 𝑡 = [ 𝑒1 𝑡 𝑒2 𝑡 … 𝑒𝑖 𝑡 … 𝑒𝑠 𝑡 ] désigne le vecteur des erreurs observé sur les 𝑆
neurones de sortie. L’apprentissage par correction des erreurs consiste à minimiser un indice
de performance 𝐹 basé sur les signaux d’erreur 𝑒𝑖 𝑡 , dans le but de faire converger les sorties
du réseau avec ce qu’on voudrait qu’elles soient. Un critère très populaire est la somme des
erreurs quadratiques :
Chapitre I Réseaux de neurones
8
𝐹 𝑒 𝑡 = 𝑒𝑖2(𝑡)
𝑆
𝑖=1
(1.8)
Pour minimiser 𝐹 𝑒 𝑡 = 𝐹 𝑤 𝑡 = 𝐹(𝑡), nous allons commencer par choisir des poids
initiaux (𝑡 = 0) au hasard, puis nous allons les modifier de la manière suivante :
𝑤 𝑡 + 1 = 𝑤 𝑡 + 𝑛𝑋(𝑡) (1.9)
Où le vecteur 𝑋 𝑡 désigne la direction dans laquelle nous allons chercher le minimum et 𝑛
est une constante positive déterminant l’amplitude du pas dans cette direction (la vitesse
d’apprentissage).
L’objectif est de faire en sorte que 𝐹 𝑡 + 1 < 𝐹(𝑡), donc on doit choisir la direction 𝑋 pour
que la condition précédente soit vérifiée.
Considérons la série de Taylor de 1er ordre autour de 𝑤(𝑡) :
𝐹 𝑡 + 1 = 𝐹 𝑡 + ∇𝐹 𝑡 𝑇∆𝑤(𝑡) (1.10)
Où ∇𝐹(𝑡) désigne le gradient de F par rapport à ses paramètres (les poids) au temps 𝑡. Or,
pour que 𝐹 𝑡 + 1 < 𝐹(𝑡), il faut que la condition suivante soit respectée :
∇𝐹 𝑡 𝑇∆𝑤 𝑡 = 𝑛∇𝐹 𝑡 𝑇𝑋 𝑡 < 0 (1.11)
Donc,
𝑋 𝑡 = −∇𝐹(𝑡) (1.12)
Ce qui engendre la règle dite « descente du gradient » :
−𝑛∇𝐹 𝑡 = ∆𝑤(𝑡) (1.13)
I.5.2 L’apprentissage supervisé
L’apprentissage dit superviser est caractérisé par la présence d’un «professeur» qui
possède une connaissance approfondie de l’environnement dans lequel évolue le réseau de
neurones. En pratique, les connaissances de ce professeur prennent la forme d’un ensemble de
𝑄 couples de vecteurs d’entrée et de sortie que nous noterons
𝑝1, 𝑑1 , 𝑝2 , 𝑑2 … , 𝑝𝑄 , 𝑑𝑄 , où 𝑝𝑖 désigne un stimulus et 𝑑𝑖 la cible pour ce stimulus.
L’apprentissage supervisé est illustré d’une manière conceptuelle à la figure 5.1.
L’environnement est inconnu du réseau. Celui-ci produit un stimulus 𝑝 qui est acheminé à la
fois au professeur et au réseau. Grace à ses connaissances intrinsèques, le professeur produit
une sortie désirée 𝑑(𝑡) pour ce stimulus. On suppose que cette réponse est optimale. Elle est ensuite comparée (par soustraction) avec la sortie du réseau pour produire un signal d’erreur
𝑒(𝑡) qui est réinjecté dans le réseau pour modifier son comportement via une procédure itérative qui, éventuellement, lui permet de simuler la réponse du professeur. Autrement dit, la
connaissance de l’environnement par le professeur est graduellement transférée vers le réseau
jusqu’à l’atteinte d’un certain critère d’arrêt. Par la suite, on peut éliminer le professeur et
laisser le réseau fonctionner de façon autonome.
Chapitre I Réseaux de neurones
9
Figure 1.7 apprentissage supervisé.
I.6 La rétropropagation des erreurs
Cette méthode consiste à minimiser un indice de performance F basé sur l’erreur
quadratique moyenne. On peut propager vers l’avant un vecteur 𝑝(𝑡) pour obtenir une sortie
𝑎(𝑡). Ceci nous permet de calculer l’erreur entre la sortie désirée et la sortie du réseau.
I.7 Exemple illustratif (approximation d’une fonction)
La tache d’approximation consiste à concevoir un réseau de neurone capable
d’associer les éléments des couples entrée-sortie. Ce problème peut être résolu à l’aide d’un
apprentissage supervisé.
On a introduit 10 neurones dans la couche cachée et 1 neurone dans la couche de
sortie. La fonction de transfert dans la couche cachée est sigmoide et dans la couche de sortie
est linaire. Le réseau est créé avec la fonction « newff » (feed-forward). C’est un réseau
multicouche avec un apprentissage par rétropropagation, cette commande crée le réseau et
initialise ces poids.
En prenant une fonction à deux entrées, on peut la simuler avec et sans entrainement et
voir l’erreur avant et après apprentissage. Z = X .* exp(-X.^2 - Y.^2);
Figure 1.8 fonction à entrainée
-2
-1
0
1
2
-2
-1
0
1
2-0.5
0
0.5
fonction à entrainée
Chapitre I Réseaux de neurones
10
Figure 1.9 erreur avant apprentissage.
Figure 1.10 erreur après apprentissage.
On remarque d’après les figures que l’erreur a diminuée après l’entrainement du réseau.
La figure ci-dessous montre l’évolution de l’indice de performance en fonction du nombre
d’itération.
-2
-1
0
1
2
-2
-1
0
1
2-0.1
-0.05
0
0.05
0.1
-2
-1
0
1
2
-2
-1
0
1
2-1.5
-1
-0.5
0
0.5
1
1.5
erreur après apprentissage
Chapitre I Réseaux de neurones
11
Figure 1.10 Evolution de l’indice de performance
Le réseau a bien appris la fonction en modifiant ses poids c'est-à-dire qu’il a optimisé
l’indice de performance afin que sa sortie converge vers la sortie désirée.
0 2 4 6 8 10 12 14 16 18 2010
-5
10-4
10-3
10-2
10-1
100
20 Epochs
Tra
inin
g-B
lue
Performance is 3.87326e-005, Goal is 0
Chapitre II modélisation de la machine asynchrone
11
II.1 modélisation de la machine asynchrone
Le comportement électrique d’un système ne peut être étudié que s’il est possible de
le définir par un modèle mathématique, c’est ce qu’on appelle la modélisation, c’est pour ça
que c’est une étape indispensable pour concevoir des systèmes de commande performants
Généralement la transformation de Park est utilisée pour modéliser les machines
alternatives. En décrivant la machine tournante dans un référentiel adéquat, les équations de
la machine sont simplifiées. Cela rend leur étude et leurs exploitations plus aisées et permet
l’étude des régimes transitoires. Un certain nombre d’hypothèses simplificatrices peuvent
être adoptées, pour une mise en équations particulièrement simple.
II.1.1 définition et principe de fonctionnement
Une machine asynchrone est une machine a induction, sans collecteur et dont une
partie des enroulements est reliée au réseau, l’autre travaillant par induction.
Elle est constituée de deux parties principales :
une fixe appelée « STATOR ».
une mobile appelée « «ROTOR ».
Ces deux parties sont séparée par un espace appelé « entrefer ».
Le « STATOR »et le « ROTOR » sont des circuits composés d’enroulements formants
des spires électromagnétiques. Sièges d’un champ magnétique.
Le « STATOR »représente le circuit récepteur triphasé, il permet de créer un champ
magnétique dans l’enceinte de la machine.
Ce champ évolue à la fréquence de la source d’alimentation triphasée.
Le « ROTOR » est un circuit fermé sur lui-même il se trouve immergé dans le champ
magnétique tournant créé par le « STATOR », il est alors, le siège des courants induits de
Foucault tentent alors s’opposer à la cause qui leur à donner naissance, soit une rotation.
Chapitre II modélisation de la machine asynchrone
12
Figure 2.1 Représentation shématique de la machine asynchrone
II.1.2 problèmes posés
Dans la machine asynchrone le courant statorique sert à la fois à générer le flux et le
couple, le découplage naturel de la machine à courant continus n’existe plus.
D’autre part, on peut connaitre les variables internes du rotor qu’à travers le stator.
L’inaccessibilité du rotor nous amènera à modifier l’équation vectorielle rotorique
pour exprimer les grandeurs rotoriques à travers leurs actions sur le stator.
II.1.3 hypothèses simplificatrices
La modélisation s’appuie sur un certain nombre d’hypothèses :
entrefer d’épaisseur uniforme et d’effet d’encochages négligé.
Perte magnétique négligeable.
Distribution spatiale et sinusoïdale des forces magnétomotrices.
II.1.4 Equation de la MAS
a) Equation en tension
Stator: 𝑉𝑠 = 𝑅𝑠 𝐼𝑠 +𝑑 Ø
𝑑𝑡 (2.1)
Rotor: 𝑉𝑟 = 𝑅𝑟 𝐼𝑟 +𝑑 Ø𝑟
𝑑𝑡 (2.2)
Avec : Ø𝑠 = Ø𝑠𝑎 Ø𝑠𝑏 Ø𝑠𝑐 𝑇 (2.3)
Chapitre II modélisation de la machine asynchrone
13
Ø𝑟 = Ø𝑟𝑎 Ø𝑟𝑏 Ø𝑟𝑐 𝑇 (2.4)
𝐼𝑠 = 𝐼𝑠𝑎 𝐼𝑠𝑏 𝐼𝑠𝑐 𝑇 (2.5)
𝐼𝑟 = 𝐼𝑟𝑎 𝐼𝑟𝑏 𝐼𝑟𝑐 𝑇 (2.6)
𝑅𝑠 = 𝑅𝑠 ∗ 1 0 00 1 00 0 1
(2.7)
𝑅𝑟 = 𝑅𝑟 ∗ 1 0 00 1 00 0 1
(2.8)
𝑅𝑠 , 𝑅𝑟 : Résistances par phase du stator et du rotor
𝑉𝑠 , 𝑉𝑟 : Vecteurs de phases statoriques et rotoriques.
Ø𝑠 , Ø𝑟 : Vecteurs des flux statoriques et rotoriques.
𝐼𝑠 , 𝐼𝑟 : Vecteurs des courants par phases statoriques et rotoriques.
b) Equation de flux
Stator: Ø𝑠 = 𝐿𝑠𝑠 𝐼𝑠 + 𝑀𝑠𝑟 𝐼𝑟 (2.9)
Rotor: Ø𝑟 = 𝐿𝑟𝑟 𝐼𝑟 + 𝑀𝑟𝑠 𝑇 𝐼𝑠 (2.10)
Les matrices 𝐿𝑠𝑠 , 𝐿𝑟𝑟 et 𝑀𝑠𝑟 sont définies par :
𝐿𝑠𝑠 = 𝑙𝑠 𝑚𝑠 𝑚𝑠𝑚𝑠 𝑙𝑠 𝑚𝑠𝑚𝑠 𝑚𝑠 𝑙𝑠
(2.11)
𝐿𝑟𝑟 = 𝑙𝑟 𝑚𝑟 𝑚𝑟𝑚𝑟 𝑙𝑟 𝑚𝑟𝑚𝑟 𝑚𝑟 𝑙𝑟
(2.12)
𝑀𝑠𝑟 = 𝑀𝑠𝑟 ∗
cos 𝛼 cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3
cos 𝛼 − 2𝜋/3 cos 𝛼 cos 𝛼 + 2𝜋/3
cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3 cos 𝛼
(2.13)
ls, lr : inductances propres, statoriques et rotoriques, d’une phase ;
ms, mr : inductances mutuelles entre phases, statoriques et rotoriques ;
𝑀𝑠𝑟 : Maximum de l’inductance mutuelle entre une phase de stator et la phase correspondante
du rotor ;
𝛼 ∶Angle entre l’axe rotorique et l’axe statorique correspondant.
c) Equation mécanique
Chapitre II modélisation de la machine asynchrone
14
Le second principe de la dynamique nous donne :
𝐽𝑑 Ω
𝑑𝑡=𝐶𝑒 − 𝐶𝑟 − 𝐹Ω (2.14)
𝐽 : Moment d’inertie de l’ensemble des éléments tournants ;
Ω : vitesse angulaire du rotor ;
𝐶𝑟 : Couple résistant ;
𝐹 : Coefficient de frottement visqueux ;
Le couple magnétique est donné par la formule :
𝐶𝑒 =1
2 𝐼𝑠
𝑇 𝑑 𝑀𝑠𝑟
𝑑𝛼 𝐼𝑟 (2.15)
II.2 transformation de Park
Pour simplifier la présentation dans les équations précédentes, on introduit la
transformation de Park, obtenue à l’aide de la matrice P, qui consiste à passer d’un
enroulement triphasé à un enroulement biphasé
Le changement de variables relatif aux courants, aux tensions et aux flux est donné par
la transformation :
𝑋𝑑
𝑋𝑞
𝑋0
= 𝑃 𝑋𝑎
𝑋𝑏
𝑋𝑐
(2.16)
𝑋𝑎
𝑋𝑏
𝑋0𝑐
= 𝑃−1
𝑋𝑑
𝑋𝑞
𝑋0
(2.17)
P est une matrice définit comme suit :
𝑃 𝜃 = 2
3
cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3
− sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3
1
2
1
2
1
2
(2.18)
« X » : tension courant ou flux ;
« O » : indice de l’axe homopolaire ;
Chapitre II modélisation de la machine asynchrone
15
𝜃 = 𝜃𝑠 : Lorsqu’il s’agit des grandeurs statoriques ;
𝜃 = 𝜃𝑟 : Lorsqu’il s’agit des grandeurs rotoriques ;
L’application de la transformation de Park donne lieu aux équations :
𝑉𝑠𝑑
𝑉𝑠𝑞 =
𝑅𝑠 00 𝑅𝑠
𝐼𝑠𝑑𝐼𝑠𝑞
+𝑑
𝑑𝑡 Ø𝑠𝑑
Ø𝑠𝑞 +
0 −𝑤𝑠𝑤𝑠 0
Ø𝑠𝑑
Ø𝑠𝑞 (2.19)
𝑉𝑟𝑑
𝑉𝑟𝑞 =
𝑅𝑟 00 𝑟
𝐼𝑠𝑑𝐼𝑠𝑞
+𝑑
𝑑𝑡 Ø𝑟𝑑
Ø𝑟𝑞 +
0 −𝑤𝑟𝑤𝑟 0
Ø𝑠𝑑
Ø𝑠𝑞 (2.20)
Ø𝑠𝑑
Ø𝑟𝑑 =
𝐿𝑠 𝑀𝑠𝑟
𝑀𝑠𝑟 𝐿𝑟
𝐼𝑠𝑑𝐼𝑟𝑑
(2.21)
Ø𝑠𝑞
Ø𝑟𝑑 =
𝐿𝑠 𝑀𝑠𝑟
𝑀𝑠𝑟 𝐿𝑟
𝐼𝑠𝑞𝐼𝑟𝑞
(2.22)
𝐶𝑒 = 𝑃.
𝑀𝑠𝑟𝐿𝑟
Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.23)
Avec :
𝐿𝑠 = 𝑙𝑠 − 𝑚𝑠 ∶ Inductances propres cyclique du stator.
𝐿𝑟 = 𝑙𝑟 − 𝑚𝑟 ∶ Inductances propres cyclique du rotor.
𝑀𝑠𝑟 =3
2𝑚𝑠𝑟 ∶ Inductance mutuelle cyclique entre stator et rotor.
𝑃 ∶ Nombres de paire de pôles de la machines.
II.2.1 Choix du système d’axe de référence
Il existe plusieurs possibilités concernant l’orientation de repère d et q qui dépendent
des objectifs de l’application
Référentiel lié au stator :( 𝜃𝑠 =0),
Il se traduit par la condition : 𝜃𝑟 = −𝛼,𝑑𝜃𝑟
𝑑𝑡= −𝜔 (2.24)
Référentiel lié au rotor :( 𝜃𝑟 =0),
Il se traduit par la condition : 𝜃𝑠 = 𝛼,𝑑𝜃𝑠
𝑑𝑡=ω (2.25)
Référentiel lié au champ tournant,
Il se traduit par la condition 𝜃𝑠 − 𝜃𝑟 = 𝛼 𝑒𝑡 ωs- ωr= ω
Ce référentiel est le seul qui n’introduit pas de simplification dans la formation des
équations, il est cependant, la solution pour réaliser le pilotage vectoriel du fait que les
grandeurs de réglage deviennent continues dans ce référentiel. Il permet aussi d’obtenir une
expression scalaire du couple électromagnétique en analogie avec le couple des machines à
courant continu.
Chapitre II modélisation de la machine asynchrone
16
Dans ces conditions, le modèle de la machine asynchrone devient :
𝑉𝑠𝑑 = 𝑅𝑠𝐼𝑠𝑑+𝑑Ø𝑠𝑑
𝑑𝑡 – ωs Ø𝑠𝑞 (2.26)
𝑉𝑠𝑞 = 𝑅𝑠𝐼𝑠𝑞+𝑑Ø𝑠𝑞
𝑑𝑡 – ωs Ø𝑠𝑑 (2.27)
0 = 𝑅𝑟𝐼𝑟𝑑+𝑑Ø𝑟𝑑
𝑑𝑡 – ωr Ø𝑟𝑞
0 = 𝑅𝑟𝐼𝑟𝑞+𝑑Ø𝑟𝑞
𝑑𝑡 – ωr Ø𝑟𝑑 (2.28)
II.2.1 Expression du couple magnétique
𝐶𝑒 = 𝑃.𝑀 𝐼𝑟𝑑 𝐼𝑠𝑞 − 𝐼𝑟𝑞 𝐼𝑠𝑑 (2.29)
𝐶𝑒 = 𝑃.
𝑀
𝐿𝑟
Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.30)
II.2.3 Equation mécanique
ω = P Ω (2.31)
𝐶𝑒 − 𝐶𝑟 =𝐽
𝑃
𝑑𝜔
𝑑𝑡+
𝑓
𝑃 ω (2.32)
II.3 Simulation de la machine alimentée directement sur le réseau
Le but de la simulation est de valider le modèle de la machine asynchrone.
Chapitre II modélisation de la machine asynchrone
17
Figure 2.2 Modèle Simulink de la machine asynchrone avec TP et TPI
II.3.1 Création du bloc de simulation
La modélisation de la machine asynchrone est basée sur les équations obtenues avec la
transformation de Park que nous rappelons ci-dessous
𝑉𝑠𝑑 = 𝑅𝑠𝐼𝑠𝑑+𝑑Ø𝑠𝑑
𝑑𝑡 – ωs Ø𝑠𝑞 (2.33)
𝑉𝑠𝑞 = 𝑅𝑠𝐼𝑠𝑞+𝑑Ø𝑠𝑞
𝑑𝑡 – ωs Ø𝑠𝑑 (2.34)
0 = 𝑅𝑟𝐼𝑟𝑑+𝑑Ø𝑟𝑑
𝑑𝑡 – ωr Ø𝑟𝑞 (2.35)
0 = 𝑅𝑟𝐼𝑟𝑞+𝑑Ø𝑟𝑞
𝑑𝑡 – ωr Ø𝑟𝑑 (2.36)
Ø𝑠𝑑 = 𝐿𝑠𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.37)
Ø𝑠𝑞 = 𝐿𝑠𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.38)
Ø𝑟𝑑 = 𝐿𝑟𝐼𝑟𝑑 + 𝑀 𝐼𝑠𝑑 (2.39)
Ø𝑟𝑞 = 𝐿𝑟𝐼𝑟𝑞 + 𝑀 𝐼𝑠𝑞 (2.40)
L’expression du couple est :
𝐶𝑒 = 𝑃.
𝑀
𝐿𝑟
Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.41)
𝑉𝑠𝑑 , 𝑉𝑠𝑞 et ωs grandeurs de commande
𝐼𝑠𝑑 , 𝐼𝑠𝑞 grandeurs de contrôle mesurable
Ø𝑟𝑑 , Ø𝑟𝑞 grandeurs de contrôle non mesurable
En remplaçant les équations précédentes par :
Ø𝑠𝑑 = 𝐿𝑠𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.42)
Ø𝑠𝑞 = 𝐿𝑠𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.43)
𝐼𝑟𝑑 =Ø𝑟𝑑 −𝑀 𝐼𝑠𝑑
𝐿𝑟 (2.44)
𝐼𝑟𝑞 =Ø𝑟𝑞 −𝑀 𝐼𝑠𝑞
𝐿𝑟 (2.45)
Avec 𝜎 = 1 − 𝑀2
𝐿𝑠 𝐿𝑟
(coefficient de Blondel), 𝑇𝑟 =𝐿𝑟
𝑅𝑟
On trouve :
Chapitre II modélisation de la machine asynchrone
18
𝑉𝑠𝑑 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑑– 𝜔𝑠 𝜎𝐿𝑠𝐼𝑠𝑞 +𝑀.𝑆
𝐿𝑟 Ø𝑟𝑑 – ωs
𝑀
𝐿𝑟 Ø𝑟𝑞 (2.46)
𝑉𝑠𝑞 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑞– 𝜔𝑠 𝜎𝐿𝑠𝐼𝑠𝑑 +𝑀.𝑆
𝐿𝑟 Ø𝑟𝑞 – ωs
𝑀
𝐿𝑟 Ø𝑟𝑑 (2.47)
Ø𝑟𝑑 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑑 +𝑇𝑟 𝜔𝑟 Ø𝑟𝑞 (2.48)
Ø𝑟𝑞 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑞 – 𝑇𝑟 𝜔𝑟 Ø𝑟𝑑 (2.49)
A partir de ces équations, on réalise le modèle de la machine :
Figure 2.3 Modèle Simulink de la machine asynchrone
A partir de ces équations, on réalise le modèle de la machine :
On alimente la machine asynchrone par une tension triphasée sinusoïdale, et on crée
un bloc qui représente la transformation de Park (figure 2.4) et un bloc de transformation
inverse de Park (figure 2.5).
On rappelle que la matrice de Park s’écrit :
𝑋𝑠𝑑
𝑋𝑠𝑞
𝑋𝑠0
= 2
3
cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3
− sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3
1
2
1
2
1
2
𝑋𝑠𝑎
𝑋𝑠𝑏
𝑋𝑠𝑐
, θ = 𝜃𝑠 (2.50)
Chapitre II modélisation de la machine asynchrone
19
La transformation de Park inverse est :
𝑋𝑠𝑎
𝑋𝑠𝑏
𝑋𝑠𝑐
= 2
3
cos 𝜃 − sin 𝜃
1
2
cos 𝜃 −2𝜋
3 − sin 𝜃 −
2𝜋
3
1
2
cos 𝜃 +2𝜋
3 − sin 𝜃 +
2𝜋
3
1
2
𝑋𝑠𝑑
𝑋𝑠𝑞
𝑋𝑠0
, θ = 𝜃𝑠 (2.51)
Figure 2.4 Bloc Simulink de la transformation de Park inverse
On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple
résistant de 20N.m égal au couple de la machine.
Chapitre II modélisation de la machine asynchrone
20
II.3.2 Résultats de simulation
On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple
résistant de 20N.m égal au couple de la machine.
Figure 2.5 Réponse de la MAS : Vitesse
Figure 2.7 Réponse de la MAS : couple
0 1 2 3 4 5 6 7 8 9 100
50
100
150
200
250
300
350Réponse de la vitesse
temps (s)
vites
se (m
/s)
0 1 2 3 4 5 6 7 8 9 10-10
-5
0
5
10
15
20
25
30
35Réponse du couple
coup
le (N
.m)
temps (s)
Chapitre II modélisation de la machine asynchrone
21
Figure 2.8 Réponse de la MAS : courant
II.3.3 Commentaires
On remarque sur la figure (2-6) qu’en appliquant directement la tension alternative
aux bornes de machine asynchrone, l’apparition d’un couple transitoire de 32(N.m) environ et
pour la figure (2-7)
On remarque que la vitesse passe de 320 (m/s) à 280 (m/s), après avoir appliqué un
couple résistant de 20 (N.m).
Concernant le courant de phase (2-8), on remarque qu’il est environ 35(A) lors du
démarrage, de 4(A) En régime permanant et de11(A) Apres application du couple résistant
On peut conclure à ce niveau que la machine asynchrone simulée présente un
comportement très proche de la machine réelle
0 1 2 3 4 5 6 7 8 9 10-40
-30
-20
-10
0
10
20
30
40Réponse du courant
temps (s)
cour
ant (
A)
Chapitre III application à la machine asynchrone
22
III.1 Modélisation par réseaux de neurones
Les réseaux de neurones sont considérés comme des approximateurs universels. Il a
été démontré qu’un réseau de neurones avec une structure convenable peut approximer
n’importe quelle correspondance entre espace d’entrée et espace de sortie. L’entrainement
n’exige que les données entrées/sorties.
Le principe de la modélisation neuronale consiste à placer un réseau neuronal en
parallèle avec le système et l’entrainer pour émuler le comportement dynamique de ce
dernier.
Il existe deux types d’identification :
Identification série-parallèle
Dans cette structure (figure 3.1), le réseau est placé en parallèle avec le système. En plus des
valeurs du signal de commande, le réseau reçoit les valeurs passé de système à modéliser.
Figure 3.1 identification série-parallèle
Identification parallèle
Dans cette structure (figure 3.2), le réseau est complètement en parallèle avec le
système. En plus des valeurs du signal de commande, le réseau reçoit les valeurs passé de sa
propre sortie.
Chapitre III application à la machine asynchrone
23
Figure 3.2 identification parallèle
III.2 Modélisation de la machine asynchrone
Dans ce qui suit nous allons s’intéresser à l’identification de la machine asynchrone
par réseau de neurones. La figure 3.3 illustre le schéma de principe d’identification. Le réseau
reçoit par ses entrées les trois tensions triphasées appliquées à la machine ainsi que la vitesse
de rotation du rotor décalée d’une période d’échantillonnage. Il s’agit de la structure
d’identification série- parallèle.
L’erreur entre la vitesse réelle de la machine et celle du réseau neuronal permet
d’ajuster les poids de connexions lors de la phase d’apprentissage. Le réseau comporte une
seule couche cachée à 10 neurones et une couche d’entrée de 4 neurones. Un seul neurone
constitue la couche de sortie. La fonction de transfert de la couche cachée est une fonction
sigmoide, tendis que la fonction de transfert de la couche de sortie est linéaire.
Figure 3.3 principe d’identification.
Chapitre III application à la machine asynchrone
24
La séquence d’apprentissage est obtenue à partir du modèle de la machine en appliquant les
tensions sur un intervalle [0 :10] seconde.
III.2.1 Résultat de simulation
Figure 3.4 évolution de l’erreur après apprentissage.
Figure 3.5 Sorties de la machine asynchrone et du réseau de neurones.
0 200 400 600 800 1000 1200-150
-100
-50
0
50
100erreur après apprentissage
0 0.5 1 1.5 2 2.5 3 3.5
200
220
240
260
280
300
320
temps [s]
vitesse [
rad/s
]
sortie réseaux neurones
sortie machine asynchrone
Chapitre III application à la machine asynchrone
25
III.2.2 Commentaire
On remarque d’après la figure 3.4 que l’erreur diminue au fil de la séquence d’apprentissage
cela montre que le réseau de neurone a bien assimilé la sortie qui est la vitesse de rotation de
la machine.
Dans la figure 3.5 la vitesse de la machine et du réseau sont presque identique, ce qui
démontre l’efficacité du réseau à apprendre de son environnement.
III.2.3 influence des paramètres du réseau de neurone sur l’erreur quadratique :
La modification du nombre de neurone ou la modification du nombre de couche cachée
entraine la modification de l’erreur.
La performance du réseau est élevée en augmentant le nombre de neurone dans la couche
cachée ou en ajoutant une autre couche cachée au réseau, c'est-à-dire l’indice de performance
est minimisé dans plus en plus.
Mais remarquons qu’un excès dans le nombre de neurone peut détériorer le réseau c'est-à-dire
qu’il peut perdre ces performance.
Conclusion générale
26
Conclusion générale
Le travail présenté dans ce mini projet a porté sur la modélisation de la machine
asynchrone et cela à l’aide d’un outil qui est le réseau de neurone.
Nous avons commencé par s’initier au monde des réseaux de neurones en exposant
leurs principales caractéristiques. Ce qui leurs a permis de s’intégrer dans plusieurs domaines
tel que la reconnaissance de forme, la classification et la modélisation.
La modélisation de la machine par la transformation de Park nous a permis de
remplacer les variables alternatives par des grandeurs évoluant continument ainsi on a pu
simuler le comportement de la machine asynchrone en boucle ouverte.
Dans le cas des réseaux neurones nous avons optés pour l’algorithme de
rétropropagation, ce dernier permet l’apprentissage de l’ensemble des paramètres du réseau a
partir d’un jeu de donné entré-sortie
Pour l’application on a testé les performances de l’algorithme pour la modélisation de
la machine asynchrone, les résultats obtenus sont très satisfaisants et montre l’influence du
nombre de couche cachées et du nombre de neurones dans chaque couche.
L’étude s’est limité théoriquement, cependant on à montré par simulation l’intérêt des
réseaux neurones pour la modélisation des machines alternatives.
Références bibliographiques
Recherche bibliographique
[1 ] Renders J.M. « Algorithme génétique et réseaux de neurones ».
Hermes Science Publications, 1995.
[2]Hornik K. Stinchcombe M. et White H. «Multilayer feedforwardnetworks are universal
approximators». Neural Networks, vol. 2, n 5, pp. 359-366, 1989.
[3] J.Gognat . « Modélisation et simulation d’une commande vectorielle sous le logiciel
Matlab » stage DEES Génie électrique, Aix Marseille III, 1999.
[4] I.Salim et M.Ali. « La commande multimodèle par les réseaux de neurones artificiels
d’un bioprocédé » Mémoire de fin d’étude.UAM de Bejaia, promotion 2002.
[5] JEAN PIERRE CARRON, JEAN PAUL HAUTIER. « Modélisation et commande de
la machine asynchrone » Ed Téchnip 1995-Paris.
[6] I.abdelhakim et Y.nadjib. « La commande supervisée de la machine asynchrone à
résistance rotorique variable » Mémoire de fin d’étude.UAM de Bejaia, promotion 2003.
[7] MARC PARIZEAU. « Réseaux de neurones » université Laval, 2004.
[8] LOTFI BAGHLI . « Contribution à la commande de la machine asynchrone, utilisation
de la logique floue, des réseaux de neurones, et des algorithme génétique » Thèse doctorat,
université Henri Poincaré, Nancy-I.