Upload
adelphe-costa
View
106
Download
0
Embed Size (px)
Citation preview
La fondation des réseaux neuronaux : La fondation des réseaux neuronaux : L’être humain apprend d’abord par analogie, et
le raisonnement inductif et déductif vient après.
La fondation de la logique floue :La fondation de la logique floue : Le raisonnement humain est d’abord basé sur
des approximations, les conclusions précises viennent après.
Le réseau neuronal Le réseau neuronal BSB/EidosBSB/Eidos
Règle Règle d’apprentissage :d’apprentissage :
A=A=xx[n][n]xxtt[n] [n] - - xx[p][p]xxtt[p] [p]
RRègle de rappel et ègle de rappel et fonction d’activation fonction d’activation ::
xx[n]=f[n]=fss((((AA++II))xx[n-[n-11])])
Réseau monocouche complètement connecté avec apprentissage non-supervisé
x1 x2 xn
Les vecteurs stimuli Les vecteurs stimuli xx[n][n] évoluent à évoluent à l’intérieur d’un hypercube dont les l’intérieur d’un hypercube dont les sommets constituent les réponses sommets constituent les réponses catégoriques.catégoriques.
Fonction de sortie :Fonction de sortie :
ai
-
-
Xi=fs(ai
)
• La règle d’apprentissage définit une matrice synaptique A dont les valeurs propres se stabilisent à la fin de l’apprentissage et dont les vecteurs propres sont orthogonaux (matrice symétrique)
A=A=xx[n][n]xxtt[n] [n] - - xx[p][p]xxtt[p] [p]
===>
= ( +1)2n - (+1)2p
= ( /)2(p-n) -1
Progression de Progression de en fonction du en fonction du nombre d ’essais nombre d ’essais d ’apprentissage dans le cas d ’ d ’apprentissage dans le cas d ’ un prototype uniqueun prototype unique
Essai d'apprentissage
0
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0 10 20 30 40 50 60 70 80 90 100
Magnitude
0 1 2 3 4 5 6 7 8 9 ss1 Ss2 ss3 ss4
0 1 .26 .43 .41 .14 .53 .36 .36 .46 .41 .31 .38 .36 .261 1 .58 .56 .33 .43 .31 .56 .16 .36 .16 .19 .51 .31
2 1 .58 .26 .60 .23 .58 .18 .53 .38 .31 .33 .48
3 1 .38 .73 .36 .46 .60 .65 .26 .14 .36 .41
4 1 .41 .58 .23 .33 .58 .09 .06 .23 .48
5 1 .38 .53 .48 .63 .19 .21 .19 .38
6 1 .26 .46 .36 .16 -.06 .16 .36
7 1 .11 .41 .46 .38 .41 .41
8 1 .56 .16 .09 .31 .21
9 1 .21 .14 .36 .36
Ss1 1 .53 .36 .46
Ss2 1 .48 .33
Ss3 1 .31
Ss4 1
•Détermination de Détermination de / qui minimise la qui minimise la période d’apprentissage (n=5, p=10, période d’apprentissage (n=5, p=10, =0.001)=0.001)
/
Nombre d’essais
Choix des paramètres
Rang
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Magnitude
10
100
1000
4000
• Sensible aux changements d’échelle
• Sensible aux translations• Sensible aux rotations• Limité à la reconnaissance de
prototypes binaires (modèle BSB)
La Solution demande des matrices de grandes dimensions (12X12 et plus) => Peu pratique pour la reconnaissance en temps réel.
Avantages de la logique floue sur Avantages de la logique floue sur les réseaux neuronauxles réseaux neuronaux
• Réponse rapideRéponse rapide
• Déploiement facileDéploiement facile
Désavantages :Désavantages :
• Pas d’apprentissage e analogique, il Pas d’apprentissage e analogique, il faut trouver les règles, même faut trouver les règles, même floues...floues...
1) Diviser l’univers de discours en labels flous : chaud, froid, tiède, rapide, lent, petit etc...
2) Associer des intervalles de valeurs d’e/s à chaque label et définir une fonction d’appartenance pour chacun.
-10 -5 0 5 10 15 20 25 30 35 40
0.5
1.0
0.0
Température (T)
vCHAUD(T)
On obtient un ensemble d’intervalles qui s’intersectent et qui sont associés, chacun, avec un label flou :
-10 -5 0 5 10 15 20 25 30 35 40
0.5
1.0
0.0
Température
v()FROID TIÈDE CHAUD
Étapes de conception d’un Étapes de conception d’un classificateur à logique floue classificateur à logique floue (3)(3)3) Établir des règles d’inférence pour tous
les labels de sortie et déterminer les degrés de vérité correspondants suivant les règles floues :
Affirmation logiqueDegré de véritéX (X)
Y (Y)X ET Y min((X), (Y))X OU Y max((X), (Y))non-X 1- (X)
Étapes de conception d’un Étapes de conception d’un classificateur à logique floue classificateur à logique floue (4)(4)
4) Évaluer, pour chaque label de sortie son degré de vérité par rapport aux valeurs mesurées à l’entrée.
5) Prendre pour chaque valeur de sortie la moyenne pondérée des degrés de vérité obtenus.
Idéal Décalé Tourné
64
19
Idéal 23 23 5 4 4 4 4 4 4 4 4 4 4 4 23 23 0 0 0
Décalé 23 23 5 4 4 4 4 4 4 4 4 4 4 4 23 23 0 0 0
Tourné 6 21 21 8 5 5 6 5 5 5 5 4 4 4 12 23 16 3 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Idéal 21 -17 19 23
Décalé 23 -19 19 -23
Tourné 23 -19 19 -23
1 2 3 4
x3x1
x2 x4
X2 X1
X4 X3
X6 X5
X1 X2 X2 X4 Conflits0 Maximum Moyen Maximum Grand 81 Maximum Grand 32 Moyen Petit Moyen Moyen 53 Maximum Grand 14 Grans Moyen Moyen Petit5 Moyen Petit Moyen Moyen 26 Maximum Moyen Petit Petit7 Petit Petit Grans Petit8 Maximum Moyen Maximum Grand9 Petit Petit Maximum Grand
ss1 Petit Petit Moyen Petit SS4ss2 Moyen Moyen Maximum Moyen SS3ss3 Moyen Moyen Maximum Moyen SS2ss4 Petit Petit Moyen Petit SS1
X1 X2 X2 X4 Total Largeur0 Maximum Moyen Maximum Grand Grand Maximum1 Maximum Grand Moyen Petit2 Moyen Petit Moyen Moyen Intermédiaire Petit3 Maximum Grand Grand Moyen4 Grans Moyen Moyen Petit Grand5 Moyen Petit Moyen Moyen Moyen Moyen6 Maximum Moyen Petit Petit Grand Grand7 Petit Petit Grans Petit Petit8 Maximum Moyen Maximum Grand Maximum Maximum9 Petit Petit Maximum Grand Grand
ss1 Petit Petit Moyen Petit Moyen Maximumss2 Moyen Moyen Maximum Moyen Grand Maximumss3 Moyen Moyen Maximum Moyen Maximum Maximumss4 Petit Petit Moyen Petit Petit Maximum
Il faut définir le moins de variables possible (risque d’explosion combinatoire).
Il faut définir La forme et les domaines de définition des fonctions d’appartenance.
Il faut definit les règles d’inférence floues
Pas évident !Pas évident !
EntréesCentre de décisionà logique floue
Réseau neuronalgénérateur de règlesfloues
Sorties