Download pptx - Présentation pfe

Transcript
Page 1: Présentation pfe

Réalisée par

ISSARTI IkrameKARARA Mohamed

EZOUAGH MohamedZGUINDOU Abdelghafour

Encadrée par

Pr. FAKHOURI Hanane Pr. EL HAIMOUDI Khatir

Université Abdelmalek Essaâdi

Faculté Polydisciplinaire de Larache

Licence d’Etudes Fondamentales Sciences Mathématiques, Informatique et Applications

Projet de fin d’études

Etude et réalisation d’un modèle de réseaux de neurones artificiel avec un apprentissage supervise/non supervisé

Page 2: Présentation pfe

Plan de travaillePart 1: Analyse en composantes principales (ACP)

1. Principe2. Algorithme

part 2: Les réseaux de neurones artificiels (rna)

3. Définition4. Propriétés5. Le modèle biologique6. Le modèle formel7. La structure du réseau8. Apprentissage du réseau de neurones

Travail 1 : La carte auto-organisatrice de kohonen (som)travail 2 : Perceptron multicouche à retropropagation (PMR)

Page 3: Présentation pfe

PART 1:

ACP

Page 4: Présentation pfe

1. Principe

0100011101010100101111111110000000000110010101011111111

0

ACPDonnées initiale Données résultat

MinimisationRenforcement

11110001010100100101010100101110000111100001

111110

ACP

Page 5: Présentation pfe

ACP

g=Ou

Y=

=

=

Z = Y

R = V

Chercher_Vecteur_Propre(R)C = Matrice_Vecteur_Propre.Z

2. Algorithme

1

2

3

4

5

6

7

89

A l’aide la méthode de puissance itéré

Page 6: Présentation pfe

PART 2:

RNA

Page 7: Présentation pfe

1. Définition

Les réseaux de neurones artificiels sont des réseaux fortement connectés de processeurs élémentaires fonctionnant en parallèle. Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau

RNA

Page 8: Présentation pfe

01000111010101001011111111100000000001100101010111

111110Données

Apprentissage Automatique

RNAClassificationCratérisation

Reconnaissance…

Principe

Page 9: Présentation pfe

2. Propriétés

RNACapacité

d’apprentissage

L’adaptabilité

Capacité de généralisation des

résultats

RNA

Page 10: Présentation pfe

3. Le modèle biologique

le noyau est le centre des réactions électrochimiques. Si les stimulations externes sont suffisantes, le noyau

provoque l'envoi d'un influx nerveux électrique à travers l'axone.

Les synapses transmettent l'influx nerveux provenant de l'axone vers

d'autres cellules à partir de neurotransmetteurs inhibiteurs ou

excitateurs.

les dendrites, selon leur longueur et leur perméabilité, affectent la quantité d'influx nerveux qui se rend au noyau.

l'axone transporte l'influx nerveux vers les synapses.

RNA

Page 11: Présentation pfe

4. Le modèle formel

f

𝑥1

𝑥𝑖

𝑥𝑛

Entrée

𝑤1 𝑖

𝑤𝑖 𝑖

𝑤𝑛𝑖

𝑦 𝑖 Sortie

Poids

Intégration des entrées

Fonction des activation

Sortie 𝑦 𝑖

Noyau

RNA

Page 12: Présentation pfe

4. Le modèle formel Les fonctions d’activation

Linéaire Tout au rien = Seuil dur Fonction logistique = Seuil doux

La plus part des phénomènesn’ont pas un comportement

linéaire

Décision certaine même pourLes données proches de la surface

De décision Décision avec une probabilité

𝑓 (𝑥 )={−∧1 ,𝑥<0¿1 , 𝑥≥0

𝑓 (𝑥 )=1−𝑒−𝑎𝑥

1+𝑒−𝑎𝑥𝑓 (𝑥 )=𝑎𝑥

RNA

Page 13: Présentation pfe

4. Le modèle formel / Biologique

RNA

Page 14: Présentation pfe

5. structure du réseau

réseaux de neurones artificiels

Bouclé

Non Bouc

RNA

Page 15: Présentation pfe

5. La structure du réseau Non Bouclé

Un réseau de neurones non bouclé réalise une (ou plusieurs) fonction algébrique de ses entrées par composition des fonctions réalisées par chacun de ses neurones.

RNA

Page 16: Présentation pfe

5. La structure du réseau Bouclé

le graphe des connexions est cyclique : lorsqu’on se déplace dans le réseau en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient à son point de départ (un tel chemin est désigné sous le terme de « cycle »). Les connexions récurrentes ramènent l'information en arrière par rapport au sens de propagation défini dans un réseau multicouche. Ces connexions sont le plus souvent locales.

RNA

Page 17: Présentation pfe

6. Apprentissage

Une procédure adaptative par laquelle les connexions des neurones sont ajustées face à une source d’information.Dans la majorité des algorithmes actuels, les variables modifiées pendant l'apprentissage sont les poids des connexions. L'apprentissage est la modification des poids du réseau dans l'optique d'accorder la réponse du réseau aux exemples et à l'expérience.

RNA

Page 18: Présentation pfe

6. Apprentissage

Apprentissage

RNA

Types ??

Règles ??

Page 19: Présentation pfe

6. Apprentissage Types d’apprentissage

ApprentissageSupervisé

Non Supervi

Un apprentissage est dit supervisé lorsque l’on force le réseau à converger vers un état final précis, en même temps qu’on lui présente un motif. Ce genre d’apprentissage est réalisé à l’aide d’une base d’apprentissage, constituée de plusieurs exemples de type entrées-sorties (les entrées du réseau et les sorties désirées ou encore les solutions souhaitées pour l’ensemble des sorties du réseau).

L’apprentissage non supervisé consiste à ajuster les poids à partir d’un seul ensemble d’apprentissage formé uniquement de données. Aucun résultat désiré n’est fourni au réseau.L’apprentissage ici consiste à détecter les similarités et les différences dans l’ensemble d’apprentissage.

RNA

Page 20: Présentation pfe

010001110101010010111111111000000000011001010101111111

10

Données

RNA Résultat

Apprentissage Supervisé

Apprentissage Non

Supervisé

Résultat

ClassificationCratérisation

Reconnaissance…

Page 21: Présentation pfe

5. Apprentissage Règles d’apprentissage

Les règles d’apprentissage indiquent la quantité de modification à appliquer à chaque poids, en fonction des exemples d’entrée (et des sorties désirées associées, dans le cas de l’apprentissage supervisé) :

Où t désigne un instant avant la modification des poids, et t+1 un instant après.Il existe un grand nombre de règles d’apprentissage différentes. Les plus répandues sont les suivantes :

Règle de Hebb Règle d’apprentissage compétitif Règle d’apprentissage supervisé Règle de la retropropagation du gradient

𝐖 𝐢𝐣 (𝐭+𝟏 )=𝐖 𝐢𝐣 (𝐭 )+∆𝐖𝐢𝐣

RNA

Page 22: Présentation pfe

TRAVAIL 1:

SOM

Page 23: Présentation pfe

1. Principe

SOMs fournissent un moyen de représenter des données multidimensionnelles dans des espaces de dimensions beaucoup plus faibles - généralement une ou deux dimensions.Cette technique crée un réseau qui stocke des informations de telle façon que toutes les relations topologiques au sein de l'ensemble d'apprentissage sont maintenues.Ces structures intelligentes de représentation de données sont inspirées, comme beaucoup d’autres créations de l’intelligence artificielle, par la biologie ;

SOM

Page 24: Présentation pfe

2. Architecture

- d'une couche d'entrée où tout motif à classer est représenté par un vecteur multidimensionnel qualifié de vecteur d’entrée. A chaque motif est affecté un neurone d’entrée.

d'une couche de sortie également appelée couche de compétition où les neurones entrent en compétition. Les valeurs provenant des neurones d’entrées sont transmises à tous les neurones de la couche de compétition, en même temps. Pour approcher des valeurs passées par les neurones d’entrées.

SOM

Page 25: Présentation pfe

3. Algorithme d’apprentissage

Initialisation des paramètres:Poids d’entrée (petites valeurs

aléatoire)Forme et taille du voisinageTaux d’apprentissage

Déterminer le neurone vainqueur de chaque

entrée

j : indice du neurone vainqueurn : le nombre de neurones

Mise à jour des poids du neurone j et de ses voisins, le vecteur poids du neurone j’ est modifié par

Répéter jusqu’à stabilisation du réseau

La carte SOM(Couche Sortie)

Couche d’entrées

Page 26: Présentation pfe

Réglage des paramètres

Forme du voisinage

J est l’indice du neurone vainqueurJ’ est l’indice d’un neurone voisin Est la distance entre le neurone vainqueur et les autre neurones

Diminution de la taille du voisinage

Diminution du taux d’apprentissagePour assurer la convergence de l’apprentissage on peut faire varier le taux d’apprentissage en fonction du nombre d’itérations. La valeur initiale peut être grande, par exemple égale à 1.

Page 27: Présentation pfe
Page 28: Présentation pfe

4. Propriétés

Similitude des densités dans l'espace d'entrée :La carte reflète la distribution des points dans l'espace d'entrée.

Préservation des relations topologiques  Les ancêtres des cartes auto-organisatrices, les algorithmes comme "k-

moyennes", réalisent la discrétisation de l'espace d'entrée en ne modifiant à chaque cycle d'adaptation qu'un seul vecteur référent. Leur processus d'apprentissage est donc très long. L'algorithme de Kohonen profite des relations de voisinage dans la grille pour réaliser une discrétisation dans un temps très court.

SOM

Page 29: Présentation pfe

5. Exemples d’application La classification

SOMs sont couramment utilisés comme aides à la visualisation. Ils peuvent le rendre facile pour nous les humains de voir les relations entre les grandes quantités de données.Un SOM a été utilisé pour classer les données statistiques décrivant divers facteurs de qualité de vie tels que l'état de santé, la nutrition, les services d'enseignement, etc.

World Poverty Map

SOM

Page 30: Présentation pfe

6. Exemples d’application La classification

World Poverty MapCette information de couleur peut alors être tracée sur une carte du monde comme ceci (Image) Cela rend très facile pour nous de comprendre les données de la pauvreté

SOM

Page 31: Présentation pfe

6. Exemples d’application Application à la robotique

On utilise la capacité de représentation spatiale de la carte auto-organisatrice pour piloter un bras de robot.Il s'agit de mettre en correspondance l'espace cartésien dans lequel travaille l'opérateur humain avec l'espace du robot (coordonnées de chacun de ses axes en valeurs angulaires).

SOM

Page 32: Présentation pfe

1. Réalisation

011101010101010100101100

0

111100001

100101011101

SOM

ACP

Données initiales

Données prétraitées

Algorithme Modifié

Algorithme

Classique Résultat

Les structures fonctionnelles élaborées à la base des deux algorithmes classiques et modifiés

SOM

Page 33: Présentation pfe

Description de modèle logiciel réalisé

Réalisation

Notion de programmation

Orienté Objet C++

Mode console

Les classes

ACP

Node

SOM

Menu

Cette classe contient les attribues et les méthodes de calcul nécessaire pour la réalisation de la méthode d’analyse en

composantes principales.

Cette classe est la base de notre réseau de neurones, il contient les attribues et

les méthodes nécessaire pour décrire les neurones de réseau

Cette classe est la classe principale de l’application, il contient les attribues et les méthodes pour créer la carte auto-organisatrice de kohonen et aussi les

méthodes pour faire l’apprentissage du réseau

Cette classe et le corps de l’application, il contient les attribues et les méthodes de l’affichage comme les menus et les

variables de choix etc

Page 34: Présentation pfe

2. Les testes

Page 35: Présentation pfe

Test de classification des alphabets

0 1 01 1 11 0 1

0 1 00 1 11 0 1

1 1 10 1 00 1 0

1 1 10 0 00 1 0

1 1 11 0 01 1 1

A A’ T T’ C1 1 11 0 01 1 0

C’1 1 11 1 11 0 0

F F’1 1 11 1 01 0 0

1 0 11 1 11 0 1

1 0 01 1 11 0 1

H H’

A 010111101A’ 010011101T 111010010T’ 111000010C 111100111C’ 111100110F 111111100F’ 111110100H 101111101H’ 100111101

Entrée

Page 36: Présentation pfe

Création de la carte

Page 37: Présentation pfe

L’initialisation des vecteurs des poids

Page 38: Présentation pfe

Les vecteurs des poids après l’apprentissage

Page 39: Présentation pfe

Résultat finale

Page 40: Présentation pfe

H’ T T’

H FC’

A F’A’ C

Page 41: Présentation pfe

Test de classification des colores

Noir 1 1 1Noir’ 1 21 31Rouge 255 0 0Rouge’ 255 0 131Bleu 0 0 255Bleu’ 99 140 255Vert 0 255 0Vert’ 160 255 181Blanc 255 255 255Blanc’ 247 255 239

Rouge’

Rouge

Vert

Blanc’

Noir

Vert’ Blanc

Bleu Bleu’ Noir’

Entrée

Code RGB

Page 42: Présentation pfe

Capitales européens / température

Page 43: Présentation pfe

Carte classique1000 itérationsErreur moyen=0,9

Carte amelioré1000 itérationsErreur moyen=0,2

Page 44: Présentation pfe

Bruxelles Kiev Helsinki

Londres Dublin

Madrid

Lisbonne Budapest Berlin Copenhague

Athènes Cracovie

Page 45: Présentation pfe

TRAVAIL 2:

PMR

Page 46: Présentation pfe

1. Principe 2. L’architecture du réseau3. Algorithme d’apprentissage4. Propriétés 5. Exemples d’application6. Réalisation7. Les testes

Page 47: Présentation pfe

1. Principe

La rétropropagation basée sur la diminution du gradient d’erreur par rapport aux poids du réseaux

PMR

𝐄=𝟏𝟐∑

𝐢=𝟎

𝐦¿¿

Page 48: Présentation pfe

Les entrées Les sorties

2. L’architecture du réseau

Le keme neurone de la

couche de sortieLe jeme neurone de la couche de caché

Le ieme neurone de la couche d’entrée

Poids associé au neurone 1

Page 49: Présentation pfe

1 . Initialiser aléatoirement

les coefficients wij

2 . Application d’un vecteur entrées-sorties

à apprendre

3 . Calcul des sorties du RNA à partir des entrées qui lui sont appliquées et calcul

de l’erreur entre ces sorties et les sorties désirés à apprendre Calcul la somme =

𝐅 (𝔁 )= 𝟏𝟏+𝐞−𝐗

3. Algorithme d’apprentissage

x1

x3

x2

O2

O1

W11

Couche d’entre Couche de cache

𝑜𝛿 1

𝛿ℎ1

W41

W42

W43

y1

W13

W12

Couche de sortie b1 b4

S=

𝒟𝑖

Page 50: Présentation pfe

x1

x3

x2

O2

O1

W11

Couche d’entre Couche de cache

𝛿𝑜1

𝛿ℎ1

W41

W42

W43

y1

W13

W12

Couche de sortie b1 b4

4 . Correction des poids des liens entre les neurones de la couche de sortie et de la première couche cachée selon l’erreur présente en sortie

𝛿𝑜i = ′() ∗ ( i − Oi)𝑑ℎ𝛿 j = ′( )()𝒘𝒏=wn+ ∗ 1∗O1+ ∗wn𝜼 𝛿𝑜 𝜶

𝒻′ (𝓍 )=𝒻 (𝓍 )[1−𝒻 (𝓍 )]

Page 51: Présentation pfe

x1

x3

x2

O2

O1

W11

Couche d’entre Couche de cache

𝛿𝑜1

𝛿ℎ1

W41

W42

W43

y1

W13

W12

Couche de sortie b1 b4

5.Propagation de l’erreur sur la couche précédente et correction des poids desliens entre les neurones de la couche

cachée et ceux en entrées.

6.Boucler à la 2eme étape avec vecteur d’entrées-sorties tant que lesperformances du RNA (erreur sur les

sorties) ne sont pas satisfaisantes

𝒘𝒏=wn+ ∗ ℎ1∗O1+ 𝜼 𝛿∗wn𝜶

Page 52: Présentation pfe

4. Propriétés

la capacité d’apprentissage Ce n’est pas le seul modèle multicouche, mais c’est le plus courant. Neurones réparties en couches : entrée, cachées (traitement), et

décision. Apprentissage supervisé : cherche les paramètres de réseaux qui

minimise l’erreur entre le calculé et désiré par la Retropropagation de gradient. Les flots de signal vont dans une seule direction. trouve des solutions à certains problèmes non linéaires. Les perceptrons peuvent représenter toutes les fonctions linéairement

séparables

PMR

Page 53: Présentation pfe

5. Exemples d’application la reconnaissance des caractères

PMR

Page 54: Présentation pfe

5. Exemples d’application

X1 X2 XOR

0 0 0

0 1 1

1 1 0

Les opérations Logiques

PMR

Page 55: Présentation pfe

ACP

PMC A

RETROPROPAGATIONSortie calculé

Apprentissage

01010101010110010101010101010101

0

Sorties désirés

Algorithme Classique

Algorithme Modifié

Donnéesprétraitées

Pas d’Apprentissag

e

Sorties désirés

Sorties désirés

01010101010110010101010101010101

0

Données initiales6. Réalisation

Page 56: Présentation pfe

Description de modèle logiciel réalisé

Réalisation

Notion de programmation

Orienté Objet C++

Mode console

Les classes

ACP

neurone

réseaux

Menu

Cette classe contient les attribues et les méthodes de calcul nécessaire pour la réalisation de la méthode d’analyse en

composantes principales.

Cette classe contient les attribues et les méthodes nécessaire pour créer les

neurones de chaque couche de réseau

Cette classe est la classe principale de l’application, il contient les

attribues et les méthodes pour créer le réseaux et aussi les méthodes pour

faire l’apprentissage du réseauCette classe et le corps de l’application, il contient les attribues et les méthodes de l’affichage comme les menus et les

variables de choix etc

coucheCette classe contient les attribues et

les méthodes pour créer les couche .

Page 57: Présentation pfe

7. Les testes

Page 58: Présentation pfe

Tester l’application

la reconnaissance des caractères

Exemple 1: Exemple 2:

=111100111

=100100111

=111010010

Page 59: Présentation pfe
Page 60: Présentation pfe

La résolution d’un problème non linéairement séparable: ou exclusif XOR

Tester l’application

X1 X2 XOR

0 0 0

0 1 1

1 1 0

Page 61: Présentation pfe

Colores Poids Année Km Km/h SDNoir=1 3500 1992 5600 260 0,1Bleu=2 6500 1993 8600 120 0,5Vert=3 8500 2000 1000 100 0,3

Tester avec ACP

Page 62: Présentation pfe

Colores Poids Année Km Km/h SDNoir=1 3500 1992 5600 260 0,1Bleu=2 6500 1993 8600 120 0,5Vert=3 8500 2000 1000 100 0,3

Tester sans ACP

Page 63: Présentation pfe

MERCI DE VOTRE

ATTENTION


Recommended