unknown_Les_réseaux_de_neurones__

Embed Size (px)

Citation preview

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    1/27

    Chapitre I

    L es rseaux de NeuronesArtificiels

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    2/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 2

    I .1 I ntroduction

    Lvolution technologique durant les dernires annes a permis aux scientifiques

    dlaborer et de perfectionner des mthodes pour diffrents domaines. Lvolution des

    ordinateurs en particulier et la capacit dintgration de composants formidable atteintes nos

    jours ont permis une grande vitesse de calcul et une grande capacit mmoire. Parmi ces

    mthodes, il existe une mthode qui est utilise dans plusieurs domaines de recherches et de

    diffrentes manires, ainsi elle peut tre utilise dune manire compltement Soft en utilisant

    uniquement lordinateur ou dune manire Hard en utilisant les circuits intgrs. Cette

    mthode est celle des rseaux de neurones artificiels (RNA).

    Les rseaux de neurones artificiels sont des outils puissants capables dtre utiliss dansprs que tous les domaines technologiques, et on peut citer : Le traitement du signal, vision,

    parole, prvision, modlisation, aide la dcision, robotique, valuation des cosystmes,

    identification des bactries, commande des processus, modlisation des systmes physiques,

    reconnaissance des formes, mesure, instrumentation,... [1].

    I.2 Historique

    Les dbuts des RNA ont t mouvements, leur conception et leur dveloppement napas t une chose facile car aprs leur mise au point, il y a plus de soixante ans, ils ont

    rencontr une priode de sommeil cause de leur complexit dimplmentation et de

    ralisation mais ils ont fini par rapparatre avec lapparition des puissants ordinateurs.

    Les RNA ont commenc voir le jour ds 1890 avec W. James, un clbre psychologue

    Amricain qui a introduit le concept de mmoire associative, et proposa une loi de

    fonctionnement pour lapprentissage sur les rseaux de neurones. Cette rgle sera connue sous

    le nom : la rgle de Hebb. En 1943, Mc Culloch et Pitts deux bio-physiciens de luniversit de

    Chicago ont dmontr quun rseau de neurones discret peut reprsenter nimporte quelle

    fonction boolenne, principe de base dun ordinateur. Quelques annes aprs, en 1949

    D.Hebb, physiologiste amricain explique le conditionnement chez lanimal par les proprits

    des neurones eux-mmes. La loi de modification des proprits des connexions entre neurones

    quil propose dmontre en partie ses rsultats exprimentaux. Il introduit le terme

    connexionisme pour parler de modles massivement parallles, connects et propos de

    nombreuses rgles de mise jour des poids dont la clbre rgle de Hebb. Rosenblatt proposa

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    3/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 3

    en 1958 le perceptron, un rseau de neurones inspir du systme visuel. Il possde deux

    couches de neurones :

    - une couche de perception,

    - une couche lie la prise de dcision.

    C'est le premier systme artificiel capable d'apprendre par exprience. Ce rseau, tait

    capable dapprendre diffrencier des formes simples et calculer certaines fonctions

    logiques. Dans la mme priode, Le modle de L'Adaline (adaptive linar element) a t

    prsent par B. Widrow, chercheur Amricain Stanford. Ce modle sera par la suite le

    modle de base des rseaux multicouches.

    Lune des causes qui est lorigine du dsintressement des chercheurs aux RNA est

    apparue en 1969, avec lapparition dun livre connu sous le nom Perceptrons de Minsky et

    Papert et dans lequel ils publirent leur argumentation mathmatique visant dmontrer les

    limitations du perceptron (Rseaux de neurones une seule couche) et en particulier,

    lincapacit du rseau rsoudre les problmes non linairement sparables, dont la fonction

    logique XOR est un clbre exemple. Ce nest quau dbut des annes 80 que lintrt des

    chercheurs pour les rseaux de neurones renat et plus prcisment en 1982 grce Hopfield

    qui proposa les rseaux de neurones associatifs. Paralllement, Werbos conoit un mcanisme

    dapprentissage pour les rseaux multicouches de type perceptron.

    Lanne 1986 a vu lapparition de lalgorithme de rtropropagation de lerreur publi par

    Rumelhart, Hinton et Williamsrreur qui permet doptimiser les paramtres dun rseau de

    neurones plusieurs couches, ainsi les recherches sur les rseaux de neurones ont dmarr

    fortement, impliquant le succs de cette mthode et son application dans divers domaines [1]

    [2].

    I .3 L e neurone biologique

    I .3.1 Systme Nerveux

    Le cerveau humain, est le meilleur modle de la machine, polyvalente incroyablement

    rapide et surtout doue dune incomparable capacit dauto organisation. Son comportement

    est beaucoup plus mystrieux que le comportement de ses cellules de base. Il est constitu

    dun grand nombre dunits biologiques lmentaires (1000 10000 synapse par neurone).

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    4/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 4

    Figure (I.1) Le neurone biologique

    Les cellules nerveuses appeles " neurones ", sont les lments de base du systme nerveux

    central. Elles sont constitues de trois parties essentielles : le corps cellulaire, les dendrites et

    laxone figure (I.1) [1][2].

    I .3.1.1 Le corps cellu laire

    Il contient le noyau du neurone et effectue les transformations biochimiques ncessaires

    la synthse des enzymes et des autres molcules qui assurent la vie de neurone. Sa forme est

    pyramidale ou sphrique dans la plupart des cas, elle dpend souvent de sa position dans le

    cerveau. Ce corps cellulaire fait quelques microns de diamtre [3].

    I .3.1.2 Les dendr ites

    Chaque neurone possde une chevelure de dendrites. Celles-ci sont de fines extensions

    tubulaires, de quelques diximes de microns de diamtre et dune longueur de quelquesdizaines de microns. Elles sont les rcepteurs principaux du neurone qui servent capter les

    signaux qui lui parviennent [3].

    I .3.1.3Laxone

    Laxone, qui est proprement parler la fibre nerveuse, sert de moyen de transport pour

    les signaux mis par le neurone. Il se distingue des dendrites par sa forme et par les proprits

    de sa membrane externe. En effet, il est gnralement plus longue que les dendrites, et se

    ramifie son extrmit, l o il communique avec les autres neurones, alors que lesramifications des dendrites se produisent plutt prs du corps cellulaire.

    Pour former le systme nerveux, les neurones sont connects les uns aux autres suivant des

    rpartitions spatiales complexes. La transmission entre deux neurones nest pas directe. En fait,

    il existe un espace intercellulaire de quelques dizaines dAngstrom (10-9 m) entre laxone du

    neurone et les dendrites dun autre neurone. La jonction entre deux neurones est appele la

    synapse [1][3].

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    5/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 5

    I .4 L e neurone formel

    I .4.1 D finiti on

    Le neurone formel est le modle mathmatique du neurone biologique. Il fait la sommepondre de ses entres, suivie dune non linarit (lment de dcision pour les classifieurs)

    appele fonction dactivation ou fonction de seuil.

    Les entres dun neurone sont soit des entres externes, soit des sorties dautres neurones [4].

    Le schma dun neurone formel est donn par la figure (I.2)

    Le choix de la fonction d'activation dpend de l'application [1].

    I .4.2 Principe de fonctionnement

    Lquation de sortie iO du neurone i est donne par :

    ii LfO (I.1)

    O

    kioijkiji WEWL (I.2)

    Les coefficients de pondration Wij sont appels coefficients synaptiques

    Souvent, il y a un paramtre additionnel Wi0, ce terme est considr comme la valeur du seuilinterne du neurone [4].

    2iW

    inW

    1iW

    IL

    0iW1iE

    2iE

    inE

    +1

    ii LfO

    Entr e Poids

    Sortie

    Figure (I.2) Schma dun neurone formel

    f

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    6/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 6

    I.4.3Fonction dactivation

    Cest une fonction prsente gnralement par une non linarit appele aussi fonction

    de seuil. Elle permet de dfinir ltat interne du neurone en fonction de son entre totale

    Les fonctions les plus souvent utilises sont reprsentes par la figure (I.3) [11].

    (f) Fonction de stochastique

    f

    s

    (b) Fonction sigmode Se

    sf

    1

    1

    f

    ss

    f

    s

    (a) Fonction linaire avec seuil

    f

    s

    (c) Fonction a seuils multiples (d) Fonction sigmode S

    S

    e

    esf

    1

    1

    f

    s

    +1

    -1

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    7/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 7

    Toutes les fonctions dactivation utilises doivent tre diffrentiables, car larchitecture du

    rseau de neurones limpose pour que lapprentissage soit possible [11].

    I .5 Pr opr its des r seau x de neur ones

    Lintrt port aujourdhui aux rseaux de neurones tient sa justification dans quelques

    proprits intressantes quils possdent et qui devraient permettre de dpasser les limitations

    de linformatique traditionnelle, tant au niveau programmation quau niveau machine [6].

    I .5.1 L e paralllisme

    Cette notion se situe la base de larchitecture des rseaux de neurones considrs

    comme ensemble dentits lmentaires travaillant simultanment. Avec ltude du

    fonctionnement des rseaux de neurones, on pourrait aboutir des nouvelles techniques de

    formalisation de problme qui permettraient de les traiter en parallle [6].

    I.5.2La capacit dadaptation

    Celle-ci se manifeste par la capacit dapprentissage qui permet de tenir compte des

    nouvelles contraintes ou des nouvelles donnes du monde extrieur. Certains rseaux se

    caractrisent aussi par leur capacit dauto organisation qui assure leur stabilit en tant que

    systmes dynamiques capables de tenir compte des situations non encore connues [6].

    I .5.3 L a mmoire distr ibue

    Dans les rseaux de neurones, la mmoire correspond une carte dactivation de

    neurones. Cette carte est en quelque sorte un codage du fait mmoris ce qui attribue ces

    +1

    s

    (e) Fonction de Heaviside

    s

    (g) Fonction linaire sans saturation

    Figure (I.3) Les diffrentes formes de la fonction dactivation

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    8/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 8

    rseaux lavantage de rsister aux bruits (pannes) car la perte dun lment ne correspond pas

    la perte dun fait mmoris [6].

    I .5.4 L a capaci tde gnral isation

    Cette capacit est important surtout dans le cas o la constitution de recueils dexpertise

    pour un systme expert devient difficile (reconnaissance intuitive ou implicite). Les rseaux

    neuronaux peuvent apprendre retrouver des rgles partir des exemples [6].

    I .6 Archi tectur es des rseaux de neurones

    Il existe deux grands types darchitectures de rseaux de neurones :

    Les rseaux statiques non rcurrents et les rseaux dynamiques rcurrents [4].

    I .6.1 L es rseaux statiques

    Dans un rseaux statique ou non rcurrent , la sortie dun neurone ne peut pas tre

    injecte ni directement son entre ni indirectement travers dautres neurones ; cest - dire

    quune sortie courante na aucune influence sur les sorties futures . Dans ce cas, la sortie du

    rseau est obtenue directement aprs lapplication du signal dentre linformation circule

    dans une seule direction ; de lentre vers la sortie.

    Les rseaux statiques ralisent des transformations non linaires de la forme :

    ][xfY OumRx et

    nRY , m et n sont les dimensions du vecteur dentre x et du

    vecteur de sortie Y respectivement.

    Les neurones qui ne sont pas des sorties du systme sont appels neurones cachs

    (neurones invisibles dans la sortie). dans larchitecture la plus gnrale , lentre de chaque

    neurone est connecte toutes les sorties des neurones prcdents mais , la plupart des

    rseaux de neurones statiques utiliss , sont organiss en plusieurs couches de neurones ,

    appels rseaux multi couches aux perceptrons multi couches.

    Un rseau multi couches comporte : une couche dentre, une ou plusieurs couches

    caches et une couche de sortie.

    Dans un tel rseaux, la sortie de chaque neurone dune couche l est connecte lentre de

    chaque neurone de la couche suivant l+1.

    Larchitecture dun tel rseau est donne par la figure (I.4) [4].

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    9/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 9

    I .6.2 L es rseaux dynamiques

    Ces rseaux, appels aussi rseaux rcurrents, sont organiss de telle sorte que chaque

    neurone reoit sur ses entres une partie ou la totalit de ltat du rseau (sortie des autres

    neurones) en plus des informations externes. Pour les rseaux rcurrents linfluence entre les

    neurones sexerce dans les deux sens. Ltat global du rseau dpend aussi de ses tats

    prcdents. Lquation du neurone, dans ce cas, est dcrite par des quations diffrentielles

    ou aux diffrences. Un exemple de rseaux dynamiques est donn par la figure (I.5) [4].

    I .7 Quelques modles des rseaux de neurones

    Cette partie est consacre une prsentation des modles connexionnistes

    incontournables. Ces modles refltent les diffrentes topologies des rseaux de neurones

    dans le sens o la grande majorit des rseaux classiques [7].

    Figure (I.5) Forme dun rseau boucl

    Entre Sortie

    Couche intermdiaire dite cache

    Figure (I.4) Forme dun rseau non boucl

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    10/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 10

    I .7.1 M odle de Kohonen

    Le rseau de Kohonen est un rseau de neurones dont la particularit est dagir en tant

    que compresseur de donnes, en conservant uniquement les informations caractrisant

    Lobjet prsent au rseau sans perte importante dinformation. Une limination des

    Paramtres corrls seffectue. En effet, sa capacit de conservation topologique permet une

    rduction des donnes de lentre selon le nombre de neurone formant le rseau [5].

    Ce modle a t prsent par Kohonen en 1982 en se basant sur des constatations biologiques

    Il a pour objectif de prsenter des donnes complexes et appartenant gnralement une

    espace discret de grandes dimensions dont la topologie est limite une ou deux dimensions.

    Les cartes de Kohonen sont ralises partir dun rseau deux couches, une en entre etune en sortie.

    Notons que les neurones de la couche dentre sont entirement connects la couche de

    sortie figure (I.6) [13].

    Les neurones de la couche de sortie sont placs dans un espace dune ou de deux

    dimensions en gnral, chaque neurone possde donc des voisins dans cet espace. Et enfin

    chaque neurone de la couche de sortie possde des connexions latrales rcurrentes dans sa

    couche. Le neurone inhibe les neurones loigns et laisse agir les neurones voisins.

    I .7.2 M odle de H opfield

    Les modles de Hopfield reprsentent une architecture plus historique que pratique. Ils

    sont importants car apparus un tournant de l'histoire du connexionnisme. Ils sont considrs

    comme la base de son redmarrage. En revanche ils ne sont quasiment plus utiliss dans leur

    Figure (I.6) Le modle de Kohonen

    X1

    X2

    Xn

    S1

    S2

    Sn

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    11/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 11

    version de base en raison de leur cot en terme de temps de calculs et de leurs relativement

    faibles performances [7].

    I .7.2.1 L 'ar chitectur e

    Les modles connexionnistes de Hopfield sont constitus de neurones formels de type

    Mc Culloch et Pitts, totalement connects entre eux. Tous les neurones de cette architecture

    sont la fois neurone d'entre et neurone de sortie du rseau. La spcificit de ce rseau

    rside dans une recherche permanente, pour chacun des neurones du rseau, d'un tat stable

    [7].

    Formellement, comme la montre la figure (I.7), un rseau de Hopfield est un rseau

    rcurrent, chacun des neurones du rseau tant connect tous les autres, mais pas lui-

    mme. Les neurones disposent de sorties binaires (+1 ou -1), et les interconnexions entre les

    neurones sont symtriques (Pour tous les neurones i et j, wij = wji) [7].

    Un neurone est li tous les autres, les liaisons sont symtriques, un neurone n'est pas li

    lui-mme et un seul neurone est actualis par itration. Chaque neurone est la fois neurone

    d'entre et de sortie du rseau [7].

    On-1O2O1 On

    S1 S2 Sn-1

    Sn

    XnX1 X2 Xn-1

    Figure (I.7) Rseau de Hopfield

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    12/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 12

    I .7.3 Le Perceptron

    Le Perceptron a t dvelopp par Roseblatt en 1950 pour rsoudre, laide des

    neurones de Mc Culloch et Pitts, les problmes de la vision humaine.

    I .7.3.1 Stru cture du Perceptron

    Larchitecture gnrale dun Perceptron comme dcrit en figure (I.8) comprend trois

    lments principaux :

    I .7.3.1.1 Rti ne

    La premire couche, compose de la rtine, comprend plusieurs cellules qui jouent le

    rle de capteurs. Elle reoit les exemples ou formes classer. Chaque lment de la rtine

    peut tre considr comme un pixel prenant des valeurs binaires 1 et 0

    I .7.3.1.2 Couchedassociation

    La deuxime couche dassociation est compose de cellules associatives qui sont

    connectes totalement ou de faon alatoire aux cellules de la rtine, Ces cellules

    dassociations Aj sont dotes de faons dassociation h qui peuvent par exemple raliser des

    fonctions boolennes ou bien utiliser des fonctions linaires. Dans le perceptron, les

    fonctions hi, i=1,2,.N sont dtermines lavance et elles restent fixes pendant la phase

    dapprentissage. La sortie Xj de la cellule dassociation Aj est transmise la cellule de

    dcision de Pi aprs avoir t pondre par le coefficient ajustable Wij,

    I .7.3.1.3 Couche de cell ul e de dcision

    La cellule de dcision est un automate seuil de fonction de transfert fi qui dlivre la

    sortie binaire Si. La combinatoire de toutes les configurations possibles est presque infinie si

    lon influe sur les connexions et la nature des fonctions fet h [11][15].

    Figure (I.8) Schma dun Perceptron

    Rtine Couche dassociation

    Couche de dcision

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    13/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 13

    I .7.4 M odle Adali ne

    Au dbut des annes 60 B. Widrow et M.E. Hoff ont propos un systme adaptatif

    quils ont appel Adaline (de langlais ADAptive LINear Element)

    La structure de lAdaline diffre du perceptron par lutilisation dune seule cellule

    dassociation et lutilisation dune fonction de seuil diffrent de celle de Heaviside (-1 et t+1).

    De plus, il utilise un algorithme adaptatif pour mesurer lcarte entre la sortie relle et la

    sortie du processeur lmentaire. Le schma de lAdaline est reprsent en

    figure (I.9). Le plus souvent, les entres sont binaires et la rponse souhaite est galement

    binaire

    LAdaline est le seul rseau de neurones artificiels utilis massivement dans lindustrie, Ce

    circuit est en effet utilis dans la tlcommunication pour amliorer le signal sur bruit en

    prenant en compte la variation de limpdance des diffrentes lignes tlphoniques [11].

    I .8 A pprentissage des rseaux de neur ones

    On peut considrer les rseaux de neurones comme une boite noire contenant

    linformation quelle doit apprendre et mmoriser. Mais au dmarrage lorsquon choisit notre

    rseau, la boite noire est vide et ne contient aucune information, ni aucune connaissance sur

    son sujet, cest pourquoi un apprentissage est ncessaire. Lenseignement que doit subir le

    Figure (I.9) Schma de principe de ladaline

    S

    Nj

    j

    jjXWS0

    Y

    Yd Sortie dsi re

    Rgledapprentissag

    X0

    X1

    Xn

    0W

    1W

    nW

    +

    Signal derreur

    -

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    14/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 14

    rseau de neurones est un apprentissage qui est une phase du dveloppement d'un rseau de

    neurones durant laquelle le comportement du rseau est modifi jusqu' l'obtention du

    comportement dsir. L'apprentissage neuronal fait appel des exemples de comportement

    Lapprentissage des rseaux de neurones consiste adapter ses diffrents paramtres(poids) daprs un algorithme itratifdajustement ou dadaptation lui permettant de prendre

    en considration toutes les donnes (exemples) qui lui sont fournies son entre et ainsi

    ajuster ses paramtres pour trouver le juste milieu permettant de prendre en charge nimporte

    quel exemple ou donne apparaissant son entre provenant de son environnement [1][2].

    Les algorithmes dapprentissages donnent des meilleurs rsultats lorsquon leur fournit des

    exemples multiples et varis ; ainsi le rseau peut assimiler toutes les connaissances. Il existe

    diffrente rgles dapprentissage parmi les quelles on peut distinguer [1]:

    - la rgle de Widrow-Hoff, la rgle de Hebb, la rgle du perceptron et la rgle de

    Grossberg, etc...

    I .8.1 Apprentissage supervis

    Les rseaux multicouches avaient dj t dfinis par Rosenblatt, mais on ne savait pas

    comment faire lapprentissage. Avec la dcouverte de lalgorithme de rtropropagation de

    lerreur (RP) par Rumelhart, on a commenc faire de lapprentissage des rseaux de

    neurones multicouches partir dexemples. Cette mthode de dtermination des poids est

    appele apprentissage supervis [8].

    L'apprentissage supervis, repose sur le fait que les exemples sont des couples (entre,

    sortie dsirer). Cest dire que lon suppose lexistence dun expert qui prend en charge la

    sortie de notre rseau en lui fournissant une sortie dsire et les associes aux sorties relles

    fournies par le rseau daprs les donnes lentre. Le rseau adapte ses paramtres en

    fonction de la diffrence qui existe entre la sortie relle et la sortie dsire en prenant compte

    de tous les exemples de lenvironnement [1][2].

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    15/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 15

    I .8.2 Apprentissage non supervis

    La diffrence majeure entre lapprentissage supervis et non supervis peut tre rsume

    dans le fait que le deuxime type dapprentissage est autodidacte qui na pas besoin dexpert

    pour le guider adapter ses paramtres quil ne dispose que des valeurs entre. Remarquons

    cependant que les modles dapprentissage non supervis ncessitent avant la phase

    d'utilisation une tape de labellisation effectue par l'oprateur, qui n'est pas autre chose

    qu'une part de supervision [1][2].

    I .9 L e Per ceptr on multi couche

    Comme nous lavons dj dit le cerveau humain est compos de millier et des milliers

    de neurones, alors il est vident quun simple neurone et seul ne peut rien faire lui tous seul

    il lui faut la coopration dautres neurones. En suivant ce rsonnement il est vident quil

    vaut trouver une architecture qui relie les neurones entre eux, qui cre une liaison entre lesneurones pour crer un rseau de neurones.

    Rseaux deneurones

    Superviseur

    Erreur

    Figure (I.10) Illustration de lapprentissage supervis

    SortieRseaux de

    neurones

    Figure (I.11) Illustration de lapprentissage non supervis

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    16/27

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    17/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 17

    I .10 M thode de rtr opr opagation

    La rtropropagation est actuellement loutil le plus utilis dans le domaine des rseaux

    de neurones. Cest une technique de calcul des drives qui peut tre applique nimporte

    quelle structure des fonctions drivables [4].

    Lanne 1986 a vu lapparition de lalgorithme de rtropropagation de lerreur publi par

    Rumelhart, Hinton et Williamsrreur qui permet doptimiser les paramtres dun rseau de

    neurones plusieurs couches [1].

    I.10.1 Introduction

    Le dveloppement dalgorithmes dapprentissage supervis pour les rseaux

    multicouches se heurte au problme de calcul des erreurs de sortie pour les neurones cachs.

    En effet, les neurones cachs nont pas un rle prdfini, cest lapprentissage qui les

    utilise sa convenance pour former des reprsentations internes, cause de labsence dune

    rgle dapprentissage convenable, les perceptrons taient limits une seule couche pendant

    plusieurs annes, mais ce type de perceptron ne peut rsoudre que les problmes dont les

    donnes sont linairement sparables. Les limitations du perceptron ont t leves par la

    dcouverte de lalgorithme de rtropropagation qui a permis de rsoudre le problme de

    calcul des erreurs associes aux neurones cachs. Les applications de cet algorithme ont

    connu un succs spectaculaire et ses performances taient quelques fois surprenantes.

    Malgr sa complexit apparente, la mthode de rtropropagation nest quune technique

    simples mais efficace de calcul des drives dune entit par rapport l ensemble de ses

    entres. Elle peut tre applique nimporte quel systme compos de plusieurs sous-

    systmes lmentaires qui peuvent tre reprsents par des fonctions connues, continues et

    drivables [4].

    I .10.2 Equati ons du rseau

    Avant de dfinir la rgle dapprentissage, on doit dfinir la relation entre les sorties du

    rseau, dune part, et les entres et les poids dautre part. On considre dans ce qui suit les

    rseaux non rcurrents multicouches.

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    18/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 18

    Pour un rseau multicouches M entres et N sorties, compos de L couches (couches

    caches et couche de sortie), les tats des neurones sont donns par les quations suivantes :

    1

    0

    1 )(kn

    j

    k

    j

    k

    ij

    k

    i tOWS i = 1,2, kn ; k= 1,2,L (I.4)

    Avec :

    1)(0 tOk k=0, 1,2, L (I.5)

    )()(0 tXtO ii i = 1,2,, m (I.6)

    )()( tOtyL

    ii i =1,2,, n (I.7)

    1

    0

    1 )()()(kn

    j

    k

    j

    k

    ij

    kk

    i

    kk

    i tOWftSftO (I.8)

    Avec pour la couche k : fk (.) est la fonction dactivation, nkest le nombre de neurones,k

    iO (t)

    est la sortie du neurone i, kijW est le coefficient synaptique de la connexion entre le neurone i

    de la couche k et le neurone j de la couche prcdente (k-1). kiW0 est le seuil adaptable du

    neurone i . iY (t) et iX (t) sont les iemes composant es du vecteur dentrex (t)

    Et du vecteur de sortie Y(t) respectivement.

    La fonction dactivation gnralement choisie est la fonction sigmode :

    F(x) =x

    x

    e

    e

    1

    1(I.9)

    I .10.3 Princi pe du r tr opropagation

    Lobjectif de la mthode de rtropropagation est dadapter les paramtres kijW de faon

    minimiser la valeur moyenne de lerreur sur lensemble dentranement. La fonction cot la

    plus utilise est donne par :

    T

    t

    dT

    t tYtYtEE 1

    2

    1 )]()([2

    1

    )(2

    1

    (I.10)

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    19/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 19

    O dY est le vecteur de sortie dsire, Y le vecteur de sortie du rseau et T la longueur de

    lensemble dapprentissage. Cependant, dans quelques situations dautres critres derreur

    peuvent tre plus appropris. Lapproche la plus utilise pour la minimisation de la fonction

    Eest base sur les mthodes de gradient.

    On commence lentranement par un choix alatoire des valeurs initiales des poids. On

    prsente le premier vecteur dentre. Une fois la sortie du rseau, lerreur correspondante et

    le gradient de lerreur par rapport tous les poids est calcule, les paramtres sont ajusts

    dans la direction oppose celle du gradient de lerreur. On refait la mme procdure pour

    tous les exemples dapprentissage. Ce processus est rpt jusqu ce que les sorties du

    rseau soient suffisamment proches des sorties dsires.

    I .10.4 Adaptation des poids

    Pour un ensemble de poids donn, il est facile de calculer la sortie )(tY et lerreurE(t)

    correspondant une entre X (t), en utilisant les quations (I.4)-(I.10). Les paramtres du

    rseau sont alors ajusts par la mthode de gradient en utilisant la formule itrative :

    )()1()( nWnWnW kijkijkij (I.11)

    )()(

    nW

    EnW

    k

    ij

    k

    ij

    (I.12)

    Ou est un constant appel facteur ou pas dapprentissage. n Est le numro de litration.

    La vitesse de convergence dpend de la constant .

    Sa valeur est gnralement choisie exprimentalement. Si est trop petit la convergence est

    lente mais la direction de descente est optimale. Si est trop grand la convergence est

    rapide mais la prcision est mdiocre, un phnomne doscillation intervient ds quon

    approche du minimum. La drive de lerreurE par rapport au poids )(nWkij est donne par :

    T

    tk

    ij

    k

    ij nW

    tE

    nW

    E

    1 )(

    )(

    )(

    (I.13)

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    20/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 20

    Avec

    )()()(

    )( 1 tOtnW

    tE ki

    k

    ik

    ij

    (I.14)

    O )(tki est lerreurquivalente la sortie du neurone i de la couche k, pourles neurones des

    couches de sortie :

    )]()()][([')( 111 tYtYtSft id

    iii (I.15)

    Pour les neurones des couches caches :

    1

    1

    11 )()()]([')(kn

    j

    k

    ij

    k

    j

    k

    i

    kk

    i nWttSft (I.16)

    Pour minimiser lerreur totale E sur lensemble dentranement, les poids du rseau doivent

    tre ajusts aprs la reprsentation de tous les exemples. Cependant on peut ajuster les poids

    aprs la reprsentation de chaque exemple, les corrections sont assez faibles et la

    minimisation de E (t) est une bonne approximation de la minimisation de E, lquation (I.12)

    est remplace par :

    )(

    )()(

    nW

    tEnW

    k

    ij

    k

    ij

    (I.17)

    Alors on :

    1)()1( kik

    i

    k

    ij

    k

    ij OnWnW (I.18)

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    21/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 21

    I.10.5 Algorithme

    Etape 1: Initialiser les poids ijW et les biais des neurones des petites valeurs alatoires.

    Etape 2: Prsenter le vecteur d'entre et de sortie dsirs correspondants.Etape 3: Calculer :

    1- La somme des entres des neurones d'une couche cache : Eq.(I.4).

    2- Les sorties des neurones de la couche cache : Eq.(I.8).

    3- La somme des entres de la couche de sortie : Eq.(I.4).

    4- Les sorties du rseau : Eq.(I.8).

    Etape 4: calculer :

    1- Les termes de lerreur pour les neurones de la couche de sortie : Eq.(I.15)

    2- Les termes de lerreur pour les neurones de la couche cache : Eq.(I.16)

    Etape 5 : Ajuster :

    1- Les poids de la couche de sortie et la couche cache: Eq.(I.18)

    Etape 6 : Si la condition sur l'erreur ou sur le nombre d'itration est atteinte, aller l'tape 7,

    si non revenir l'tape 3 jusqu' la stabilisation du systme.

    Etape 7 : Fin.

    I.10.6 Techniques dacclration de la r tr opropagation

    Si bien que lalgorithme de rtropropagation soit lalgorithme le plus utilis pour

    lapprentissage supervis des rseaux multicouche son implantation se heurte aux plusieurs

    difficults techniques. Il nexiste pas de mthodes permettant de :

    - Trouver une architecture approprie (nombre de couches caches, nombre de neurones

    cachs et connexions).

    - Choisir une taille et une qualit adquate des exemples dentranement, choisir des valeurs

    initiales satisfaisantes pour les poids, et des valeurs convenables pour les paramtres

    dapprentissage (facteur dapprentissage) permettant dacclrer la vitesse de convergence.

    - viter les effets de lentranement (dgradation des performances due un entranement

    prolong) et la convergence vers un minimum local.

    Pour trouver une architecture approprie (nombre de neurones cachs), Ash a propos une

    approche daddition interactive de neurones dans la quelle on ajoute des neurones aux couches

    caches pendant lapprentissage. Un neurone est ajout chaque fois que lerreur se stabilise

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    22/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 22

    un niveau inacceptable. Cette technique sappelle la technique de cration dynamique de

    neurones (DNC : Dynamic Node Creation).

    Pour viter le problme des oscillations, beaucoup dauteurs modifient lalgorithme en lui

    ajoutant un moment

    La loi dadaptation devient :

    )()()()1( nWnWnWnW kijk

    ij

    k

    ij

    k

    ij (I.19)

    ))1()(()()1( 1 nWnWOnWnW kijk

    ij

    k

    i

    k

    i

    k

    ij

    k

    ij (I.20)

    Avec

    10

    I .11 Le mini mum l ocal

    Le fait que l'apprentissage utilise un principe de descente de gradient sur la surface

    d'erreur pour modifier les poids. Malheureusement il est possible de tomber dans desminimums locaux. Le rseau de neurones est une mthode qui se base sur le calcul de la

    surface derreur. La forme obtenue daprs lquation de lerreur est sous forme dune

    convexe et en cherchant minimiser lerreur, la solution tend vers le minimum. Le problme

    qui se pose dans ce cas, cest quil peut y avoir un ou plusieurs minimum s locaux induisant

    ainsi notre rseau en erreur [9][10][16] vue que si on a deux rseaux avec les mme

    paramtres, il se peut que lapprentissage de lun soit meilleur que celui du second [9].

    Des mthodes sont suivre afin dviter les minima locaux :

    - Modifier le pas dapprentissage du rseau pour pousser le rseau hors des minima locaux.

    - Rduire les poids du rseau par une petite quantit chaque pas dapprentissage.

    Lactivation dun neurone sature quand ses liens possdent de trop grands poids synaptiques.

    Ce problme est difficile rsoudre lors de lapprentissage, car les valeurs dactivation

    extrmes se traduisent souvent au niveau de la rtro-propagation par de petites corrections. Le

    rseau se trouve alors dans un minimum local. Rduire systmatiquement tous les poids par

    une petite valeur chaque correction contribue garder les petits poids synaptiques, et peutrsoudre ce problme.

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    23/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 23

    - Relancer lapprentissage plusieurs fois en utilisant des poids initiaux diffrents, ce qui

    entrane un temps de calcul plus lev [12].

    - Ajouter une dose de bruit alatoire aux poids du rseaux, puis relancer lapprentissage,

    dans le but de dloger le rseau hors de bassins peu profonds [8][12][13].

    I .12 Quelques appl ications des r seaux de neurones

    Les proprits dapplication et dapproximation des rseaux de neurones ont permis une

    importante application de ces derniers dans les diffrentes domaines pratiques, notamment, les

    domaines suivants :

    I .12.1 Classif ication des signaux

    Classer des signaux dans des catgories diffrentes en fonction des caractristiques de

    forme (amplitude, frquence, phase, etc...), peut tre ralis aisment par lutilisation d'un

    rseau de neurones.

    Supposons qu'on a deux catgories de signaux A et B et qu'on souhaite classer des formes

    dans ces deux catgories en fonction des caractristiques de ces formes.

    On peut simplement dfinir la fonction non linaire F qui vaut +1 pour les formes de la

    classe A et -1 pour celles de la classe B, le problme de classification revient lapproximation

    Minimumglobal

    dpart alatoire des wi

    Minimumlocal

    Figure (I.13) Courbe explicative du phnomne du minimum local

    Fonction derreur

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    24/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 24

    de la fonction non linaire F qui peut tre rsolue par un rseau de neurones qui possde des

    entres et une seule sortie pour fournir la dcision [15].

    I .12.2 Applications industri ell es

    Les dbouchs commerciaux des techniques neuronales (en chiffre daffaires ou en parts

    de march) se trouvent surtout dans des produits logiciels et matriels dusage gnral, et plus

    encore dans des prestations de service, alors que la part usage interne des entreprises (cest-

    -dire les dveloppement destins amliorer des mthodes ou des produits) est beaucoup

    plus difficile estimer. La part de march des applications militaires est importe, et on peut

    lestimer approximativement (avec prudence, tant donn que les informations sont

    incertaines) entre un tiers et la moiti de lensemble.

    Il est difficile de dresser un panorama exhaustif des applications des rseaux de neurones,

    pour plusieurs raisons. Dune part, les applications potentielle de certains types de rseaux

    dcrits dans ce chapitre (en particulier les rseaux multicouches) sont si vastes et si diverses

    quelles recouvrent des domaines trs varis, ayant par ailleurs peu de choses en commun.

    Dautre part, la pntration des techniques utilisant les rseaux de neurones, seuls ou en

    association avec dautres techniques, est trs ingale, et se trouve dans une phase dexpansion

    et de diversification. Enfin, beaucoup des ralisations connues sont plus souvent dans un tat

    de prototype quen exploitation vritable.

    Plutt que de procder une numration dexemples prcis dont la viabilit et lutilisation

    relle peuvent tre incertaines ou imprcises, il nous a sembl plus appropri de tenter une

    prsentation sommaire en suivant grossirement deux axes diffrents : par classe

    dapplication, en premier lieu, par domaine dactivit ensuite [16].

    Dans le monde, et en particulier aux U.S.A., lintrt pour les rseaux de neurones a

    dmarr plus tt. Ds 1986, de 600 2000 visiteurs participent aux quelques grands congrsannuels. Au niveau commercial, la figure (I.14) montre que plus de 200 compagnies sont

    aujourdhui impliques dans des dveloppements dapplications connexionnistes [1].

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    25/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 25

    I .12.2.1 Reconnai ssance de formes statiques

    Citons en premier lieu la reconnaissance de formes statiques (cest--dire indpendantes

    du temps). De faon gnrique, une forme est tout ensemble de grandeurs qui peut se

    reprsenter par un vecteur, ayant des composantes homognes ou non. Par exemple, une

    image peut tre mise sous forme dune succession de pixels, rsultant dun balayage, ou bien

    un cho sonar peut tre reprsent par une succession de pics frquentiels en fonction de

    linstant de retour, etc. le traitement dimages proprement dit fait videment partie intgrante

    de la reconnaissance de formes en gnral. Des applications civiles (par exemple

    reconnaissance de visages) aussi bien que militaires (reconnaissance de cibles) ont t dcrites

    avec plus ou moins de dtails. Une des applications les plus tudies consistes dans la

    reconnaissance de signes manuscrits, en particulier les chiffres, en vue de la reconnaissance de

    codes postaux. Les laboratoires AT & T de Holmdel ont mis au point un systme assez

    complexe, mais efficace, dont le cur est un rseau cinq couches poids partags, prcd

    dun systme de prtraitement et de normalisation. Une partie de ce rseau est constitue par

    un circuit intgr spcialement conu, contenant quatre des cinq couches, et 130 000

    connexions. Les performances atteignent 1000 caractres par seconde pour la puce seule, bien

    suprieure celles du systme complet, et slvent seulement 20 caractres par seconde

    pour une implantation sur un processeur plus gnraliste. Dautres ralisations (accompagnes

    ou non de circuits intgrs spcifiques) ont t annonces dans le domaine de la lecture

    automatique de caractres imprims, en alphabet romain comme en alphabet japonais [16].

    1960 1985 1987 Anne

    Figure (I.14) Evolution du nombre de compagnies proposant

    des produits connexionnistes

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    26/27

    Chapitre I Les Rseaux de Neurones Artificiels

    Electrotechnique Msila 2006 26

    I .12.2.2 I denti fi cation et commande de processus

    Lidentification et la commande de systmes complexes (incluant la robotique) sont un

    domaine o les rseaux de neurones prennent une place croissante : aide au pilotage de

    racteurs chimiques ou de colonnes distiller, commande dune automobile sans pilote ayant

    pour consigne de suivre une certaine trajectoire en terrain accident, commande de niveau de

    lingotire dans une acire coule continue, les applications se multiplient. En gnral, elles

    ne demandent que des ressources assez modestes, dans la mesure o les temps caractristiques

    sont relativement longs : une simple simulation sur micro-ordinateur suffit trs souvent en

    phase dexploitation, lutilit des rseaux de neurones se mesure galement dans ce domaine

    par lassez grande rapidit de mise en uvre initiale, cest--dire lidentification par

    apprentissage.

    Mentionnons que les techniques de commande logique floue peuvent faire appel aux

    rseaux de neuronespour lapprentissage des rgles [16].

    I .12.2.3 Appli cation mil itair es

    Bien que naturellement les publications soient relativement rares et que peu de dtails

    soient donns, les applications militaires classiques se retrouvent en reconnaissance decibles, analyse dimage, traitement de signaux radar ou sonar, et dans une certaine mesure en

    robotique. Le dernier circuit intgr dIntel (qui est un acclrateur de reconnaissance ,

    selon ses propres termes) a t financ pour moiti sur crdits militaires, hauteur denviron

    1,5 million de dollars $. Ce circuit implante une architecteur de type RBF (mesure des

    distances entre stimulus prototypes), dveloppe par la socit Nestor [16].

  • 7/28/2019 unknown_Les_rseaux_de_neurones__

    27/27

    Chapitre I Les Rseaux de Neurones Artificiels

    I.13 Conclusion

    A partir du comportement du cerveau humain et dun modle neuronal biologique

    simple, les chercheurs ont arriv construire des modles neuronaux artificiels plus

    complexes. Les rseaux de neurones prsentent donc une trs grande diversit, dans ce

    chapitre nous avons expos les rseaux de neurones, en spcifiant leurs dfinitions, les

    concepts de base de cette technique, lapprentissage des rseaux de neurones et ses diffrents

    domaines dutilisation.

    Nous avons prsent une tude sur lalgorithme du rtropropagation qui a prouv son

    efficacit dans la pratique avec ses capacits dapprentissage et didentification.

    Pour ces raisons, cet algorithme sera la base du travail qui sera prsent dans le prochain

    chapitre qui traite lidentification et la commande par les rseaux de neurones.